OpenAI zamyka irańską kampanię, która nadużywała ChatGPT do tworzenia fałszywych artykułów.

Autor: Nastya Bobkova | 17.08.2024, 02:49
OpenAI zamyka irańską kampanię, która nadużywała ChatGPT do tworzenia fałszywych artykułów.

OpenAI ogłosiło udane przerwanie kampanii kierowanej przez Irańczyków, która wykorzystywała ChatGPT do tworzenia fałszywych wiadomości i postów w mediach społecznościowych. Organizacja, znana jako Storm 2035, rozpowszechniała polaryzujące wiadomości na pięciu stronach internetowych skierowanych do odbiorców w USA.

Co wiemy

Firma zidentyfikowała i zablokowała konta, które rozpowszechniały dezinformację na tematy takie jak wybory prezydenckie w USA, prawa osób LGBTQ+ i wojna w Strefie Gazy. Operacja obejmowała również konta na X i Instagramie, które jednak nie osiągnęły znaczącego wpływu, ponieważ większość postów uzyskała minimalną liczbę wyświetleń i polubień.

OpenAI oceniło zagrożenie na poziomie 2 w skali Brookings Institution, co wskazuje na ograniczony wpływ kampanii.

Treści zawierały fałszywe wiadomości na temat Donalda Trumpa i Kamali Harris, igrzysk olimpijskich, Wenezueli, praw Ameryki Łacińskiej i niepodległości Szkocji. Kampania dodała również komentarze na temat mody i urody, prawdopodobnie w celu zwiększenia autentyczności.

Sprawa pojawiła się po doniesieniach o irańskim cyberataku na kampanie Harris i Trumpa, który obejmował phishing. FBI stwierdziło, że w tym czasie nie było dowodów na atak na kampanię Harris.

Źródło: Bloomberg