OpenAI powstrzymało kampanię dezinformacyjną związaną z Iranem, która wykorzystywała ChatGPT do tworzenia fałszywych wiadomości.

Autor: Vlad Cherevko | 17.08.2024, 13:48

OpenAI poinformowało, że zakłóciło irańską kampanię wpływu, która wykorzystywała ChatGPT do tworzenia fałszywych wiadomości i postów w mediach społecznościowych skierowanych do Amerykanów.

Co wiadomo

Firma zidentyfikowała i zablokowała konta, które tworzyły treści dla pięciu stron internetowych, które udawały serwisy informacyjne i rozpowszechniały polaryzujące wiadomości na tematy takie jak kampania prezydencka w USA, prawa osób LGBTQ+ i wojna w Strefie Gazy.

Operacja, nazwana Storm 2035, była powiązana z irańskim rządem i obejmowała kilkanaście kont na X i jedno na Instagramie. OpenAI zauważyło, że operacja nie otrzymała znaczącego wsparcia, ponieważ większość postów nie otrzymała polubień, repostów ani komentarzy.

Operacja obejmowała również tworzenie treści na temat obecności Izraela na igrzyskach olimpijskich, polityki Wenezueli, praw społeczności Ameryki Łacińskiej i niepodległości Szkocji. OpenAI podkreśliło, że operacja próbowała grać po obu stronach rządu USA, ale nie otrzymała wsparcia od żadnej ze stron.

Źródło: Open AI