Iran wollte ChatGPT für Einflussnahme auf US-Wahl nutzen
In ihnen hieß es zum Beispiel wahlweise, dass der republikanische Präsidentschaftskandidat Donald Trump zensiert werde - oder sich zum König erklären lassen wolle. Außerdem ging es der Mitteilung zufolge auch um den Gazakrieg, die Olympischen Spiele in Paris sowie Mode-Themen. Die für Beiträge in Online-Plattformen und für fingierte Artikel auf Webseiten generierten Texte hätten kaum Leser erreicht, betonte OpenAI.
ChatGPT kann in Sekundenschnelle Texte auf dem sprachlichen Niveau eines Menschen erzeugen. Schon seit einiger Zeit gibt es die Sorge, diese Fähigkeit könnte missbraucht werden, um in großem Stil Falschinformationen oder Propaganda günstig zu produzieren und zu verbreiten.
Zuletzt flogen mehrere ähnliche Aktionen auf. So stellte Microsoft im Juni fest, dass prorussische Accounts ein Fake-Video populär machen wollten, das angebliche Gewalt bei Olympia zeigte. Und bei Facebook wurden mehrere hundert Accounts aus dem Iran, Russland und China entdeckt, die zum Teil mit KI-Software erzeugte Falschinformationen verbreiteten. OpenAI hatte bereits im Mai mitgeteilt, dass Accounts unter anderem aus Russland und China die KI-Werkzeuge des Konzerns für Propaganda missbrauchen wollten.
Zusammenfassung
- Iranische Accounts nutzten ChatGPT, um Texte zur Beeinflussung der US-Präsidentenwahl zu erzeugen. OpenAI entdeckte und entfernte die Profile, ohne deren Anzahl zu nennen.
- Die generierten Texte sollten beide politische Lager in den USA ansprechen, erreichten jedoch kaum Leser. Beispiele beinhalteten Behauptungen über Donald Trump, den Gazakrieg und die Olympischen Spiele in Paris.