Kommt die Desinformationswelle im Superwahljahr 2024?
Die EU, Österreich, die USA oder auch Mexiko und Indien wählen dieses Jahr – insgesamt werden 2024 rund zwei Milliarden Menschen über ihre politischen Vertreter:innen abstimmen. Laut World Economic Forum ist das ein Viertel der Weltbevölkerung.
Politische Kampagnen verlagern sich immer stärker ins Internet, vor allem bei neuen Parteien. Damit wird auch ein Fenster für Desinformation und nun auch KI-Inhalte geöffnet – denn offizielle Infos und Falsch- oder Desinformationen bewegen sich auf denselben Plattformen und im Netz.
Was ist Desinformation?
Eine mögliche Definition von „Desinformation“ ist gezielt und offen gestreute Falschinformation mit dem Ziel, die öffentliche Meinung zu beeinflussen, oder die Wahrheit zu verschleiern.
"Fake News", Desinformation, Falschinformation – Negativ-Kampagnen im Vorfeld von politischen Wahlen sind keine neue Entwicklung. Im Laufe der Zeit haben sich die Kanäle verändert, auf denen Informationen gezielt gestreut werden.
Russische Desinformations-Kampagne im deutschen Internet
Im Jänner wandte sich das deutsche Außenministerium an die Öffentlichkeit: In den deutschsprachigen Sozialen Netzwerken (vor allem "X", vormals Twitter) wurde eine russische Desinformations-Kampagne wahrgenommen. Dabei würde gezielt gegen Unterstützung für die Ukraine im Krieg gegen Russland gewettert werden: Die Ukraine-Hilfe würde der landeseigenen Bevölkerung schaden, die Russland-Sanktionen der EU wären nicht treffsicher.
Auch hierzulande entdeckt man unter vielen Artikeln zum Thema Ukraine Kommentare, die sogenannte Desinformationsnarrative stützen: Es gehe immer darum, den Westen als schwach darzustellen und zu polarisieren. Prominente Narrative, die auch das Deutsche Innenministerium aufzeigt, sind unter anderem, dass die Ukraine-Hilfe der eigenen Bevölkerung schaden würde.
https://twitter.com/TalithaMer22670/status/1666540914926403585
Wie erkenne ich Desinformation?
"X"-Accounts, die dazu getweetet haben, haben oft verschiedene Dinge gemeinsam:
-
Usernamen mit langen Zahlen-Kombinationen.
-
Sie posten zwar einen grammatikalisch korrekten Satz, nur ergeben sie semantisch keinen Sinn
-
Derartige Accounts posten auch in verschiedenen Sprachen und zu verschiedensten Themen - mit polarisierenden Kommentaren.
-
Links zu alternativen "Medien" oder Nachrichtenkanälen (Telegram)
-
Im Impressum dieser Seiten offenbart sich meistens, ob sie seriös sind oder nicht - die "alternativen Medien" haben oftmals keines.
Die Rolle von AI/KI
Im aktuellen Superwahljahr ist die Sorge bei politischen Institutionen wie der EU groß. Vor allem Inhalte, die mittels künstlicher Intelligenz (KI oder AI, artificial intelligence) erstellt werden, verändern das Feld.
Verschiedenste journalistische Forschungseinrichtungen setzen spätestens seit dem Launch von ChatGPT Schwerpunkte zu AI-Tools, darunter auch das "Reuters Institute" an der Uni Ofxord und das "Nieman Lab", das zur US-Elite-Uni Harvard gehört. Deren Expert:innen kamen zum Schluss, dass AI zwar die Möglichkeit bietet, eine große Menge an Content zu erstellen, allerdings ist es nicht einfach, Menschen zu überzeugen.
Problem-Feld Audio-Fakes
Bemerkenswert sei, wie weit sich KI-Tools in einem Jahr qualitativ weiterentwickelt haben. Mittlerweile sind Bilder täuschend echt, Videos erschreckend realistisch, aber vor allem Audio-Inhalte sind auch für Expert:innen schwierig zu überprüfen.
-
Mehr zum Thema: Nur basierend auf Text: OpenAI erzeugt KI-Video
Mexiko wählt im Juni. Bereits Monate vorab wurde eine KI-Aufnahme des Bürgermeisters von Mexiko City veröffentlicht, der sich darin für einen Kandidaten einsetzen soll. Der mexikanische Fact-Checker Arturo Daen sprach gegenüber dem "Reuters Institute" davon, dass es für sein Team kaum feststellbar war, ob hier KI eingesetzt wurde oder nicht.
KI als Chance
Ganz anders ist die Sache in Indien: Hier setzt das Team von Premierminister Narendra Modi selbst auf KI in den Kampagnen. So werden seine Reden teilweise in sechs weiteren Sprachen zusätzlich zu Englisch und Indisch veröffentlicht – KI-generiert. Gleichzeitig sind Cover-Songs mit Modis Stimme in den Sozialen Medien beliebt.
Video: Fake AI-Video von Narendra Modi – Cover der K-Pop-Gruppe Fifty Fifty
Der Spaß hört dann auf, so der Pulitzer-AI-Fellow Srishti Jaswal gegenüber dem "Reuters Institute", wenn die Leute die Falsch- oder Desinformation nicht als solche wahrnehmen können.
Einerseits, wenn entsprechende Bildung fehlt, aber auch, wenn ehemals vertrauliche Quellen nicht mehr glaubwürdig sind. Prominentes Beispiel dafür ist "X", vormals Twitter.
Wie Elon Musk "Twitter" zur Desinformationsschleuder machte
"X", als es noch "Twitter" hieß, war eine wichtige Plattform für Politiker:innen und Kommunikator:innen. Durch den Algorithmus und User-Interaktionen wurden "wichtige" Informationen sichtbarer gemacht. 2022 warf die Übernahme von Tech-Unternehmer Elon Musk diese Ordnung über den Haufen.
Er führte auf der Plattform einen Bezahl-Service ein. Vormals wurden offizielle oder belegte journalistische Kanäle mit blauen Haken gekennzeichnet, heute kann man sich diese kaufen.
Ein daraus resultierendes Phänomen, so AI-Experte Jaswal, sei, dass junge Menschen Deepfakes generieren, um mit diesen oftmals viralen Videos dann auf "X" Geld zu verdienen.
Aber auch Desinformations-Accounts machen sich die neue verkehrte Welt auf "X" zu nutzen. So berichtete der britische "Guardian" bereits im August 2023 darüber, dass die erkauften Blue-Check-Mark-Accounts Twitter/X mit Falschinformationen überfluten.
Die Plattform "NewsGuard" sah in einer Analyse, dass diese verifizierten User nach dem Hamas-Angriff auf Israel 74 Prozent der viralen und falschen Aussagen zum Nahost-Konflikt verbreitet hatten.
Die Lösung?
Desinformation ist nicht neu - nur mit Bezahl-Reichweite, Unterwanderung von ehemals vertrauenswürdigen Quellen und AI stehen Demokratien weltweit vor neuen Herausforderungen. Der große Umbruch durch KI-Information ist, dass Soziale Medien mit diesen Meldungen geflutet werden können.
Journalismus-Forscher Daen hofft, dass die Presse bald mehr Zugang zu Tools bekommt, um Bearbeitung durch KI schnell und zuverlässig identifizieren zu können. Bis dahin rät er, über technische Entwicklungen zu berichten und vorsichtig mit Inhalten umzugehen, deren Entstehung Zweifel an ihrer Echtheit aufkommen lässt. Gegenüber dem "Reuters Institute" spricht er sich auch dafür aus, dass Desinformationskampagnen und deren Urheber ermittelt werden sollten.
Wichtig sei es auch, so viele Beobachter der Entwicklungen rund um AI und Desinformation, diese falschen oder unrichtigen Informationen nicht weiterzuverbreiten. Aber um auf Falsch-Inhalte nicht reinzufallen, muss man sie auch als solche erkennen.
Dabei hilft wiederum der Faktor Mensch – denn Algorithmen in den Netzwerken basieren vereinfacht gesagt darauf, dass User Beiträge liken und teilen. Geschieht das bei Desinformation – ob von Personen oder einer KI produziert – nicht, erreicht sie die Menschen nicht.
Zusammenfassung
- 2024 wählen rund zwei Milliarden Menschen in 50 Wahlen.
- Berichte über Desinformationen häufen sich und auch Künstliche Intelligenz (KI) wird als Gamechanger in der Kommunikationsbranche gehandelt.
- Denn noch nie war es so einfach, Falschinformationen in diesen Mengen herzustellen und zu verbreiten – zusätzlich boomt auch noch das Business mit den Deepfakes.
- Was tun?
- So erkennen Sie Desinformation und damit können sich Demokratien helfen.