"Horrorstory"
Klage: ChatGPT behauptet, Vater hätte eigene Kinder ermordet
KI-Entwickler wie der derzeitige Platzhirsch OpenAI lukrieren Milliarden an Investorengeldern mit der Behauptung, eine "Künstliche Intelligenz" zu entwickeln. Tatsächlich sind Chatbots wie ChatGPT nicht intelligent und verstehen gar nicht, was sie ausspucken. Sie geben nur Kombinationen aus Textbausteinen wieder, die sich aus ihrer Datengrundlage speisen - mit potenziell verheerenden Folgen.
Der norwegische Familienvater Arve Hjalmar Holmen wollte von ChatGPT wissen, was das Programm an Informationen über ihn ausspuckt und fragte nach seinem eigenen Namen. ChatGPT behauptete über ihn, er hätte zwei seiner drei Kinder ermordet und auch versucht, das dritte Kind zu töten.
-
Mehr lesen: Google jetzt auch offen für KI-Waffen
Diese ungeheuerliche Behauptung erweckt durch die korrekte Nennung seines Heimatortes und der Namen sowie des jeweiligen Geschlechts und Alters seiner Kinder den Anschein, wahr zu sein.
Datenschutzbeschwerde
Gegen diese schwer rufschädigende Verleumdung durch die "Künstliche Intelligenz" legte der Datenschutzverein NOYB ("None Of Your Business"; dt.: "Geht dich nix an") des Wieners Max Schrems für den Norweger Datenschutzbeschwerde ein. Die europäische DSGVO-Richtlinie enthält nämlich einen Grundsatz zur Datenrichtigkeit. Persönliche Daten müssen nicht nur vertraulich behandelt, sondern es dürfen auch keine falschen oder verleumderischen Behauptungen verbreitet werden.
Mehr lesen: "Bitte stirb": Antwort von Google-KI schockt - sollte sie aber nicht
OpenAI hat reagiert, ChatGPT spuckt die Behauptung aktuell nicht mehr aus. Die Falschinformation komplett aus dem System zu löschen, wie NOYB fordert, dürfte technisch schwierig bis unmöglich sein. Technisch ist es nur möglich, dem Chatbot bestimmte Verknüpfungen, also Antworten oder Themen, zu untersagen.
Welche Gefahren bergen KI-Waffensysteme?
Immer wieder teils folgenschwere "Halluzinationen"
Eine bei ChatGPT abgefragte Information kann richtig sein, es kann sich aber auch um erfundene Aussagen oder um eine Kombination aus einigen Fakten mit völlig erfundenen Behauptungen handeln. Die Entwickler sprechen etwas euphemistisch von "Halluzinationen".
Doch die angebliche "Künstliche Intelligenz" kann nicht zwischen wahren und falschen Aussagen unterscheiden - und wird es auch nie können. Das Marketing der milliardenschweren Chatbots vermittelt Nutzern aber, dass dies der Fall wäre. Um so folgenschwerer können verleumderische Aussagen über reale Menschen sein.
Seit dem Start verschiedener Chatbots gab es bereits mehrere solcher Fälle:
- Bereits Monate nach dem Start von ChatGPT drohte ein australischer Bürgermeister mit einer Klage, weil der Chatbot ihm eine Haftstrafe andichtete.
- Etwa zur gleichen Zeit sagte das Programm einem echten Rechtsprofessor in den USA einen erfundenen Belästigungsskandal nach.
- Microsofts Chatbot Copilot wiederum vermischte einen deutschen Gerichtsreporter mit den Fällen, über die er berichtete und schrieb die von ihm berichteten Straftaten ihm selbst zu.
Warnhinweis reicht nicht
Die Anbieter betonen in einem Warnhinweis, dass ChatGPT keinen Anspruch auf Richtigkeit der ausgespuckten Aussagen erhebt. Die Datenschützer von NOYB argumentieren aber, dass das als Haftungsausschluss nicht reicht.
"Ein Warnhinweis, dass man das Gesetz nicht befolgt, bedeutet nicht, dass das Gesetz dadurch nicht trotzdem greift", so der NOYB-Datenschutz-Anwalt Kleanthi Sardeli gegenüber dem Online-Portal "Ars Technica".
Woher kommen eigentlich die Daten?
Eine weitere große Frage für die Datenschützer: Woher hat ChatGPT überhaupt die faktisch richtigen Informationen über Arve Hjalmar Holmen und seine Kinder? Chatbots können ihre Aussagen nur aus eingespeisten Texten kombinieren.
Die Datengrundlage - also woher die Texte für das "Training" der KI stammen - ist bei allen Entwicklern ein streng gehütetes Geheimnis. Das liegt wahrscheinlich daran, dass bei der Auswahl und Verwendung grundsätzlich sämtliche Urheberrechte sowie Datenschutz verletzt wurden.
Sollte die Datenschutz-Klage von NOYB Erfolg haben, kommen auf KI-Anbieter wohl noch einige rechtliche Schwierigkeiten zu, solange sie ihr System nicht an EU-Regeln anpassen.
Fakt oder Fake: KI-Videos im Wahlkampf
Zusammenfassung
- Der bekannte Chatbot ChatGPT behauptet über einen norwegischen Familienvater, er hätte zwei seiner Kinder ermordet und zu 21 Jahren Haft verurteilt worden.
- Die groteske Verleumdung wirkt um so wahrer, da der Chatbot sie mit tatsächlichen Fakten wie Namen und Alter der Kinder vermischte.
- Der Datenschutzverein NOYB von Max Schrems hat deshalb Datenschutzbeschwerde eingelegt.
- Es ist nicht die erste "Halluzination" der vermeintlichen "Künstlichen Intelligenz", die schwer verleumderisch ist.
- Die angebliche KI ist nämlich entgegen der Marketing-Behauptungen nicht intelligent und kann grundsätzlich nicht zwischen wahren und falschen Behauptungen unterscheiden.