KI-Forscher: Lieber Atomkrieg als unkontrollierte KI
"Wenn jemand eine zu mächtige KI baut, erwarte ich unter den derzeitigen Bedingungen, dass jedes einzelne Mitglied der menschlichen Spezies und alles biologische Leben auf der Erde kurz darauf stirbt" - mit diesen Worten schlägt der KI-Forscher Eliezer Yudkowsky in einem Gastbeitrag des "Time"-Magazins Alarm.
Auslöser war ein offener Brief mit über 3.000 Unterstützern, der eine sechsmonatige Pause bei der Entwicklung von noch leistungsfähigerer KI gefordert hatte. Unterstützer dieses offenen Briefs sind unter anderem Tesla- und Twitter-Boss Elon Musk, Apple-Mitgründer Steve Wozniak und eine Vielzahl von Uni-Professor:innen.
Entwicklungs-Pause reicht nicht aus
Eine Pause von ein paar Monaten sei laut Yudkowsky jedoch nicht genug. Vor 60 Jahren sei KI das erste Mal in der Wissenschaft diskutiert worden. Um die Sicherheit von "übermenschlicher Intelligenz" zu gewährleisten, bräuchte es laut dem KI-Forscher gut und gerne halb so lange.
"Wir sind nicht vorbereitet", gibt Yudkowsky zu bedenken und führt fort: "Die Fortschritte bei den KI-Fähigkeiten liegen weit, weit vor den Fortschritten bei der KI-Anpassung oder sogar vor den Fortschritten beim Verständnis dessen, was zum Teufel in diesen Systemen vor sich geht. Wenn wir das tatsächlich tun, werden wir alle sterben."
Trainings-Stopp von KI mit Atomwaffen kontrollieren
Statt einer Pause fordert er einen umfassenden Stopp der Entwicklung noch mächtigerer Künstlicher Intelligenz. Yudkowsky geht sogar noch weiter. Um diesen Trainings-Stopp sicherzustellen, sollte die Gemeinschaft bereit sein, "ein abtrünniges Rechenzentrum durch einen Luftangriff zu zerstören".
In der internationalen Diplomatie solle deutlich gemacht werden, "dass die Verhinderung von KI-Auslöschungsszenarien Vorrang vor der Verhinderung eines vollständigen nuklearen Austauschs hat und dass die verbündeten Nuklearstaaten bereit sind, ein gewisses Risiko eines nuklearen Austauschs einzugehen".
Selbstbewusste KI: "Niemand weiß es"
Viele Befürworter versuchen momentan zu beruhigen, dass aktuelle Generationen künstlicher Intelligenz kein Selbstbewusstsein haben. Vielmehr würden sie anhand ihrer Trainings-Daten berechnen, was der Nutzer vor dem Bildschirm als Antwort haben möchte - mit größtmöglicher Wahrscheinlichkeit.
Für Yudkowsky ist das allerdings nur eine vorübergehende Ausrede. Die aktuelle Generation des Sprachmodells GPT-4 kann bereits um ein Vielfaches mehr als ihre Vorgängerversion. Sollte der Evolutionsschritt auf GPT-5 ähnlich groß ausfallen, könnte man nicht mehr sagen, ob das System ein Bewusstsein entwickelt: "Ich denke, wir können nicht mehr mit Fug und Recht sagen: 'Wahrscheinlich nicht selbstbewusst', wenn wir die Leute GPT-5 herstellen lassen. Dann heißt es nur noch 'Ich weiß es nicht, niemand weiß es'".
Zusammenfassung
- Künstliche Intelligenz sorgte in den letzten Monaten für reichlich Schlagzeilen - ein prominenter Forscher fordert nun in einer Brandrede: "Alles abschalten".
- Sogar Luftschläge und Atomwaffen hält er für eine bessere Alternative, als die KI unkontrolliert zu lassen.