Experte warnt vor Erstarken von "Schurken-KIs"
Dass zukünftige Systeme eine existenzielle Bedrohung für die Menschheit darstellen würden, sei nicht zwangsläufig so, aber "beim derzeitigen Stand der Technik ist eine Gefährdung der Demokratie, der nationalen Sicherheit und der Verlust der Kontrolle an übermenschliche KI-Systeme sehr plausibel. Das ist keine Science-Fiction", so Bengio, Professor an der Universität Montréal (Kanada) und Vorreiter im Bereich Deep Learning, also dem Training mit großen Datenmengen zur Lösung komplexer Aufgaben, gegenüber der APA. Umso bedeutender sei es, sich auf die möglichen Risiken vorzubereiten.
Aktuell werde viel über Deepfakes, das sind realistisch wirkende Stimmen, Bilder oder Videos, die mittels KI erstellt oder bearbeitet werden, diskutiert - etwa im Hinblick auf die Manipulation von Wahlen. Größere Sorgen machen dem kanadischen Experten Dialogsysteme, die eingesetzt werden, Menschen zu überzeugen. "Es gibt bereits einige Studien, die darauf hindeuten, dass sie vergleichbare oder bessere Leistungen erbringen als Menschen, wenn es darum geht, jemanden dazu zu bringen, seine Meinung zu einem bestimmten Thema zu ändern", sagte Bengio. Die Interaktionen könnten dabei für jede Person individuell gestaltet werden.
Sicherheitsbehörden in aller Welt würde wiederum die leichte Verfügbarkeit von Wissen zu denken geben. "Die Systeme könnten missbraucht werden, alle Arten von Waffen zu entwerfen oder zu bauen", so Bengio, der 2018 zusammen mit Geoffrey Hinton und Yann LeCun mit dem Turing Award, einer der in der Informatik höchst angesehenen und prestigeträchtigsten Auszeichnungen, geehrt wurde. Die Palette reiche von Cyberangriffen bis hin zu biologischen und chemischen Waffen. Es herrsche Sorge darüber, dass KI-Unternehmen nicht über ausreichende Sicherheitsvorkehrungen verfügen.
Natürlich gebe es auch immense Vorteile und Chancen durch KI, das sei gar nicht das Thema. "Aber wenn es Terroristen dadurch leichter gemacht wird, wirklich schlimme Dinge zu tun, dann müssen wir Entscheidungen mit Bedacht treffen. Und es sollte nicht der CEO eines Unternehmens sein, der diese Entscheidungen trifft", sagte der Experte, der gestern, Dienstagabend, auch einen Vortrag im Rahmen der Feierlichkeiten zum 20-jährigen Jubiläum der Fakultät für Informatik und zum 50-jährigen Jubiläum der Informatik-Lehre an der Universität Wien gehalten hat.
Am beängstigenden sei aber der mögliche Kontrollverlust an übermenschliche KI-Systeme, die sich außerhalb des Computers, auf dem sie laufen, verbreiten, zudem lernen könnten, Menschen zu manipulieren, und letztendlich vielleicht sogar selbst Roboter oder andere industrielle Geräte steuern. Wenn es gelinge, KI-Systeme zu entwickeln, die smarter sind als die Menschen und ein "Selbsterhaltungsziel" verfolgen, "dann ist das so, als ob wir eine neue Spezies erschaffen - und das ist keine gute Idee. Zumindest bis wir die Folgen besser verstehen. Wie groß das Risiko ist, weiß niemand. Aber das ist ein Teil des Problems", erläuterte Bengio.
Wie schnell sich die Technologie in diese Richtung weiterentwickeln werde, sei umstritten. Schätzungen würden zwischen drei Jahren und mehreren Jahrzehnten schwanken. Die aktuell massiven Investitionen könnten den Prozess jedenfalls beschleunigen. Relevant sei letzten Endes nur, "die Risiken in den Griff zu bekommen und dabei zu berücksichtigen, dass, wenn es schnell gehen muss, es zu spät sein könnte, die richtigen Rechtsvorschriften und internationalen Verträge zu schaffen".
Einen Ansatz, dieser Bedrohung entgegenzuwirken, sieht Bengio darin, ein multilaterales Netzwerk von öffentlich finanzierten, gemeinnützigen KI-Laboren aufzubauen, die sich auf das mögliche Auftauchen von abtrünnigen KI-Systemen vorbereiten. Im Fall der Fälle könnte dann eine sichere und defensive KI dagegen eingesetzt werden. Eine kooperative Gruppe von Demokratien sollte gemeinsam an der Gestaltung mitwirken, weil sich die möglicherweise negativen Auswirkungen der KI nicht an Grenzen halten würden. Entsprechende Verteidigungsmethoden und viele Aspekte der Forschung daran müssten vertraulich behandelt werden, um es der "Schurken-KI" zu erschweren, die neuen Abwehrmaßnahmen zu umgehen, wie er auch in einem Artikel im "Journal of Democracy" empfiehlt.
Die größte Wirkung hätte eine KI-Regulierung, bei der die Entwickler nachweisen müssten, dass die KI-Systeme sicher sind und die Kontrolle nicht verloren gehen könne. "Im Moment weiß niemand, wie man das macht. Aber wenn man so etwas vorschreibt, würden die Unternehmen, die ja das Geld und das Talent haben, schon jetzt viel mehr Forschung betreiben, um sichere Systeme zu bauen, und ihre Energie in den Schutz der Öffentlichkeit stecken", so der Experte. Ein Unternehmen, das neue Medikamente herstelle, müsse schließlich auch wissenschaftlich nachweisen, dass die Anwendung sicher sei. Diese Anstrengungen gebe es in der KI-Industrie aber nicht, weil es im harten Wettbewerb keine Priorität habe.
Letztendlich gebe es noch zahlreiche Herausforderungen im Hinblick auf das wissenschaftliche Verständnis von KI-Sicherheit, aber auch die politische Verantwortung sicherzustellen, dass beim Bau einer sicheren KI, sobald das möglich ist, entsprechende Protokolle befolgt werden. Nur so sei zu erreichen, "dass keine einzelne Person, kein einzelnes Unternehmen und keine einzelne Regierung diese Art von Macht missbrauchen kann", so Bengio.
(S E R V I C E - Artikel im "Journal of Democracy": https://www.journalofdemocracy.org/ai-and-catastrophic-risk/)
Zusammenfassung
- Yoshua Bengio, Informatiker und Turing-Preisträger, warnt vor dem Risiko durch übermenschliche KI-Systeme, die die Demokratie und nationale Sicherheit gefährden könnten.
- Bengio schlägt vor, ein Netzwerk von unabhängigen, multilateralen KI-Laboren zu gründen, um sich auf das Auftreten von Schurken-KIs vorzubereiten.
- Er äußert Bedenken über KI-gestützte Dialogsysteme, die Menschen manipulieren könnten, und die Möglichkeit, dass KIs für die Entwicklung von Waffen missbraucht werden.
- Die Notwendigkeit strikter Regulierungen wird betont, um sicherzustellen, dass KI-Systeme kontrollierbar bleiben und nicht in falsche Hände geraten.
- Bengio empfiehlt, die Forschung an sicheren KI-Systemen zu intensivieren und betont die politische Verantwortung, umfassende Sicherheitsprotokolle zu implementieren.