
Die weitere Entwicklung von KI-Sprachmodellen, die leistungsfähiger sind als das kürzlich lancierte GPT-4, soll für mindestens sechs Monate gestoppt werden. Das fordern Elon Musk und zahlreiche weitere prominente Stimmen aus der KI-Industrie und -Forschung in einem Ende März publizierten offenen Brief. Die Notbremse also.
Viel wurde seither über den Brief geschrieben, und Tausende haben ihn inzwischen unterzeichnet – der schale Beigeschmack aber bleibt. Das hat nicht nur damit zu tun, dass das Future of Life Institute, auf dessen Website das Schreiben veröffentlicht wurde, dem sogenannten Longtermismus verpflichtet ist. Für den Longtermismus bilden das schiere Überleben der Menschheit und ihre Lebensbedingungen auf sehr lange Sicht den zentralen Gesichtspunkt für die Bewertung aktueller ethischer Herausforderungen.
Das führt dazu, dass der Kampf gegen hypothetische Bedrohungen in der fernen Zukunft rasch Vorrang gewinnt gegenüber den tatsächlichen Herausforderungen im Hier und Jetzt. Diese aber gälte es mit Blick auf Chat-GPT und seine Konkurrenten im Auge zu haben. Dass der offene Brief zur dringend notwendigen Debatte um die neuen Kapazitäten der generativen KI anregt, gilt es anzuerkennen. Und gewiss sind vor allem die Probleme im Bereich der Desinformation, auf die der Brief aufmerksam macht, keinesfalls kleinzureden.
Wo aber gibt es andere Branchen, denen man zugesteht, so viele Risiken aufs Mal einzugehen, die Nutzende, das Gemeinwohl und die Demokratie zugleich betreffen?
Indem er jedoch vor allem Risiken aus dem Science-Fiction-Bereich aufgreift, droht der Brief von den entscheidenden Fragen abzulenken. Schlimmstenfalls blockiert er so das begrenzte Zeitfenster für die falsche politische Diskussion. Dazu gehört, dass die zentrale Massnahme, die der Brief vorschlägt – ein Moratorium, das die Staaten verordnen müssten, wenn die Industrie nicht von sich aus mitzieht –, nicht nur realitätsfern wirkt, sondern auch ein befremdliches Verständnis demokratischer Prozesse und Entscheidungswege offenbart.
Von der öffentlichen Debatte, die der Brief mit anregen will, fehlt plötzlich jede Spur. Vor allem aber wäre der Brief glaubwürdiger, würde er das noch immer geltende Paradigma hinterfragen, wie digitale Innovationen auf den Markt gebracht werden. Wie wir es gegenwärtig bei den KI-Sprachmodellen beobachten können, werden solche Innovationen möglichst rasch entwickelt und gleichsam live mit einer breiten Öffentlichkeit getestet – und erst im Nachhinein wird versucht, Schwachstellen zu beheben. Dieses Muster wiederholt sich, von den schädlichen Auswirkungen von Tiktok auf Teenager bis hin zu den Risiken automatisch erzeugter Fake News durch generative KI.
Wo aber gibt es andere Branchen, denen man zugesteht, so viele Risiken aufs Mal einzugehen, die Nutzende, das Gemeinwohl und die Demokratie zugleich betreffen? Allzu oft erlaubt dies den Unternehmen, die Verantwortung auf die Schultern der Nutzenden zu schieben. Es ist davon auszugehen, dass sich das auch im Fall der generativen KI wiederholen wird. Und womöglich werden sich Entwicklerinnen und Entwickler sogar zur gern verbreiteten Behauptung versteigen, dass ihr Produkt neutral und objektiv sei und dass erst die Art seiner Verwendung ethisch bedeutsam sei. Das mag bisweilen so erscheinen – auf KI-Sprachmodelle wie Chat-GPT trifft es gewiss nicht zu.
Johan Rochel und Jean-Daniel Strub sind Co-Gründer und Co-Geschäftsführer von Ethix – Lab für Innovationsethik in Zürich.
Fehler gefunden?Jetzt melden.
Gastbeitrag zu künstlicher Intelligenz – Wir müssen die wahren Risiken von Chat-GPT benennen
Elon Musk und andere wollen die Entwicklung von Programmen mit künstlicher Intelligenz vorübergehend stoppen. Das ist falsch. Besser würden sie sich bemühen, an der Tatsache etwas zu ändern, dass die Entwickler die Verantwortung auf die Nutzenden abwälzen.