Apocalypse Now

 

Tech-Elite überbietet sich in KI-Katastrophenszenarien

 

Aus Tech-Vordenkern werden Kulturpessimisten. Ihre Warnung vor Künstlicher Intelligenz geriert sich humanistisch – verbirgt aber eine düstere Ideologie.

Jetzt auch noch Rishi Sunak. Er wolle ja keine Panik verbreiten, sagte der britische Premierminister jüngst auf dem ersten internationalen KI-Gipfel. Aber es spreche viel dafür, „dass Künstliche Intelligenz ein Risiko von der Größenordnung einer Pandemie oder eines Atomkriegs darstellt“.

Der Aufmerksamkeit darf sich Sunak bei solcher Rhetorik sicher sein – zumal die Briten wie die Amerikaner bislang eher zur Kategorie technologische Fortschrittsoptimisten gehörten. Und der erstaunte Empfänger dieser düsteren Prophezeiungen des Premiers mag sich fragen: Geht es auch eine Nummer kleiner? Offenbar nicht.

Denn der Dreiklang von Pandemie, Atomkrieg und KI, den der konservative Jungpremier aus Großbritannien da anstimmt, folgt prominenten Vorbildern: der Tech-Elite des Silicon Valley, die mit großer Lust diese albtraumhafte Erzählung anstimmt.

Ein prominentes Stelldichein feierte die neue Doomsday-Ideologie zuletzt in New York. Mustafa Suleyman war geladen, der 39-jährige Gründer von Inflection AI, dem aufstrebenden KI-Start-up, in das Microsoft, Nvidia und mehrere Milliardäre investiert haben. Der Ort: der University Club von 1865. Die Gäste: New Yorks High Society. Das Thema: die KI-Apokalypse.

Was da auf uns zukomme, wollte die Moderatorin von Suleyman wissen. „Ich mache mir viele Sorgen. Und es ist richtig, Angst zu haben“, antwortete Suleyman. Ja, die KI-Zukunft bringe „automatisierte E-Mails“ und mehr Produktivität im Büro. Mit Kinderkrankheiten der Modelle, darunter Vorurteile und Halluzinationen, werde man fertig. Aber dann kämen die wahren Gefahren.

„Es wird sehr einfach sein, die Modelle zu nutzen. Jede neue Generation ist zehnmal so leistungsstark wie die davor“, werde die Arbeit menschlicher Erfinder, Forscher, Gründer übertreffen, so Suleyman. „Es wird viele Akteure geben, die die Modelle nutzen, um anderen zu schaden.“

Mit KI ließen sich „hochgradig süchtig machende Drogen“ produzieren, künstliche Erreger, „den nächsten Covid-Stamm, zehnmal leichter übertragbar“, Wahlmanipulation, Wirtschaftskrisen. „Wir werden in eine Welt eintreten, in der man in seiner Garage biologische Substanz drucken kann“, DNA modifizieren und so weiter.

Ein Zurück gäbe es nicht. „Wir müssen uns damit abfinden, dass sich die Modelle ausbreiten werden.“ Bald werde es „Tausende und Abertausende“ von KIs geben und „psychopathisch motivierte Menschen“, die sie nutzten, mit „dunkelsten Ergebnissen“. Am Ende drohe ein „Angriff auf die Zivilisation“ oder gleich auf die Spezies Mensch. Suleyman steht mit dieser Sicht nicht allein.


I. Das Ende des Optimismus

Der Gründer von OpenAI, Sam Altman, warnte bei seiner Anhörung im US-Kongress vor dem menschlichen „Risiko des Aussterbens durch KI“, vor „schweren, schrecklichen Folgen“. Dario Amodei, der CEO von Anthropic, glaubt, dass Gangster dank KI schon in zwei bis drei Jahren Bio- und Massenvernichtungswaffen herstellen. Und Elon Musk forderte einen KI-Entwicklungsstopp wegen „tiefgreifender Risiken für die Gesellschaft und die Menschheit“.

Daneben treiben den Tech-Popstar weitere Gefahren um, darunter sinkende Geburtenraten, fremde Einwanderer oder der „Woke Mind Virus“. Peter Thiel, der vielleicht einflussreichste Strippenzieher des Valleys, hat für den resultierenden gesellschaftlichen Zusammenbruch schon vorgebaut: 2015 kaufte er ein 193 Hektar großes Grundstück in Neuseeland. Und andere Wohlhabende buddeln zur Stunde Privatbunker.

So weit, so kurios. Nun herrscht in der Menschheitsgeschichte kein Mangel an Untergangspropheten. Das Besondere ist diesmal nur: Erstmals kommen die Kassandrarufe nicht von alternden Philosophen, sondern von den bisherigen Hohepriestern des Fortschritts, den jungen KI-Visionären aus dem Silicon Valley.

Wie stark sich der neue kulturpessimistische Sound vom früheren Optimismus der Tech-Elite unterscheidet, ist verstörend. Nehmen wir Steve Jobs, den vielleicht größten Visionär der vergangenen Jahrzehnte. Er sagte über sich: „Ich bin ein Optimist in dem Sinne, dass ich glaube, dass die Menschen edel und ehrenhaft sind, und einige von ihnen sind wirklich klug.“

Für die Zukunft sah Jobs Großes voraus, etwa ein überall verfügbares Internet. „Die nächste Stufe werden hilfreiche Computeragenten sein“, prophezeite er 1984, „die anfangen zu erahnen, was Sie wünschen, und Sie durch große Informationsmengen leiten. Es wird fast so sein, als hätten Sie einen kleinen Freund in einer Box dabei.“ 23 Jahre später zog Jobs lächelnd das iPhone aus der Tasche und veränderte die Welt.

Wie wäre die Geschichte wohl verlaufen, hätte Jobs analog zu den heutigen Tech-Visionären über seine Erfindungen gesprochen? Oder Google-Gründer Larry Page? Oder Facebook-Chef Mark Zuckerberg? „Wir stellen Ihnen heute ein neues soziales Netzwerk vor. Sie können dort ihre Babyfotos hochladen. Außerdem wird es Millionen Teenager in die Depression treiben und die nächsten Wahlen manipulieren. Wir müssen uns damit abfinden.“

Ein absurder Gedanke? Ja. Doch ganz ähnlich klingen heute die KI-Vordenker. Und das, obwohl die überwältigende Mehrheit der KI-Forscher es für sehr, sehr unwahrscheinlich hält, dass die Maschinen die Menschheit auslöschen. Woher kommt also dann der Doomsday-Sprech?


II. Die Ideologie der Zukunft

Befeuert wird die Lust am Untergang vom Aufstieg einer exklusiven Ideologie, der viele Tech-Vordenker anhängen: „Longtermism“, zu Deutsch Langfristigkeit. Die Idee wurde 1984 von dem Oxforder Philosophen Derek Parfit enzwickelt und durch William MacAskills Buch „Was wir der Zukunft schulden“ aus dem Jahr 2022 populär gemacht. Elon Musk twitterte über MacAskills Buch: „Das entspricht stark meiner Philosophie.“

Die Idee entstammt dem Gedankengebäude des „effektiven Altruismus“. Dieses ethische Konzept besagt, dass wir uns um die anderen Menschen auf der Erde moralisch gesehen genauso sorgen sollten wie um uns selbst und unsere Nachbarn – ein zutiefst humanistisches Konzept.

Die Anhänger des „Longtermism“ dehnen den moralischen Impetus, dass jedes Leben zählt, nun nicht nur in die räumliche Dimension aus, sondern auch in die zeitliche. Heute leben 7,8 Milliarden Menschen auf der Erde. Wie viele werden in Zukunft geboren? Je nach Rechnung entstehen erstaunliche Zahlen.

Bis zu dem Tag, an dem die Erde nicht mehr lebensfreundlich ist, werden vielleicht 80 Billionen Menschen gelebt haben. Oder doch gleich 40 Billiarden, eine Zahl mit 15 Nullen? Mehr geht immer: Wenn wir auch noch andere Planeten besiedeln, könnte es noch sehr viel mehr Menschen geben (oder ihre evolutionären Nachfahren).

Angesichts derlei großer Zahlen sollten wir, so die Schlussfolgerung, kommende Leben priorisieren. Es entsteht eine Ethik, die der langfristigen Zukunft der Menschheit Vorrang vor der Gegenwart einräumt.

Heißt für die KI-Entwicklung: Wenn auch nur eine winzige Chance besteht, dass intelligente Maschinen die Menschheit auslöschen, dann ist die Eintrittswahrscheinlichkeit dieser Möglichkeit in einer fast unendlichen Zukunft sehr groß – und muss schon heute mit aller Macht (und viel Geld) bekämpft werden.

Diese Art moralischer Mathematik fasziniert viele der sozial distanzierten Silicon-Valley-Größen. Und ihr Siegeszug hat ganz reale Konsequenzen: Wenn das Hauptziel ist, die Menschheit vor einer künftigen Killer-KI zu retten, warum dann heute noch Geld gegen den Welthunger spenden? Wenn die Menschheit noch Milliarden von Jahre das Universum besiedelt, warum dann den akuten Klimawandel bekämpfen? In den Worten von MacAskill: „Für die Bewertung unseres Handelns können wir in erster Linie alle Auswirkungen in den ersten 100 (oder sogar 1000) Jahren ignorieren und uns auf die Auswirkungen in der weiteren Zukunft konzentrieren.“ Na dann!

Zugestanden: Nicht alle Vertreter des „Longtermism“ sind so radikal, manche wollen Umweltverschmutzung und andere Probleme schon heute angehen. Doch denkt man die zunächst progressiv erscheinende Idee konsequent zu Ende, dann führt sie zu einer Vernachlässigung gegenwärtigen menschlichen Leids – und lässt die Empathie verkümmern.

Manchen Tech-Vordenkern mag der elitäre Ansatz gefallen. Im Interesse der allzu fernen Zukunft lässt sich beinahe jede Gegenwartserscheinung rechtfertigen. Auch die eigene, demokratisch kaum vorgesehene Vormachtstellung.


III. Das schauderhafte Gegenmodell

Nun gibt es die ersten Denker, die sich dem Doomsday-Sound entgegenstellen. Vor Kurzem veröffentlichte der US-Investor Marc Andreessen ein Manifest.

Die Pessimisten lögen, schreibt Andreessen darin: „Man sagt uns, dass die Technologie uns die Arbeitsplätze wegnimmt, unsere Gesundheit bedroht, unsere Gesellschaft verdirbt, unsere Zukunft gefährdet und immer kurz davor ist, alles zu ruinieren.“ Er überbringe die gute Nachricht: „Es ist an der Zeit, die Fahne der Technologie hochzuhalten. Es ist an der Zeit, Techno-Optimist zu sein.“

Das klingt knallig. Nur was umfasst das Gegenmodell inhaltlich? Vor allem eine große Negation. Was uns auf dem Weg in die perfekte Zukunft im Weg stehe, seien unsere Zweifel, ethischen Fragen und Bequemlichkeiten, glaubt Andreessen.

Der von ihm propagierte „Effective Accelerationism“ (die Idee der effektiven Beschleunigung) will die Zukunft schon heute in Gegenwart verwandeln. Dafür ist die KI-Technik so schnell wie möglich voranzutreiben, ohne lästig bremsende Vorschriften. Bereits überzeugt: Amazon-Gründer Jeff Bezos und Gary Tan vom Gründerzentrum „Y Combinator“.

Das Universum selbst sei ein ständiger Optimierungsprozess, glauben die Techno-Optimisten. „Der Motor dieser Expansion ist das Technokapital. Er kann nicht gestoppt werden.“ Innovation soll also ungeprüft voranschreiten, jede Diskussion über Chancen und Risiken sei sinnfrei.

Dabei argumentiert auch Andreessen mit dem Armageddon – stellt den Ablauf jedoch auf den Kopf: Nicht die möglichen Folgen der KI-Revolution, sondern unsere heutige Wirklichkeit sind hier die Katastrophe. Einzig Technologie kann uns daraus erretten.

Womit sich die beiden extremen Enden der KI-Debatte denn auch in trauter Einigkeit wiederfinden: in der Verklärung der Technik und ihrer Macht. Oder, wie es Andreessen ausdrückt: „KI ist unsere Alchemie, unser Stein der Weisen.“

Andreessens krudes Manifest endet mit einer Art Glaubensbekenntnis. „Effective Accelerationism“ sei keine Ideologie, sagt er, sondern „einfach ein Bekenntnis zur Wahrheit“. Nun hat die Menschheit mit allein die Wahrheit kennenden Gruppen so ihre Erfahrungen gemacht: Die Publizistin Miriam Meckel nennt den Techno-Optimismus denn auch „Silicon Scientology“. Der Beobachter wendet sich schaudernd ab.


IV. Das Primat der Demokratie

Bleibt die Frage, welchen Zweck der neue Doomsday-Sprech eigentlich verfolgt. Dass die führenden Tech-Vertreter neben kruden Ideen vor allem das eigene Sendungsbewusstsein pflegen, ist offensichtlich. Aber gibt es noch weitere Ebenen?

Erstens liegt die Vermutung nahe, dass es wie bei so vielem im Valley auch in der aktuellen Debatte zuvorderst um schnödes Geld geht. Oder, wie es ein Wagniskapitalinvestor formuliert: „Wenn es da diese eine allmächtige Technologie gibt, die übermorgen die Menschheit vernichtet: Na, da will ich die doch am besten schon heute in meinem Unternehmen haben, um meine Profite zu optimieren.“ Beispiel Musk: Der Milliardär forderte erst einen halbjährigen KI-Entwicklungsstopp – um im Geheimen parallel sein eigenes KI-Start-up zu gründen.

Zweitens ist denkbar, dass das Valley schlicht eine unterbewusste Erwartung erfüllt, getreu dem Job‘schen Paradigma, dass die besten Unternehmer wissen, was der Kunde will, bevor er es selbst formulieren kann. Womöglich sind vorsichtig abwägende, positive Zukunftserzählungen in einer Welt, die zunehmend aus den Fugen zu geraten scheint, die erschöpft ist von Pandemie, Krieg und Konflikten, schlicht nicht mehr zugkräftig.

Drittens könnte auch ein simples Kalkül hinter den Doomsday-Erzählungen stecken: Die Tech-Elite könnte versucht sein, mit ihnen sogar die Kritik an ihrem eigenen Handeln zu vereinnahmen. Zum Allmachtsanspruch des Valleys würde auch das passen.

Sind wir also den KI-Vordenkern ausgeliefert, ihren Launen und Ideologien, dem Primat der Technowelt? Natürlich nicht. Laut dem Ökonomen Walter Eucken befinden sich Ökonomie und Politik in wechselseitiger Abhängigkeit. Die Politik setzt im demokratisch verfassten Staat die Interessen der Mehrheit durch und greift ordnend ein. Das gilt auch für die KI-Entwicklung.

Die USA sind bereits aufgewacht. Erst vor wenigen Tagen betonte Präsident Joe Biden die Bedeutung von „Sicherheit, Vertrauen und Menschenrechten“ in der KI-Entwicklung, „die uns keine Schöpfung nehmen kann“. Zudem hat die US-Regierung ein neues KI-Sicherheitsinstitut gegründet.

Es soll den Entwicklern Regeln auferlegen und prüfen, ob KI-Tools „sicher sind, bevor sie veröffentlicht werden“. Diese Regulierung bildet, so bleibt zu hoffen, den Auftakt zu einer nüchternen, ausgewogenen und wahrhaft humanistisch orientierten Risikoabwägung.

Ein solcher Mittelweg hat auch in der Tech-Welt Freunde. So forderte einer der Visionäre aus der Generation von Jobs, Microsoft-Gründer Bill Gates, zuletzt, die Auswirkungen dieser „manchmal überragenden und dann wieder so armseligen“ Technologie nicht überzubewerten.

„Bald nachdem die ersten Autos auf der Straße waren, gab es Unfälle. Aber wir haben Autos nicht verboten. Wir haben Geschwindigkeitsbegrenzungen, Sicherheitsgurte und andere Regeln erlassen“, erklärte Gates. Im Zirkus der KI-Visionäre ist der 68-Jährige damit schon die Stimme der Vernunft.

Wer recht behält – Mustafa Suleyman, Marc Andreessen oder Bill Gates – das bleibt abzuwarten. Einstweilen sollten sich die Valley-Visionäre an einen Sinnspruch Eleanor Roosevelts erinnern: „Die Zukunft gehört denen, die an die Schönheit ihrer Träume glauben.“ Wünschen wir unseren KI-Propheten weniger Albträume.



Quelle: Online-Artikel von Felix Holtermann, veröffentlicht am 11.11.2023 auf/im Handelsblatt/.de. https://www.handelsblatt.com/meinung/kommentare/essay-apocalypse-now-tech-elite-ueberbietet-sich-in-ki-katastrophenszenarien/29481998.html.

Beliebte Posts

Bild

#SchwarmDUMM

Bild

neo @ HR