Wie gefährlich kann die KI uns werden?
Chat-GPT zum Beispiel ist vielen unheimlich, und eine Gruppe von Unternehmern, Philosophen und KI-Forschern schürt die Angst vor der "Superintelligenz". Wie realistisch sind die Schreckensszenarien?
Von Massenarbeitslosigkeit bis zum Ende der Menschheit: die akuten und langfristigen Gefahren von künstlicher Intelligenz für die Gesellschaft - und wie wahrscheinlich diese sind.
Die moderne Form der künstlichen Intelligenz (KI), über die derzeit viele reden, ist die sogenannte generative künstliche Intelligenz. Sie kann in Sekunden Bilder und Texte erstellen, die so wirken, als seien sie von Menschenhand gemacht. Beispielsweise stammen Teile der Illustration für diesen Artikel von "Midjourney", einem KI-Bildgenerator, den man dafür nur mit einem kurzen beschreibenden Satz füttern muss. Rechnet man sämtliche neuartigen Text-, Musik- und Film-KIs noch hinzu, hat das Konsequenzen für viele Berufe - und womöglich auch für unser Zusammenleben. Ein KI-Spickzettel fasst die wichtigsten Fakten der nervösen Debatte zusammen.
Akute Gefahren
Jobs: KI - besonders generative KI - bedeutet Automatisierung und damit Kostensenkungen, weshalb Arbeitgeber nach ihr lechzen. In Gefahr sind vorerst die Mitarbeiter in Branchen, die schnell viele Texte oder Bilder niedriger bis mittelmäßiger Qualität benötigen, zum Beispiel bestimmte Social-Media-Abteilungen oder Online-Marketing und Werbung.
Die jetzt verfügbaren generativen Sprachmodelle hinter Chat-GTP und Co. handeln aber nur sehr bedingt autonom, sondern müssen immer noch mit Befehlen gefüttert werden. Deshalb können sie Menschen auch nur teilweise ersetzen. Unternehmer können allerdings KI auch einfach als Argument für Arbeitsplatzabbau vorschieben.
Diskriminierung: Selbstlernende Algorithmen sind grundsätzlich konservativ. Sie lernen anhand von großen Datenmengen, dem Input, und orientieren sich bei dem, was sie ausgeben, dem Output, ebenfalls daran. Sind die Daten etwa durch Vorurteile verzerrt, übernehmen die Modelle diese.
So fand Bloomberg, ein US-Mediendienst, bei der Analyse von 5100 KI-generierten Bildern von Stable Diffusion heraus, dass besonders auf Darstellungen von schlecht bezahlten Arbeitsgruppen ("Fast-Food-Mitarbeiter") häufiger schwarze Menschen zu sehen sind als auf Darstellungen von gut bezahlten Arbeitsgruppen ("Architekten"). Einen moralischen Kompass gibt es dabei offenbar nicht. Deshalb arbeiten viele KI-Unternehmen daran, solche Verzerrungen aus ihren Modellen herauszufiltern, und entfernen beispielsweise rassistische Beleidigungen.
Langfristige Gefahren
Apokalypse: Einige führende KI-Entwickler und Unternehmer warnen davor, ihre Technologie könnte zum "existenziellen Risiko" für die Menschheit werden. Ihre These: Wenn KI immer autonomer und fähiger wird, kann sie sich irgendwann selbst verbessern und Ressourcen beschaffen. Dann optimiert sie sich, bis ihre Intelligenz die aller Menschen zusammen übersteigt - die sogenannte Singularität tritt ein.
Demnach könnte die KI dann die Menschheit vernichten. Entweder, weil die KI einen eigenen, in diesem Fall bösartigen, Willen entwickelt - wobei noch völlig unklar ist, ob KIs überhaupt eigene Absichten entwickeln können. Oder die KI verfolgt ein an sich sinnvolles Ziel, das tatsächlich vorgegeben wurde, und tötet einen Menschen deshalb, weil ihr dieser als Hindernis auf dem Weg zum gesetzten Ziel erscheint.
Ob ein solches Szenario Wirklichkeit werden könnte, lässt sich beim heutigen Forschungsstand kaum seriös benennen.
Verantwortungsverlust: Realistischer als die Auslöschung der Menschheit durch wildgewordene KI ist eine neue Form der Verantwortungslosigkeit. Wer KI eine menschenähnliche Intelligenz zuschreibt und ihr immer mehr Aufgaben überträgt, der lagert damit auch Verantwortung aus. Es ist nicht abwegig, dass in einigen Jahren ein großer Teil von Entscheidungen automatisiert von KI getroffen wird. Dann jedoch stellt sich die Frage, wer verantwortlich ist, wenn etwas schiefgeht - zum Beispiel bei selbstfahrenden Autos im Straßenverkehr.
Auch deshalb lautet die wichtigste Regel für den Umgang mit KI: Man sollte ihrem Output nicht blind vertrauen.