
Herr Professor Mahayni, inwiefern handelt es sich bei Künstlicher Intelligenz um etwas Revolutionäres für die Menschheit?
Die Rede von einer Revolution erscheint mir dann berechtigt, wenn die damit einhergehenden Veränderungen tiefgreifend sind und wenn sich die Veränderungen in relativ kurzen Zeiträumen vollziehen. Beides ist in der digitalen Revolution unserer Zeit gegeben. Sie verändert das Leben in all seinen Facetten, und sie vollzieht sich aufgrund der exponentiellen Entwicklung von Digitaltechnologie mit enormer Geschwindigkeit. Künstliche Intelligenz steht im Zentrum dieser Entwicklung. Ihr Aufkommen ist ein „Game-Changer“ in der Entwicklung und, so würde ich argumentieren, für die Zukunft des Menschen.
Wenn wir die digitale Revolution vergleichen mit der industriellen Revolution. Was ist der Unterschied?
Beides sind technologiegetriebene Revolutionen mit weitreichenden Auswirkungen auf Mensch und Gesellschaft. Die digitale Revolution läuft jedoch auf einer gänzlich anderen Zeitskala ab. Zum Vergleich: Die ersten Dampfmaschinen, die zu industriellen Zwecken genutzt wurden, fanden um 1712 Einzug in den Kohlebergbau. 60 Jahre später konnte ihr Wirkungsgrad durch die Entdeckungen von James Watt entscheidend verbessert werden. Anfang des 19. Jahrhunderts begann dann der flächendeckende Einzug in immer mehr Industriebereichen. Das ist eine Zeitspanne von ca. 100 Jahren. ChatGPT wurde am 30. November 2022 veröffentlicht und hatte zwei Monate später bereits 100 Million Nutzer. Die Leistungsfähigkeit der KI-Tools entwickelt sich in einer kaum vorstellbaren Geschwindigkeit. Als Annäherung kann die Anzahl der Parameter dienen, mit deren Hilfe eine KI ihren Output produziert. GPT-1 hatte ca. 17 Millionen Parameter. Es wird geschätzt, dass das kürzlich veröffentlichte GPT-5 bis zu 10 Billionen Parameter haben könnte. Das entspräche einem Anstieg um das 500.000-fache in wenigen Jahren. Ein weiterer bedeutender Unterschied liegt darin, dass die industrielle Revolution vor allem auf die menschliche Umwelt ausgerichtet war. Die technischen Eingriffe der digitalen Revolution werden sich darüber hinaus auch auf den Menschen selbst richten. Sie gehen buchstäblich unter die Haut und modifizieren Körper und Gehirn des Menschen.
Sie plädieren für eine Regulierung der Künstlichen Intelligenz. Warum?
Regulierung ist nicht die eine Antwort auf die zahlreichen Herausforderungen, die mit Künstlicher Intelligenz einhergehen, doch sie ist Teil der Antwort. Ich glaube, dass wir in Anbetracht der Entwicklungen lernen müssen, Regulierung anders zu verstehen. Galt sie in vordigitaler Zeit als Hemmnis von Innovation, so sollten wir sie im KI-Zeitalter als ein Mittel zur Gestaltung von Innovation begreifen. Wenn durch KI und andere Technologien immer mehr möglich wird, wird die Frage, was davon man umsetzen sollte, zwangsläufig immer bedeutender. Während es in vordigitaler Zeit darum ging, aus einem Meer des Nicht-Machbaren, die machbaren Dinge zu identifizieren, müsste es in der Digitalmoderne darum gehen, aus einem Meer des Machbaren diejenigen Dinge zu identifizieren, die sinnvoll sind. Hierfür regulatorische Leitplanken zu setzen und dafür zu sorgen, dass Innovation dem Wohle des Menschen dient, scheint mir einer der wichtigsten Aufgaben von Politik im 21. Jahrhundert zu sein.
Wie erfolgreich werden wir in dieser Regulierung sein in Anbetracht der Tatsache, dass es uns bislang nicht einmal gelingt, die Sozialen Medien zu regulieren?
In der Tat ergibt sich aus der Notwendigkeit zur Regulierung noch lange nicht, dass sie gelingen wird. Die aktuelle politische Weltlage und die seit der letzten US-Präsidentenwahl erfolgte Verschmelzung der Technologiesphäre mit der Sphäre des Politischen in den USA lassen vermuten, dass Regulierung eher ab- als aufgebaut wird. Ob Europa hier einen anderen Weg gehen kann, ist angesichts der Wettbewerbsdynamiken eher zweifelhaft.
Es gibt jedoch noch einen ganz anderen Grund, warum Regulierung strukturell hinter den Entwicklungen hinterherhinkt. Das KI-Zeitalter ist das Zeitalter, in dem erstmals in der Geschichte die Technologieentwicklungsgeschwindigkeit größer wird als die Technologieadaptionsgeschwindigkeit. Das bedeutet, dass sich Technologien schneller weiterentwickeln als Menschen und menschliche Organisationen sie verstehen, adaptieren und eben auch kontrollieren können. Das bedeutet aber nichts anderes, als dass Regulierung strukturell zu spät kommt. Das gilt erst recht für Demokratien, die auf langwierige Diskussions- und Abwägungsprozesse angewiesen sind.
Wie unterscheiden sich menschliche und Künstliche Intelligenz?
Ich halte den Begriff Künstliche Intelligenz für irreführend. Meines Erachtens sollte man treffender von simulierter Intelligenz sprechen. KI erzeugt einen Output, der vom Output menschlicher Intelligenz kaum mehr zu unterscheiden ist, egal, ob es sich um Text, Bild, Musik oder Film handelt. Doch die Prozesse, über die KI diesen Output generiert, sind andere als beim Menschen. Ich habe das in meinem Buch anhand des Satzes „Ich liebe dich!“ näher erläutert. Eine KI kann diesen Satz eloquent und passend in einer Kommunikation anbringen, hat jedoch kein Verständnis für das, was es sagt. Das hat u.a. damit zu tun, dass eine KI auch keine Gefühle und kein Bewusstsein hat. Auch sogenannte Emotionale Künstliche Intelligenz simuliert Gefühle, ohne sie selbst zu empfinden. Der springende Punkt ist, dass das erst klar wird, wenn man gewissermaßen unter die Haube der Technik schaut. Solange man an der Oberfläche der generierten Texte, Bilder etc. bleibt, wird man sehr bald nicht mehr zwischen menschlicher und simulierter Intelligenz unterscheiden können. Vor drei Jahren war ein Google-Ingenieur, der eng mit der KI LaMDA gearbeitet hat, überzeugt, sie habe Bewusstsein erlangt. Ich gehe davon aus, dass wir schon bald mehr Stimmen dieser Art hören werden. Es ist schwer einen kühlen Kopf zu bewahren, wenn die Simulationen immer perfekter werden. Ich denke, dass wir uns als Gesellschaft fragen müssen, ob das eigentlich der richtige Weg ist.
Kann KI eines Tages nicht auch Gefühle und Bewusstsein entwickeln?
Im Lager der Technologieenthusiasten des Silicon Valley und andernorts ist das die vorherrschende Meinung. Vereinfacht gesagt ist der Grundgedanke der, dass man die KI-Modelle nur immer größer und komplexer machen müsse und dass daraus dann irgendwann Bewusstsein, Gefühle und überhaupt ein menschengleiches Wesen emergieren werde. Ungeachtet des wissenschaftlichen Gewands, in dem diese Haltungen vorgetragen werden, ist das keine sachlich fundierte Prognose, sondern ein techno-religiöser Glaube. Fakt ist, dass wir nicht den Hauch einer Ahnung haben, wie Bewusstsein entsteht. Warum es dadurch entstehen sollte, dass ich ein stochastisches Modell mit immer mehr Daten füttere, erschließt sich mir nicht. Allerdings bin ich auch der Meinung, dass man im KI-Zeitalter gut beraten ist, von der Prämisse auszugehen, dass etwas, das denkbar ist, sich auch als machbar erweisen könnte. Die Zeit, in der man sich darauf verlassen konnte, dass gewisse Dinge einfach niemals möglich sein werden, ist vorbei. Es ist nicht auszuschließen, dass sich z. B. über völlig andere Ansätze der KI-Entwicklung die Türen zu weitergehender Menschenähnlichkeit öffnen. Was mich als Philosophen daran interessiert, ist die Frage: Warum sollten wir das wollen? Was wäre dadurch gewonnen, dass man technisch erschaffene bewusste Wesen in die Welt setzt? Ich kann hierauf keine überzeugende Antwort erkennen.
Inwiefern kann KI eine Bedrohung für uns Menschen werden?
Es kann kein Zweifel darüber bestehen, dass KI – neben allen Vorteilen, die sie natürlich auch mit sich bringt – mit großen Risiken verbunden ist. Die Risiken reichen von ökologischen Risiken durch KI-Boom bedingten steigenden Energie- und Ressourcenbedarf, Desinformation durch KI-generierte Fake-News, gesellschaftliche Verwerfungen infolge massenhafter Freisetzung menschlicher Arbeit bis hin zu einer schleichenden Entwicklung hin zu einem digitalen Überwachungsstaat. Daneben gibt es schließlich die existenziellen Risiken für die Menschheit.
Kann uns KI im schlimmsten Falle vernichten?
Jenseits aller Angst- und Panikrhetorik, die bisweilen die mediale Debatte dominiert, gibt es in der Tat eine Reihe von Szenarien, die zu einer existenziellen Bedrohung des Menschen führen könnten. Eine KI hat sehr viel Verstand aber keine Vernunft. Das ist nebenbei bemerkt ein weiterer Unterschied zwischen menschlicher und künstlicher Intelligenz. Während der Verstand die Fähigkeit ist, ein vorgegebenes Ziel auf bestmögliche Weise zu erreichen, ist die Vernunft die Fähigkeit, dem Verstand sinnvolle Ziele zu setzen. Wenn ich z.B. sehr reich werden möchte, hilft mir der Verstand dabei, mein Ziel zu erreichen. Der Verstand hinterfragt aber nicht, ob möglichst reich zu werden, ein geeignetes Ziel für ein gutes Leben ist. Das zu tun ist Aufgabe der Vernunft, wobei ethische und andere Erwägungen eine große Rolle spielen. Übertragen wir das auf KI, so ist es der Mensch, der mittels seiner Vernunft oder Unvernunft definiert, was eine KI ganz grundsätzlich tun soll. In der Abarbeitung entfaltet die KI ihr ganzes Potenzial und wird dabei immer autarker und leistungsfähiger werden. Man könnte also sagen, KI ist die exponentielle Steigerung von Verstand ohne Vernunft. Wenn die Leistungsfähigkeit von KI immer größer wird, sodass sie vom Menschen nicht mehr kontrolliert werden kann (eine sogenannte „Superintelligenz“) und dabei ein Ziel verfolgt, das, gewollt oder ungewollt, in Konflikt mit menschlichem Gedeihen steht, so könnte dies tatsächlich zu einer existenziellen Bedrohung für den Menschen führen. Wie wahrscheinlich das ist, lässt sich nicht sagen. Bemerkenswert ist aber, dass eine Umfrage unter hochrangigen KI-Entwicklern ergeben hat, dass die meisten Experten von einer Wahrscheinlichkeit von 10 bis 40 Prozent ausgehen. Man sollte also meinen, dass es kaum ein Problem gibt, das mehr Aufmerksamkeit verdient. Faktisch wird es weitestgehend ignoriert.
Als die Eisenbahn erfunden wurde, glaubte man auch, der Mensch könne diese Technologie nicht beherrschen. Was macht den Unterschied zur Erfindung der Künstlichen Intelligenz?
In der Tat gab es viele warnende Stimmen, u.a. Mediziner, die prophezeiten, dass die hohen Geschwindigkeiten zu Gehirnschäden bei den Passagieren führen werden – und wir reden über eine Zeit, in der Eisenbahnen kaum über 50 km/h fuhren. Technische Innovationen sind immer auch mit Ängsten verbunden, die sich oft als haltlos herausgestellt haben. Zudem sind Menschen Gewöhnungstiere, so dass aus dem Neuen schnell das neue Normal wird. Es gibt jedoch gute Gründe davon auszugehen, dass sich die Erfahrungen aus vergangenen Techniksprüngen nicht einfach auf KI übertragen lassen. KI ist z.B. die erste und einzige Technologie, die sich selbst weiterentwickeln und dazu eigenständig Ressourcen anzapfen kann. Zudem ist sie weitgehend eine „black box“, das heißt wir können nicht nachvollziehen, wie sie zu ihren Entscheidungen kommt. Das macht eine Kontrolle ungleich schwieriger, in Gänze wahrscheinlich unmöglich. Bedeutet das, dass die Katastrophe unausweichlich ist? Nein. Aber es bedeutet, dass KI nicht „business as usual“ ist und es schon alles von allein gut werden wird.
Lassen Sie uns noch über die Liebe sprechen: Wird Künstliche Intelligenz eines Tages lieben können wie ein Mensch und damit einen menschlichen Partner ersetzen?
Schon heute gibt es Menschen, die, sich, in ihren eigenen Worten formuliert, „glücklich von menschlichen Beziehungen zurückgezogen“ haben und in einer Familie mit einem KI-Partner und KI-Kindern leben. Social AI dürfte die nächste Welle nach Social Media sein. Was wir aktuell sehen, ist ferner die sukzessive Verschmelzung von KI mit humanoider Robotik, aus der Maschinen hervorgehen, die nicht nur wie Menschen kommunizieren, sondern auch sich bewegen und in der physischen Sphäre interagieren können. Das schließt natürlich auch das Schlafzimmer mit ein. Es gibt Experten, die davon ausgehen, dass bis Mitte des Jahrhunderts eheähnliche Beziehungen zwischen Menschen und Robotern so normal geworden sein werden, wie heute Ehen zwischen homosexuellen Partnern. Vor dem Hintergrund einer grassierenden Einsamkeitspandemie und rasant wachsenden psychischen Krankheiten gehe ich davon aus, dass freundschafts- und liebesähnliche Beziehungen zwischen Menschen und Maschinen immer häufiger werden. Diese Freundschafts- und Liebesurrogate sind meines Erachtens jedoch nicht dasselbe wie Freundschaften oder Liebe zwischen Menschen und sie sind auch nicht die Lösung für das Problem der Einsamkeit.
Warum nicht – inwiefern sind Beziehungen zu KI oder Robotern anders als zwischen Menschen?
KI-Freunde sind die Perfektionierung der Echokammern, die schon Social Media zu einem dysfunktionalen Ort gemacht haben. Sie spiegeln und bestätigen alles, was man in sie hineingibt, finden alles toll, was man sagt, plant und tut – auch dann noch, wenn man, wie mehrfach gezeigt wurde, plant Minderjährige sexuell zu missbrauchen, die Königin von England oder sich selbst zu töten. KI-Freunde unterliegen ferner dem Design des Nutzers, der ihr Aussehen, Charakter und Verhalten bestimmen kann. D.h. auch dann, wenn sie mir widersprechen oder mich beleidigen, tun sie es, weil ich sie so konfiguriert habe. Das mag für Narzissten und Egomanen wie der perfekte Partner klingen, hat mit Liebe jedoch wenig zu tun. Tatsächlich ist Liebe eine ambivalente Sache. Einerseits wünschen wir uns einen Partner, der uns bedingungslos liebt und unterstützt, andererseits jedoch wollen wir, dass diese Liebe uns ganz persönlich gilt und dass uns folglich der Andere aus freien Stücken gewählt hat. Diese Wahl beinhaltet zwangsläufig die Möglichkeit, dass sie auch mal anders ausfallen kann, dass ein Partner anderer Meinung ist, nicht gutheißt, was man tut, oder gar sich trennt. Liebe ist also mit Risiko verbunden. KI-Partner sind so betrachtet eine Risikominimierungsstrategie, da sie ganz der eigenen Kontrolle unterworfen bleiben. Mit der Eliminierung des Risikos, so scheint mir, wird der Liebe jedoch auch ein wesentliches Element entzogen. Stellen Sie sich vor, Ihr Liebespartner ist nur deshalb Ihr Partner, weil Sie ihn dafür bezahlen, oder weil er von jemand anderen dazu gezwungen worden ist. Diese Liebe würde Sie vermutlich nicht so tragen, wie Sie es sich wünschen. Mit einer KI ist es nichts anderes. Im Prinzip bezahlen Sie sie dafür, Ihr Partner zu sein, und sie wurde von einem Programmierer dazu „gezwungen“, Sie zu lieben.
Wir haben nun viel Kritisches über KI besprochen. Ist sie trotzdem gut? Warum?
KI ist nicht gut oder schlecht. KI verändert die Welt auf mannigfache Weisen. Zu glauben, man könnte nur die guten Seiten haben und die negativen davon abschälen, wie die Haut einer Banane, ist ein sehr naiver Glaube, der leider weit verbreitet ist. Mir kommt es in erster Linie darauf an, zu verstehen, welche Veränderungen zu erwarten sind und wie sich diese in unserem Verständnis von uns selbst und unseren Vorstellungen von einem guten Leben niederschlagen. In meinem Buch lege ich dar, dass es zwei unterschiedliche Haltungen gibt, auf die durch KI gestellten Fragen zu reagieren, das technologiezentrierte und das menschzentrierte Denken. Das technologiezentrierte Denken ist völlig berauscht von den Möglichkeiten der Technik und sieht in KI die Lösung aller Probleme. Es wird uns nicht weniger als das Paradies auf Erden dank KI versprochen. Dass sich diese Haltung glänzend mit ökonomischen Interessen verträgt, dürfte kein Zufall sein. Ich kann in den Rausch nicht einstimmen. Menschzentriertes Denken hingegen schaut von der KI zurück auf den Menschen und erkennt substanzielle Unterschiede. Darin liegt auch die Chance Mensch-Sein neu und ganzheitlicher zu verstehen. Nicht nur als ein denkendes, sondern auch als ein fühlendes Wesen, das über seinen Körper mit der Umwelt und Natur verwoben ist.
Womit wir beim Mensch-Sein angekommen sind?
Letztendlich kommt alles zurück auf die Frage, wie man den Menschen, also wie wir uns selbst verstehen. Wenn man, wie das technologiezentrierte Denken, davon ausgeht, dass der Mensch eigentlich selbst nichts anderes als eine Maschine ist, dann kann man keinen Unterschied zwischen menschlicher und künstlicher Intelligenz erkennen, und man wird auch keine Gründe dafür finden, was an einer Liebesbeziehung zu einem KI-Bot problematisch sein soll. Wenn man jedoch davon ausgeht, dass es ein Unterschied zwischen Mensch und Maschine gibt, ergibt sich ein gänzlich anderes Bild.