Die Zukunft der künstlichen Intelligenz KI ändert unsere Welt – anders als wir glauben

San Francisco/Mountain View · Die Möglichkeiten Künstlicher Intelligenz sind unendlich, sagen Forscher. Und doch können wir mitbestimmen, wo die Grenzen liegen. Denn wie in Dürrenmatts „Die Physiker“ oder Brechts „Leben des Galilei“ haben wir zwar nicht die Wahl, ob etwas erfunden wird (das wird es immer), aber wie wir uns dazu verhalten.

 Reicht uns bald eine zu Bewusstsein gelangte künstliche Intelligenz die Hand? Einige Forscher glauben, dass wir zur Kommunikation mit einer Super-KI – in Gestalt einer technologischen Singularität – gar nicht befähigt sind.

Reicht uns bald eine zu Bewusstsein gelangte künstliche Intelligenz die Hand? Einige Forscher glauben, dass wir zur Kommunikation mit einer Super-KI – in Gestalt einer technologischen Singularität – gar nicht befähigt sind.

Foto: dpa/Hauke-Christian Dittrich

 
Silicon Valley ist bekannt dafür, Visionäre hervorzubringen: Menschen, die große Ideen haben, aus denen sie große Unternehmen und großes Geld machen. Nicht wenige dieser Ideen erschienen Zeitgenossen überlebensgroß, manisch, von der Welt entkoppelt – und oft stellten sie sich schneller als umsetzbar heraus, als den Konkurrenten lieb war. Im Bereich der künstlichen Intelligenz (KI) stoßen diese Ideen und Prognosen nun in Sphären vor, die mehr betreffen als nur den Technikmarkt und die Produktentwicklungsabteilungen der Marktteilnehmer. KI verändert unser Leben schon jetzt, und das Steuer haben Firmen in der Hand, die darin nicht durch Gesetze gebremst werden, sondern sich mittlerweile schon selbst Regeln auferlegen – aus Furcht, ihre Prognosen könnten wahr werden.

Ray Kurzweill, seit 2012 Chefentwickler von Google, schrieb 2005 das Buch „ Menschheit 2.0“, („The Singularity is Near“). Im Originaltitel steckt ein großes Wort, das einer gigantischen Idee entspricht: Die technologische Singularität, eine Super-KI, die alle Fähigkeiten des Menschen übertrifft, sich selbst Dinge beibringen, sich weiterentwickelt und verbessert, ohne dass der Mensch noch wüsste, wie und warum. Diese KI wäre das letzte, was wir erfinden müssten, alles weitere würde sie für uns erfinden. Diese Singularität, die einen Paradigmenwechsel bedeutet, hatte Kurzweill – der im Gegensatz zu vielen KI-Forschern zeitliche Prognosen wagt – für spätestens 2045 vorausgesagt.

Noch ist von dieser Superintelligenz nicht viel zu spüren. Doch entscheidend ist etwas anderes: Ungeachtet der Wahrscheinlichkeit solcher Theorien werden diese selten in der breiten Gesellschaft, sondern fast immer im Kontext der Wissenschaft, Wirtschaft und selten auch der Politik diskutiert. Dabei stellt die Entwicklung der KI uns große, alte Fragen, und irgendwann müssen wir uns entscheiden: Wie möchten wir leben? Was ist der Mensch?

Tesla-Gründer Elon Musk hat davon eine genaue Vorstellung. Er steckt Millionen in sein Projekt Neuralink, dessen Ziel es ist, die Kommunikation zwischen Mensch und Computer – und damit KI – zu verbessern. Eine Schnittstelle, ein Implantat und mikroskopisch kleine Elektroden, die in nie gekannter Präzision ins Gehirn eingesetzt werden können (merke: nicht könnten), sollen einen Dialog ermöglichen, der ohne Tastatur, Sprachsteuerung und sonstige Umwege auskommt. Einer der Gründe für diese ist ein ethisch-moralischer: Musk glaubt, nur so beeinflussen zu können, wie eine Super-KI „denkt“, wie sie Menschen wahrnimmt, ob sie in uns ein physischen Hindernis oder Gott sieht. Dass man damit dem transhumanistischen Sci-Fi-Traum näher käme, sein Bewusstsein, seine Erinnerung, seine gesamte Psyche ins Digitale führen zu können, ist sozusagen ein Bonus. Die Frage nach Unsterblichkeit – wenigstens des Geistes – scheint im Bereich des Möglichen.

Aus einem ähnlichen Geist heraus entstand OpenAI, deren größter Geldgeber neben Microsoft sein Mitgründer Musk ist. Das Non-profit-Unternehmen fördert Forscher, die ihre Arbeiten öffentlich zugänglich machen und so für Transparenz, Mitspracherecht und Sicherheit im KI-Bereich sorgen. Die Quellcodes aller Programme und damit deren Funktionsweisen unterliegen wie beim Online-Lexikon Wikipedia dem Open-Source-Prinzip. Der wirtschaftlich orientierte Gegenentwurf ist die Google-Firma DeepMind, die sich mittelfristig erreichbaren (und profitablen) KI verschrieben hat, beispielsweise im Gesundheitsbereich. DeepMind zeigt ebenfalls öffentlichkeitswirksam, sich seiner langfristigen Verantwortung gegenüber der Menscheit bewusst zu sein: Die Firma kooperiert mit MIRI, dem „Machine Intelligence Research Institute“, dessen Ziel die „Friendly KI“, eine freundliche, dem Menschen dienliche KI ist.

Spricht man von KI, ist im Silicon Valley seit Jahren nicht mehr nur die Rede von „schlauen“ Autos, Rasenmähern, Staubsaugern oder Lichtschaltern, die lernen, wann die Hausbewohner von der Arbeit kommen. Im Land der unbegrenzten Möglichkeiten denkt man weiter – vielleicht zu weit, wie ein Großteil der Wissenschaft befindet. Denn die Theorie der Singularität, die Denkbarkeit einer völlig befreiten KI, die plötzlich unter den Fittichen des Menschen hervorsteigt, lehnen viele Experten ab. Einer von ihnen ist der Roboteringenieur Rodney Brooks, Autor des Essays „Die sieben Todsünden der Prognosen über die Zukunft der KI“. Die häufigsten Fehler laut Brooks: das Verwechseln von der konkreten Leistung einer spezialisierten KI und generellen Potenzialen der Technik sowie der Glaube an einen exponentiellen Fortschritt in allen technologischen Bereichen.

Auch in der Philosophie trifft die Theorie der Singularität auf Kritik. Richard David Prechts jüngster Essay „Künstliche Intelligenz und der Sinn des Lebens“ sagt prinzipiell, dass wir uns die falschen Fragen stellen; nämlich die nach Machbarkeit und nicht die nach Verantwortbarkeit. In einem Interview spricht der Starphilosoph von „IT-Gurus in Silicon Valley“, die „Übermenschen“ schaffen wollen, die auf die Welt nicht mehr angewiesen sind. KI könne „uns helfen, wenn wir sie gestalten“, ein wahres „Ich“, das Precht als „tiefe emotionale Leistung“ des Menschen sieht, könne sie aber nie haben. Der Mensch müsse aufhören, mit dem Transhumanismus zu liebäugeln und „wieder lernen, Teil der Natur zu sein“. Dieser „neue Blick“ sei die „Grundvoraussetzung“ dafür, die Erde vor Raubbau und Klimawandel „zu retten“.

Den Sinn von KI sieht der Münsteraner Theologe Christian Grethlein ebenfalls nicht in der Jagd nach Unsterblichkeit, sondern in der Hilfe für die Lebenden: „Es gibt viele Einsatzmöglichkeiten in der Altenpflege. Einige Demenzkranke reagieren beispielsweise positiv auf Roboter, mit denen sie interagieren können“, sagt der 66-Jährige. Eine Grenze im Einsatz von KI zieht er beim Transhumanismus: „Wenn der Mensch seine Geschöpflichkeit, seine Sterblichkeit ablegt, hört er auf, Mensch zu sein.“

Eine große Aufgabe sieht Grethlein zudem für Rechtswissenschaftler: „Die Jurisprudenz hinkt in allen technischen Entwicklungen seit dem Buchdruck immer hinterher. Das muss sich ändern.“ Fragen des autonomen Fahrens wie auch Online-Algorithmen müssten einen Gesetzesrahmen erhalten, der dem Stand der Technik entspricht. Und: Er müsste international gültig sein: „Digitalität überschreitet Grenzen.“

Es geht im Bereich der KI also nicht nur um die Frage, was wir können, sondern was wir in Forschung oder Wirtschaft geschehen und wen wir bestimmen lassen wollen. Denn wie in Dürrenmatts „Die Physiker“ oder Brechts „Leben des Galilei“ haben wir zwar nicht die Wahl, ob etwas erfunden wird (das wird es immer), aber wie wir uns dazu verhalten.

Meistgelesen
Neueste Artikel
Zum Thema
Aus dem Ressort