Siegeszug von ChatGPT Die Künstliche Intelligenz ist nicht zu stoppen

Analyse | Düsseldorf · Nach den sensationellen Erfolgen des Sprachverarbeitungsprogramms ChatGPT ist die Öffentlichkeit aufgewacht. Dass ausgerechnet die Fachwelt ein Moratorium fordert, lässt aufhorchen. Dabei ist ein Stopp der Forschungen gar nicht nötig.

 Symbol für einen Chatbot, der menschliche Konversation im Rahmen von Künstlicher Intelligenz möglich machen soll.

Symbol für einen Chatbot, der menschliche Konversation im Rahmen von Künstlicher Intelligenz möglich machen soll.

Foto: obs/Gerd Altmann, Pixabay

Der 30. November 2022 könnte in die Geschichte der Menschheit eingehen. An diesem Tag machte das bislang unbekannte Unternehmen OpenAI aus San Francisco eine Technik allgemein zugänglich, die inzwischen als eine der wichtigsten technologischen Neuerung aller Zeiten gilt. Es geht um das Sprachverarbeitungssystem ChatGPT. Der Chatbot, der die Chat-Funktion des Systems sicherstellt, ist eine künstliche Figur, die in der Lage ist, menschenähnliche Konversation mit Nutzern zu führen. GPT steht für Generative Pre-trained Transformer. Etwas frei übersetzt handelt es sich also um einen trainierten Umwandler von gespeicherten Texten. Das heißt: Aus bekannten Datensätzen sollen neue Inhalte entstehen. Das Ganze ist Teil der rasanten Entwicklung der Künstlichen Intelligenz (KI).

Das klingt alles sehr technisch. Wer aber die Software ChatGPT-3 (kostenlos) oder ChatGPT-4 (geringer Abo-Preis) aufruft und ihr menschliche Fragen stellt, etwa der Art, ob es ein Pflichtjahr für alle geben soll, der erhält – wie von Geisterhand geschrieben – innerhalb von Sekunden einen Text, der in sich schlüssig und leicht verständlich ist und das Wichtigste zum angegebenen Thema enthält. Es ist faszinierend, dem Programm bei der Arbeit zuzusehen. Denn anders als bei Suchmaschinen oder anderen Computerprogrammen muss man die Informationen nicht selbst ordnen oder verarbeiten, sondern erhält ein fertiges Menü. Je nach Wahl auch ein Kuchenrezept, ein Sonett im Stil von William Shakespeare oder die Beschreibung eines Protein-Moleküls. Sogar Computer-Programme kann das Tool selbstständig schreiben.

Klar, dass dieses System um die Welt ging. Schon am 5. Dezember hatten sich eine Million Menschen für den Chatbot registriert, im Januar 2023 waren es schon 100 Millionen, Mitte März schätzt das Portal „Tooltester“ die Zahl der Nutzer auf über 600 Millionen. Schulen und Universitäten sind alarmiert, bei Hausarbeiten, Aufsätzen oder Dissertationen lässt sich nicht mehr feststellen, was Eigenarbeit oder was Plagiat ist. Die Menschheit hat sich erstmals ein System geschaffen, dass ihr über den Kopf wachsen könnte. Mit dem Roboterarm Dactyl und dem Bildgenerator Dall-E 2, das ebenfalls von OpenAI stammt, stehen auch künstliche Hände und Augen bereit, den Menschen insgesamt mit seiner Intelligenz, seiner Feinmotorik und seiner Sensorik abzubilden. Was Generationen von fiktiven Forschern wie Frankenstein (Monster) oder Rabbi Löw (Golem) angeblich versucht haben, nämlich einen künstlichen Menschen zu schaffen, ist mit dieser Erfindung ein Stück näher gerückt.

Die Möglichkeiten sind gewaltig, sowohl Nutzen wie auch Gefahren. Und inzwischen hat selbst die Fachwelt Angst vor ihrer eigenen Courage bekommen. Ein offener Brief Anfang April ließ aufhorchen. Darin fordern IT-Fachleute, deren Namen sich wie ein Who’s who der Branche lesen, ein Moratorium für Forschungen der Künstlichen Intelligenz, die leistungsfähiger sind als GPT-4. Dabei sind Apple-Mitgründer Steve Wozniak, Tesla-Chef Elon Musk und Yoshua Bengio, einer der wichtigsten Köpfe der KI.

Dabei ist das System gar nicht richtig intelligent – zumindest nicht im menschlichen Sinne. Das Sprachmodell ChatGPT ruft aus einem Reservoir von 300 Milliarden Wörtern und 175 Milliarden Parametern im Internet Daten ab. Es weiß, wie hoch die Wahrscheinlichkeit ist, mit der bestimmte Wörter auf andere folgen. Danach bildet es Sätze anhand von Regeln. Die Inhalte versteht das Modell nicht. Es ist so ähnlich wie im Gedankenexperiment des berühmten US-Philosophen John Searle, der auf die Frage nach künstlichem Bewusstsein das Gleichnis des Chinesischen Zimmers erfand. Danach sitzen Menschen in einem Zimmer mit zwei Fenstern. Sie erhalten über das eine Fenster chinesische Schriftzeichen, die sie nicht verstehen, müssen sie aber nach Regelbüchern neu zusammensetzen und in veränderter Form durch das zweite nach außen geben. Es handelt sich hierbei um chinesische Fragen, die die Menschen beantworten müssen, ohne die Sprache zu verstehen oder jemals gelernt zu haben. So funktioniert auch die KI der ChatGPT-Technologie. Das System versteht keinen einzigen Satz.

Ist das nun der Start einer neuen Ära des Internets? Oder eher eine Gefahr? „Es ist beides“, sagt Hinrich Schütze, Computerlinguist und Kodirektor des Centrums für Informations- und Sprachverarbeitung an der Ludwig-Maximilians-Universität München. Dabei ist er sich über die Bedeutung der neuen Technologie im Klaren. „Das wird die Welt revolutionieren. Gleichzeitig birgt es aber auch Gefahren, da muss man aktiv werden“, sagt Schütze. Die Forderung der Unternehmer und Wissenschaftler, die Entwicklung der neuen Technologie vorübergehend zu stoppen, unterstützt er daher nicht. „Man kann die Technologie nicht stoppen. Sie ist in der Welt und wir müssen damit umgehen“, sagt er. Am besten sei es, die Entwicklung bei Unternehmen und Institutionen anzusiedeln, die gewisse demokratische und ethische Werte vertreten. „Wenn die Entwicklung gestoppt und so in den Untergrund oder ins Ausland gedrängt wird, ist das sehr gefährlich“, schätzt Schütze die Lage ein.

Wie die KI-Modelle in zwei Jahren aussehen und was sie dann können, sei derzeit nicht abzusehen. Klar sei aber schon heute: Es ist sicherer, sich jetzt an die Spitze der Entwicklung zu setzen und so die Kontrolle über das System zu haben. Dass die KI unser Leben beeinflussen wird, steht für Schütze fest. Bisher seien die Entwicklungen für die meisten Menschen positiv. „Die Gesellschaft als Ganzes hat von Erfindungen wie dem Internet oder dem Smartphone profitiert. Ich denke, dass es letztlich auch bei der KI so sein wird“, sagt Schütze. Dennoch werden viele Jobs, vielleicht sogar Berufsfelder wegfallen. Die Unternehmensberatung McKinsey geht von etwa weltweit 400 Millionen bis 2030 aus. Büroarbeiten könnten automatisiert werden, Arztberichte geschrieben oder Wettermodelle gerechnet werden. Autonomes Fliegen und Fahren wären erleichtert. Pharma-Konzerne könnten DNA-Sequenzen ermitteln und vergleichen und Milliarden an kostspieligen Entwicklungsarbeiten einsparen. So ganz genau lässt sich der Nutzen jetzt noch nicht bestimmen. Ebenso wenig wie die Gefahren.

„Der Mensch kann sich auf viele neue Entwicklungen und auch Gefahren einstellen. Viele sind sich zum Beispiel bewusst, dass es Fakes gibt“, sagt der KI-Forscher Schütze unter Verweis auf die vermehrte Verbreitung von Propaganda, Falschnachrichten oder künstlich erzeugten Bildern. Da es für immer mehr Menschen immer leichter wird, gefälschte Nachrichten und Bilder in Umlauf zu bringen, steige deren Gefahrenpotenzial.

Fortuna Düsseldorf: So sehen Maskottchen laut Künstlicher Intelligenz KI aus
32 Bilder

So sehen die Maskottchen der Zweiten Liga laut Künstlicher Intelligenz aus

32 Bilder
Foto: @footballjessy/Screenshot Twitter

Unabhängig von der Frage nach Fake News oder gefälschten Bildern sieht Schütze eine andere, schwerwiegendere Gefahr: Eine KI, die Geräte bedienen kann. Bislang bedienen solche Systeme lediglich Werkzeuge oder steuern Anlagen. „Zum Einsatz im Militär, zum Beispiel in der Artillerie, ist diese KI momentan noch nicht fähig. Aber potenziell ist das eine Einsatzmöglichkeit“, sagt Schütze. Halbautonome Waffen, die bereits jetzt eingesetzt werden, werden von Menschen überwacht oder zumindest teilweise gesteuert. Dass auch eine Künstliche Intelligenz diese Funktion übernehmen könnte, wäre laut Schütze eine sehr beunruhigende Entwicklung.

Auch die Überwachung der Bevölkerung durch autoritäre Systeme wäre in ganz neuen Dimensionen möglich. Schließlich könnten die Datensätze, aus denen die KI ihre Texte generiert, manipuliert werden. Weil sich der Datenfluss aus neuronalen Netzen speist, folgt die KI nicht fest einprogrammierten Regeln, sondern erzeugt die Antworten assoziativ wie das menschliche Gehirn. Stellt ChatGPT zum Beispiel fest, dass bei Stellenausschreibungen Männer in der Vergangenheit passendere Lebensläufe für den Job aufwiesen, würde das Programm vorrangig Männer einstellen, auch wenn Frauen inzwischen deutlich aufgeholt haben.

Noch ist es nicht klar, ob eine sich selbst überlassene Entwicklung eher die positiven oder die negativen Seiten der KI zum Durchbruch bringt. Die Europäische Union (EU) arbeitet bereits an einem Gesetz zur Regulierung der KI, das Risiken identifiziert, es gibt eigene Forschungsprogramme auf EU-Ebene, in Deutschland sprechen sich Politiker der Ampel-Koalition für eine umfassende Kontrolle aus. Das KI-Zeitalter hat begonnen. Aufhalten kann es niemand – nur nach Kräften zum Guten bewegen.