Künstliche Intelligenz Das kann der neue Chatbot „ChatGPT“ – und das nicht

Analyse | Düsseldorf · Seit es den neuen Chatbot „ChatGPT“ gibt, steht die gesamte Bildungsbranche Kopf. Auch in der Kunst und Kultur staunen die Betroffenen, welch gute Texte das Programm mit Hilfe von Künstlicher Intelligenz schreiben kann. Was Digital-Experten davon halten.

 Der Chatbot funktioniert auch auf dem Smartphone. Nur eine kurze Registrierung bei OpenAI, wenn auch unter Angabe persönlicher Daten, ist notwendig.

Der Chatbot funktioniert auch auf dem Smartphone. Nur eine kurze Registrierung bei OpenAI, wenn auch unter Angabe persönlicher Daten, ist notwendig.

Foto: AP/Peter Morgan

Ein neuartiger Chatbot sorgt derzeit in der digitalen Welt für Furore. Er schreibt auf Wunsch Texte aller Art, Briefe, Artikel, Berichte, Gedichte, Doktorarbeiten oder Theaterstücke. Seit die Anwendung des Entwicklers „OpenAI“ Ende 2022 online gegangen ist, sind textverarbeitende Branchen wie der Bildungs-, Medien- und Kreativbereich aus dem Häuschen. Was leistet die Künstliche Intelligenz (KI), wie wird sie uns helfen und kann sie vielleicht sogar gefährlich werden?

ChatGPT ist der derzeit wohl bekannteste Sprachassistent für algorithmus-gesteuerte Spracherzeugung. Der Bot kann Lehrpläne erstellen, Aufgaben für Schüler und Studierende formulieren, To-do-Listen vorbereiten, E-Mails verfassen und Gespräche protokollieren. Die Liste der Möglichkeiten ist schier endlos, und Experten sind sich einig, dass KI-Unterstützung bald in immer mehr Alltagsgeschäften wie selbstverständlich dazu gehört. Nicht wenige Experten sprechen gar von einer Revolution, die Erfindungen wie das Feuer, das Rad, die Dampfmaschine oder die Elektrizität bei weitem übertrifft.

Was ist innovativ an ChatGPT? Das Programm antwortet sehr genau auf Texteingaben und arbeitet mit einer riesigen Datenmenge: mit dem Wissen aus Wikipedia-Artikeln, akademischen Zeitschriften und angeblich Millionen von Büchern soll es gespeist sein. Texte aus unzähligen Diskussionsforen sollen ihr eine menschlichere Ausdrucksform verpassen. Den genauen Umfang der Informationen kennen nur die Entwickler selbst. Auf eine Nutzereingabe hin versucht die KI, ihr bekannte Muster zu imitieren und die am besten passende Antwort hervorzusagen.

Dabei macht sie aber auch Fehler – sie kann nicht Fakt von Fiktionalem unterscheiden, verbreitet ungefiltert Falschinfos, im besten „Glauben“ aber, die Wahrheit zu sagen. Sie formuliert gute, grammatikalisch korrekte Texte aus dem, was die Entwickler eingegeben haben. Abgefragte Infos sind manchmal verzerrt, wenn nicht gar unsinnig. Und der Wissensstand endet mit dem Jahr 2021, das System ist außerdem nicht mit dem Internet verbunden, um neue Quellen einzubeziehen.

Eine einfache Frage aus dem Fachgebiet der Geografie macht das deutlich: Was ist der flächengrößte Landkreis Deutschlands? Die Antwort: Der Landkreis Starnberg in Bayern. Das Problem: Das ist falsch. Wenn man das System drauf hinweist, verbessert es sich schnell und antwortet: die richtige Antwort sei natürlich der Landkreis Lüneburg. Auch das stimmt nicht. Nach einer weiteren Falschantwort landet das System dann einen Treffer: Der Landkreis Mecklenburgische Seenplatte ist tatsächlich der größte Landkreis Deutschlands.

Das ist typisch. Man kann die KI verbessern, also auf Nachfrage die richtige Information eingeben. Doch das System hinterfragt oft nicht, ob die neue Info denn nun wirklich wahr oder wiederum frei erfunden ist. Es kann allerdings durch sogenanntes „Reinforcement Learning“ verbessert werden, in dem Nutzer verschiedene Ausgaben anhand einer Rangfolge von gut bis schlecht bewerten, was der Chatbot dann in seinen Algorithmus mit aufnimmt. Trotzdem bleiben Fehler. Das erklärt auch, warum Nutzer weiterhin googeln und Quellen überprüfen müssen. „Es gibt noch immer Hausaufgaben, obwohl Schüler schon lange Zugang zu Suchmaschinen und dem Internet haben. Werkzeuge der KI sind nur ein weiterer Schritt der Informationsgesellschaft, nicht das Ende des Bildungswesens“, beruhigt Professor Tobias Keber vom Institut für digitale Ethik an der Hochschule der Medien in Stuttgart.

Bereits jetzt ist es Schülern und Studierenden aber möglich, das Programm als Hilfe für Referate oder Hausarbeiten zu nutzen. Zu bestimmten Themen, die mit vielen Trainingsdaten unterfüttert seien, ließen sich schon heute gute Ergebnisse erzielen, sagt Doris Weßels, Professorin für Wirtschaftsinformatik und Expertin für KI-gesteuerte Textverarbeitung an der Fachhochschule Kiel. „Die Menge der KI-gestützten Werkzeuge wächst täglich und erschlägt einen regelrecht“, sagt sie. Nach ihrer Einschätzung liegen die Vorteile auf der Hand: „Diese Werkzeuge versprechen eine hohe Produktivitätssteigerung und einen deutlichen Zeitgewinn“, fügt sie hinzu. Andere gehen noch weiter. „Das ist ein Gamechanger“, sagt Paul Nemitz, Digitalberater der EU-Kommission und Mitglied der Datenethikkommission der Bundesregierung. Nicht wenige erwarten, dass die neue Software unser gesamtes Bildungssystem auf den Kopf stellt.

Trotzdem gibt es auch viel Kritik am jetzigen Zustand: „Es ist ein munter halluzinierendes System, das sowohl Wahres wie auch Falsches von sich gibt, aber immer sehr selbstbewusst und eloquent formuliert“, so die KI-Expertin Weßels. Die Grenzen in der Glaubwürdigkeit der KI-Texte musste auch eine Schweizer Physikerin feststellen, die den Chatbot bat, einen Abriss über das Thema ihrer Doktorarbeit zu produzieren. Wie sie auf Twitter berichtet, kam ein ordentlich formulierter, wenn auch oberflächlich zu lesender Text heraus – mit frei erfundenen Zitaten und Quellenangaben.

Das sei nicht weiter beunruhigend, meint Doris Weßels. „Damit ist bald Schluss, wenn es eine neue Version gibt, die von Suchmaschinen gestützt wird. Das System ist sehr dynamisch und entwickelt sich rasant weiter“, sagt Wessels. Eine neue Version soll schon im Frühjahr kommen und Falschinfos eindämmen. Ob der neue ChatGPT-4 dann faktengecheckte Texte mit echten Quellenangaben präsentiert, ist noch offen. Der Software-Riese Microsoft, der viel Geld in OpenAI bereits investiert hat und sich womöglich an dieser Firma beteiligen will, arbeitet daran, die Technologie von ChatGPT in seine Suchmaschine „Bing“ zu integrieren, um sich stärker gegen die Konkurrenz von Google zu positionieren. Die wiederum arbeiten am eigenen Sprachassistenten „Sparrow“, als Antwort auf ChatGPT, für den aber noch kein Veröffentlichungsdatum feststeht. Könnten diese Systeme die klassischen Suchmaschinen ablösen? „Ja“, mutmaßt Doris Weßels: „Die Grenzen dieser Systeme verschwimmen, ChatGPT oder Sparrow werden zu einer Art interaktiver und individueller Such- und Erklärmaschine.“ Sie vermutet, es werde zunächst eine Koexistenz beider Produkte geben, bevor sich Nutzer dann für den Weiterbestand nur eines der beiden entscheiden werden.

Der Einfluss des Chatbots auf den Arbeitsmarkt wiederum ist für die Experten noch schwer abzuschätzen. „Auf jeden Fall wird es im Bildungsbereich durch diese digitalen Innovationen einen Wandel in der Rolle der Lehrenden und neue Formen des individualisierten Lernens geben“, sagt Weßels. Kompetenzen für Lehrende in Umgangstechniken mit der KI seien jetzt entscheidend, dafür bietet Doris Weßels mit einem Expertenteam an der FH Kiel seit September 2022 auch das virtuelle Kompetenzzentrum „Schreiben lehren und lernen mit Künstlicher Intelligenz“ an.

Medienrechtler und Digitalethiker Tobias Keber sieht insbesondere den Einsatz von KI im Gesundheitsbereich kritisch: „Es hat schon einen Bezug zur Menschenwürde, wenn ich einem Gegenüber intimste Informationen preisgebe und nicht weiß, ob es ein Mensch oder eine Maschine ist“, sagt Keber und warnt zudem: „Eine KI beurteilt nicht, das sollte dem Menschen vorbehalten sein. Sie kann und sollte dem Menschen assistieren, ihn aber niemals komplett ersetzen“, sagt Keber. Kreativität und neue Erkenntnisse könne die Maschine darüber hinaus auch nicht liefern.

Im Widerspruch dazu steht die Forschung nach einer superintelligenten KI (“AGI“), die menschliches Niveau erreichen soll. Der Philosoph und Kognitionsforscher Thomas Metzinger sagte 2022 in einem Interview mit dem „Humanistischen Pressedienst“, er halte es für möglich, das KI-gestützte Computerprogramme ein Bewusstsein entwickeln könnten. Hypothetisch gesehen könnte so eine AGI noch in diesem Jahrhundert den Menschen in allen Bereichen der Intelligenz und der kognitiven Kraft übertreffen, meint Metzinger: „Auch wenn wir an diesem Punkt noch lange nicht sind.“ Allerdings schrieb er bereits 2009 in seinem bekannten Buch „Ego-Tunnel“: „Künstliches Bewusstsein ist nicht so sehr ein theoretisches Problem in der Philosophie des Geistes, sondern vielmehr eine technologische Herausforderung.“ Der Google-Entwickler Ray Kurzweil kündigte schon 2005 die technologische Singularität für 2045 an, also den Punkt, ab dem KI die menschliche Intelligenz übertrifft. Doch für beide gilt: Es wäre nicht das erste Mal, dass ein Zukunftsforscher irrt.

Meistgelesen
Neueste Artikel
Zum Thema
Aus dem Ressort