KI bei „Illner“ „Das kann wirklich jeder Depp“

Berlin · Halluzinationen, Regularien und der iPhone-Moment: ChatGPT und andere Technologie auf Basis Künstlicher Intelligenz sind Thema bei „Maybrit Illner“. Dazu hat vor allem die Netzaktivistin Anke Domscheit-Berg viel zu sagen.

 Die Talkrunde bei „Maybrit Illner“ am 13. April 2023.

Die Talkrunde bei „Maybrit Illner“ am 13. April 2023.

Foto: ZDF

Bei „Maybrit Illner“ sollen die Gäste über Künstliche Intelligenz diskutieren, allem voran über ChatGPT. Das Motto der Sendung am Donnerstagabend heißt „Künstliche Intelligenz – Maschine gegen Mensch?

Die Gäste:

  • Anke Domscheit-Berg (Linke), Obfrau im Bundestagsausschuss für Digitales
  • Saskia Esken, SPD-Vorsitzende und Informatikerin
  • Rangar Yogeshwar, Wissenschaftsjournalist
  • Miriam Meckel, Kommunikationswissenschaftlerin
  • Achim Berg, Präsident des Digitalverbands Bitkom

Darum ging’s:

Um Wahrheit und Fälschung, um Macht und das letzte Wort.

Der Talk:

Mit einem bekannten Science-Fiction-Soundtrack untermalt spielt erste Einspieler der Talkshow mit den Gefühlen, als ob eine dunkle Macht den deutschen Alltag unterwandert habe. „Es war wie so ein Rausch“, sagt danach der Wissenschaftsjournalist Rangar Jogeshwar über seine ersten Erfahrungen mit dem auf maschinellem Lernen basierenden Chatbot ChatGPT. Er berichtet von dessen Antwort auf die Frage, ob Yogeshwar verheiratet sei - und liefert in seiner Begeisterung einen Nebensatz, der einen Dreh- und Angelpunkt der Diskussion zusammenfasst: „was glatt gelogen war“.

Die Netzaktivistin Anke Domscheit-Berg verweist darauf, dass nicht nur die Menschen mit Hilfe von solchen Anwendungen lügen können, sondern auch die KI „Dinge herbeifantasiert“. Technologie wie ChatGPT nutze gefälschte Inhalte und lerne daraus. Domscheit-Berg spricht von Informationsverschmutzung und lenkt den Blick auf das gesellschaftliche Umfeld. In einer Zeit eines gesteigerten Misstrauens in demokratische Prozesse, Medien und Institutionen und eine Zeit, in der Verschwörungstheorien blühen, käme „ein mächtiges Medium, das es uns ermöglicht, perfekt zu lügen und das mit ‚Beweisen‘ zu unterlegen.“

Domscheit-Berg erklärt, mit Hilfe von KI habe nun die breite Öffentlichkeit die Möglichkeit, perfekt gefälschte Bilder, Texte und Videos zu erstellen: „Das kann wirklich jeder Depp im Keller oder im Wohnzimmer machen.“ Das Problem: Eine Information wirke glaubwürdiger, wenn sie eloquent dargeboten und mit pseudowissenschaftlichen Quellen daherkomme, und auch, was Menschen mit eigenen Augen sehen, was sie selbst hören, empfänden sie als wahr. „Aber es sind halt gefakte Bilder, gefakte Videos, gefakte Audios“, sagt die Linken-Politikerin. Am Ende lasse sich nicht mehr unterscheiden, was wahr und unwahr sei.

Den Zeitpunkt, als ChatGPT Ende letzten Jahres der breiten Masse zugänglich wurde, nennt die Kommunikationswissenschaftlerin Miriam Meckel den „iPhone-Moment der Künstlichen Intelligenz“. Die Folge sieht sie in einer kulturellen Veränderungen, bei der sich die Menschheit „mitten in einem Selbstexperiment“ befinde. Dabei zieht Meckel eine scharfe Trennlinie: Die Frage, was Technologie mache, ist in ihren Augen falsch gestellt. „Technologie macht nichts, sondern erstens erfinden wir sie, und zweitens benutzen wir sie. Und alles, was KI macht, entsteht dadurch, dass wir mit ihr interagieren, dass wir sie füttern und auf sie reagieren.“

Als Regierungsvertreterin räumt die SPD-Vorsitzende Saskia Esken ein, dass Deutschland bei der Digitalisierung insgesamt hinterherhinkt. Sie verweist aber darauf, dass die Informatik schon vor 30 Jahren, als sie selbst noch in dem Feld arbeitete, über neuronale Netze und KI nachgedacht habe. „Der Unterschied zwischen uns und den amerikanischen Entwicklungen ist das Geld“, sagt Esken. Sie sieht die technologische Entwicklung aber „längst nicht bei iRobot angekommen“. Dennoch gehe es in der Politik darum, Ziele, Rahmenbedingungen und Grenzen für KI aufzuzeigen. Und: „Die Europäische Union ist in dieser Frage wesentlich weiter als die USA.“

„Es gibt schon genügend Regularien“, sagt Achim Berg, Präsident des Verbands Bitkom, der sich für die Interessen der digitalen Wirtschaft in Deutschland einsetzt. Beim Thema „Deep Fake“ setzt sich Berg hingegen vehement für eine Kennzeichnung ein. „Die müssen ein Wasserzeichen haben“, sagt Berg. Die Forderung von Tesla- und Twitter-Inhaber Elon Musk nach einer Pause bei der Entwicklung von KI hält der Bitkom-Verbandschef indes für „nicht uneigennützig“. Dabei spielt er darauf an, dass Musk keine Anteile mehr an ChatGPT hält.

Daraufhin weist der Wissenschaftsjournalist Yogeshwar darauf hin, dass die Forderung nicht nur vom berühmten Musk stamme, sondern von mehr als tausend Branchenspezialisten unterzeichnet worden sei. „Die sagen alle: Wir verstehen diese Systeme nicht.“ Daran knüpft Domscheit-Berg später an: Wenn man es nicht verstehe, müsse man die Systeme öffnen, transparent machen und allen Wissenschaftlern einen Einblick ermöglichen.

Yogeshwar rückt indes von der allgemeinen Ansicht ab, im Zusammenhang mit Technologie nicht von „denken“ zu sprechen. An diesem Punkt schaltet sich Meckel ein: Hier ginge es zunächst um die Frage, wie Denken definiert sei. Sie lässt Gehirnvergleich außen vor und beschreibt KI als „ein Wahrscheinlichkeits-Ausrechne-Modell.“ ChatGPT etwa täte nichts anders aus auszurechnen, welches Wort mit welcher Wahrscheinlichkeit nach diesem Wort käme. Das versetze das System in die Lage, einen Text zu produzieren, der überzeugend klinge.

Die Digital-Aktivistin Domscheit-Berg stellt dar, dass einerseits keine besonderen Fähigkeiten mehr nötig sind, um mit Maschinen zu kommunizieren. Das bringe Vorteile etwa für Menschen mit Rechtschreib- oder Sprachschwierigkeiten. Man brauche auch nicht mehr dasselbe Maß an Talent für Felder vom Programmieren bis zum Design. „Jetzt braucht man andere Kompetenzen: Wie schreibt man einen klugen Prompt, also einen kleinen Befehl oder Auftrag?“

Als Werkzeug lasse sich Künstliche Intelligenz für ganz verschiedene Aufgaben einsetzen – auch für gefährliche Zwecke. „Im Moment lassen wir ein Waffenarsenal mit einem offenen Scheunentor stehen“, sagt Domscheit-Berg. „Jeder kann hingehen und sich bedienen, und wir hoffen, dass keiner etwas Böses tut.“ Es fehle nicht nur an Regulierung, sondern auch an Kompetenz, etwa beim Umgang mit Falschinformationen, und auch auf die Veränderungen auf dem Arbeitsmarkt sei man nicht vorbereitet.

Meckel fasst wissenschaftliche Erkenntnisse zu den Risiken neuer Technologien so zusammen: Kurzfristige Folgen würden überschätzt, langfristige Folgen unterschätzt. Sie spricht sich gegen Begriffe wie „Waffe“ aus, auch gegen eine Pause bei der Entwicklung. Zwar stimmt die Kommunikationswissenschaftlerin der Forderung nach Transparenz zu, gleichzeitig setzt sie sich aber für eine begleitete, hochfinanzierte Weiterentwicklung ein, die ihrer Ansicht nach unter anderem Audits mit einschließen sollten.

Meckel stimmt Domscheit-Berg zu, dass ein wichtiger Punkt sei, dass keine Kompetenzen nötig seien. „Man braucht aber ganz viel Kompetenz, um zu verstehen: Was passiert denn da?“, sagt Meckel. „Wenn ich da suche, bekomme ich eben keine sauberen Ergebnisse, sondern Halluzinationen, wie es im Expertenjargon heißt.“ So würden beispielsweise bei der Aufgabe, Quellen zu finden, zwar Links ausgegeben, diese führten aber oft ins Nichts.

Das inspiriert wiederum den Digitalbranchenvertreter Berg. Er sieht ChatGPT-generierte Texte als Bildungswerkzeug, das Schülern zur Korrektur gegeben werden kann. Berg betont auch, dass am Arbeitsmarkt durch KI vor allem Routinetätigkeiten in gehobenen Berufen von Journalist bis Anwalt ersetzt werden. „Alles was nervt, entfällt“, stimmt Yogeshwar zu. Auch Meckel sieht es so, dass nicht alle Jobs in einem Bereich wegfallen, sondern sie spricht von „graduellen Veränderungen“. Zudem würden sich in einigen Berufen dadurch Zeitfenster öffnen, um sich mit Menschen auseinanderzusetzen.

Angesichts von Szenarien, in denen Hunderte Millionen Jobs durch KI wegfallen, erinnert Domscheit-Berg daran, dass KI selbst gar nichts tut. „Es sind Manager, die entscheiden, ob Jobs ersetzt werden oder nicht.“Die Linken-Politikerin warnt vor dem Machtpotenzial von KI, das ihrer Darstellung nach in den Händen weniger Milliardäre liegt. Die großen Tech-Konzerne zu zerschlagen sieht sie aber nicht als Lösung, das könnten ohnehin nur die USA. Europa könne dennoch etwas unternehmen: „Wir brauchen eine ethische, gemeinwohlorientierte, öffentlich finanziert und eben nicht kommerziellen Interessen und einzelnen Konzernen unterlegene Alternative dazu“, fordert Domscheit-Berg.

Schließlich holt die SPD-Vorsitzende Esken das Thema zurück zur Frage der Intelligenz. Genauer gesagt der beim Thema oft mitschwingenden Idee, Technologie sei angesichts der Fülle von Informationen irgendwie „intelligenter“. Sie fordert ein klares Verständnis davon, dass das menschliche Urteil das letzte Wort haben müsse. „Unsere Kinder müssen heute in den Schulen lernen, mit solchen Systemen zusammenzuarbeiten, aber eben immer auch zu wissen, was ihre eigenen Fähigkeiten sind.“

Domscheit-Berg hat Einwände. „Der Letztentscheid ist in die Tasche gelogen“, sagt sie und berichtet von einer Untersuchung in Polen, bei der KI an der Vergabe von Sozialleistungen beteiligt wurde. In weniger als einem Prozent der Fälle hätten die Sachbearbeiter sich gegen die von der KI empfohlene Entscheidung gestellt. „Die Praxis ist, dass der Mensch dann doch tut, was die KI empfiehlt.“

Daraus zieht Domscheit-Berg den Schluss, dass KI nicht bei Entscheidungen herangezogen werden solle, die ethisch relevant sind, Grundrechte berühren, die Gesundheit und das Leben von Menschen beträfen oder einen Schaden anrichten könnten, der nicht mehr korrigiert werden könne. Meckel stimmt zu, erinnert aber gleichzeitig an die Fehlbarkeit des Menschen. „Wir tun jetzt gerade so, als ob der Mensch in seinen Entscheidungen perfekt wäre“, sagt die Kommunikationswissenschaftlerin. „Das ist er überhaupt nicht.“ Doch Moderatorin Maybrit Illner weist auf einen entscheidenden Unterschied zur KI hin: Menschen werden für ihre Fehler haftbar gemacht.

(peng)
Meistgelesen
Neueste Artikel
Zum Thema
Aus dem Ressort