Bericht der „Time“ enthüllt Die Abgründe von ChatGPT

San Francisco · Der Chatbot ChatGPT sorgt seit Wochen für Begeisterung und Diskussionen im Internet und in der Politik. Hinter dem Erfolg steckt künstliche Intelligenz, die vorher gezielt trainiert wurde. Ein Bericht der „Time“ enthüllte nun, von wem und unter welchen Bedingungen diese Aufgabe ausgeführt wurde.

 Die Homepage von ChatGPT (Archivfoto).

Die Homepage von ChatGPT (Archivfoto).

Foto: dpa/Karl-Josef Hildenbrand

ChatGPT wurde bei seiner Veröffentlichung im vergangenen November als eine der beeindruckendsten technologischen Innovationen des Jahres 2022 gepriesen. Der leistungsstarke Chatbot mit künstlicher Intelligenz (KI) kann Texte zu fast jedem Thema generieren, Drehbücher schreiben, Bewerbungen, E-Mails, ganze Aufsätze oder Computercodes. Innerhalb einer Woche hatte es mehr als eine Million Nutzer. Wie die Schulen in NRW mit ChatGPT umgehen, lesen Sie hier. Aber die Erfolgsgeschichte hat offenbar auch ihre Schattenseiten.

Segen und Fluch zugleich

Der Vorgänger von ChatGPT, GPT-3, neigte laut einem Bericht des US-amerikanischen Nachrichtenmagazins „Time“ dazu, gewalttätige, sexistische und rassistische Äußerungen von sich zu geben. Der Grund dafür war, dass die KI mit Hunderten von Milliarden von Wörtern aus dem Internet trainiert worden war. Der große Trainingsdatensatz sorgte für die beeindruckenden sprachlichen Fähigkeiten von GPT-3, war aber vielleicht auch sein größter Fluch. Denn: Es gab keine einfache Möglichkeit, diese Teile der Trainingsdaten einfach und schnell zu bereinigen. Doch wie schaffte es das Unternehmen OpenAI, das hinter ChatGPT steckt, einen alltagstauglichen Chatbot zu erstellen?

Die Lösung war echt simpel. Die KI wurde mit markierten Beispielen von Gewalt, Hassreden und sexuellem Missbrauch gefüttert. Auf diese Weise lernte das Tool, diese Formen zu erkennen und herauszufiltern, bevor sie den Nutzer erreichen.

Kenianische Leiharbeiter trainierten KI

Um die Kennzeichnungen für die Datensätze zu erhalten, schickte OpenAI ab November 2021 laut Informationen von „Time“ Zehntausende von Textfragmenten an ein Outsourcing-Unternehmen in Kenia. Viele dieser Texte schienen aus den dunkelsten Nischen des Internets zu stammen. In einigen davon wurden Situationen wie sexueller Kindesmissbrauch, Bestialität, Mord, Selbstmord, Folter, Selbstverletzung und Inzest detailliert beschrieben.

Der Outsourcing-Partner von OpenAI in Kenia war den Informationen des Magazins zufolge Sama. Dabei handelt es sich um ein in San Francisco ansässiges Unternehmen, das Arbeiter in Kenia, Uganda und Indien beschäftigt, um Daten für Kunden aus dem Silicon Valley wie Google, Meta und Microsoft zu kennzeichnen. Sama vermarktet sich selbst als „ethische KI“-Firma und behauptet, mehr als 50.000 Menschen aus der Armut geholfen zu haben.

Stundenlohn zwischen 1,32 und 2 Dollar

Die Personen, die von Sama im Auftrag von OpenAI beschäftigt wurden, erhielten laut „Time“ je nach Dienstalter und Leistung einen Lohn zwischen 1,32 und 2 Dollar pro Stunde. Ein Sama-Mitarbeiter, der mit dem Lesen und Beschriften von Texten für OpenAI betraut war, erzählte „Time“, dass er unter wiederkehrenden Visionen litt, nachdem er eine grafische Beschreibung eines Mannes gelesen hatte, der in Gegenwart eines kleinen Kindes Sex mit einem Hund hatte. „Das war Folter“, sagte er. „Sie werden im Laufe der Woche eine Reihe solcher Aussagen lesen. Wenn es dann Freitag wird, ist man schon ganz verstört, wenn man dieses Bild durchdenkt.“ Der traumatische Charakter der Arbeit führte schließlich dazu, dass Sama im Februar 2022, acht Monate früher als geplant, seine gesamte Arbeit für OpenAI einstellte.