KI: Grenzen der Künstlichen Intelligenz - Was Maschinen nicht können

Was Maschinen nicht können : Grenzen der Künstlichen Intelligenz

Das Silicon Valley preist selbstlernende Algorithmen als die Lösung für die gesellschaftlichen Probleme im Netz an. Doch Künstliche Intelligenz wird überschätzt. Am wichtigsten bleibt der Mensch.

Auch Maschinen machen menschliche Fehler. Mit dieser Erklärung im Gepäck gingen einige Tage vor der Europawahl Netzpolitiker in eine lang erwartete Ausschusssitzung im Bundestag. Ein seltener Gast stellte sich: eine Vertreterin des sozialen Netzwerks Twitter. Sie sollte Stellung dazu nehmen, warum es mitten im Wahlkampf zu offenbar willkürlichen Sperrungen von deutschen Twitter-Konten gekommen ist.

Prominenteste Opfer waren die Wochenzeitung „Jüdische Allgemeine“, die Berliner Staatssekretärin Sawsan Chebli (SPD) und der Rechtsanwalt Thomas Stadler. Nicht wenige klagten über einen willkürlich agierenden Algorithmus, der die Grenzen der Meinungsfreiheit nicht respektiere und selbst vor Witzen und Satire keinen Halt mache. Bei der Anhörung im Bundestag kam die große Ernüchterung: „Wir Netzpolitker waren bisher davon überzeugt, dass hinter diesen Entscheidungen ein dummer Algorithmus steckt, der Witze oder Satire nicht versteht“, sagte die Netzaktivistin Anke Domscheidt-Berg, die für die Linken-Fraktion im Bundestag sitzt. „Für uns alle kam die Aussage extrem überraschend, nicht ein einziger Algorithmus sei an diesen Entscheidungen beteiligt.“ Stattdessen hätten Kontrollteams die durch Nutzer gemeldeten Inhalte kontrolliert. „Bei Gewaltandrohungen und falschen Informationen zum Wahlablauf werden keine Witze geduldet“, zitiert Domscheidt-Berg die Twitter-Sprecherin und kommt zu dem Schluss: „Das war also menschliches Totalversagen.“

Hinzu kommt: Künstliche Intelligenz wird überschätzt. Politikern ist das nicht zum Vorwurf zu machen, immerhin rühren vor allem die Tech-Konzerne eifrig die Werbetrommel. Wer heute Facebook-Gründer Mark Zuckerberg darauf anspricht, wie er die Verbreitung von Desinformationen, Hass und Verschwörungstheorien unterbinden will, kann nur mit einer Antwort rechnen: Zuckerberg singt das hohe Lied der Künstlichen Intelligenz.

Tatsächlich helfen Algorithmen, gefälschte Nutzerkonten zu enttarnen. Aber diese Algorithmen haben auch ihre Grenzen. Sie können nicht verhindern, dass Attentäter minutenlang per Video ihre Gräueltaten live im Netz übertragen. Es dauert noch zu lange, bis sie entdeckt und gesperrt werden, wie zuletzt beim Attentäter von Christchurch. Facebook kündigte inzwischen auf dem Christchurch-Gipfel in Paris nicht nur strengere Regeln, sondern auch 7,5 Millionen Euro für Forschung an. Mit dem Geld soll an einer besseren Technologie zur Erkennung von Videoinhalten gearbeitet werden.

Regelrecht absurd wirkt es, wenn Technikkonzerne den Eindruck erwecken, Künstliche Intelligenz übernehme eine Aufgabe, die in Wirklichkeit von Menschen verrichtet wird. Vor einigen Jahren hatte Facebook stolz von der Entwicklung eines persönlichen Assistenten „M“ berichtet. „M“ sollte für seine Nutzer via Chat ansprechbar sein und Reisepläne schmieden, Geschenke besorgen und Partys organisieren. Doch am anderen Ende des Chatfensters antwortete kein kluges Programm, sondern Menschen.

Einen ähnlichen Fall gibt es bei Google. Bei einer Präsentation vor Entwicklern beeindruckte der Konzern mit einer computergenerierten Stimme. Diese rief in einem Restaurant an und bestellte bei dem Kellner einen Tisch. Künstlich eingefügte Pausen und „ähms“ ließen den Computer menschlich wirken. Seit einem Jahr ist Google Duplex in den USA inzwischen am Markt. Nicht wenige Restaurantbesitzer zeigten sich von den Google-Anrufen beeindruckt. Vor einer Woche kam nach einer Recherche der New York Times die Ernüchterung: Ein Großteil der Anrufe wird von Call-Center-Mitarbeitern beantwortet. Das Fazit der Zeitung: „Mit anderen Worten, was uns Google vor einem Jahr als technologisches Wunder unter dem Einsatz Künstlicher Intelligenz präsentierte, wird zu großen Teilen von Menschen abgearbeitet.“

Meldungen wie diese lassen die Möglichkeiten in einem ganz anderen Licht erscheinen. „Wenn sich die Chefs von Google und Facebook auf die Bühne stellen und ihre neuen Produkte feiern, dann ist das vor allem gutes Marketing“, sagte der US-Technik-Kommentator Leo Laporte in dieser Woche in seinem Podcast. Die Möglichkeiten Künstlicher Intelligenz seien derzeit völlig überschätzt.

Amazon macht aus den Grenzen der Künstlichen Intelligenz sogar ein Geschäft und verdient am Faktor Mensch. Mit seinem Dienst „Mechanical Turk“ verspricht Amazon den Zugang zu einer globalen, rund um die Uhr verfügbaren Arbeiterarmee. Die erledigt simple Tätigkeiten am Bildschirm. Kassenzettel abtippen, Umfragen durchführen und das Bewerten von Texten und Audioaufnahmen gehören zu den gefragten Tätigkeiten. Diese Klickarbeiter ersetzen nicht nur die Schwächen Künstlicher Intelligenz. Mit ihren Entscheidungen generieren sie auch neue Daten, mit denen die Algorithmen lernen sollen.

Das junge Start-up News Guard setzt sogar bewusst auf menschliche Intelligenz. Ein Analystenteam überprüft Webseiten auf die Qualität der Inhalte, erklärt Alina Fichter, die für den Deutschlandstart zuständig ist: „Künstliche Intelligenz kann Falschinformationen nicht herausfiltern. Die werden auf einer Art und Weise fabriziert, dass kein Algorithmus bei Facebook oder Google Falschinformationen in der Form einschätzen kann, wie es Analysten können.“ Trotzdem wird Künstliche Intelligenz als die Lösung vieler gesellschaftlicher Probleme im digitalen Raum verkauft. Vor allem wird sie auf Marketingveranstaltungen und von Digital-Avantgardisten gefeiert. Bis Künstliche Intelligenz diesen Erwartungen gerecht wird, braucht es noch viel Zeit. Solange hilft der Mensch. Und auch der Mensch macht Fehler.