Bildungsministerin Anja Karliczek (CDU): „Menschenwürde im Zeitalter Künstlicher Intelligenz“

Gastbeitrag der Bildungsministerin : Wir brauchen ein Gütesiegel für vertrauenswürdige Künstliche Intelligenz

Bildungsministerin Anja Karliczek (CDU) fordert in einem Gastbeitrag für unsere Redaktion einen eigenen europäischen Weg beim Thema Künstliche Intelligenz. Ein Gütesiegel soll aus ihrer Sicht vertrauenswürdige Produkte auszeichnen.

Darf sich in einem säkularisierten Staat eine Bundesforschungsministerin bei ihrer Arbeit vom christlichen Menschenbild leiten lassen? Ich sage: ja. Das christliche Menschenbild basiert auf der Überzeugung, dass die Würde eines jeden Menschen unantastbar ist. Diese Unantastbarkeit der Menschenwürde steht aus gutem Grund am Anfang unseres Grundgesetzes. Es ist die Grundlage für unser Zusammenleben in Frieden, Freiheit und Individualität. Doch gutes Zusammenleben in einer Demokratie will immer wieder neu erarbeitet werden. Jede Generation steht dabei vor neuen Herausforderungen.

Eine der großen Herausforderungen unserer Zeit ist Künstliche Intelligenz (KI). Ebenso rasant, wie sie unsere Art zu leben und zu arbeiten verändert, entwickelt sie sich selbst. Erst hat sie uns im Schach besiegt, heute spricht sie mit uns und morgen fährt sie unser Auto. KI ist längst nicht mehr nur ein einfacher Algorithmus, der durchführt, worauf er programmiert wurde. KI lernt selbst. Sie lernt von unserem Verhalten. Aber lernt sie das Richtige? Oder verstärkt sie unsere Vorurteile? Irrt sie sich auf eine neue, für uns fremde Art? Was ist, wenn sie zu dem Ergebnis kommt, dass unsoziales Verhalten sich lohnt, Demokratie ihr als nicht effizient erscheint, sie den Menschen als fehlerhaft beurteilt und zum Risiko erklärt? Wie finden wir das heraus? Wie kontrollieren wir KI? Wie stellen wir sicher, dass sie dem Menschen dient?

Um zu sehen, auf welch unterschiedliche Art und Weise KI das Leben der Menschen verändern kann, müssen wir nur den Kopf drehen und einmal nach Osten, einmal nach Westen blicken. China nutzt KI, um Bürgerinnen und Bürger zu überwachen und die Macht des Staates auszuweiten. In den USA liegt die Datenmacht bei einigen wenigen großen Unternehmen. Beides wollen wir in Deutschland, in Europa nicht.

Bildungsministerin Anja Karliczek (CDU) stellt beim Thema Künstliche Intelligenz die Menschenwürde in den Mittelpunkt. Foto: dpa/Bernd von Jutrczenka

Wir wollen, ja wir müssen einen eigenen, einen europäischen Weg gehen. Dafür haben wir in Deutschland unter anderem eine Enquête- und eine Datenethikkommission eingesetzt. Auf europäischer Ebene hat eine Expertengruppe der EU-Kommission gerade ethische Richtlinien für eine vertrauenswürdige KI entwickelt: Sie darf nicht diskriminieren. Sie muss zuverlässig sein. Sie muss Persönlichkeitsrechte achten, Machtmissbrauch verhindern und Transparenz ermöglichen. Eine vertrauenswürdige KI stellt sicher, dass der Mensch die Kontrolle behält. Auch in Zukunft. Dies ist eine wichtige Grundlage für eine europäische Marke: „KI made in Europe“.

In Deutschland haben wir gute Erfahrungen mit TÜV und Stiftung Warentest gemacht. Gütesiegel zählen etwas. Ich finde, wir sollten über einen TÜV für vertrauenswürdige Künstliche Intelligenz „made in Europe“ nachdenken. Ich bin überzeugt: Ein solches Gütesiegel wäre ein gutes Verkaufsargument, sogar über Europa hinaus. Denn Vertrauen ist Voraussetzung dafür, dass Menschen KI nutzen wollen.

Was das konkret bedeutet, sehen wir bei der Gesundheitsforschung. Wir nutzen Künstliche Intelligenz, um Krankheiten wie Krebs zu bekämpfen. KI kann neue individuelle Therapien ermöglichen, indem sie riesige Datenmengen analysiert. Aber was, wenn wir nicht nachvollziehen können, wie KI zu ihrer Therapieempfehlung gekommen ist? Vertrauen wir ihr wie einem Arzt? Vermutlich nicht. Ergebnisse von KI müssen daher erklärbar gemacht werden – übrigens ein großer Forschungsschwerpunkt im Rahmen der KI-Strategie der Bundesregierung. Denn wir wollen nicht blind vertrauen, wir brauchen Werkzeuge, um uns ein eigenes Bild zu machen.

Ebenso brauchen wir die Massendaten. Auf den einzelnen Menschen zugeschnittene Medizin werden wir nur erreichen, indem wir die Verschiedenheit von Krankheitsverläufen aus einer Vielzahl von Daten extrahieren. Die Menschen werden sensible Daten aber nur zur Verfügung stellen, wenn sie dem Empfänger vertrauen können. Wenn sie sicher sein können, dass für sie kein Schaden entsteht und sie anderen Menschen damit helfen. Big Data und KI benötigen solche Vertrauensinstanzen.

Die Europäische Datenschutzgrundverordnung macht vor, wie das geht. Und sie findet sogar bei großen amerikanischen Unternehmen Anklang. Auch sie wünschen sich Regeln. Denn eine freiheitliche Gesellschaft braucht Regeln, damit sie funktioniert.

Menschen machen Fehler, haben Vorurteile und folgen nicht einmal immer den eigenen moralischen Leitlinien. Aber wir haben, und da komme ich auf das christliche Weltbild zurück, eine Vorstellung, wie Menschen miteinander umgehen. Wie unsere Zukunft mit KI aussehen wird, ist offen. Wir werden auf dem Weg dahin auch Fehler machen. Aber wir haben die Fähigkeit, Fehler zu korrigieren. Deswegen bin ich optimistisch: Wir werden Vertrauen zu KI haben, wenn wir ein Gefühl für ihre Stärken und Schwächen entwickeln und wir immer Mittel behalten, die KI zu kontrollieren. Die Unantastbarkeit der Würde des einzelnen Menschen darf niemals in Frage gestellt werden.

Mehr von RP ONLINE