Google-Algorithmus - Suchmaschine auf der Suche nach "Glaubwürdigkeit"

Neuer Algorithmus : Googles Suche nach der Wahrheit

Der Internetriese hat eine grundlegende Überarbeitung seines Suchalgorithmus angekündigt. In Zukunft soll die Verbreitung von Falschmeldungen, Halbwissen und Verschwörungstheorien nicht mehr mit der Platzierung auf den vorderen Indexseiten belohnt werden. Ein Testlauf ergab: Einige populäre Internetseiten werden darunter zu leiden haben.

Google will seine Qualitätskriterien anpassen und Internetseiten bestrafen, die durch das Verbreiten von Halbwahrheiten und Falschmeldungen höhere Klickzahlen zu generieren versuchen. Das geht aus einem wissenschaftlichen Aufsatz hervor, den Software-Ingenieure des Unternehmens im Internet veröffentlicht haben. Neuer Maßstab der überarbeiteten Suchkriterien soll demnach die "Glaubwürdigkeit" einer Internetseite sein.

Was glaubwürdig ist und was nicht, bestimmt das Unternehmen selbst. Grundlage dafür ist die sogenannte "Knowledge Vault", eine von Google eingerichtete Datenbank, in der gesicherte Fakten über die Welt gespeichert sind. Der Internetkonzern will mit dem neuen Algorithmus sicherstellen, dass seine Nutzer auf eine Suchanfrage ein "möglichst richtiges Ergebnis" ausgespielt bekommen.

Doch wie soll das eigentlich funktionieren? Der neue Algorithmus trägt den klangvollen Namen "Knowledge-based Trust" (KBT, "Auf Wissen basierendes Vertrauen") und arbeitet, vereinfacht ausgedrückt, nach dem Prinzip: Je weniger falsche Fakten eine Internetseite enthält, desto glaubwürdiger ist sie. Zu diesem Zweck erfasst Google den Inhalt von Milliarden Internetseiten und vergleicht die darin enthaltenen Fakten mit den Daten, die in der "Knowledge Vault" hinterlegt sind.

Ganz so einfach ist das natürlich nicht. Da auch Google dem Umstand Rechnung tragen muss, dass es so etwas wie eine einzige Wahrheit gar nicht gibt, da Menschen ihre Umwelt unterschiedlich wahrnehmen und in der Wissenschaft nicht selten unterschiedliche Meinungen zu bestimmten Sachverhalten existieren, rechnet der KBT mit Wahrscheinlichkeiten. Der Algorithmus ermittelt im Zuge des Datenabgleichs zunächst, wie wahrscheinlich es ist, dass ein bestimmtes Faktum stimmt. Erst danach folgt der Abgleich mit der Datenbank und die Einstufung der Website.

Dazu bildet der KBT sogenannte "Triple". Eingehende Suchanfragen werden in drei Bestandteile aufgeschlüsselt. Der Algorithmus analysiert zunächst um wen oder was es geht. Ist die entsprechende Information vorhanden, schaut die Suchmaschine, was der Nutzer eigentlich wissen möchte. In einem dritten Schritt werden dann die entsprechenden Informationen abgerufen.

Welches Ergebnis am Ende ganz oben steht, entscheiden 16 sogenannte "Extractors", die die Daten, die der KBT für die Suchanfrage als relevant ermittelt hat, mit den vorhandenen Internetseiten abgleichen, und aus den emfangenen Daten eine "Glaubwürdigkeits"-Rangliste erstellen.

Erste Studien hat der Konzern bereits durchgeführt. Die Google-Ingenieure berichten davon, dass es bereits 2,8 Milliarden solcher Anfragen gegeben hat. Dabei wurden beinahe 119 Millionen Internetseiten auf ihre Glaubwürdigkeit überprüft. Das Ergebnis lässt aufhorchen: Viele populäre Webseiten sind dabei durch das neue Suchraster gerutscht. 14 von 15 Humor-Webseiten, die zu den Internetadressen mit den meisten Klicks in den USA gehören, fielen — wenig überraschend — beim Glaubwürdigkeitstest durch. Man darf also davon ausgehen, dass Google auch noch in Zukunft an seinem Algorithmus schrauben wird. Die jüngste Anpassung wird nicht die letzte gewesen sein.

Mehr von RP ONLINE