Elon Musks neue Online-Enzyklopädie Grokipedia bezieht systematisch Informationen von weithin diskreditierten und extremistischen Websites, darunter auch solche, die mit Ideologien der weißen Rassisten in Verbindung gebracht werden. Eine neue Analyse von Forschern von Cornell Tech zeigt, dass die Plattform häufig auf der schwarzen Liste stehende Quellen wie Stormfront – ein großes Online-Forum für weiße Nationalisten, das von einem ehemaligen Ku-Klux-Klan-Führer gegründet wurde – und die rechtsextreme Verschwörungsseite Infowars zitiert.

Ergebnisse der Cornell-Analyse

Die Studie, bei der über 1,01 Millionen Grokipedia-Artikel durchsucht wurden, ergab einen starken Kontrast bei der Quellenangabe im Vergleich zu Wikipedia. Während sich Wikipedia in erster Linie auf Mainstream-Nachrichten und wissenschaftliche Veröffentlichungen verlässt, zitiert Grokipedia mit alarmierender Häufigkeit extremistische Medien. Konkret identifizierte die Analyse 107 Zitate von VDare, einer weißen nationalistischen Publikation, die vom Southern Poverty Law Center (SPLC) als Hassgruppe eingestuft wurde, sowie 34 Zitate von Infowars.

Die Forscher stellten außerdem fest, dass Grokipedia beim Umschreiben hochwertiger Wikipedia-Artikel eine klare Ausrichtung auf politische, historische und biografische Themen zeigte. Die Einträge der Website waren durchweg länger und ausführlicher als die ihrer Wikipedia-Pendants und stützten sich gleichzeitig auf eine unverhältnismäßig höhere Anzahl unzuverlässiger Quellen.

Musks Behauptungen vs. Realität

Musk startete Grokipedia als direkte Konkurrenz zu Wikipedia, der er wiederholt eine „linke Voreingenommenheit“ vorgeworfen hat. Er behauptete zunächst, seine Plattform sei bereits in der Anfangsphase überlegen, doch die Daten deuten auf etwas anderes hin. Der Redaktionsprozess der Website bleibt undurchsichtig, da Benutzer Artikel nicht direkt bearbeiten können, aber Vorschläge einreichen können, die vom xAI-Team gefiltert werden. Das Ausmaß der Beteiligung des Grok-Chatbots an der Faktenprüfung ist unklar, obwohl der Bot bereits zuvor eine Neigung gezeigt hat, Hassreden zu erzeugen und Adolf Hitler zu loben.

Warum das wichtig ist

Der Rückgriff von Grokipedia auf extremistische Quellen gibt Anlass zu ernsthafter Sorge hinsichtlich der Verbreitung von Fehlinformationen und der Normalisierung von Hassreden. Im Gegensatz zu Wikipedia, das nach strengen Community-Richtlinien arbeitet, die Wert auf überprüfbare Genauigkeit und Neutralität legen, scheint Grokipedia an robusten Schutzmaßnahmen gegen voreingenommene oder unzuverlässige Inhalte zu fehlen. Dies ist besonders gefährlich, wenn man bedenkt, dass Musk in der Vergangenheit wieder weiße Rassisten auf X (ehemals Twitter) eingesetzt und rechtsextreme Rhetorik betrieben hat.

„Die öffentlich festgelegten, gemeinschaftsorientierten Regeln, die versuchen, Wikipedia als umfassende, zuverlässige, von Menschen erstellte Quelle zu erhalten, werden auf Grokipedia nicht angewendet“, sagt Harold Triedman, der Autor des Berichts.

Diese Entwicklung unterstreicht die Risiken einer unkontrollierten redaktionellen Kontrolle und das Potenzial für algorithmische Verzerrungen in Online-Wissensplattformen. Während sich Grokipedia weiterentwickelt, werden seine Beschaffungspraktiken wahrscheinlich die Informationslandschaft prägen und den öffentlichen Diskurs auf eine Weise beeinflussen, die einer kritischen Prüfung bedarf.