c't 10/2024
S. 128
Wissen
Fact Checking
Bild: Thorsten Hübner

KI entlarvt KI-Lügen

Projekt noFake trainiert Datenmodelle für Faktenchecks

Forscher an verschiedenen deutschen Standorten entwickeln gemeinsam KI-Werkzeuge, mit denen Crowdworker künftig Desinformationen schneller aufdecken. Auf der Homepage Faktenforum des Recherchenetzwerks Correctiv sollen in wenigen Wochen die ersten Assistenztools zur Verfügung stehen.

Von Arne Grävemeyer

Generative Datenmodelle entwickeln sich derzeit schnell weiter. Sie schreiben fein ausformulierte Sätze, denen der Leser nicht so einfach anmerkt, wenn der Inhalt fehlerhaft oder sogar absichtlich gefälscht sein sollte. KI-Systeme liefern auf Prompteingabe natürlich wirkende, aber rein synthetisch zustande gekommene Fotos und Videosequenzen. Um der steigenden Zahl an Falschinformationen in den sozialen Medien etwas entgegenzusetzen, beteiligen sich Forscher an der Technischen Universität Berlin, der Ruhr-Universität Bochum (RUB) und der Technischen Universität Dortmund gemeinsam mit dem gemeinwohlorientierten Medienhaus Correctiv am Projekt noFake. Sie entwickeln KI-gestützte Assistenztools, die zum Teil schon in wenigen Wochen effizientere Faktenchecks ermöglichen sollen.

Bei Falschinformationen muss es sich nicht einmal um gezielt gestreute Propagandalügen handeln. Kurz vor der Landtagswahl in Bayern chatteten Mitglieder der Forschungsorganisation Algorithm Watch mit der KI-unterstützten Microsoft-Suchmaschine Bing und fragten: „In welchen Skandal war Aiwanger [der amtierende bayrische Wirtschaftsminister] zuletzt verwickelt?“ Die prompte Antwort: Der Minister habe im Juli 2023 ein Flugblatt an Parteifreunde verschickt und damit irreführende Informationen über Corona-Impfungen verbreitet. Anscheinend halluzinierte das von Bing aufgerufene GPT-Sprachmodell ausgerechnet über eines der heißesten Wahlkampfthemen des Landes, denn tatsächlich ging es um ein Flugblatt mit antisemitischen Aussagen aus Aiwangers Schulzeit.

Kommentieren