Künstliche Intelligenz im Einsatz gegen Fake News ©Clarote & AI4Media / Better Images of AI / Power/Profit / CC-BY 4.0
Drei KI-Projekte aus NRW, die Journalist*innen bei der Erkennung von Desinformationen und manipulierten Inhalten unterstützen
2024 war ein Superwahljahr. In mehr als 60 Ländern, darunter in 27 Ländern der Europäischen Union, gaben die Bürgerinnen und Bürger ihre Stimme ab.1 Im Fokus der medialen Berichterstattung stand dabei besonders die US-amerikanische Präsidentschaftswahl zwischen Kamala Harris und Donald Trump. Grund dafür war neben der internationalen Tragweite der Wahl selbst, auch die schiere Menge an Desinformationen und Fake News, die in den Sozialen Medien zur Manipulation des Wahlverhaltens in Umlauf gebracht wurde. Laut New York Times hat die Verbreitung von Lügen, Halbwahrheiten und Fälschungen im Kontext der US-Wahl in 2024 einen Höchstwert erreicht.2 Zeit, sich auch mit Blick auf die kommende Bundestagswahl in Deutschland, näher mit dem Thema zu beschäftigen und zu zeigen, wie KI hier helfen kann.
Journalistinnen und Journalisten stehen vor der Herausforderung, diese Desinformationen für die Öffentlichkeit als solche kenntlich zu machen. Da die damit verbundene Arbeit sehr zeitintensiv ist, gibt es immer mehr Medienschaffende, die hierzu eine Unterstützung durch KI-basierte Anwendungen ins Auge fassen. Gerade weil manipulierte Inhalte immer öfter auch selbst mithilfe von KI-Systemen erzeugt werden, kann es eine große Hilfe sein, technologisch gleichzuziehen. In NRW gibt es mehrere Initiativen, die an solchen Lösungen arbeiten. In unserem Blog stellen wir drei davon vor.
1. noFake: Mit menschlicher und Künstlicher Intelligenz gegen Desinformation
Bereits 2022 haben sich das gemeinnützige Recherchezentrum CORRECTIV und Wissenschaftsteams der Ruhr-Universität Bochum, der TU Berlin sowie der TU Dortmund in dem Projekt »noFake« zusammengeschlossen. In »noFake« arbeiten die Partner an neuen Wegen im Kampf gegen Desinformation. Dazu nutzen Sie bekannte Methoden wie Faktenchecks oder Informationskompetenztrainings in Kombination mit Methoden des maschinellen Lernens und KI.
Ein Hauptziel des Projekts ist die Entwicklung eines »KI-unterstützte[n] Assistenzsystem[s] für die Crowdsourcing-basierte Erkennung von über digitale Plattformen verbreiteter Desinformation«. Durch den sogenannten CORRECTIV.Checkbot sollen Fake News und Desinformationen online schneller erkannt werden. Denn die Masse an Informationen macht journalistische Faktenchecks, wie sie von vielen Redaktionen durchgeführt werden, viel zu aufwendig, um sie flächendeckend als effektives Mittel gegen Desinformation einzusetzen.
Bei der Entwicklung des Assistenzsystems arbeiten die Projektpartner eng zusammen. Das Recherchezentrum CORRECTIV steuert seine journalistische Expertise bei, sowie eine Datenbank mit mehr als 3.000 faktengecheckten Artikeln. Diese Faktencheck-Datenbank wurde auf MongoDB vektorisiert und ist die Zugriffsquelle im Backend des Checkbots. An der TU Dortmund wird an einem Algorithmus gearbeitet, der das Clustern von Informationen erleichtert. Forschende an der Universität Bochum widmen sich einem Algorithmus, der Texte auf ihre Faktencheck-Möglichkeit prüft. So soll der Algorithmus etwa erkennen, ob es sich um einen journalistischen Text, einen Blog oder einen Social-Media-Kommentar handelt.
Entscheidend für das Funktionieren des CORRECTIV.Checkbots ist neben der Vektordatenbank ein eigens entwickelter KI-Filter, der die fünf besten Übereinstimmungen zwischen Nutzeranfrage und Datenbank etwa nach Relevanz und Aktualität auswertet. Dafür nutzen die Developer GPT-4, die jüngste Version des OpenAI-Sprachmodells, und die Chat-Vervollständigungsfunktion von OpenAI.
All diese Prozesse arbeiten im Hintergrund und sollen dann im Frontend durch einen KI-Assistenten für Nutzer*innen bzw. Crowdworker zugänglich gemacht werden. Dieser Assistent gibt Usern entweder eine Zusammenfassung des Faktencheck-Artikels mit dem Link zum vollständigen Artikel aus oder legt offen, dass es keine Übereinstimmung gab. Einen ersten Einblick, wie das in der Praxis aussehen könnte, liefert der sogenannte Correctiv-Checkbot, der erstmals auf der Onlinekonferenz JournalismAI Festival im Dezember 2023 vorgestellt wurde.
2. vera.ai: Zuverlässige KI-Lösungen zur Identifizierung von Desinformation entwickeln
Im Projekt »vera.ai« arbeiten die Deutsche Welle und 13 weitere internationale Projektpartner an der Entwicklung und dem Aufbau zuverlässiger KI-Lösungen, die bei der Bekämpfung von Desinformation helfen sollen. Dabei nehmen die Entwickler*innen alle Arten von Content ins Visier, von Text über Audio und Bildern bis hin zu Video. Die Zielgruppe für die vera.ai-Lösungen sind vor allem Journalist*innen, Faktenprüfer*innen, Forscher*innen und Ermittler*innen, die insbesondere bei Menschenrechtsverletzungen, in der Lage sein müssen, gefälschte Inhalte schnell und einfach zu erkennen. Viele der entwickelten Tools finden sich in einem sogenannten »verification plug-in« für den Browser, welcher momentan von über 130.000 Menschen genutzt wird.3
Darüber hinaus entwickelt die Deutsche Welle mit »SPOT« ein Tool, das KI-gestützte Geolokalisierung ermöglicht. Die Verifizierung von Orten gewinnt zunehmend an Bedeutung, da häufig falsche Angaben über die Aufnahmeorte von Bildern und Videos verbreitet werden. SPOT arbeitet mit Prompting und kommt ohne Programmierkenntnisse aus. Auf eine Anfrage hin erlaubt das Programm die Standortüberprüfung direkt in Google Street View.4
3. NEBULA: Smartphone-Apps und Browser-Plugins für Fake News-Check in den Sozialen Medien
Das Verbundprojekt »NEBULA« des Hochschulnetzwerks NRW befasst sich mit der Erkennung von Fake News und Fehlinformationen speziell in sozialen Medien wie TikTok, X und Facebook. Im Fokus der Projektausrichtung steht die Unterstützung vulnerabler Personen, die potenziell besonders anfällig für die Manipulation durch Falschinformationen sind. Das Projekt entwickelt Demonstratoren in Form von Smartphone-Apps, Browser-Plugins und Webanwendungen, um Einzelpersonen und Behörden dabei zu helfen, Fake News und Fehlinformationen selbst besser zu erkennen.
Hierbei werden schnell erzeugbare schwache Wissensgraphen eingesetzt. Aussagen in diesen Graphen werden anschließend semantisch analysiert und zusätzlich zum Training eines neuronalen Netzes genutzt. Der Fokus des verwendeten maschinellen Lernverfahrens liegt dabei auf textbasierten Daten und Metadaten der Texte.5
KI als Schlüssel im Kampf gegen Desinformation
Künstliche Intelligenz mag ein Verstärker, aber auch eine Lösung im Kampf gegen Fake News sein. Gerade in einer Zeit, in der sich Fake News und manipulierte Inhalte schnell und flächendeckend verbreiten, bieten KI-Tools wertvolle Unterstützung für Journalist*innen und Faktenchecker*innen, aber auch für Bürgerinnen und Bürger, die selbst Inhalte überprüfen möchten. Projekte wie noFake, vera.ai und NEBULA zeigen, wie vielfältig die Ansätze und Anwendungen von KI im Bereich der Fake News-Erkennung mittlerweile sind. Auch wenn die Herausforderungen groß bleiben, leisten diese Entwicklungen einen wichtigen Beitrag zur Förderung von Transparenz in einer digitalen Welt.
KI-Projekte aus dem nordrhein-westfälischen KI-Ökosystem
Auf unserer KI.Landkarte weisen wir über 1300 Einträge von KI-Akteuren aus NRW aus, darunter Forschungsprojekte, Anbieter-Unternehmen, Qualifizierungsprogramme für Mitarbeitende oder Studiengänge zum Thema Maschinelles Lernen und Künstliche Intelligenz.
Weitere Informationen:
1 Globales Superwahljahr 2024 – 11.02.2024, SPIEGEL Online
2 As Election Looms, Disinformation ‘Has Never Been Worse’ – The New York Times
3 https://corporate.dw.com/de/dw-setzt-mit-veraai-den-kampf-gegen-desinformation-fort/a-63246263
4 https://innovation.dw.com/articles/geolocation-verification-with-ai-our-solution