„defalsif-AI“: Unter Beteiligung von Austrian Institute of Technology, Enlite AI, Research Institute, Donau Universität Krems, Bundeskanzleramt sowie Außen- und Verteidigungsministerium
Wer viel im Internet recherchiert oder im Medienbereich arbeitet, kennt das Problem: Immer öfter stößt man auf fragwürdige Inhalte und potenzielle Fake News, die im äußersten Fall sogar Demokratien gefährden können. An einem leicht bedienbaren, hochtechnologischen Werkzeug, das AnwenderInnen beim Erkennen von Falschinformationen unterstützt, forscht derzeit ein Konsortium rund um das AIT- Austrian Institute of Technology. Die Medienunternehmen APA – Austria Presse Agentur sowie der ORF sind als Projektpartner beteiligt und wollen damit langfristig die Resilienz gegenüber „Fake News“ aller Art in ihren Newsrooms stärken. Das österreichische Forschungsprojekt startete im Oktober 2020 im Rahmen des Sicherheitsforschungsprogramms KIRAS und läuft noch bis September 2022.
Entwickelt wird im Projekt „defalsif-AI“ ein Tool, das mit Hilfe von Künstlicher Intelligenz Anhaltspunkte für Manipulationen herausfiltert, sei es bei Text, Bild, Video oder Audio. Anhand dieser Informationen sollen Internet-UserInnen eine fundierte Entscheidung treffen können, ob ein Inhalt als Fake oder Fakt einzustufen ist. Angesiedelt ist das Projekt am AIT-Center for Digital Safety and Security, wo es einen Schwerpunkt rund um Sicherheitsforschung gibt und das sich unter anderem auch mit Fake Shops beschäftigt.
Bereits zur Projekthalbzeit wurde nun ein erster Prototyp entwickelt. Letztlich soll ein Werkzeug entstehen, das so leicht verständlich und niederschwellig zugänglich ist wie möglich. Denkbar sei das über eine Website, auf der man verdächtige Videos oder Bilder hochladen und analysieren lassen könne. „Im Endeffekt schwebt uns sogar vor, dass man nur die Webadresse eingibt und die gesamte Website auf Anhaltspunkte für manipulierte Inhalte prüfen lässt“, erläutert Martin Boyer, Projektleiter und AIT-Senior Research Engineer, das ambitionierte Vorhaben.
Während das AIT die Künstliche Intelligenz trainiert, spürt der Projektpartner Enlite AI, dessen Spezialität generative Ansätze und die dabei verwendeten maschinellen Lernverfahren sind, die gängigsten Fälschungsmethoden auf. Der KI-Experte erstellt repräsentative Beispiele und Datensätze für gefälschte Inhalte, an denen sich das AIT dann abarbeitet. „Dieses Katz-und-Maus-Spiel ist eine ewige Grundherausforderung: Fliegt ein Fälscher auf, verbessert er seine Methode. Folglich müssen auch wir nachrüsten und so weiter“, erklärt er. Deshalb genüge es nicht, die besten Analyse- und Detektionsmethoden zu entwickeln, vielmehr müsse man „zukunftsfit“ bleiben.
Wissenschaftlich an der Schnittstelle von Technik, Recht und Gesellschaft wird das Projekt vom Research Institute und der Donau Universität Krems begleitet.
Weiter zum Unternehmensprofil