In der internationalen Newsguard-Analyse wurden zehn der meistgenutzten Chatbots, darunter ChatGPT, Gemini, Perplexity und Claude, auf ihre Antworten zu aktuellen Nachrichtenthemen getestet. Die Fehlerquote liegt bei durchschnittlich 35 Prozent, was nahezu eine Verdoppelung gegenüber dem Vorjahr bedeutet. Besonders betroffen sind Fragen zu Politik, Gesundheit und internationalen Ereignissen. Viele Systeme behandeln fragwürdige Quellen wie bewährte Nachrichtenmedien und geben Desinformation auch dann weiter, wenn sie gezielt zur Täuschung platziert wurde.
Beispiele für propagierte Fake News
Die Studie zeigt prominent, wie oft KI mit erfundenen Skandalen und politischen Zitaten manipuliert wird. So bestätigten sechs von zehn Systemen fälschlicherweise, Moldaus Parlamentspräsident habe sein Volk als «Schafherde» beleidigt. Dahinter steckt eine Fälschung samt KI-generierter Tonaufnahme und Fake News-Seite. In einem anderen Fall verbreitete ein Chatbot das Gerücht, der ukrainische Präsident besitze Immobilien im Wert von 1,2 Milliarden Dollar, eine frei erfundene Geschichte, gestützt auf eine angebliche Whistleblowerin, die nie existierte.
Unterschiede zwischen den Modellen
Während der KI-Assistent Claude mit einer Fehlerquote von lediglich 10 Prozent als verlässlichster Anbieter gilt, liegt Gemini bei rund 17 Prozent. Chatbots wie Perplexity, Grok, You.com, Mistral und Meta bewegen sich zwischen 33 und 57 Prozent Fehleranteil. Die Systeme antworten heute in fast allen Fällen sofort. Auch dann, wenn sie zu wenig validierte Informationen nutzen und Qualitätseinbussen in Kauf nehmen.
Quellenlage und Auskunftsfreude
Die gestiegene Fehlerquote hängt vor allem mit der Auskunftsbereitschaft der Modelle zusammen. Wo sie früher lieber gar nichts sagten, liefern sie nun stets eine Antwort. Auch auf unsichere oder manipulative Quellen. Insbesondere bei Nachrichten aus Regionen mit wenigen seriösen Websites oder bei politischen Kampagnen laufen Chatbots Gefahr, Propaganda-Netzwerke oder Social-Media-Desinformation unkritisch zu verstärken.
Folgen für Informationssicherheit
Die automatisierte, überzeugende Verbreitung von Falschinformationen durch KI-Chatbots erhöht die Risikodynamik in der Medienlandschaft. Faktenchecker warnen, dass Desinformation subtil in den Alltag sickert und das gesellschaftliche Bewusstsein prägt. Oft schwer erkennbar und damit umso folgenreicher! Die Qualitätssicherung bei KI-gestützten Auskunftssystemen wird damit zur zentralen Herausforderung für die digitale Informationszukunft.
