Was passiert bei SOUND DEMOCRACY oder generell im Themenbereich Medienkompetenz? 

Verlässlichkeit von KI-Chatbots sinkt

Wer es sich mit ChatGPT, Perplexity und Co. vermeintlich leichter machen will, muss trotzdem überprüfen, ob hier alles stimmt. Achtung bei der Informationsauswahl.

  • 5 Minuten

Laut einer aktuellen NewsGuard-Studie geben KI-Chatbots zunehmend falsche Informationen zu aktuellen Nachrichtenthemen wieder. Im Schnitt enthalten 35 % der Antworten von Tools wie ChatGPT, Perplexity oder Gemini wiederholt Fehlinformationen – ein deutlicher Anstieg gegenüber 18 % im Vorjahr. Grund sei, dass Chatbots durch verstärkte Echtzeit-Websuchen nun fast immer antworten, dabei aber oft auf unzuverlässige Quellen zurückgreifen.

Im Ranking liegt Inflection AI mit 56,7 % Fehlerquote vorn, gefolgt von Perplexity (46,7 %) und ChatGPT/Meta (je 40 %). Gemini (16,7 %) und Claude (10 %) schneiden am besten ab. Besonders Perplexity gilt als Sorgenkind: Es konnte 2024 noch alle Falschmeldungen erkennen, wiederholt nun aber fast jede zweite.

NewsGuard kritisiert, dass die Versprechen der Branche, verlässlichere Systeme zu entwickeln, bislang nicht eingelöst wurden. Die Ergebnisse zeigen: KI-Chatbots sind für journalistische Zwecke weiterhin mit Vorsicht zu nutzen.

Hier geht es zum Bericht von NewsGuard: ANALYSE (externer Link)

Unsere Förderer