 
            
    
    Was passiert bei SOUND DEMOCRACY oder generell im Themenbereich Medienkompetenz?
 
            
    
    Was passiert bei SOUND DEMOCRACY oder generell im Themenbereich Medienkompetenz?
 
                Laut einer aktuellen NewsGuard-Studie geben KI-Chatbots zunehmend falsche Informationen zu aktuellen Nachrichtenthemen wieder. Im Schnitt enthalten 35 % der Antworten von Tools wie ChatGPT, Perplexity oder Gemini wiederholt Fehlinformationen – ein deutlicher Anstieg gegenüber 18 % im Vorjahr. Grund sei, dass Chatbots durch verstärkte Echtzeit-Websuchen nun fast immer antworten, dabei aber oft auf unzuverlässige Quellen zurückgreifen.
Im Ranking liegt Inflection AI mit 56,7 % Fehlerquote vorn, gefolgt von Perplexity (46,7 %) und ChatGPT/Meta (je 40 %). Gemini (16,7 %) und Claude (10 %) schneiden am besten ab. Besonders Perplexity gilt als Sorgenkind: Es konnte 2024 noch alle Falschmeldungen erkennen, wiederholt nun aber fast jede zweite.
NewsGuard kritisiert, dass die Versprechen der Branche, verlässlichere Systeme zu entwickeln, bislang nicht eingelöst wurden. Die Ergebnisse zeigen: KI-Chatbots sind für journalistische Zwecke weiterhin mit Vorsicht zu nutzen.
Hier geht es zum Bericht von NewsGuard: ANALYSE (externer Link)