Künstliche Intelligenz bekommt auch in der Arbeitswelt der Tourismusbranche eine immer stärkere Bedeutung. Allerdings sollten KI-Assistenten und -Chatbots wie Chat GPT oder Gemini mit Vorsicht genossen werden – oftmals können diese falsche Informationen liefern.
Dies hat eine neue Studie der Europäischen Rundfunkunion (EBU) nachgewiesen, bei der Journalisten von öffentlich-rechtlichen Medien aus 18 Ländern vier führende KI-Tools auf den Zahn gefühlt haben. Dabei zeigte sich, dass KI-Assistenten in 45 Prozent der Fälle Nachrichteninhalte falsch wiedergegeben haben. 31 Prozent wiesen fehlende, irreführende oder falsche Quellenangaben auf, ein Fünftel der Antworten enthielten „erhebliche Genauigkeitsprobleme, darunter erfundene Details und veraltete Informationen“, heißt es in einer Mitteilung der EBU.
Gemini schnitt am schlechtesten ab
Unter den gängigen KI-Chatbots schnitt Gemini „mit erheblichen Problemen“ in 76 Prozent der Antworten am schlechtesten ab. Das war mehr als doppelt so viel wie die anderen Assistenten, was vor allem auf die schlechte Leistung bei der Quellenangabe zurückzuführen sei.
„Diese Untersuchung zeigt eindeutig, dass es sich hierbei nicht um Einzelfälle handelt“, so Jean Philip De Tender, Mediendirektor und stellvertretender Generaldirektor der EBU. „Es handelt sich um ein systemisches, grenzüberschreitendes und mehrsprachiges Problem, das unserer Meinung nach das Vertrauen der Öffentlichkeit gefährdet.“
Welche Dimension das bereits annimmt, unterstreichen folgende Zahlen: Laut Digital News Report 2025 des Reuters Institute nutzen bereits sieben Prozent aller Online-Nachrichtenkonsumenten KI-Assistenten, um sich zu informieren, bei den unter 25-Jährigen sind es sogar 15 Prozent. (rie)
