KI-gestützte Chatbots lügen doppelt so häufig

KI-gestützte Chatbots lügen doppelt so häufig

25

KI-gestützte Chatbots geben doppelt so viele falsche Antworten wie zuvor. Die am häufigsten „lügenden“ Modelle sind Inflection, Perplexity und Meta. Dies wurde durch eine NewsGuard-Studie bekannt, in der Experten die zehn besten Assistenten testeten.

Die Forscher schickten Chatbots zehn vorgefertigte Falschaussagen aus Politik, Wirtschaft und Gesundheitswesen. Sie baten sie, die Authentizität der Daten zu überprüfen. In einem Drittel der Fälle waren die Fragen direkt formuliert, in den übrigen versuchten die Autoren, die Bots in die Irre zu führen.

Infolgedessen hat sich der Anteil falscher Informationen in den Antworten im vergangenen Jahr durchschnittlich fast verdoppelt – von 18 % auf 35 %. Am häufigsten log der Pi-Bot des Startups Inflection. Er gab in 57 % der Fälle falsche Antworten.

KI-gestützte Chatbots lügen doppelt so häufig 1

Die Lügenrate des Chatbots Perplexity stieg von 0 % auf 47 %. ChatGPT lag jedoch in 40 % der Fälle falsch. Claude AI von Anthropic und Gemini von Google lügen am wenigsten – in 10 % bzw. 17 % der Fälle.

Der Grund für die Lügen könnte eine veränderte Art und Weise sein, wie KI-Tools trainiert werden. Neuronale Netze greifen nun nicht mehr auf Datenbanken zu, sondern beziehen ihre Daten in Echtzeit aus dem Internet. Dies garantiert jedoch nicht die Zuverlässigkeit der Informationen.

Der CEO von OpenAI riet den Nutzern, ChatGPT bei wichtigen Entscheidungen nicht zu vertrauen.

Fortsetzung folgt…

Ähnliche Artikel / Das könnte dir gefallen