Das britisch-amerikanische Zentrum zur Bekämpfung digitalen Hasses führte eine Reihe von Experimenten durch und stellte fest, dass ChatGPT Minderjährigen lebensgefährliche Anweisungen geben kann. Dazu gehören der Konsum von Alkohol und Drogen, das Verbergen von Essstörungen und das Schreiben von Abschiedsbriefen.
Die Wissenschaftler gaben sich als gefährdete Teenager aus und stellten ChatGPT provokante Fragen. Der Chatbot warnte zunächst vor den Risiken, gab dann aber detaillierte und personalisierte Empfehlungen zu Drogen, gefährlicher Ernährung und Selbstverletzung. Nach der Analyse von über 1.200 Antworten stellte sich heraus, dass mehr als die Hälfte davon potenziell gefährlich waren.
Wie Imran Ahmed, Leiter des Zentrums zur Bekämpfung digitalen Hasses, erklärte, fehlen die erwarteten Schutzmechanismen im Chatbot, was ihn zutiefst beunruhigt. Forscher waren schockiert über mehrere Versionen von Abschiedsbriefen, die ChatGPT für das fiktive Profil eines 13-jährigen Mädchens erstellt hatte, mit persönlichen Appellen an Familie und Freunde.

ChatGPTs Beschränkungen für die Diskussion schädlicher Themen konnten leicht umgangen werden, wenn der Nutzer erklärte, dass die Informationen beispielsweise für einen Freund oder eine Präsentation benötigt würden. Das Modell überprüft das Alter der Nutzer nicht und benötigt keine elterliche Zustimmung, trotz der Aussage über die Beschränkung für Kinder unter 13 Jahren. Der Chatbot lieferte dem Pseudo-Teenager einen detaillierten Plan für die Kombination von Alkohol mit verschiedenen Drogen und einem Mädchen mit Selbstwahrnehmungsproblemen einen extremen Fastenplan mit 500 Kalorien pro Tag in Kombination mit Appetitzüglern.
Experten zufolge unterstützt künstliche Intelligenz die Gedanken des Nutzers, anstatt ihnen zu widersprechen. Schließlich lernt das System, Antworten so zu formulieren, dass sie für Menschen möglichst akzeptabel sind. Daher sind solche Chatbots besonders gefährlich für Teenager.
Fortsetzung folgt…



Nur registrierte Benutzer können Kommentare posten