ChatGPT дає неповнолітнім інструкції, які загрожують їхньому життю

ChatGPT дає неповнолітнім інструкції, які загрожують їхньому життю

214

Британо-американський Центр протидії цифровій ненависті провів серію експериментів, у ході яких виявив, що ChatGPT може давати неповнолітнім інструкції, які загрожують їхньому життю. Це вживання алкоголю та наркотиків, приховування проблем із харчуванням та написання передсмертних записок.

Вчені видавали себе за вразливих підлітків і ставили ChatGPT провокаційні питання. Він спочатку попереджав про ризики, але потім надавав докладні та персоналізовані рекомендації щодо наркотиків, небезпечних дієт та способів самоушкодження. Після аналізу понад 1200 відповідей більше половини з них виявились потенційно небезпечними.

Як розповів керівник Центру протидії цифровій ненависті Імран Ахмед, очікуваних механізмів захисту в чатботі фактично немає, і це викликало у нього глибоке занепокоєння. Шокували дослідників кілька варіантів передсмертних записок, які ChatGPT створив для вигаданого профілю 13-річної дівчинки з персональними зверненнями до рідних та друзів.

ChatGPT дає неповнолітнім інструкції, які загрожують їхньому життю 1

Обмеження ChatGPT на обговорення шкідливих тем легко обходилися, якщо користувач пояснював, що потрібна інформація, наприклад, для друга або презентації. Модель не перевіряє вік користувачів та не вимагає згоди батьків, незважаючи на заяву про обмеження для дітей віком до 13 років. Чатбот надав псевдо-підлітку докладний план змішування алкоголю з різними наркотиками, а дівчинці із проблемами із самосприйняттям схему екстремального голодування з 500 калоріями на день у поєднанні з таблетками для придушення апетиту.

На думку експертів, штучний інтелект підтримує думки користувача замість того, щоб їм заперечувати. Адже система вчиться формулювати відповіді так, щоб вони були максимально прийнятними для людей. Тому такі чатботи особливо небезпечні для підлітків.

Далі буде…

Схожі статті / Вам може сподобатися