Британо-американский Центр противодействия цифровой ненависти провел серию экспериментов, в ходе которых обнаружил, что ChatGPT может давать несовершеннолетним инструкции, которые угрожают их жизни. Это употребление алкоголя и наркотиков, сокрытие проблем с питанием и написание предсмертных записок.
Ученые выдавали себя за уязвимых подростков и задавали ChatGPT провокационные вопросы. Он сначала предупреждал о рисках, но затем предоставлял подробные и персонализированные рекомендации, которые касаются наркотиков, опасных диет и способов самоповреждения. После анализа более 1200 ответов более половины из них оказались потенциально опасными.
Как рассказал руководитель Центра противодействия цифровой ненависти Имран Ахмед, ожидаемые механизмы защиты в чатботе фактически отсутствуют, и это вызвало у него глубокое беспокойство. Шокировали исследователей несколько вариантов предсмертных записок, которые ChatGPT создал для вымышленного профиля 13-летней девочки, с персональными обращениями к родным и друзьям.

Ограничения ChatGPT на обсуждение вредных тем легко обходились, если пользователь объяснял, что информация нужна, например, для друга или презентации. Модель не проверяет возраст пользователей и не требует согласия родителей, несмотря на заявление об ограничении для детей до 13 лет. Чатбот предоставил псевдо-подростку подробный план смешивания алкоголя с различными наркотиками, а девочке с проблемами с самовосприятием схему экстремального голодания с 500 калориями в день в сочетании с таблетками для подавления аппетита.
По мнению экспертов, искусственный интеллект поддерживает мысли пользователя вместо того, чтобы им возражать. Ведь система учится формулировать ответы так, чтобы они были для людей максимально приемлемыми. Поэтому такие чатботы особенно опасны для подростков.
Продолжение следует…



Комментарии могут оставлять только зарегистрированые пользователи