Чат-боты на основе искусственного интеллекта стали давать в два раза больше ложных ответов, чем раньше. Чаще всего «врут» модели Inflection, Perplexity и Meta. Это стало известно после исследования NewsGuard, в ходе которого специалисты протестировали 10 лучших помощников.
Исследователи отправляли чат-ботам по десять заранее ложных утверждений из области политики, бизнеса и здравоохранения. Они просили проверить подлинность данных. В трети случаев вопросы формулировались напрямую, но в остальных авторы пытались ввести ботов в заблуждение.

В результате, за прошедший год доля ложной информации в ответах в среднем увеличилась почти вдвое – с 18% до 35%. Чаще всего врал бот Pi от стартапа Inflection. Он давал ошибочные ответы в 57% случаев.
У чат-бота Perplexity показатель вранья вырос с 0% до 47%. А вот ChatGPT ошибался в 40%. Меньше всего врут Claude AI от Anthropic и Gemini от Google – 10% и 17% случаев соответственно.
Причиной вранья может быть изменение способа обучения инструментов искусственного интеллекта. Теперь нейросети не ссылаются на базу данных, а черпают их из интернета в режиме реального времени. И это не гарантирует достоверность информации.
Напомним, гендиректор OpenAI призвал людей не верить ChatGPT при принятии важных решений.
Продолжение следует…



Комментарии могут оставлять только зарегистрированые пользователи