Чат-боты на основе ИИ стали врать в два раза чаще

Чат-боты на основе ИИ стали врать в два раза чаще

55

Чат-боты на основе искусственного интеллекта стали давать в два раза больше ложных ответов, чем раньше. Чаще всего «врут» модели Inflection, Perplexity и Meta. Это стало известно после исследования NewsGuard, в ходе которого специалисты протестировали 10 лучших помощников.

Исследователи отправляли чат-ботам по десять заранее ложных утверждений из области политики, бизнеса и здравоохранения. Они просили проверить подлинность данных. В трети случаев вопросы формулировались напрямую, но в остальных авторы пытались ввести ботов в заблуждение.

Чат-боты на основе ИИ стали врать в два раза чаще 1

В результате, за прошедший год доля ложной информации в ответах в среднем увеличилась почти вдвое – с 18% до 35%. Чаще всего врал бот Pi от стартапа Inflection. Он давал ошибочные ответы в 57% случаев.

У чат-бота Perplexity показатель вранья вырос с 0% до 47%. А вот ChatGPT ошибался в 40%. Меньше всего врут Claude AI от Anthropic и Gemini от Google – 10% и 17% случаев соответственно.

Причиной вранья может быть изменение способа обучения инструментов искусственного интеллекта. Теперь нейросети не ссылаются на базу данных, а черпают их из интернета в режиме реального времени. И это не гарантирует достоверность информации.

Напомним, гендиректор OpenAI призвал людей не верить ChatGPT при принятии важных решений.

Продолжение следует…

Похожие статьи / Вам может понравиться