Европейский вещательный союз и BBC провели исследование, в ходе которого проверили более 3000 ответов популярных нейросетей — ChatGPT, Copilot, Gemini и Perplexity — на новостные запросы на 14 языках. Исследование показало, что 45% ответов содержали серьёзные ошибки, а 81% — мелкие неточности. 

ИИ часто ссылался на несуществующие источники, использовал устаревшие данные или неверно различал факты и мнения. Хуже всего проявила себя Gemini: три четверти её ответов оказались недостоверными. 

Авторы исследования отмечают, что подобные ошибки связаны с принципом работы больших языковых моделей — они обучаются на ограниченных данных и выдают вероятностные ответы. Также подчёркивается, что уязвимости сохраняются и у ИИ-браузеров, которые можно обмануть с помощью «prompt-инъекций».