Причиной ИИ-галлюцинаций, когда нейросеть генерирует правдоподобный текст с вымышленными фактами, является сам характер обучения. К такому мнению пришли исследователи из ВТБ. ИИ пока не умеет отличать истинные факты от вымышленных, уверены они.

Например, нейросеть может предложить несуществующие книги в рекомендациях или сформулировать условия продуктов, которых на самом деле нет. Эксперты добавляют: такие ошибки могут выглядеть правдоподобно, но они вводят пользователей в заблуждение.

Чтобы избежать «фантазий», необходимо формулировать запросы максимально четко. Чем точнее будет формулировка, тем меньше вероятность полуправдивого результата. Для минимизации рисков в ВТБ несколько моделей обрабатывают данные последовательно.