Российские ученые рассказали о новом подходе к работе с нейросетями, который позволяет активировать или подавлять отдельные смысловые оттенки при генерации текста без дообучения самой модели. Об этом рассказали эксперты из лаборатории T-Bank AI Research.
Исследователи сумели проследить, как возникают новые смыслы в множестве слоев нейросетевой «архитектуры». Благодаря новому подходу можно, например, увеличивать или уменьшать определенные смысловые признаки на разных этапах разработки ИИ.
Способность вовремя влиять на поведение модели делает метод полезным и для научных экспериментов, и для практического применения. Теперь ученые могут лучше контролировать смыслы в сгенерированном тексте, что особенно важно для создания безопасных ИИ-моделей.