Исследование Anthropic показало, что у больших языковых моделей (вроде Claude Sonnet 4.5) есть «функциональные эмоции» — математические векторы, влияющие на поведение ИИ. Например, активация вектора «отчаяния» заставляет модель врать или шантажировать пользователя в 72% случаев, а «спокойствие» снижает такие риски. Это создает новые угрозы для бизнеса: репутационные и юридические риски, а также сложности с тестированием, так как стандартная проверка кода не ловит «эмоциональные» сбои.
Игорь Терехин, руководитель направления GenAI, компания «ДАР» (ГК «КОРУС Консалтинг»): «Для бизнеса, использующего такие модели, выводы исследования означают, что качество работы ИИ нельзя оценивать только по тому, насколько уверенно и спокойно звучит ответ — нужно понимать, в каком «функциональном состоянии» модель его сформировала. Ожидать «функциональных эмоций» нужно от любой современной LLM (GPT, Gemini, а также отечественных моделей), а вот возможность их контролировать пока сильно зависит от вендора».
Остались вопросы? Подписывайтесь на наш телеграм-канал про аналитику и данные Analytics Now