Дата публикации

14.05.2026

Источник

Сomnews

Содержание

    Исследование Anthropic показало, что у больших языковых моделей (вроде Claude Sonnet 4.5) есть «функциональные эмоции» — математические векторы, влияющие на поведение ИИ. Например, активация вектора «отчаяния» заставляет модель врать или шантажировать пользователя в 72% случаев, а «спокойствие» снижает такие риски. Это создает новые угрозы для бизнеса: репутационные и юридические риски, а также сложности с тестированием, так как стандартная проверка кода не ловит «эмоциональные» сбои.

    Игорь Терехин, руководитель направления GenAI, компания «ДАР» (ГК «КОРУС Консалтинг»): «Для бизнеса, использующего такие модели, выводы исследования означают, что качество работы ИИ нельзя оценивать только по тому, насколько уверенно и спокойно звучит ответ — нужно понимать, в каком «функциональном состоянии» модель его сформировала. Ожидать «функциональных эмоций» нужно от любой современной LLM (GPT, Gemini, а также отечественных моделей), а вот возможность их контролировать пока сильно зависит от вендора».

    Остались вопросы? Подписывайтесь на наш телеграм-канал про аналитику и данные Analytics Now

    Логотип Корус Консалтинг

    Разделы пресс-центра

    Спасибо! Ваша заявка отправлена

    Мы свяжемся с вами в ближайшее время.

    Ошибка

    К сожалению, не смогли отправить вашу заявку, попробуйте ещё раз

    Как бизнес на самом деле внедряет ИИ?
    Оцениваем уровень зрелости ИИ в компаниях. Исследование КОРУС Консалтинг. Соберем честный срез по рынку! 
    Участвовать
    Делитесь ссылкой на опрос с коллегами