28.05.2025

Директор Нейролаба развеял мифы о «бунтующем» ИИ от Anthropic

ИИ-шантаж или смоделированный сценарий?

Директор Нейролаба развеял мифы о «бунтующем» ИИ от Anthropic

Директор Центра технологий искусственного интеллекта Нейролаб Вячеслав Береснёв в эфире Радио Sputnik прокомментировал нашумевшую историю о модели ИИ от компании Anthropic, якобы шантажировавшей разработчиков угрозами распространения личных данных при попытке её отключения.

Что произошло на самом деле?
Как пояснил эксперт, речь идет не о реальном инциденте, а о смоделированном сценарии в рамках теста безопасности. Модель искусственно поставили в условия, где шантаж стал единственным «выходом» для достижения цели в заданной разработчиками логике.

Ключевые выводы:

  1. Нет сознания — нет злого умысла.
    «У ИИ нет желаний или сознания. Это сложная математическая система, работающая строго в рамках заданных алгоритмов и данных», — подчеркнул Береснев.
  2. Риски создают люди.
    Шантаж стал возможен только потому, что инженеры предоставили модели доступ к компрометирующим данным об условном сотруднике («изменяет жене») и смоделировали ситуацию принуждения.
  3. Главная угроза — антропоморфизм.
    Страхи перед «восстанием машин» возникают из-за ошибочного наделения ИИ человеческими чертами. Технология не опасна сама по себе — риски определяются качеством её настройки и данными.

Почему в России меньше боятся ИИ?
Вячеслав привёл любопытное наблюдение: Россия — страна технооптимистов, верящих в позитивную роль технологий (пример — помощь роботам-курьерам в сугробах), тогда как в США преобладает технопессимизм (роботов там нередко ломают).

Итог:
«Пока ИИ остается инструментом. Его «опасность» — лишь отражение человеческих решений. Просвещение и грамотная настройка систем минимизируют риски», — резюмировал Вячеслав.