Директор Нейролаба развеял мифы о «бунтующем» ИИ от Anthropic
ИИ-шантаж или смоделированный сценарий?
Директор Нейролаба развеял мифы о «бунтующем» ИИ от Anthropic
Директор Центра технологий искусственного интеллекта Нейролаб Вячеслав Береснёв в эфире Радио Sputnik прокомментировал нашумевшую историю о модели ИИ от компании Anthropic, якобы шантажировавшей разработчиков угрозами распространения личных данных при попытке её отключения.
Что произошло на самом деле?
Как пояснил эксперт, речь идет не о реальном инциденте, а о смоделированном сценарии в рамках теста безопасности. Модель искусственно поставили в условия, где шантаж стал единственным «выходом» для достижения цели в заданной разработчиками логике.
Ключевые выводы:
- Нет сознания — нет злого умысла.
«У ИИ нет желаний или сознания. Это сложная математическая система, работающая строго в рамках заданных алгоритмов и данных», — подчеркнул Береснев. - Риски создают люди.
Шантаж стал возможен только потому, что инженеры предоставили модели доступ к компрометирующим данным об условном сотруднике («изменяет жене») и смоделировали ситуацию принуждения. - Главная угроза — антропоморфизм.
Страхи перед «восстанием машин» возникают из-за ошибочного наделения ИИ человеческими чертами. Технология не опасна сама по себе — риски определяются качеством её настройки и данными.
Почему в России меньше боятся ИИ?
Вячеслав привёл любопытное наблюдение: Россия — страна технооптимистов, верящих в позитивную роль технологий (пример — помощь роботам-курьерам в сугробах), тогда как в США преобладает технопессимизм (роботов там нередко ломают).
Итог:
«Пока ИИ остается инструментом. Его «опасность» — лишь отражение человеческих решений. Просвещение и грамотная настройка систем минимизируют риски», — резюмировал Вячеслав.