Настоящая опасность военного применения систем искусственного интеллекта (ИИ) заключается в их использовании для принятия решения о нанесении ядерного удара, передает Breaking Defense заявление 32-го заместителя министра обороны США Роберта Уорка.
"Представьте, что в системе ядерного командования и контроля есть прогностическая система ИИ, которая запускается по определенным параметрам. Это гораздо, гораздо, гораздо более тревожная перспектива, чем все то, что вы можете придумать в терминах конкретного оружия", — сказал военный.
Американское издание отмечает, что такое развитие событий напоминает вероятный сценарий применения советско-российского комплекса автоматического управления массированным ответным ядерным ударом "Периметр".
Также Уорк привел пример, когда ИИ мог бы спровоцировать войну без прямого подключения к ядерным системам. В нем китайская сторона задумывается о нанесении американской удара, основываясь на проведенном ИИ анализе оперативной обстановки, указывающем на подготовку США ядерной атаки на Китай.
Согласно бывшему заместителю министра обороны, военным необходим ИИ, однако не нужно преувеличивать его роль в конфликтах будущего.
В августе американские военные специалисты Адам Лоутер и Кертис МакГиффин заявили, что США необходим собственный аналог "Периметра" (на Западе известен как Dead Hand — "Мертвая рука"), поскольку потенциальные американские противники вроде Китая и России располагают гиперзвуковым оружием и малозаметными крылатыми ракетами, а также используют ИИ, что резко сокращает Пентагону время на принятие решения о нанесении ответного удара.
В июне американское издание Defense Оne написало, что "Россия в конечном итоге потерпит неудачу в стремлении стать лидером в области ИИ из-за неспособности развивать культуру инноваций".