Войти

SIPRI об искусственном интеллекте в ядерных системах

371
0
0

Источник изображения: topwar.ru

Стокгольмский международный институт исследования проблем мира (SIPRI) опубликовал доклад «Прагматические подходы к управлению на стыке искусственного интеллекта и ядерного оружия». Его основной вывод: интеграция ИИ в ядерные системы и связанные с ними системы вооружений кардинально меняет глобальную безопасность. Это создаёт новые формы уязвимости и неопределённости, которые могут дестабилизировать сдерживание и повысить риск непреднамеренной ядерной эскалации.

Эксперты SIPRI отмечают, что эпоха сокращения ядерных арсеналов подошла к концу, а новая гонка вооружений несёт в себе «гораздо больше рисков и неопределённости, чем предыдущая». По данным института, на начало 2025 года в мире насчитывалось 12 241 ядерная боеголовка, из которых 9 614 считались потенциально готовыми к применению. Россия лидирует с 4309 боеголовками в военных запасах, США располагают 3700 единицами.

Доклад выделяет три основные области применения ИИ в системах ядерного командования, управления и связи (NC3): стратегическое предупреждение, адаптивное наведение и поддержка принятия решений. Искусственный интеллект способен обрабатывать огромные объёмы данных в реальном времени, что теоретически должно давать командирам больше времени. Однако эксперты предупреждают о серьёзных рисках.

Источник изображения: topwar.ru

Основная проблема — отсутствие исторических данных о ядерных кризисах, необходимых для эффективного обучения ИИ. В отличие от других областей, где можно накопить большие массивы информации, немногочисленность ядерных кризисов в истории предоставляет ограниченный материал для машинного обучения. Это вынуждает полагаться на большие языковые модели (LLM), чья способность обеспечивать надёжную поддержку решений в быстро развивающихся и напряжённых сценариях вызывает сомнения.

Критической проблемой остаётся непрозрачность алгоритмов ИИ, известная как проблема «чёрного ящика». Лу Чуаньин, бывший глава Исследовательского центра международного управления киберпространством Шанхайских институтов международных исследований, указывает, что отсутствие прозрачности в системах ИИ на критически важных объектах, таких как ядерное управление, усложняет принятие решений и порождает сомнения в чрезвычайных ситуациях.

Особую тревогу вызывает риск автоматизации предрассудков — когда человек-оператор со временем начинает некритически принимать рекомендации машины, принимая алгоритмические предложения за собственное независимое суждение.

ИИ-усиленные системы высокоточного наведения, навигации и принятия решений могут улучшить обнаружение и поражение ядерных сил противника.

Стремление сохранить потенциал ответного удара может подтолкнуть к принятию более дестабилизирующих доктрин, таких как «запуск по предупреждению» (LOW) или «запуск под атакой» (LUA). Практически все ядерные державы развивают или уже обладают такими возможностями.

Примером служит майский конфликт 2025 года между Индией и Пакистаном, когда Индия применила сверхзвуковые крылатые ракеты «БраМос» с ИИ-системами наведения. Один из ударов был направлен на авиабазу Нур-Хан ВВС Пакистана в Равалпинди, расположенную неподалёку от центров ядерного командования. Советник премьер-министра Пакистана заявил, что у страны было лишь 30-45 секунд для оценки, несёт ли приближающаяся ракета ядерную боеголовку.

Отмечается роль неядерного оружия с поддержкой ИИ. Растёт роль ИИ-усиленного неядерного оружия, способного угрожать выживаемости ядерных систем. Это включает противоспутниковые системы, поражающие космическую инфраструктуру систем NC3, а также кибероружие для предзапусковых операций.

Дебаты о человеческом контроле не заставили себя ждать.

Вопрос сохранения человеческого контроля над ядерным оружием становится центральным в международных дискуссиях. Франция, Великобритания и США представили совместный рабочий документ о принципах ответственной практики для ядерных государств на Обзорной конференции ДНЯО в 2022 году. В 2024 году президенты КНР и США подчеркнули важность человеческого контроля над применением ядерного оружия.

Россия также выступает за сохранение человеческого фактора. Командующий РВСН генерал-полковник Сергей Каракаев заявил, что «замена человека в настоящее время нецелесообразна», поскольку внедряемые для автоматизации даже рутинных операций технологии ИИ ещё не были «полностью изучены и отработаны».

При этом в РВСН активно внедряются роботизированные охранные комплексы с ИИ. Во всех перспективных ракетных комплексах, которые планируется поставить на боевое дежурство к 2030-м годам, системы охраны будут строиться исключительно на робототехнических комплексах с использованием искусственного интеллекта.

Доклад SIPRI предлагает несколько направлений для управления рисками. Необходимо расширить понимание рисков интеграции ИИ в ядерные системы. Ядерные державы могли бы работать в двусторонних или многосторонних форматах, чтобы выявить конкретные атрибуты систем ИИ, которые они считают дестабилизирующими.

Эксперты предлагают разработать специфические стандарты безопасности ИИ для всего жизненного цикла ядерного оружия, аналогичные практикам управления киберрисками. Также предлагается создать механизм «аварийного выключения» для случаев, когда риски модели считаются недопустимыми.

В краткосрочной перспективе полезным может быть развитие мер укрепления доверия, направленных на снижение риска эскалации в контексте развития ИИ. Государствам стоит рассмотреть двусторонние «горячие линии» для решения операций, связанных с ИИ.

Интеграция искусственного интеллекта в ядерные системы представляет собой двоякую перспективу: улучшенное принятие решений и серьёзные риски для глобальной стабильности. Хотя ИИ может усилить обработку данных и ситуационную осведомлённость, его потенциал внесения ошибок, усиления предрассудков и сокращения временных рамок повышает риск непреднамеренной эскалации.

Существующие государственные подходы в целом сходятся на принципе сохранения человеческого контроля. Однако ключевые различия сохраняются в том, какие конкретные действия должны оставаться под человеческой властью и как должно осуществляться человеческое суждение в сложных цепочках принятия решений.

Права на данный материал принадлежат
Материал размещён правообладателем в открытом доступе
  • В новости упоминаются
Хотите оставить комментарий? Зарегистрируйтесь и/или Войдите и общайтесь!
ПОДПИСКА НА НОВОСТИ
Ежедневная рассылка новостей ВПК на электронный почтовый ящик
  • Разделы новостей
  • Обсуждаемое
    Обновить
  • 29.10 10:43
  • 11120
Без кнута и пряника. Россия лишила Америку привычных рычагов влияния
  • 29.10 06:16
  • 0
И еще о росте производства в богоспасаемой империи св. Николая II
  • 29.10 02:28
  • 1
О росте производства в богоспасаемой империи св. Николая II
  • 29.10 00:40
  • 0
Комментарий к "В России призвали американских генералов провести для Трампа ликбез по подлодкам"
  • 28.10 21:36
  • 2
Беларусь и Мьянма поддерживают высокий уровень сотрудничества в военно-технической сфере
  • 28.10 20:10
  • 0
Комментарий к "США планируют практически утроить ядерный арсенал к 2050 году"
  • 28.10 18:54
  • 1
В России призвали американских генералов провести для Трампа ликбез по подлодкам
  • 28.10 17:41
  • 1
Игры и экология
  • 28.10 16:29
  • 64
Гендиректор ОАК Слюсарь: испытания SSJ New с российскими двигателями начнутся осенью - Интервью ТАСС
  • 28.10 16:25
  • 57
МС-21 готовится к первому полету
  • 28.10 15:37
  • 0
Защита от агрессии
  • 28.10 15:34
  • 5
США планируют практически утроить ядерный арсенал к 2050 году
  • 28.10 02:35
  • 4
Объявлен старт испытаний самолета «Ладога»
  • 28.10 01:18
  • 1
В России создали систему самоуничтожения для защиты информации
  • 27.10 17:00
  • 1
Дмитриев: Россия хочет дипломатического урегулирования конфликта на Украине