Войти

США хотят доверить принятие решения о применении ЯО искусственному интеллекту

4532
0
0

Источник изображения: topwar.ru

Несмотря на декларативное соглашение, достигнутое лидерами США и КНР в 2024 году о недопустимости замены человеческого суждения искусственным интеллектом (ИИ) при принятии решений о применении ядерного оружия, Вашингтон демонстрирует тревожную тенденцию к активной интеграции этих технологий в смежные системы ядерного командования и контроля (NC2/NC3). Данная стратегия вызывает обоснованную критику в экспертном сообществе.

Как показал поиск в интернете, проведённый 26 февраля 2025 года с помощью чат-бота Perplexity по опубликованным с 2022 года работам с терминами «искусственный интеллект» и «ядерное оружие», преобладающее мнение о применении ИИ в системах ядерного оружия, если исключить статьи, написанные военными США или описывающие их взгляды, а также не учитывать приложения, связанные с контролем над вооружениями, является преимущественно негативным. Этот скептицизм вызван опасениями по поводу негативного влияния на стратегическую стабильность и повышения риска эскалации, особенно случайной или непреднамеренной. Данная статья полностью поддерживает эту критическую позицию, аргументируя, что даже косвенное внедрение ИИ создаёт непредсказуемые и катастрофические риски.

Основная опасность заключается в создании ложной уверенности в достоверности информации, формирующей ситуационную осведомленность лиц, принимающих решения. Интеграция ИИ в системы разведки, наблюдения, анализа данных и поддержки принятия решений чревата каскадными эффектами. Ошибка или целенаправленная манипуляция в одной из взаимосвязанных систем, например, в модели компьютерного зрения для обнаружения целей, может быть многократно усилена и исказить общую картину угрозы в условиях острого кризиса и дефицита времени.

Особую озабоченность вызывает феномен «предвзятости автоматизации» — психологической склонности человека чрезмерно доверять выводам, сгенерированным алгоритмами, особенно в условиях стресса. Это создаёт риск того, что высшее руководство США может принять роковое решение, основанное на некритически воспринятых данных, прошедших через непрозрачные и не до конца понятные системы ИИ.

Потенциально дестабилизирующим сценарием является разработка и развёртывание систем ИИ, способных с высокой точностью обнаруживать и отслеживать стратегические подводные лодки с баллистическими ракетами (ПЛАРБ) — основу потенциала гарантированного ответного удара. Подрыв уверенности в скрытности ПЛАРБ может спровоцировать соблазн нанести упреждающий удар в кризисной ситуации, что полностью разрушит логику ядерного сдерживания.

Доверять судьбу человечества в плане возможного применения ЯО исключительно искусственному интеллекту - дело столь же рискованное, как и полный отказ от контроля над ЯО. В обоих случаях риски столь высоки, что конечный результат сегодня не сможет спрогнозировать даже самый «матёрый» эксперт и в области ИИ, и в сфере ядерной безопасности.

А стремление США к интеграции ИИ в ядерную сферу именно поэтому и представляется крайне безответственным шагом. Непрозрачность, уязвимость к кибератакам и принципиальная непредсказуемость поведения сложных систем ИИ делают их непригодными для задач, где цена ошибки равна глобальной катастрофе. Существующий международный консенсус о необходимости сохранения человеческого контроля должен быть усилен жёсткими внутренними регуляторными барьерами, полностью исключающими влияние ИИ не только на санкционирование пуска, но и на все процессы, ведущие к этому решению. Дальнейшая милитаризация ИИ в ядерной области ведёт мир по пути нестабильности и непреднамеренного конфликта, что и подтверждает общий скептический настрой независимых экспертов.

Права на данный материал принадлежат
Материал размещён правообладателем в открытом доступе
  • В новости упоминаются
Хотите оставить комментарий? Зарегистрируйтесь и/или Войдите и общайтесь!
ПОДПИСКА НА НОВОСТИ
Ежедневная рассылка новостей ВПК на электронный почтовый ящик
  • Разделы новостей
  • Обсуждаемое
    Обновить
  • 03.05 03:09
И еще о флоте: замечания к "Тайна гибели крейсера "Москва" заставляет задуматься о будущем флота России: с кораблями-есть совсем неудобный парадокс"
  • 03.05 02:17
  • 15660
Без кнута и пряника. Россия лишила Америку привычных рычагов влияния
  • 03.05 01:55
  • 34
Путин сможет отправлять военных на защиту соотечественников от ареста за границей (The Times, Великобритания)
  • 03.05 00:26
  • 0
Комментарий к ""Ослабленная Германия ударит по всей Европе" (Die Welt, Германия)"
  • 02.05 22:53
  • 0
Комментарий к "Война в Иране раскрыла пять причин, почему НАТО не готова воевать с Россией (Politico, США)"
  • 02.05 20:27
  • 4
В Центр Кеннеди прибыло оборудование для лунной миссии Artemis III
  • 02.05 13:14
  • 2
В России прокомментировали появление американского «Темного орла» на Ближнем Востоке
  • 02.05 13:08
  • 1
«Ведьмак 3» запустили на российском процессоре «Иртыш»
  • 02.05 12:49
  • 1
Российские ученые изобрели патрон для гладкоствола, «ослепляющий» FPV-дроны
  • 02.05 12:40
  • 1
«Ростех» назвал условие для гарантированного обнаружения БПЛА
  • 02.05 09:14
  • 1
Правит сигнал: фронтовые инженеры увеличили радиус применения ударных БПЛА
  • 02.05 09:01
  • 1
Российский беспилотник "Молния-2" обошел противодронную защиту ВСУ (Forbes, США)
  • 02.05 08:31
  • 1
До начала СВО отрасль БПЛА была "на окраинах", заявил Медведев
  • 02.05 06:49
  • 2
Искусственный интеллект на поле боя
  • 02.05 00:02
  • 0
Комментарии к "В ВСУ допустили сценарий российского ядерного удара" и "На Западе обсуждают слова замкомандующего ВС ВСУ об опасности применения ТЯО РФ"