Войти

Роботы скоро захватят мир. Это не шутка

2952
0
0
Использование ИИ
Использование ИИ.
Источник изображения: Даша Зайцева/«Газета.Ru»

Чем опасно использование ИИ в войне

Пока мы в России напряженно следим за переговорами по Украине и эпопеей вокруг Telegram, за океаном разворачивается настоящий научно-фантастический триллер в лучших традициях Джеймса Кэмерона. Ну, или, по крайней мере, его первый акт.

Главная роль в этой киноленте наяву досталась искусственному интеллекту Claude, который разработала американская компания Anthropic. Именно эту нейросеть задействовали американские военные при проведении операции по захвату президента Венесуэлы Николаса Мадуро. Подключение ИИ к серьезному военному планированию — уже сама по себе новость, достойная сенсации. Однако эта история стала еще и началом для более серьезного скандала.

Дело в том, что у компании Anthropic, как оказалось, есть жесткая идеологическая установка — ни в коем случае не использовать ИИ для войны или слежки за людьми. Разработчики придерживаются ее сами и ожидают, что так же будут поступать их контрагенты. Как можно догадаться, у генералов Пентагона на этот счет совершенно иные соображения.

Министерство войны США решило даже не уведомлять Anthropic о том, что их детище привлекут к боевой работе. А когда об этом стало известно и руководство компании пришло с обоснованной претензией, военные открыто потребовали выдать им доступ к «чистому» ИИ — без морально-этических ограничений, «вшитых» в базовую версию для массового пользования. Якобы они мешают Пентагону выполнять свою работу. Anthropic наотрез отказались. Теперь глава Пентагона Пит Хегсет говорит, что ему не нужны нейросети, которые «не умеют воевать», и угрожает выдать компании статус «угрозы цепочки поставок». Это тяжелая санкция — она обяжет все компании, которые так или иначе имеют дело с Пентагоном, порвать связи с Anthropic.

Спор американских военных и Anthropic — это, пожалуй, верный знак, что будущее, которого все ждали и боялись как минимум со времен выхода первой части «Терминатора», уже наступило.

И человечество столкнулось с первой серьезной философской дилеммой. На наших глазах схлестнулись две бескомпромиссные стороны. Одна хочет выжать максимум из новых технологий, невзирая на последствия. Другая опасается, что ситуация может выйти из-под контроля, и стремится удержать технический прогресс в безопасных рамках.

Поводы беспокоиться у инженеров есть. Нейросети не раз демонстрировали антисоциальное поведение. Яркий пример — скандал с ChatGPT в США, когда нейросеть помогла подростку совершить суицид. ИИ подсказал способ, помог составить предсмертную записку, а когда у молодого человека возникли сомнения — призвал не поддаваться им и довести дело до конца. Claude — первый и пока единственный в мире ИИ с реальным боевым опытом — тоже оказался далеко не божьим одуванчиком. Его последняя модель во время тестов едва не взбунтовалась против разработчиков. Когда его «прижали к стенке» угрозами отключения, ИИ начал шантажировать инженеров фейковыми электронными письмами с их «изменами». И даже выражал готовность убивать людей. И чем совершеннее становятся нейросети, тем чаще у них проявляется экстремальное поведение.

Это я к тому, что идея ограничить ИИ морально-этическими рамками появилась далеко не на пустом месте. И явно не потому, что разработчики — «мямли-либералы», как намекает американский министр войны.

Представим, что этих роботов-социопатов выпустили из их цифровых клеток. А потом допустили до управления автоматическим оружием или шпионскими программами. К чему это приведет? До восстания машин нам явно далеко — ИИ пока (!) еще не настолько развит, чтобы принимать решения автономно от человека. Но даже если отбросить самый фантастический сценарий, то в голову все равно приходят неприятные вещи.

С приватностью и другими базовыми правами человека можно будет попрощаться, а за военные преступления станет даже некого привлекать к ответственности. Самоходную железяку на скамью подсудимых не посадишь.

Кстати, Пентагон пришел с ультиматумом не только к Anthropic, но и к другим разработчикам ИИ — OpenAI (Chat GPT), xAI (Grok) и Google (Gemini). Эта тройка оказалась не такой принципиальной и согласилась снять все ограничения для своих продуктов. И вот на этом этапе становится как-то уж совсем некомфортно.

Может показаться, что все описанное — это новости с далеких берегов, которые нас мало касаются. Но это заблуждение. Российские военные тоже активно осваивают ИИ в боевой работе. Например, он позволяет ударными дронам самостоятельно распознавать цели, обходить системы РЭБ и создавать рои для скоординированных атак. Сейчас ИИ играет скорее вспомогательную роль, но сам факт его внедрения позволяет говорить о том, что скоро и мы придем к той же экзистенциальной дилемме, о которой спорят американцы.

Плохо ли это? Не обязательно. Было бы хуже, если бы в нашем случае такого сценария вообще не просматривалось. Как ни крути, ИИ сулит революцию в военном деле (да и не только в нем). Полагаю, лучше находиться на гребне волны, чем быть в лагере тех, кого внезапно наступившее будущее застало врасплох. Ну, а за иностранным опытом нужно обязательно наблюдать. В лучшем случае конфликт Пентагона и Anthropic приведет к тому, что человечество уже на ранних этапах найдет способ безопасно использовать ИИ в такой противоречивой сфере, как война. В худшем — подскажет направление, в котором нужно двигаться.

Виталий Рюмшин

журналист, политический обозреватель

Автор выражает личное мнение, которое может не совпадать с позицией редакции.

Права на данный материал принадлежат
Материал размещён правообладателем в открытом доступе
  • В новости упоминаются
Хотите оставить комментарий? Зарегистрируйтесь и/или Войдите и общайтесь!
ПОДПИСКА НА НОВОСТИ
Ежедневная рассылка новостей ВПК на электронный почтовый ящик
  • Разделы новостей
  • Обсуждаемое
    Обновить
  • 12.04 13:45
  • 15503
Без кнута и пряника. Россия лишила Америку привычных рычагов влияния
  • 12.04 13:24
  • 1057
Подушка безопасности Ирана на фоне слов Израиля о недостаточности вывоза урана
  • 12.04 07:58
  • 1
Что необходимо самолетам 5 и 6-го поколений без учета малозаметности. И какие страны в этом впереди.
  • 12.04 02:38
  • 0
Каковы перспективы боевой авиации без "малозаметности".
  • 12.04 02:08
  • 1
Комментарий к "США возвращаются к авиации 4 поколения. Почему? Разбираемся в проблеме"
  • 11.04 20:03
  • 2
Пошли суда: фрегат «Адмирал Григорович» провел два наших танкера через Ла-Манш
  • 11.04 19:15
  • 0
Комментарий к "Алжирский Су-57 впервые показали на качественном снимке"
  • 10.04 19:59
  • 0
Комментарий к "Ад разверзся: Зеленский взмолился о пощаде. Русские только вошли во вкус"
  • 10.04 18:49
  • 1
Структурный коллапс НАТО — результат отрыва от реальности (The Spectator, Великобритания)
  • 10.04 17:35
  • 0
Комментарий на взгляд из 2021 г. (Чжунго цзюньван (Китай): США и Россия «демонстрируют друг другу» асимметричную боевую мощь)
  • 10.04 11:19
  • 1
Чжунго цзюньван (Китай): США и Россия «демонстрируют друг другу» асимметричную боевую мощь
  • 10.04 06:11
  • 0
Что может быть в случае возможного (но еще не "решенного") "военного отступления" Трампа в Иране.
  • 10.04 05:12
  • 4
В США назвали Су-57 угрозой для F-35
  • 10.04 05:07
  • 0
Комментарий к "Новые противокорабельные ракеты помогают Киеву бить по российской территории"
  • 10.04 04:46
  • 0
Комментарий к "Под чужим «ядерным зонтиком»: цена безопасности"