Войти

Роботы скоро захватят мир. Это не шутка

2362
0
0
Использование ИИ
Использование ИИ.
Источник изображения: Даша Зайцева/«Газета.Ru»

Чем опасно использование ИИ в войне

Пока мы в России напряженно следим за переговорами по Украине и эпопеей вокруг Telegram, за океаном разворачивается настоящий научно-фантастический триллер в лучших традициях Джеймса Кэмерона. Ну, или, по крайней мере, его первый акт.

Главная роль в этой киноленте наяву досталась искусственному интеллекту Claude, который разработала американская компания Anthropic. Именно эту нейросеть задействовали американские военные при проведении операции по захвату президента Венесуэлы Николаса Мадуро. Подключение ИИ к серьезному военному планированию — уже сама по себе новость, достойная сенсации. Однако эта история стала еще и началом для более серьезного скандала.

Дело в том, что у компании Anthropic, как оказалось, есть жесткая идеологическая установка — ни в коем случае не использовать ИИ для войны или слежки за людьми. Разработчики придерживаются ее сами и ожидают, что так же будут поступать их контрагенты. Как можно догадаться, у генералов Пентагона на этот счет совершенно иные соображения.

Министерство войны США решило даже не уведомлять Anthropic о том, что их детище привлекут к боевой работе. А когда об этом стало известно и руководство компании пришло с обоснованной претензией, военные открыто потребовали выдать им доступ к «чистому» ИИ — без морально-этических ограничений, «вшитых» в базовую версию для массового пользования. Якобы они мешают Пентагону выполнять свою работу. Anthropic наотрез отказались. Теперь глава Пентагона Пит Хегсет говорит, что ему не нужны нейросети, которые «не умеют воевать», и угрожает выдать компании статус «угрозы цепочки поставок». Это тяжелая санкция — она обяжет все компании, которые так или иначе имеют дело с Пентагоном, порвать связи с Anthropic.

Спор американских военных и Anthropic — это, пожалуй, верный знак, что будущее, которого все ждали и боялись как минимум со времен выхода первой части «Терминатора», уже наступило.

И человечество столкнулось с первой серьезной философской дилеммой. На наших глазах схлестнулись две бескомпромиссные стороны. Одна хочет выжать максимум из новых технологий, невзирая на последствия. Другая опасается, что ситуация может выйти из-под контроля, и стремится удержать технический прогресс в безопасных рамках.

Поводы беспокоиться у инженеров есть. Нейросети не раз демонстрировали антисоциальное поведение. Яркий пример — скандал с ChatGPT в США, когда нейросеть помогла подростку совершить суицид. ИИ подсказал способ, помог составить предсмертную записку, а когда у молодого человека возникли сомнения — призвал не поддаваться им и довести дело до конца. Claude — первый и пока единственный в мире ИИ с реальным боевым опытом — тоже оказался далеко не божьим одуванчиком. Его последняя модель во время тестов едва не взбунтовалась против разработчиков. Когда его «прижали к стенке» угрозами отключения, ИИ начал шантажировать инженеров фейковыми электронными письмами с их «изменами». И даже выражал готовность убивать людей. И чем совершеннее становятся нейросети, тем чаще у них проявляется экстремальное поведение.

Это я к тому, что идея ограничить ИИ морально-этическими рамками появилась далеко не на пустом месте. И явно не потому, что разработчики — «мямли-либералы», как намекает американский министр войны.

Представим, что этих роботов-социопатов выпустили из их цифровых клеток. А потом допустили до управления автоматическим оружием или шпионскими программами. К чему это приведет? До восстания машин нам явно далеко — ИИ пока (!) еще не настолько развит, чтобы принимать решения автономно от человека. Но даже если отбросить самый фантастический сценарий, то в голову все равно приходят неприятные вещи.

С приватностью и другими базовыми правами человека можно будет попрощаться, а за военные преступления станет даже некого привлекать к ответственности. Самоходную железяку на скамью подсудимых не посадишь.

Кстати, Пентагон пришел с ультиматумом не только к Anthropic, но и к другим разработчикам ИИ — OpenAI (Chat GPT), xAI (Grok) и Google (Gemini). Эта тройка оказалась не такой принципиальной и согласилась снять все ограничения для своих продуктов. И вот на этом этапе становится как-то уж совсем некомфортно.

Может показаться, что все описанное — это новости с далеких берегов, которые нас мало касаются. Но это заблуждение. Российские военные тоже активно осваивают ИИ в боевой работе. Например, он позволяет ударными дронам самостоятельно распознавать цели, обходить системы РЭБ и создавать рои для скоординированных атак. Сейчас ИИ играет скорее вспомогательную роль, но сам факт его внедрения позволяет говорить о том, что скоро и мы придем к той же экзистенциальной дилемме, о которой спорят американцы.

Плохо ли это? Не обязательно. Было бы хуже, если бы в нашем случае такого сценария вообще не просматривалось. Как ни крути, ИИ сулит революцию в военном деле (да и не только в нем). Полагаю, лучше находиться на гребне волны, чем быть в лагере тех, кого внезапно наступившее будущее застало врасплох. Ну, а за иностранным опытом нужно обязательно наблюдать. В лучшем случае конфликт Пентагона и Anthropic приведет к тому, что человечество уже на ранних этапах найдет способ безопасно использовать ИИ в такой противоречивой сфере, как война. В худшем — подскажет направление, в котором нужно двигаться.

Виталий Рюмшин

журналист, политический обозреватель

Автор выражает личное мнение, которое может не совпадать с позицией редакции.

Права на данный материал принадлежат
Материал размещён правообладателем в открытом доступе
  • В новости упоминаются
Хотите оставить комментарий? Зарегистрируйтесь и/или Войдите и общайтесь!
ПОДПИСКА НА НОВОСТИ
Ежедневная рассылка новостей ВПК на электронный почтовый ящик
  • Разделы новостей
  • Обсуждаемое
    Обновить
  • 12.03 05:07
  • 472
Подушка безопасности Ирана на фоне слов Израиля о недостаточности вывоза урана
  • 12.03 02:00
  • 1
Президент Польши решил наложить вето на закон о кредите SAFE, сообщил Туск
  • 12.03 00:43
  • 2
Фон дер Ляйен: отказ от АЭС был стратегической ошибкой Европы
  • 11.03 22:45
  • 14933
Без кнута и пряника. Россия лишила Америку привычных рычагов влияния
  • 11.03 21:58
  • 0
Комментарий к "Фон дер Ляйен: отказ от АЭС был стратегической ошибкой Европы"
  • 11.03 21:18
  • 0
Комментарий к "НАТО проводит учения рядом с российской границей. Чем должна ответить Москва?"
  • 11.03 19:00
  • 4
Почему Иран беззащитен перед авианосцами США
  • 11.03 16:03
  • 1
Терешкова призвала двигаться дальше
  • 11.03 15:59
  • 1
Производство Ту-214 снова реконструируют
  • 11.03 06:18
  • 1
НАТО проводит учения рядом с российской границей. Чем должна ответить Москва?
  • 10.03 22:35
  • 0
Еще один комментарий к "Почему Иран беззащитен перед авианосцами США"
  • 10.03 18:28
  • 2
Си Цзиньпин призвал строго контролировать армию Китая
  • 10.03 06:42
  • 0
Комментарий к "Война против Ирана показала уязвимость Европейского союза (El País, Испания)"
  • 10.03 03:54
  • 1
Война против Ирана показала уязвимость Европейского союза (El País, Испания)
  • 10.03 03:34
  • 1
В Эстонии готовы обсуждать с Францией вопрос создания европейского "ядерного зонтика"