Неправительственная организация Human Rights Watch (HRW) объявила о намерении создать международной коалицию, которая будет стараться заключить глобальный международный договор, налагающий всесторонний и упреждающий запрет на вооружения с искусственным интеллектом еще до того, как они будут созданы. К компании за запрет военных «роботов-убийц», которая стартовала в столице Великобритании, уже присоединились различные негосударственные организации, которые ранее участвовали в кампаниях по запрету кассетных боеприпасов, противопехотных мин и ослепляющих лазеров.
В отличие от телеуправляемых танков и танкеток, торпедных катеров, которые еще в 1930-х годах испытывались в Советском Союзе, полностью автономные боевые роботы, как говорят активисты, будут обладать рядом врожденных недостатков, которые смогут сделать их смертельно опасными для человечества. Самые распространенные полностью автономные системы из прошлого, такие как Phalanx, которая сбивала летательные аппараты или ракеты, приближающиеся к американским боевым кораблям, обладали достаточно узкой специализацией, собственной нишей и практически не могли сработать от каких-то случайных факторов или по гражданскому населению.
IAI Harpy. Фото с сайта airvoila.com |
Но новое поколение боевых роботов, к примеру, полностью автономный БПЛА Harpy («Гарпия») из Израиля, уже гораздо опаснее. Пока что «Гарпия» ищет и уничтожает в полностью автоматическом режиме лишь радары, стреляя по ним ракетами в режиме «выстрелил-забыл». Однако такие БПЛА привлекательны для армий всего мира и не только по той причине, что их нельзя взломать и посадить на свой аэродром, как, предположительно, поступили в 2012 году иранские военные с американским дроном.
Самое главное здесь – это дешевизна эксплуатации боевых роботов. Так, к примеру, телеуправляемый беспилотник нуждается не только в дорогостоящем пункте управления, в котором находится хорошо подготовленный специалист, работающий посменно, но и в помехозащищенной связи. По сути, в случае БПЛА небольших размеров это становится главной расходной статьей. Ликвидация данной статьи расходов позволит странам производить летающих боевых роботов тысячными сериями без значительного роста затрат по их эксплуатации.
«Кампания за запрет убивающих роботов» считает, что главная проблема заключается в том, что такие машины еще несовершенны. Они не в состоянии отличить мирного гражданина от террориста, человека одной национальности от другой (хотя справедливости ради надо сказать, что люди также этим грешат). В то же время в современном мире войны часто ведутся в таких местах, где всего один случайный выстрел может привести к эскалации насилия. В организации особенно обеспокоены разработками Южной Кореи, которая создает специального робота для патрулирования границы с КНДР. Одна ошибка такого робота способна привести к серьезному вооруженному конфликту. Поэтому возникает резонный вопрос: стоит ли передавать дело войны и мира на суд программного обеспечения, адекватность и надежность которого не получится проверить без человеческих жертв.
При этом в мире есть вопросы и посерьезнее корейского конфликта. Широкую известность получил случай осени 1983 года, когда советская автоматическая система предупреждения о ядерном нападении «Око» выдала серию ложных сигналов о пусках США баллистических ракет. Только вмешательство оперативного дежурного, находящегося на КП «Серпухов-15», предотвратило нанесение «ответного» удара. Проанализировав «пуски» МБР (несколько подряд из одной точки), подполковник подумал, что потенциальный противник не настолько туп, чтобы таким образом начинать войну и подставляться под ответный удар неподавленных советских ядерных сил. Чем могла закончиться данная ситуация, если бы система «Око» была полностью автономной?
Здесь речь шла о возможной ядерной войне, но есть и куда более прозаические примеры. К примеру, в 2007 году в армии ЮАР произошел трагический инцидент жертвами которого стали 9 военнослужащих, еще 14 человек получили различные ранения. Виновником трагедии стала автоматическое противовоздушное орудие швейцарско-немецкого производства Oerlikon GDF-005. Данное орудие оснащено активным и пассивным радарами, лазерной системой целеуказания и может вести огонь по быстрым низколетящим целям, таким как вертолеты, самолеты, крылатые ракеты и БПЛА. В автоматическом режиме используются две 35-мм скорострельные пушки.
В ходе учений данная установка несколько раз выходила из строя, пока ее не решили закрепить вручную при помощи троса и металлических крепежей. Но в какой-то момент крепежи не выдержали, а стволы установки принялись рассылать полукилограммовые снаряды направо и налево. Орудие умолкло, лишь израсходовав весь боезапас – 500 снарядов. Тогда представитель армии ЮАР бригадный генерал Квена Мангоп сообщил, что причины сбоя остались неизвестны. По его словам, возможно, проблема могла иметь механический характер. Однако ряд экспертов указывали на компьютерный сбой, в этом случае установить причину трагедии не представляется возможным.
Все это выглядит еще более удручающе на фоне все чаще появляющихся сообщений о создании очередного боевого робота. Не так давно ВВС США провели испытательные полеты ударного беспилотника X-47B, взлетающего с палубы авианосца и способного выполнить боевую задачу без помощи человека. При этом уже достаточно давно существуют ракетные системы ПВО типа «Патриот», которые в состоянии распознать цель и открыть огонь полностью в автоматическом режиме. Для создания полностью автономной боевой машины осталось сделать всего несколько шагов. Такие роботы могут взять на себя многие человеческие функции, навсегда изменив наши представления о ведении войн.
В настоящее время в лаборатории Института технологии в Атланте, профессором Хенриком Кристенсеном ведутся испытания робота, который предназначен для нахождения повстанцев, которые действуют партизанскими методами. Данные исследования финансируются известной оборонной корпорацией BAE. Главной целью данного проекта является создание робота, который способен произвести исследование местности, на которой укрылся противник, нанести места его возможного расположения на карту и собрать другую информацию, которая помогла бы при планировании военных операций. Такие роботы не несут какого-либо вооружения, их главная цель – сбор развединформации.
Специалист по будущим военным технологиям Пит Сингер, работающий в Институте Брукингса в Вашингтоне, полагает, что появление боевых роботов на поле боя поднимет много фундаментальных вопросов. Периодически в истории боевой техники наступает такой момент, когда появляется вещь, приводящая к полному изменению ситуации, отмечает эксперт. К примеру, так уже было с изобретением пороха, появлением пулемета, ядерного оружия, компьютеров. Боевые роботы также могут стать революционной технологией. При этом их появление не означает, что изменится все – начиная с боевой тактики и заканчивая вопросами права, этики и политики.
Американка Джоди Уильямс, которая в 1997 году получила Нобелевскую премию мира за организацию кампании в пользу запрета противопехотных мин, считает, что боевые роботы, которые сейчас создаются, со временем могут превратиться в смертельно опасное оружие. По ее словам, такие нейтральные для человеческого уха термины как «автономные боевые системы» достаточно обманчивы. По ее словам, логичнее называть их роботами-убийцами, так как убийство людей их главная задача.
В то же время Рональд Аркин профессор из Института технологии в Атланте считает иначе. Аркин является автором концепции боевой системы, которая управляется так называемым этическим контролером. Такие боевые роботы запрограммированы так, что обязаны следовать правилам ведения боевых действий и принципам международного права. По словам Рональда Аркина, все кричат и ужасаются: «Роботы-злодеи, роботы-убийцы!». Но в настоящее время ужасные вещи совершают сами люди, действующие на поле боя. Жесткость была спутником всех войн на планете, отмечает профессор. Аркин полагает, что использование технических средств позволит уменьшить количество потерь среди гражданского населения, которое оказывается в зоне конфликта.
В настоящее время помимо США еще примерно 76 стран мира имеют собственные программы по созданию боевых роботов, говорит ученый. В наши дни за пару сотен долларов уже можно купить БПЛА, который еще 2 года назад был засекречен. Такие технологии распространяются достаточно быстро и в глобальных масштабах. Примером этому может служить использование БПЛА, которые применяются для нанесения точечных ударов по выбранным заранее объектам, в том числе и людям. В настоящее время использование беспилотных ударных аппаратов в Афганистане и Пакистане уже вызывает дебаты в мировом сообществе. С распространением боевых роботов такие дебаты неизбежно перейдут в область этических принципов их использования.
Так может быть боевые роботы не нужны вовсе? Для чего их выпускают? Все дело в том, что с появлением массовых армий эффективность действий отдельно взятого военнослужащего стремительно упала. Солдаты какого-нибудь 5-го Восточносибирского полка во время Русско-японской войны, удерживая Цзинчжоу, попадали в противника примерно 1 раз из нескольких десятков винтовочных выстрелов. В то же время уже в Первую и Вторую мировые войны среднее количество выстрелов на одно попадание выросло до 10 000 – 50 000. Если совсем просто – большинство солдат в массовых армиях просто не умели стрелять, а более 95% командиров крупных армий мира вообще ни разу не видели, чтобы их подчиненные пользовались прицелами на своих винтовках.
Сходная ситуация стала наблюдаться и в артиллерии и иных родах войск. Так на Восточном фронте на каждого убитого солдата Вермахта СССР тратил примерно 100 артиллерийских снарядов и мин. С такой же «эффективностью» утилизировали свои боеприпасы американские военнослужащие во Вторую мировую и во время Вьетнамской войны. Численный рост солдат и быстрый прогресс военной техники в ХХ веке сопровождался снижением обученности тех, кому это оружие доверяли.
В то же время автономные боевые роботы уже сейчас стреляют настолько хорошо, насколько им позволяет ПО, погода и оружие. А это значит, что их участие в боевых действиях, после завершения доводки ПО, приведет к очень большим потерям личного состава той стороны, которая будет лишена таких роботов. Представить итог такого противостояния достаточно легко. Если сейчас армии западных стран не в состоянии на длительное время задерживаться ни в Ираке, ни в Афганистане, так как их политическое руководство с треском покинет свои посты при значительных боевых потерях, то после внедрения боевых роботов длительность пребывания оккупационных контингентов в различных регионах мира станет практически неограниченной. Жертвы стран, армии которых оснащены такими роботами, практически полностью перестанут быть боевыми, они будут сравнимы лишь с количеством трупов, оставляемых терактами – единственным оружием, которое останется в руках боевиков.
Источники информации:
-http://compulenta.computerra.ru/tehnika/robotics/10006881
-http://www.popmech.ru/article/2570-kosilschik
-http://slon.ru/future/roboty_ubiytsy_mogut_izmenit_oblik_budushchikh_voyn-916543.xhtml
-http://www.popmech.ru/article/13058-terminatorov-zapretyat
Сергей Юферев