Войти

Искусственный интеллект – это и риски, и возможности

3125
4
+1
Ильницкий Андрей Михайлович
Ильницкий Андрей Михайлович.
Источник изображения: photo.peoples.ru

В военном деле предстоит умело распорядиться третьей революционной инновацией после изобретения пороха и ядерного оружия

Успехи технологий машинного интеллекта и искусственных нейронных сетей открывают путь к созданию сверхмощной интеллектуальной системы, которую принято называть искусственным интеллектом (ИИ). Ведущие мировые державы, в том числе и Россия, начали реализацию национальных стратегий развития ИИ.

Широкое внедрение технологий искусственного интеллекта способно обеспечить государствам существенные экономические преимущества через повышение эффективности производства, усилить научный потенциал, обеспечить безопасность в информационной сфере и превосходство в обычных видах вооружений.

Но, как и любая технология двойного назначения, ИИ несёт в себе не только выгоды, но и риски, причём риски общепланетарного масштаба, особенно если произойдёт монополизация ключевых технологий в одной из держав, если ИИ станет оружием психологической и информационной войны или кибервойны. «Если кто-то сможет обеспечить монополию в сфере искусственного интеллекта, то последствия нам всем понятны – тот станет властелином мира», – заявил Президент России Владимир Путин на совещании по вопросам развития технологий ИИ.

Увы, но реалии таковы: современный мир объективно живёт в состоянии гибридной войны, которая ведётся за гегемонию, за ресурсы и за сохранение контроля над финансами, торговлей и технологиями, с одной стороны, и за многополярность и собственное будущее – с другой.

В этой ситуации опора на ядерное сдерживание – спасение. На сегодняшний день – а это признано и нашими оппонентами – Россия в состоянии нанести неприемлемый для них ущерб, потому вероятность прямого «горячего» конфликта маловероятна. Но по этой же причине основными «средствами поражения» для ослабления противника становятся торможение его технологического развития, экономические санкции, манипулирование информацией, кибервоздействие, а также создание разномасштабной нестабильности.

Одновременно развитие собственных технологий искусственного интеллекта и использование его в целях национальной безопасности и обороны позволяют компенсировать мощь противника на стратегических направлениях.

Именно поэтому считается, что ИИ – это третья революционная инновация в военном деле после изобретения пороха и ядерного оружия.

США стремятся занять лидирующие позиции в исследовании ИИ и применении его для разработки кибероружия и автономных видов вооружений, которые можно использовать как для наблюдения за противником, так и для нападения. Активно работает в этом направлении и Китай.

Ряд экспертов, бизнесменов и представителей IT-компаний призывают запретить разработку любых видов вооружений и автономных технологий, использующих ИИ, рассказывая о том, что ИИ в конечном итоге уничтожит человечество.

В ближайшие несколько лет все ведущие державы будут втянуты в гонку инновационных вооружений, потому что любое техническое отставание от потенциальных противников увеличивает уязвимость, прикрыть которую обычными конвенциональными видами вооружений будет очень сложно.

На самом деле бояться «военного» ИИ пока не нужно. Принятие стратегических решений и команды высокого уровня по-прежнему останутся в ведении людей, а робототехникой и автономным оружием будут укомплектованы оперативно-тактические звенья. Министр обороны РФ генерал армии Сергей Шойгу подчёркивал, что сегодня главной задачей в сфере кадрового обеспечения армии и ОПК является преодоление не столько количественного, сколько квалификационного дефицита.

К сожалению, с момента распада СССР из системы образования системно выхолащивались фундаментальные естественно-научные дисциплины, знание которых обеспечивает базу компетенций в разработках ИИ. Образование сегодня – это в том числе сфера обеспечения национальной безопасности. Ситуация здесь тревожная.

Проект Военного инновационного технополиса ЭРА, реализацию которого по решению главы государства проводит Министерство обороны, направлен на решение этой проблемы. Но это лишь первый шаг.

Искусственный интеллект – это не только роботы и автоматизированные системы, это ещё и кибероружие и кибершпионаж. Безграничные кибервозможности – это сейчас основные риски таких технологий.

«Искусственный интеллект и машинное обучение будут иметь преобразующее влияние на кибербезопасность и кибервойны… Кибератаки станут комплексными и крайне опасными», – говорится в докладе «Искусственный интеллект и национальная безопасность» вашингтонского центра стратегических и международных исследований (The Center for Strategic and International Studies, CSIS).

Учитывая повсеместный переход на цифровизацию, масштабы последствий кибератак будут постоянно расти, как и бюджеты на киберзащиту и противодействие.

«Охота за уязвимостями» будет настолько хорошо автоматизирована, что условная третья мировая война может свершиться в течение нескольких секунд, если одно государство с помощью технологий ИИ возьмёт под контроль все основные системы жизнеобеспечения стран-соперников.

Очевидно, что в сфере государственно­го управления, как и в области обороны, управленческие решения на высшем уровне – это компетенция политического руководства страны. Внедрение ИИ в систему управления существенно расширит возможности оперативного сбора и анализа информации общественного харак­тера, что позволит при­нимать социально-экономические решения и формировать определённые аспекты во внутренней политике.

Однако надо понимать, что ИИ может выступить не только как советник и помощник, но и как «цифровой Мефистофель». ИИ, включённый в технологии государственного управления, становится инструментом внутренней политики и может привести как к укреплению государственной власти, так и к её разрушению.

Неготовность к внедрению или ошибки при создании ИИ таят в себе серьёзные угрозы. И во многом сегодня опасность искусственного или машинного интеллекта сосредоточена в области компетенций, а вовсе не в использовании ИИ в беспилотниках или в танках.

Очевидны риски ИИ в сфере информации и в киберпространстве. ИИ уже скоро будет способен создавать «фейковые новости», размещать поддельные пресс-релизы на сайтах правительств и центробанков, формировать искусственную реальность в режиме онлайн, менять видеоконтент телепередач и взламывать аккаунты соцсетей и распространять там специальную информацию, для того чтобы влиять на сознание граждан и заставлять политиков принимать «нужные» решения. Инновационные достижения в области ИИ несут не только благо для экономик, но и риски спровоцировать реальный конфликт между странами. И в этом заключается серьёзная опасность новых технологий.

И ещё о рисках с сугубо российской спецификой… Объявленная в РФ программа тотальной цифровизации местами, увы, очень напоминает гонку «за бюджетами», куда стремятся все кому не лень. Это порождает дополнительные риски национальной безопасности. Суть – в порочной практике, когда победы в тендерах госзакупок порой достаются не компетентным научно-производственным организациям, а тем компаниям, где «эффективный менеджмент» обладает связями и натренирован добежать до бюджетных денег быстрее всех остальных. Подобная практика в случае с искусственным интеллектом может иметь страшные

последствия, и это даже не по­теря времени и миллиардов руб­лей– угроза в том, что технологии ИИ ошибок не прощают и исправить ничего не дадут. Это не ал­горитмы, которые можно перезапустить.

Необходима как государственная экспертиза самих проектов, подразумевающих использование технологий ИИ, так и выстроенная система тестирования для обнаружения возможных ошибок, умышленных вкладок и сбоев. И поскольку речь идёт о безо­пасности государства, такую экспертизу на межведомственном уровне (Совбез России) следует поручить компетентным силовым органам РФ, где должны быть созданы специализированные подразделения для контроля рисков и лицензирования технологий ИИ.

Но самое главное, о чём сейчас должны задуматься российские политики, государство и бизнес, это о масштабах инвестиций в исследования, о стимулировании разработок в научных институтах РАН и исследовательских центрах (таких как, например, «Курчатовский институт»), в ведущих технических вузах, в частных корпорациях и в том же Технополисе ЭРА. Следует стимулировать и поддерживать взаимодействие промышленных предприятий с IT-компаниями и лабораториями, выстраивать международную кооперацию со всеми заинтересованными странами. И конечно же уделять максимальное внимание качественному школьному и высшему образованию.

Мы должны предвидеть последствия применения новых технологий ИИ как в экономике и общественной жизни, так и «на поле боя» (гибридного боя в том числе), чётко прогнозировать проблемы, которые ожидаются в будущих конфликтах, и способствовать формированию систем минимизации ущерба и управления рисками.

Без всего этого Россия не сможет создать необходимые компетенции и укрепить свой потенциал в сфере кибербезопасности и национальной безопасности в целом.


* В статье изложена личная точка зрения авторов.

Ильницкий Андрей Михайлович, советник министра обороны Российской Федерации.

Лосев Александр Вячеславович, член президиума Совета по внешней и оборонной политике, генеральный директор управляющей компании «Спутник».

Права на данный материал принадлежат
Материал размещён правообладателем в открытом доступе
  • В новости упоминаются
Похожие новости
27.08.2021
Кто, с кем и чем будет воевать в XXI веке
25.05.2021
Бездушная армия. Зачем Минобороны меняет солдат на роботов?
02.04.2021
Неведомый бог из военной машины
24.11.2020
JB Press (Япония): Китай развязал против Японии «невидимую войну»
03.10.2018
Железные контрактники
29.06.2015
«Россия представляет для нас прямую и явную угрозу»
4 комментария
№1
25.06.2019 01:36
По моему разумению, для начала надо хотя бы ликвидировать катастрофическое отставание в суперкомпьютерах. А то искусственный интеллект у нас будет медленный, как улитка. Он нужен такой?
.
.
0
Сообщить
№2
25.06.2019 10:37
Мне иногда кажется, что статьи об искусственном интеллекте пишет сам ИИ )
0
Сообщить
№3
25.06.2019 11:33
Цитата, Ратник сообщ. №2
статьи об искусственном интеллекте пишет сам ИИ )

скорее антиИИ 8-)
0
Сообщить
№4
25.06.2019 18:26
Прежде чем "блестеть умом" статью советника министра обороны надо было хотя бы прочитать:
Цитата, q
К сожалению, с момента распада СССР из системы образования системно выхолащивались фундаментальные естественно-научные дисциплины, знание которых обеспечивает базу компетенций в разработках ИИ. Образование сегодня – это в том числе сфера обеспечения национальной безопасности. Ситуация здесь тревожная.
Правда. Результаты нашего современного образования - комментарии выше, где критиканы сами себя же опозорили и не понимают этого.
Цитата, q
условная третья мировая война может свершиться в течение нескольких секунд, если одно государство с помощью технологий ИИ возьмёт под контроль все основные системы жизнеобеспечения стран-соперников.
Реально. Венесуэла несколько дней сидела без электричества и не понятно сейчас хоть отбили кибератаку на системы управления электросетями? Или местами всё ещё "в каменном веке"?
Цитата, q
ИИ уже скоро будет способен создавать «фейковые новости», размещать поддельные пресс-релизы на сайтах правительств и центробанков, формировать искусственную реальность в режиме онлайн, менять видеоконтент телепередач и взламывать аккаунты соцсетей и распространять там специальную информацию, для того чтобы влиять на сознание граждан и заставлять политиков принимать «нужные» решения.
А может быть предыдущие комментарии как раз писал недоделанный ИИ ? Тогда советник министра обороны сто раз прав!
Цитата, q
Объявленная в РФ программа тотальной цифровизации местами... порождает дополнительные риски национальной безопасности. Суть – в порочной практике, когда победы в тендерах госзакупок порой достаются не компетентным научно-производственным организациям, а тем компаниям, где «эффективный менеджмент» обладает связями и натренирован добежать до бюджетных денег быстрее всех остальных. Подобная практика в случае с искусственным интеллектом может иметь страшные последствия, и это даже не по­теря времени и миллиардов руб­лей– угроза в том, что технологии ИИ ошибок не прощают и исправить ничего не дадут. Это не ал­горитмы, которые можно перезапустить.

Необходима как государственная экспертиза самих проектов, подразумевающих использование технологий ИИ, так и выстроенная система тестирования для обнаружения возможных ошибок, умышленных вкладок и сбоев.
А группка новых комментаторов выше пытается превратить сайт в помойку.
-1
Сообщить
Хотите оставить комментарий? Зарегистрируйтесь и/или Войдите и общайтесь!
ПОДПИСКА НА НОВОСТИ
Ежедневная рассылка новостей ВПК на электронный почтовый ящик
  • Разделы новостей
  • Обсуждаемое
    Обновить
  • 20.04 00:43
  • 462
Международные расчеты, минуя доллар, по странам
  • 20.04 00:26
  • 105
Израиль усиливает меры безопасности в связи с опасениями ударов со стороны Ирана
  • 19.04 23:42
  • 919
Без кнута и пряника. Россия лишила Америку привычных рычагов влияния
  • 19.04 21:13
  • 2703
Как насчёт юмористического раздела?
  • 19.04 16:43
  • 0
«Новая Америка». Как западные корпорации осваивают земли «незалежных» индейцев
  • 19.04 16:35
  • 111
В России запустили производство 20 самолетов Ту-214
  • 19.04 16:24
  • 117
Конкурента российского Су-75 из Южной Кореи впервые представили на выставке
  • 19.04 12:18
  • 17
Командующий ВВС США в Европе о роли авиации в боевых действиях на Украине
  • 19.04 11:50
  • 13
Гендиректор ОАК Слюсарь: испытания SSJ New с российскими двигателями начнутся осенью - Интервью ТАСС
  • 19.04 11:40
  • 1
Новый участник в битве за Арктику
  • 18.04 19:22
  • 18
Первую летную ракету-носитель "Ангара-А5" отправили для испытаний на космодром Восточный
  • 18.04 18:25
  • 12
Британская ПВО может и не выдержать первого удара России (The Telegraph UK, Великобритания)
  • 18.04 15:42
  • 1
Сергею Шойгу в парке "Патриот" представили более 30 перспективных образцов вооружения и техники
  • 18.04 15:29
  • 0
Кипящий «котёл» Закарпатья остужать никто не собирается
  • 18.04 13:38
  • 1
Норвегия может приобрести фрегаты класса "Тип-26"