Войти

Искусственный интеллект – это и риски, и возможности

1608
4
+1
Ильницкий Андрей Михайлович
Ильницкий Андрей Михайлович.
Источник изображения: photo.peoples.ru

В военном деле предстоит умело распорядиться третьей революционной инновацией после изобретения пороха и ядерного оружия

Успехи технологий машинного интеллекта и искусственных нейронных сетей открывают путь к созданию сверхмощной интеллектуальной системы, которую принято называть искусственным интеллектом (ИИ). Ведущие мировые державы, в том числе и Россия, начали реализацию национальных стратегий развития ИИ.

Широкое внедрение технологий искусственного интеллекта способно обеспечить государствам существенные экономические преимущества через повышение эффективности производства, усилить научный потенциал, обеспечить безопасность в информационной сфере и превосходство в обычных видах вооружений.

Но, как и любая технология двойного назначения, ИИ несёт в себе не только выгоды, но и риски, причём риски общепланетарного масштаба, особенно если произойдёт монополизация ключевых технологий в одной из держав, если ИИ станет оружием психологической и информационной войны или кибервойны. «Если кто-то сможет обеспечить монополию в сфере искусственного интеллекта, то последствия нам всем понятны – тот станет властелином мира», – заявил Президент России Владимир Путин на совещании по вопросам развития технологий ИИ.

Увы, но реалии таковы: современный мир объективно живёт в состоянии гибридной войны, которая ведётся за гегемонию, за ресурсы и за сохранение контроля над финансами, торговлей и технологиями, с одной стороны, и за многополярность и собственное будущее – с другой.

В этой ситуации опора на ядерное сдерживание – спасение. На сегодняшний день – а это признано и нашими оппонентами – Россия в состоянии нанести неприемлемый для них ущерб, потому вероятность прямого «горячего» конфликта маловероятна. Но по этой же причине основными «средствами поражения» для ослабления противника становятся торможение его технологического развития, экономические санкции, манипулирование информацией, кибервоздействие, а также создание разномасштабной нестабильности.

Одновременно развитие собственных технологий искусственного интеллекта и использование его в целях национальной безопасности и обороны позволяют компенсировать мощь противника на стратегических направлениях.

Именно поэтому считается, что ИИ – это третья революционная инновация в военном деле после изобретения пороха и ядерного оружия.

США стремятся занять лидирующие позиции в исследовании ИИ и применении его для разработки кибероружия и автономных видов вооружений, которые можно использовать как для наблюдения за противником, так и для нападения. Активно работает в этом направлении и Китай.

Ряд экспертов, бизнесменов и представителей IT-компаний призывают запретить разработку любых видов вооружений и автономных технологий, использующих ИИ, рассказывая о том, что ИИ в конечном итоге уничтожит человечество.

В ближайшие несколько лет все ведущие державы будут втянуты в гонку инновационных вооружений, потому что любое техническое отставание от потенциальных противников увеличивает уязвимость, прикрыть которую обычными конвенциональными видами вооружений будет очень сложно.

На самом деле бояться «военного» ИИ пока не нужно. Принятие стратегических решений и команды высокого уровня по-прежнему останутся в ведении людей, а робототехникой и автономным оружием будут укомплектованы оперативно-тактические звенья. Министр обороны РФ генерал армии Сергей Шойгу подчёркивал, что сегодня главной задачей в сфере кадрового обеспечения армии и ОПК является преодоление не столько количественного, сколько квалификационного дефицита.

К сожалению, с момента распада СССР из системы образования системно выхолащивались фундаментальные естественно-научные дисциплины, знание которых обеспечивает базу компетенций в разработках ИИ. Образование сегодня – это в том числе сфера обеспечения национальной безопасности. Ситуация здесь тревожная.

Проект Военного инновационного технополиса ЭРА, реализацию которого по решению главы государства проводит Министерство обороны, направлен на решение этой проблемы. Но это лишь первый шаг.

Искусственный интеллект – это не только роботы и автоматизированные системы, это ещё и кибероружие и кибершпионаж. Безграничные кибервозможности – это сейчас основные риски таких технологий.

«Искусственный интеллект и машинное обучение будут иметь преобразующее влияние на кибербезопасность и кибервойны… Кибератаки станут комплексными и крайне опасными», – говорится в докладе «Искусственный интеллект и национальная безопасность» вашингтонского центра стратегических и международных исследований (The Center for Strategic and International Studies, CSIS).

Учитывая повсеместный переход на цифровизацию, масштабы последствий кибератак будут постоянно расти, как и бюджеты на киберзащиту и противодействие.

«Охота за уязвимостями» будет настолько хорошо автоматизирована, что условная третья мировая война может свершиться в течение нескольких секунд, если одно государство с помощью технологий ИИ возьмёт под контроль все основные системы жизнеобеспечения стран-соперников.

Очевидно, что в сфере государственно­го управления, как и в области обороны, управленческие решения на высшем уровне – это компетенция политического руководства страны. Внедрение ИИ в систему управления существенно расширит возможности оперативного сбора и анализа информации общественного харак­тера, что позволит при­нимать социально-экономические решения и формировать определённые аспекты во внутренней политике.

Однако надо понимать, что ИИ может выступить не только как советник и помощник, но и как «цифровой Мефистофель». ИИ, включённый в технологии государственного управления, становится инструментом внутренней политики и может привести как к укреплению государственной власти, так и к её разрушению.

Неготовность к внедрению или ошибки при создании ИИ таят в себе серьёзные угрозы. И во многом сегодня опасность искусственного или машинного интеллекта сосредоточена в области компетенций, а вовсе не в использовании ИИ в беспилотниках или в танках.

Очевидны риски ИИ в сфере информации и в киберпространстве. ИИ уже скоро будет способен создавать «фейковые новости», размещать поддельные пресс-релизы на сайтах правительств и центробанков, формировать искусственную реальность в режиме онлайн, менять видеоконтент телепередач и взламывать аккаунты соцсетей и распространять там специальную информацию, для того чтобы влиять на сознание граждан и заставлять политиков принимать «нужные» решения. Инновационные достижения в области ИИ несут не только благо для экономик, но и риски спровоцировать реальный конфликт между странами. И в этом заключается серьёзная опасность новых технологий.

И ещё о рисках с сугубо российской спецификой… Объявленная в РФ программа тотальной цифровизации местами, увы, очень напоминает гонку «за бюджетами», куда стремятся все кому не лень. Это порождает дополнительные риски национальной безопасности. Суть – в порочной практике, когда победы в тендерах госзакупок порой достаются не компетентным научно-производственным организациям, а тем компаниям, где «эффективный менеджмент» обладает связями и натренирован добежать до бюджетных денег быстрее всех остальных. Подобная практика в случае с искусственным интеллектом может иметь страшные

последствия, и это даже не по­теря времени и миллиардов руб­лей– угроза в том, что технологии ИИ ошибок не прощают и исправить ничего не дадут. Это не ал­горитмы, которые можно перезапустить.

Необходима как государственная экспертиза самих проектов, подразумевающих использование технологий ИИ, так и выстроенная система тестирования для обнаружения возможных ошибок, умышленных вкладок и сбоев. И поскольку речь идёт о безо­пасности государства, такую экспертизу на межведомственном уровне (Совбез России) следует поручить компетентным силовым органам РФ, где должны быть созданы специализированные подразделения для контроля рисков и лицензирования технологий ИИ.

Но самое главное, о чём сейчас должны задуматься российские политики, государство и бизнес, это о масштабах инвестиций в исследования, о стимулировании разработок в научных институтах РАН и исследовательских центрах (таких как, например, «Курчатовский институт»), в ведущих технических вузах, в частных корпорациях и в том же Технополисе ЭРА. Следует стимулировать и поддерживать взаимодействие промышленных предприятий с IT-компаниями и лабораториями, выстраивать международную кооперацию со всеми заинтересованными странами. И конечно же уделять максимальное внимание качественному школьному и высшему образованию.

Мы должны предвидеть последствия применения новых технологий ИИ как в экономике и общественной жизни, так и «на поле боя» (гибридного боя в том числе), чётко прогнозировать проблемы, которые ожидаются в будущих конфликтах, и способствовать формированию систем минимизации ущерба и управления рисками.

Без всего этого Россия не сможет создать необходимые компетенции и укрепить свой потенциал в сфере кибербезопасности и национальной безопасности в целом.


* В статье изложена личная точка зрения авторов.

Ильницкий Андрей Михайлович, советник министра обороны Российской Федерации.

Лосев Александр Вячеславович, член президиума Совета по внешней и оборонной политике, генеральный директор управляющей компании «Спутник».

Права на данный материал принадлежат Красная звезда
Материал размещён правообладателем в открытом доступе
  • В новости упоминаются
Похожие новости
27.12.2018
Оружейный прорыв. Главные оборонные достижения 2018 года
22.03.2017
Россия пишет новые правила кибервойны (BuzzFeed, США)
29.06.2015
«Россия представляет для нас прямую и явную угрозу»
24.03.2015
Технологии будущего и вооружения России
09.04.2012
Мечты о новом оружии
4 комментария
№1
25.06.2019 01:36
По моему разумению, для начала надо хотя бы ликвидировать катастрофическое отставание в суперкомпьютерах. А то искусственный интеллект у нас будет медленный, как улитка. Он нужен такой?
.
.
0
Сообщить
№2
25.06.2019 10:37
Мне иногда кажется, что статьи об искусственном интеллекте пишет сам ИИ )
0
Сообщить
№3
25.06.2019 11:33
Цитата, Ратник сообщ. №2
статьи об искусственном интеллекте пишет сам ИИ )

скорее антиИИ 8-)
0
Сообщить
№4
25.06.2019 18:26
Прежде чем "блестеть умом" статью советника министра обороны надо было хотя бы прочитать:
Цитата, q
К сожалению, с момента распада СССР из системы образования системно выхолащивались фундаментальные естественно-научные дисциплины, знание которых обеспечивает базу компетенций в разработках ИИ. Образование сегодня – это в том числе сфера обеспечения национальной безопасности. Ситуация здесь тревожная.
Правда. Результаты нашего современного образования - комментарии выше, где критиканы сами себя же опозорили и не понимают этого.
Цитата, q
условная третья мировая война может свершиться в течение нескольких секунд, если одно государство с помощью технологий ИИ возьмёт под контроль все основные системы жизнеобеспечения стран-соперников.
Реально. Венесуэла несколько дней сидела без электричества и не понятно сейчас хоть отбили кибератаку на системы управления электросетями? Или местами всё ещё "в каменном веке"?
Цитата, q
ИИ уже скоро будет способен создавать «фейковые новости», размещать поддельные пресс-релизы на сайтах правительств и центробанков, формировать искусственную реальность в режиме онлайн, менять видеоконтент телепередач и взламывать аккаунты соцсетей и распространять там специальную информацию, для того чтобы влиять на сознание граждан и заставлять политиков принимать «нужные» решения.
А может быть предыдущие комментарии как раз писал недоделанный ИИ ? Тогда советник министра обороны сто раз прав!
Цитата, q
Объявленная в РФ программа тотальной цифровизации местами... порождает дополнительные риски национальной безопасности. Суть – в порочной практике, когда победы в тендерах госзакупок порой достаются не компетентным научно-производственным организациям, а тем компаниям, где «эффективный менеджмент» обладает связями и натренирован добежать до бюджетных денег быстрее всех остальных. Подобная практика в случае с искусственным интеллектом может иметь страшные последствия, и это даже не по­теря времени и миллиардов руб­лей– угроза в том, что технологии ИИ ошибок не прощают и исправить ничего не дадут. Это не ал­горитмы, которые можно перезапустить.

Необходима как государственная экспертиза самих проектов, подразумевающих использование технологий ИИ, так и выстроенная система тестирования для обнаружения возможных ошибок, умышленных вкладок и сбоев.
А группка новых комментаторов выше пытается превратить сайт в помойку.
-1
Сообщить
Хотите оставить комментарий? Зарегистрируйтесь и/или Войдите и общайтесь!
  • Разделы новостей
  • Обсуждаемое
  • 17.08 16:33
  • 1
В Арктике военный человек должен жить, а не выживать. Бой может быть проигран по причине невнимательности, утомленного экстремальными условиями жизни экипажа.
  • 17.08 15:34
  • 4
Болтон обвинил Россию в краже технологий для гиперзвукового оружия
  • 17.08 15:11
  • 34
"Ракетные малыши" России станут убийцами авианосцев
  • 17.08 15:06
  • 5
СМИ: Взрыв на полигоне Нёнокса не связан с испытанием ракеты "Буревестник"
  • 17.08 14:21
  • 3
Четвёртое августа. Иран официально заявил что захватил танкер, это уже пятый.
  • 17.08 13:52
  • 24
The Hill (США): Россия хвастливо заявляет о победе в гонке вооружений после фатального взрыва ракеты
  • 17.08 13:52
  • 18
В США назвали три "провальных" проекта вооружений России
  • 17.08 13:32
  • 3
Спустя 15 лет службы: Китай начал списывать J-10
  • 17.08 11:07
  • 81
The Wall Street Journal (США): Россия, прежде бывшая первой в освоении космоса, так и не вернула себе лидерство
  • 17.08 10:20
  • 13
ВЦИОМ: большинство россиян считают Военно-морской флот РФ самым сильным в мире
  • 17.08 10:15
  • 1
Боевики в сирийском Идлибе сбили самолет правительственных сил и взяли пилота в плен - СМИ
  • 17.08 08:26
  • 1
В военном ведомстве Незалежной, похоже, по-прежнему воруют
  • 17.08 07:44
  • 2
Российские комплексы РЭБ способны ослепить самолеты-невидимки F-35
  • 17.08 07:40
  • 4
Развернулись над Тверской: западное направление усилят Су-35
  • 17.08 06:58
  • 1
Малый ракетный корабль Тихоокеанского флота "Смерч" провел ракетные стрельбы в Японском море