Войти

Опасность искусственного интеллекта в системах вооружения

1209
0
0

В настоящее время идет активное обсуждение проблемы безопасности применения искусственного интеллекта (ИИ) для человека. Хотя полноценный ИИ как таковой еще не создан, но автоматизация уже давно стала частью управленческих и производственных процессов. Сегодня компьютеры способны управлять автомобилями, распознавать речь и лица, анализировать гигантские объемы данных. У искусственного интеллекта большое количество областей применения, и оборонная сфера не является исключением. Создание ИИ становится задачей номер один для обеспечения национальной безопасности. По сути, начинается мировая гонка инновационных вооружений, в которую втягиваются все ведущие державы.

Источник изображения: https://ru.depositphotos.com

Пока автоматические системы ограничены, и решения на применение оружия принимает сам человек. ИИ должен полностью отстранить человека от принятия решение и заодно сохранить жизнь и здоровье военных. Существует огромное число возможностей применения оружия с ИИ. Это и ракетные катера, и бронемашины, и беспилотники, способные самостоятельно находить и уничтожать цели. С помощью ИИ можно объединить огромное количество дронов в управляемый "рой" для осуществления массовой атаки. Это системы военной связи и глобального позиционирования с обозначением координат цели и вызовом ударных средств.

Еще больше возможностей у ИИ в космосе. Появится возможность создания группировок спутников слежения, не нуждающихся в постоянном контроле и командах из центров управления на Земле.

В связи с этим, возникают вопросы: а не нанесут ли искусственные "мозги" удар по своим же солдатам? Или что произойдет, если боевую машину с искусственным разумом взломают хакеры, выведя ее из строя и перенаправив против своих же военных и гражданских объектов?

Как поясняют разработчики, решением проблемы является дополнение к искусственному разуму простого компьютера на базе обычных процессоров, который будет контролировать и ограничивать действия искусственного интеллекта. Взломать ИИ хакерам не удастся, так как в отличие от компьютерного интеллекта, искусственный разум генерирует для себя алгоритмы поведения самостоятельно и использует мгновенно возникающие и тут же распадающиеся цепочки связей.

Важно обратить внимание, что искусственный интеллект в отличие от суперкомпьютера функционирует по абсолютно другим алгоритмам и принципам. И пока еще рассуждения о восстании машин и армии "роботов-убийц" являются областью ненаучной фантастики.

Все еще не решена основная задача - как создать тот самый искусственный разум, который будет сравним с человеческим мозгом, но при этом "не перехватит инициативу" у человека.

При этом стоит обратить внимание на проблемы технического характера, возникающие ещё до внедрения полноценного ИИ - в том числе и в гражданской сфере.

Один из примеров - катастрофа самолёта Boeing-737 MAX 8 авиакомпании "Ethiopian Airlines". Специалисты отмечают, что у этих самолётов ещё после прошлогодней катастрофы в Индонезии были выявлены проблемы с "послушностью" бортовой электроники. Система автопилотирования фактически перехватывала управления у пилотов во время полёта. Американская компания умалчивала об этой проблеме, но вторая катастрофа с самолётом одной и той же модели за несколько месяцев заставила признать, что бортовые системы часто не помогали пилоту, а действовали вопреки его "командам".

Каковы гарантии того, что ИИ в вооружениях при нынешнем уровне технологий не окажется способен "перехватить управление" у человека, - важный вопрос для тех, кто занят в этой сфере.

Права на данный материал принадлежат
Материал размещён правообладателем в открытом доступе
  • В новости упоминаются
Продукция
Хотите оставить комментарий? Зарегистрируйтесь и/или Войдите и общайтесь!
ПОДПИСКА НА НОВОСТИ
Ежедневная рассылка новостей ВПК на электронный почтовый ящик
  • Разделы новостей
  • Обсуждаемое
    Обновить
  • 30.06 07:39
  • 1072
Израиль "готовился не к той войне" — и оказался уязвим перед ХАМАС
  • 30.06 07:26
  • 1
США очертили задачи каждой из бомбивших Иран бомб GBU-57
  • 30.06 07:20
  • 1
Су-35 отложат про запас
  • 30.06 01:59
  • 1
Глава генштаба США: иранский ядерный объект в Исфахане недоступен для любых обычных вооружений
  • 30.06 01:51
  • 1
Эксперт Степанов: Пентагон обеспечивает присутствие ВВС НАТО в приграничье РФ
  • 29.06 22:10
  • 1
Ответ на "НАТО не готова к российскому модернизированному бомбардировщику Ту-160 (The National Interest, США)"
  • 29.06 21:41
  • 2
Модернизация флота: ВМС США делают ставку на искусственный интеллект и «квантовую революцию»
  • 29.06 14:13
  • 1501
Корпорация "Иркут" до конца 2018 года поставит ВКС РФ более 30 истребителей Су-30СМ
  • 29.06 13:45
  • 27
Военкор: без десантных операций мощного прорыва обороны ВСУ российской армией можно не ждать
  • 29.06 13:22
  • 15
Проблемы с самолетом "Байкал"
  • 29.06 13:06
  • 48
Командующий ВВС США в Европе о роли авиации в боевых действиях на Украине
  • 29.06 13:00
  • 9520
Без кнута и пряника. Россия лишила Америку привычных рычагов влияния
  • 29.06 10:47
  • 10
Россия говорит, что ее новый бронекомплект остановит пулю калибра 12,7 мм (Popular Mechanics, США)
  • 29.06 09:39
  • 1
НАТО не готова к российскому модернизированному бомбардировщику Ту-160 (The National Interest, США)
  • 29.06 06:21
  • 0
О социальной эволюции и естественном отборе