Войти

Применения искусственного интеллекта в военном деле требует особых мер безопасности - эксперт

1601
0
0
В Европе предложили ограничить использование искусственного интеллекта
В Европе предложили ограничить использование искусственного интеллекта.
Источник изображения: industry-hunter.com

Принятие машинами самостоятельных решений может создать глобальные угрозы

Кубинка (Московская область). 22 августа. ИНТЕРФАКС - Использование искусственного интеллекта (ИИ) в военном деле требует создания особых правил безопасности, чтобы нивелировать возможные последствия выхода этого инструмента из-под контроля людей, заявил заведующий кафедрой Военно-медицинской академии Александр Фисун на конференции в воскресенье.

"В настоящее время бурно развивается ИИ для вооружённых сил, что требует создания особых правил безопасности, так как уже вскоре автономный ИИ сможет принимать самостоятельные решения по применению средств поражения как на уровне отдельной единицы боевой техники, так и на глобальном уровне системы безопасности целой страны. ИИ со способностью самосознания потенциально сможет выйти из-под контроля людьми, что создаст значительную угрозу для человечества в целом", - сказал Фисун.

По его словам, "совершенно необходимо, чтобы военное применение искусственного интеллекта также постоянно находилось под особым контролем и исключало возможность любой автономности ИИ". "И хотя представляется очевидным, что будущее человечества неразрывно связано с ИИ, конфигурировать взаимодействие с ним нужно уже сейчас, чтобы вскоре сценарии из фантастических антиутопий не стали печальной реальностью для человечества", - подчеркнул Фисун.

Он также отметил, что самые успешные приложения ИИ в значительной степени полагаются на большие данные, что само по себе создает огромные проблемы с конфиденциальностью.

"Большие данные могут содержать конфиденциальную информацию и поэтому должны быть достаточно защищены. ИИ развивается намного быстрее, чем этические принципы и протоколы регулирования и безопасности, которые не успевают за этим постоянным прогрессом. Корпорации распространяют идею саморегулирования безопасности и этики ИИ, но едва ли такое предложение следует рассматривать всерьез, учитывая антагонизм между возможностями получения прибыли, приоритетными для корпоративного мира, и ограничениями на ее извлечение, неизбежно связанными с этическими нормами и правилами безопасности", - заявил Фисун.

Более того, отметил он, в ближайшем будущем может оказаться, что станет возможным саморегулирование ИИ, когда вопросы управления им будут возложены на него самого, что, по сути сделает его автономным. Значительная проблема может оказаться в том, что люди будут нуждаться в ИИ гораздо больше, чем ИИ будет нуждаться в людях. "В этой связи, может оказаться, что человечество станет видом второго сорта в своем собственном мире под управлением ИИ", - сказал Фисун.

Права на данный материал принадлежат
Материал размещён правообладателем в открытом доступе
  • В новости упоминаются
Проекты
Хотите оставить комментарий? Зарегистрируйтесь и/или Войдите и общайтесь!
ПОДПИСКА НА НОВОСТИ
Ежедневная рассылка новостей ВПК на электронный почтовый ящик
  • Разделы новостей
  • Обсуждаемое
    Обновить
  • 08.10 05:09
  • 0
Комментарий к "Названа неочевидная опасность «Томагавков»"
  • 08.10 05:06
  • 3
Украина вряд ли получит ракеты Tomahawk из-за опасности конфликта РФ и США
  • 08.10 04:57
  • 10761
Без кнута и пряника. Россия лишила Америку привычных рычагов влияния
  • 08.10 04:32
  • 3
В тему "обнуления Томагавков" и прочих БПЛА
  • 08.10 04:22
  • 1
Комментарий к "Новая система международной безопасности – ради сохранения цивилизации"
  • 08.10 03:26
  • 0
Ответ на "Диванные вояки и дипломаты-пустозвоны хотят войны (American Thinker, США)"
  • 07.10 20:04
  • 7
Для защиты заводов по переработке нефти развернули передвижные группы ПВО
  • 07.10 17:59
  • 4
Тяжелая БМП Т-15 на платформе "Армата", возможно, даже нужнее чем танк
  • 07.10 17:59
  • 0
Комментарий к "В честь Дня Cухопутных войск российская армия получила новую бронетехнику (The National Interest, США)"
  • 07.10 17:35
  • 27
Российские БМПТ получили «теннисную сетку» для защиты от дронов
  • 07.10 14:29
  • 0
Новая система международной безопасности – ради сохранения цивилизации
  • 07.10 14:22
  • 142
ChatGPT-4 и нейросети (ИИ) спешат на помощь ГШ ВС РФ и Российской армии
  • 07.10 14:07
  • 0
Нам надо выжить
  • 07.10 11:54
  • 1
США могут купить у Украины технологии производства дронов
  • 07.10 04:07
  • 1
Комментарий к "Пропущенный вызов"