Принятие машинами самостоятельных решений может создать глобальные угрозы
Кубинка (Московская область). 22 августа. ИНТЕРФАКС - Использование искусственного интеллекта (ИИ) в военном деле требует создания особых правил безопасности, чтобы нивелировать возможные последствия выхода этого инструмента из-под контроля людей, заявил заведующий кафедрой Военно-медицинской академии Александр Фисун на конференции в воскресенье.
"В настоящее время бурно развивается ИИ для вооружённых сил, что требует создания особых правил безопасности, так как уже вскоре автономный ИИ сможет принимать самостоятельные решения по применению средств поражения как на уровне отдельной единицы боевой техники, так и на глобальном уровне системы безопасности целой страны. ИИ со способностью самосознания потенциально сможет выйти из-под контроля людьми, что создаст значительную угрозу для человечества в целом", - сказал Фисун.
По его словам, "совершенно необходимо, чтобы военное применение искусственного интеллекта также постоянно находилось под особым контролем и исключало возможность любой автономности ИИ". "И хотя представляется очевидным, что будущее человечества неразрывно связано с ИИ, конфигурировать взаимодействие с ним нужно уже сейчас, чтобы вскоре сценарии из фантастических антиутопий не стали печальной реальностью для человечества", - подчеркнул Фисун.
Он также отметил, что самые успешные приложения ИИ в значительной степени полагаются на большие данные, что само по себе создает огромные проблемы с конфиденциальностью.
"Большие данные могут содержать конфиденциальную информацию и поэтому должны быть достаточно защищены. ИИ развивается намного быстрее, чем этические принципы и протоколы регулирования и безопасности, которые не успевают за этим постоянным прогрессом. Корпорации распространяют идею саморегулирования безопасности и этики ИИ, но едва ли такое предложение следует рассматривать всерьез, учитывая антагонизм между возможностями получения прибыли, приоритетными для корпоративного мира, и ограничениями на ее извлечение, неизбежно связанными с этическими нормами и правилами безопасности", - заявил Фисун.
Более того, отметил он, в ближайшем будущем может оказаться, что станет возможным саморегулирование ИИ, когда вопросы управления им будут возложены на него самого, что, по сути сделает его автономным. Значительная проблема может оказаться в том, что люди будут нуждаться в ИИ гораздо больше, чем ИИ будет нуждаться в людях. "В этой связи, может оказаться, что человечество станет видом второго сорта в своем собственном мире под управлением ИИ", - сказал Фисун.