Войти

Европейцы отказали искусственному интеллекту в праве убивать людей

1356
0
0
HAL 9000
HAL 9000.
Источник изображения: 2001: A Space Odyssey / Metro-Goldwyn-Mayer, Stanley Kubrick Productions

Искусственный интеллект не должен самостоятельно принимать решение о применении оружия, а использование автономных боевых систем в вооруженных конфликтах следует запретить на международном уровне. Об этом, как пишет Jane’s, говорится в новом докладе Комитета по юридическим вопросам Европейского парламента.

Активные разработки в области создания систем искусственного интеллекта привели к тому, что разработчики начинают постепенно внедрять такие системы в вооружения и военную технику.

В частности, разрабатываются системы, позволяющие беспилотникам автоматически обнаруживать и приоритезировать цели, или дронам выполнять роль ведомых для пилотируемых летательных аппаратов.

Ведутся и разработки систем искусственного интеллекта, способных расшифровывать радиопередачи. В будущих военных разработках искусственный интеллект будет иметь все большее значение.

Активное внедрение систем искусственного интеллекта в вооружение и военную технику вызывает множество вопросов этического характера. В частности, не ясно, насколько правомерно применять в войне автономные системы вооружения и какую угрозу они представляют для мирного населения.

По оценке Комитета по юридическим вопросам Европарламента, автономные системы вооружения можно использовать в вооруженных конфликтах только в том случае, если решение об открытии огня принимает человек.

«Автономные боевые системы следует использовать в качестве крайней меры, и этот шаг можно признать законным, только если ими управляет человек, поскольку именно человек должен делать выбор между жизнью и смертью», — говорится в докладе комиссии.

Человек всегда должен иметь возможность внести корректировки в действия автономных боевых систем, остановить их работу или вовсе деактивировать такие системы в случае непредвиденных обстоятельств.

При этом должны соблюдаться условия, при которых, в случае необходимости, можно будет точно идентифицировать человека, управлявшего автономными боевыми системами. Это необходимо, например, на случай поиска виновных в незаконном применении оружия.

В начале 2020 года американское министерство обороны сформулировало пять этических принципов использования систем искусственного интеллекта в военных целях:

  • Ответственность. Военный персонал должен с надлежащим вниманием оценивать действия искусственного интеллекта, оставаясь полностью ответственным за разработку, развертывание и использование систем искусственного интеллекта;
  • Беспристрастность. Министерство обороны США должно предпринимать шаги для минимизации нежелательных отклонений в возможностях систем искусственного интеллекта;
  • Прослеживаемость. Военные системы искусственного интеллекта и их возможности должны разрабатываться и развертываться таким образом, чтобы персонал имел должный уровень понимания технологии, процессов разработки и методов применения. Для военного персонала должны быть доступны методологии, данные и документация, относящиеся к используемым системам искусственного интеллекта;
  • Надежность. Возможности военных систем искусственного интеллекта должны быть однозначными, четко сформулированными. Безопасность и эффективность таких возможностей должны проверяться испытаниями и подтверждаться на протяжении всего срока службы;
  • Подчинение. Военные системы искусственного интеллекта должны полностью исполнять предназначенные для них задачи, но военные должны иметь возможность обнаруживать и предотвращать нежелательные последствия использования искусственного интеллекта. Военные также должны иметь возможность выводить из боя или выключать системы искусственного интеллекта, у которых были замечены отклонения в работе.

Незадолго до обнародования этический принципов использования систем искусственного интеллекта начальник Объединенного центра искусственного интеллекта США генерал-лейтенант Джек Шэнэхэн заявил, что военные не станут оснащать системами искусственного интеллекта центры управления стратегическим вооружением. По его словам, за запуски баллистических ракет всегда будут отвечать люди, потому что решение о применении оружия массового поражения должно быть прерогативой исключительно человека.

Василий Сычёв

Права на данный материал принадлежат
Материал размещён правообладателем в открытом доступе
  • В новости упоминаются
Хотите оставить комментарий? Зарегистрируйтесь и/или Войдите и общайтесь!
ПОДПИСКА НА НОВОСТИ
Ежедневная рассылка новостей ВПК на электронный почтовый ящик
  • Разделы новостей
  • Обсуждаемое
    Обновить
  • 22.01 14:02
  • 13667
Без кнута и пряника. Россия лишила Америку привычных рычагов влияния
  • 22.01 13:00
  • 1
Бундесвер испытывает конопляные волокна в качестве армирующего материала
  • 22.01 12:36
  • 92
МС-21 готовится к первому полету
  • 22.01 06:27
  • 0
Касательно "ФЛОТ УМИРАЕТ БЕЗ АВИАНОСЦА: Сивков о предательстве интересов России | Безруков и Сивков"
  • 22.01 03:18
  • 0
О стратегии, тактике, и требованиях к бронетанковой технике в СА 60-80-ых гг. XX в.
  • 22.01 00:32
  • 1
В США новый российский «Амур» сочли обреченным
  • 22.01 00:06
  • 0
Комментарий к "В США рассказали о сражении между M1E3 Abrams и Т-14 «Армата»"
  • 21.01 23:11
  • 1
Как остаться в живых, если грянет третья мировая: Россия предрекла Британии "конец" (The Mirror, Великобритания)
  • 21.01 22:51
  • 4
Озвучены некоторые данные о нашем «аналоге» Starlink
  • 21.01 19:09
  • 5
Суд арестовал имущество и деньги Чубайса в рамках нового иска «Роснано»
  • 21.01 11:02
  • 1
Новый выставочный центр «Буран» открылся в Музейном комплексе в Верхней Пышме
  • 21.01 03:05
  • 0
Сравнение платформы "Армата" с запускаемым в серию в этом году Т-90М2 (по имеющейся о них информации))
  • 20.01 19:24
  • 0
И еще о танках: проект Т-90М2 "Рывок-1", по планам - в серии с 2026/2027 г.
  • 20.01 18:27
  • 0
Комментарий к "В новом М1Е3 Abrams повторяются некоторые идеи танка из КНДР 2017 года"
  • 20.01 16:45
  • 1
"Калашников": автомат для штурмовиков АК-12К сконструировали за полгода