Войти

Роботов поставили в ситуацию морального выбора

1448
0
0
Эксперимент
Эксперимент по созданию для роботов ситуации этического выбора.
Источник изображения: alanwinfield.blogspot.ru

Создав для роботов ситуацию этического выбора — кого из двух человек, одновременно попадающих в опасность, надо спасать — ученые выяснили, что больше всего смертей приносит не сам выбор, а слишком долгие размышления машины. О своем эксперименте Алан Винфилд (Alan Winfield) из Бристольской лаборатории робототехники рассказал на конференции по автономным роботам, которая прошла 2 сентября в Бирмингеме. Кратко об исследовании сообщается в интернет-издании New Scientist.


Винфилд запрограммировал робота удерживать другие автоматы (которые изображали людей) от падения в яму. Такой эксперимент представляет собой, по сути, иллюстрацию к первому закону робототехники А. Азимова: «Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред».


Сначала у машины проблем не возникло: как только «человек» приближался к яме, робот быстро отодвигал его от опасного места. Но когда ученые добавили второй автомат, приближавшейся к ловушке с той же скоростью, перед роботом встала дилемма — кого спасать первым. Иногда ему удавалось удержать одного «человека», пару раз — двоих, но в 14 случаев из 33 робот столько времени тратил на этические размышления, что оба «человека» падали в яму.


Винфилд признает неутешительные результаты своего эксперимента и подчеркивает, что роботы все еще остаются «этическими зомби»: они, способны соблюдать определенный кодекс поведения, но не понимают его моральные основания.


Научить машины принимать этические решения могут специалисты по военной робототехнике. Рональд Аркин (Ronald Arkin) из разработал набор алгоритмов («этический руководитель»), который призван помочь роботам действовать на поле боя: в каких ситуациях прекращать огонь, в какой обстановке (около школы или больницы, например) стремится свести к минимуму количество жертв.


Аркин считает, что научить морали военных роботов будет проще всего, так как законы войны являются четкими и прописаны в международных договорах. В отличие от живых солдат, подверженных эмоциям и аффектам, машины никогда не нарушат эти законы.


Права на данный материал принадлежат
Материал размещён правообладателем в открытом доступе
  • В новости упоминаются
Проекты
Хотите оставить комментарий? Зарегистрируйтесь и/или Войдите и общайтесь!
ПОДПИСКА НА НОВОСТИ
Ежедневная рассылка новостей ВПК на электронный почтовый ящик
  • Разделы новостей
  • Обсуждаемое
    Обновить
  • 23.07 02:27
  • 1
Ответ на "В России назвали задачи «ультрасовременного» бомбардировщика США"
  • 23.07 01:32
  • 1
Астронавтам предложили жить внутри лунного кратера под «крышей»
  • 22.07 23:56
  • 9709
Без кнута и пряника. Россия лишила Америку привычных рычагов влияния
  • 22.07 10:48
  • 83
Членство в НАТО в обмен на территорию. Зачем Армения проводит военные учения с США
  • 22.07 05:47
  • 0
Ответ на "В Китае назвали лучшее оружие России"
  • 22.07 04:21
  • 2
Ответ на ""Он будет большим": почему Путину стоит бояться новых британских истребителей"
  • 22.07 01:38
  • 3
Влитая пара: безэкипажные катера вооружат дронами «Скворец-ВМФ»
  • 22.07 00:18
  • 0
Ответ на "НАТО разработала грандиозный план борьбы с Россией. Но есть две загвоздки"
  • 21.07 23:10
  • 0
Ответ на "Эксперт Михайлов: Украина хочет бесплатное оружие, предлагая себя как полигон"
  • 21.07 22:34
  • 0
Ответ на "На Западе сравнили российский «Циркон» и американскую SM-6"
  • 21.07 21:51
  • 1
Ответ на "Ставки сделаны: к чему ведет милитаризация Германии - Мнения ТАСС"
  • 21.07 06:23
  • 1
«Калашников» рассказал об антидроновых возможностях «Вихря»
  • 20.07 21:07
  • 1
Шойгу заявил, что в войска скоро поступят системы ПВО нового поколения С-500
  • 20.07 21:04
  • 1
На вооружении "Искандера-М" стоят более семи ракет, рассказали в КБМ
  • 20.07 20:51
  • 1
Тонкая граница: Россия передаст на учениях опыт СВО военным Узбекистана