Войти

Эксперты призвали ООН установить «красные линии» для искусственного интеллекта

1090
0
0

Источник изображения: topwar.ru

Более двухсот ведущих специалистов в области искусственного интеллекта, включая десять лауреатов Нобелевской премии, выступили с совместным обращением к Организации Объединенных Наций. В открытом письме они настаивают на незамедлительном определении и обеспечении соблюдения международных «красных линий», которые должны запретить наиболее опасные способы применения ИИ.

Как отмечают авторы инициативы, некоторые передовые системы искусственного интеллекта уже демонстрируют способность к обманным и вредоносным действиям. При этом таким системам предоставляется всё больше автономии для принятия решений в реальном мире. По их мнению, в ближайшей перспективе ИИ может значительно превзойти человеческие возможности, что создаст беспрецедентные риски. В их числе — создание искусственных пандемий, кампании массовой дезинформации и манипуляции общественным мнением, в том числе в отношении детей, а также системные угрозы национальной и международной безопасности, массовая безработица и нарушения прав человека.

Текст обращения, опубликованный на специализированном ресурсе redlines.ai, содержит призыв к ООН ввести запрет на применение ИИ в сферах, которые группа считает недопустимо рискованными. В этот перечень входят: передача системам ИИ прямого управления ядерным оружием, использование технологий для тотальной слежки и имитация человека без четкого раскрытия участия искусственного интеллекта.

Подписанты настаивают, чтобы ООН установила глобальный и имеющий обязательную силу режим контроля над развитием ИИ до конца 2026 года. Они предупреждают, что после появления сверхмощного искусственного интеллекта человечество может утратить над ним какой-либо контроль.

Среди тех, кто поддержал обращение, — профессор Джеффри Хинтон, лауреат премии Тьюринга Йошуа Бенджио, сооснователь OpenAI Войцех Заремба, директор по информационной безопасности компании Anthropic Джейсон Клинтон и ведущий научный сотрудник Google DeepMind Ян Гудфеллоу, а также ряд их коллег.

При этом генеральный директор DeepMind Демис Хассабис и глава OpenAI Сэм Альтман свою подпись под документом не поставили, что может создать почву для напряженности внутри индустрии.

Права на данный материал принадлежат
Материал размещён правообладателем в открытом доступе
  • В новости упоминаются
Компании
Хотите оставить комментарий? Зарегистрируйтесь и/или Войдите и общайтесь!
ПОДПИСКА НА НОВОСТИ
Ежедневная рассылка новостей ВПК на электронный почтовый ящик
  • Разделы новостей
  • Обсуждаемое
    Обновить
  • 27.12 19:11
  • 12496
Без кнута и пряника. Россия лишила Америку привычных рычагов влияния
  • 27.12 17:49
  • 188
В России запустили производство 20 самолетов Ту-214
  • 27.12 14:11
  • 84
МС-21 готовится к первому полету
  • 27.12 07:53
  • 2
Ил-114-300: крылья регионов
  • 27.12 06:25
  • 0
О БРСД, ДРМСД, и последствиях отказа от него.
  • 27.12 01:08
  • 1
Министр обороны Белоруссии объяснил, зачем республике нужен «Орешник»
  • 26.12 23:28
  • 0
Что может угрожать СГ РФ & РБ в военно-техническом отношении.
  • 26.12 20:17
  • 0
Что может угрожать СГ РФ & РБ в военном отношении.
  • 26.12 19:25
  • 0
Комментарий к "Назван российский противовес силам НАТО"
  • 26.12 17:48
  • 0
Вопросы к ""Рубин" разрабатывает стратегическую АПЛ нового поколения"
  • 26.12 15:52
  • 2
Старт новой ракеты "Союз-5" в рамках проекта "Байтерек" запланирован на декабрь 2025 года - глава "Роскосмоса"
  • 26.12 13:09
  • 1
Путин об ИИ: нельзя допустить появления людей, умеющих только нажимать на кнопки
  • 26.12 03:12
  • 1
Малозаметность Су-57 оценили
  • 25.12 22:57
  • 0
Ответ на "Трамп объявил о планах строительства для ВМС США "линейных кораблей" BBG(X)"
  • 25.12 18:54
  • 1
Использование ИИ в политике сравнили с электричеством