В Пентагоне заявили о страхе перед ChatGPT из-за возможности распространения дезинформации
Директор по цифровым технологиям и искусственному интеллекту (ИИ) Пентагона Крейг Мартелл заявил, что до смерти напуган возможностями генеративного ИИ, такого как ChatGPT, так как он может использоваться для распространения дезинформации. Об этом 3 мая сообщил портал Breaking Defence.
По словам чиновника, искусственный интеллект, способный генерировать текст, изображение и иной контент, представляет собой «захватывающую проблему», так как люди склонны верить ему, не проверяя факты.
«Он был обучен складно формулировать свои мысли. Говорит свободно и авторитетно. Таким образом, вы верите ему, даже когда он ошибается. И это означает, что он идеальный инструмент для дезинформации», — приводит его слова портал.
Мартелл также отметил необходимость создания инструментов, выявляющих ложную информацию в творениях генеративного ИИ. При этом он указал, что на данный момент таких инструментов не существует.
Ранее, 12 апреля, стало известно, что компания OpenAI начнет платить пользователям до $20 тыс. за обнаружение ошибок в своих системах искусственного интеллекта, в том числе в чат-боте ChatGPT. Участникам нужно будет проводить тестирование таких систем и оперативно сообщать об их слабых местах, ошибках или проблемах безопасности.
До этого, 11 апреля, чат-бот ChatGPT составил проект мирного договора между Россией и Украиной от лица канцлера Германии Олафа Шольца. В проект вошли пункты о немедленном прекращении огня, отводе всех войск на первоначальные позиции и создании демилитаризованной зоны.