Депутат Немкин: Технология ИИ слишком мощная, чтобы полагаться только на законы
«ИИ одновременно источник мощнейшего технологического рывка и новая зона общественной тревоги». Депутат Госдумы Антон Немкин рассказал газете ВЗГЛЯД, в чем плюсы и минусы искусственного интеллекта – и как государство будет регулировать эти новейшие технологии.
Внедрение искусственного интеллекта (ИИ) становится одной из главных тенденций уходящего года. Так, по данным сервиса "Медиалогия", слово "ИИ" стало лидером по упоминаемости в 2025 году – более 22 млнсообщений в социальных сетях.
Но рост упоминаемости – только следствие того, насколько активно ИИ внедряется и в системы государственного управления, и в бизнес-процессы, и в быт рядовых граждан. Для многих, искусственный интеллект стал явлением ежедневной действительности, несущим и возможности, и угрозы. Неудивительно, что уже звучат слова о необходимости регулирования ИИ на уровне государства.
В чем главные опасности и преимущества искусственного интеллекта? Какие именно возможности он дает и бизнесу, и обывателям? В какой мере требуется государственное вмешательство в этот процесс? Как выглядит российский потенциал во внедрении ИИ по сравнению конкурентами? На эти и другие вопросы газете ВЗГЛЯД ответил член комитета Госдумы по информационной политике, информационным технологиям и связи Антон Немкин.
ВЗГЛЯД: Антон Игоревич, как объяснить стремительное распространение искусственного интеллекта в нашу повседневную жизнь?
Антон Немкин: Масштаб проникновения ИИ сегодня действительно сопоставим с появлением смартфонов – только гораздо быстрее. За десять месяцев 2025 года совокупный трафик на ИИ-сервисы вырос почти в шесть раз, число пользователей – на 110%.
Рост объясняется тем, что генеративные модели наконец стали простыми и доступными. Интерфейсы понятные, качество ответов выросло, и человек получает решение задач – от подбора спортивного питания до финансового планирования – за секунды.
Антон Немкин. Фото: nemkin.ai
ВЗГЛЯД: Для чего ИИ сегодня используется в России на уровне государства?
А.Н.: В целом сегодня во всех регионах России на разных уровнях внедряется ИИ. Пока в Европе в основном используют американские и китайские языковые модели, Россия уже располагает двумя собственными разработками – YandexGPT и GigaChat, которые показывают высокие результаты. Так, GigaChat 2 MAX от Сбера была признана сильнейшей нейросетью для русского языка в 2024 году по бенчмарку MERA (предназначен для оценки современных русскоязычных языковых моделей – прим. ВЗГЛЯД).
Наш главный приоритет – развитие отечественных ИИ-моделей и внедрение российских ИИ-решений, что обеспечивает технологическую независимость страны. Российские ИИ уже применяются в системе мониторинга и управления национальными проектами, помогая прогнозировать риски и предотвращать срыв сроков выполнения мероприятий. Также уже идет внедрение ИИ в систему электронного документооборота аппарата правительства для более эффективной работы с документами, а также активно используем его в федеральных и региональных органах власти: ИИ помогает управлять транспортными потоками, прогнозировать лесные пожары, мониторить состояние городской среды, дорог и объектов ЖКХ.
ВЗГЛЯД: А в жизни обычных граждан ИИ полезен?
А.Н.: Главный плюс ИИ – резкий рост эффективности. По опросам, 40% россиян уже отмечают повышение своей продуктивности. У 6% ИИ экономит более пяти часов в неделю, у 12% – от двух до пяти часов. Это существенный эффект.
Второй плюс – демократизация экспертных услуг. 48% россиян уже используют ИИ, а среди молодежи 18–24 лет показатель достигает 79%. Малый бизнес тоже перестраивается: каждый второй предприниматель применяет нейросети для контента, аналитики, поиска информации.
ВЗГЛЯД: При этом есть масса публикаций об угрозах и опасностях со стороны искусственного интеллекта.
А.Н.: Да, угрозы есть. Начиная от дипфейков, которые невозможно отличить от реальности, и заканчивая рисками утечки чувствительных данных. Мы получили мощнейшую технологию в руки миллиардов людей, но без цифровой гигиены и без навыков безопасного обращения она становится и огромным генератором рисков.
ИИ уже используется и во вред – от подделки фото еды с плесенью на маркетплейсах до правдоподобных фото с места ДТП, которых не было. Это не только бытовая шалость, но и серьезный вызов для регуляторов и платформ, которым приходится защищаться от фейковых визуальных доказательств, жалоб и манипуляций.
Поэтому ИИ одновременно источник мощнейшего технологического рывка и новая зона общественной тревоги.
Мы впервые столкнулись с парадоксальной ситуацией: массовое использование очень сырой технологии. Люди взаимодействуют не с готовым продуктом, а с инструментом, механизмом – и во многом используют его неправильно, подвергая рискам свои данные.
Не все сервисы обеспечивают анонимность. Где-то контекст не сохраняется, а где-то наоборот накапливается, формируя фактически цифровой портрет пользователя. Угроза в том, что люди этого не осознают.
ВЗГЛЯД: Считаете эти угрозы существенными?
А.Н.: Мы вступаем в новый тип рисков. ИИ меняет природу угроз. Если раньше атаки были штучными, то теперь становятся массовыми и автоматизированными. Генерация фишинговых писем, подбор уязвимостей, автоматизация взломов – все это уже реальность.
Индустрия отвечает: появляются новые направления, такие как ИИ-безопасность. Например, "Сбертех" представил платформу, фильтрующую запросы, защищающую от утечек и предотвращающую внедрение вредоносного кода.
Но главная угроза сейчас – отсутствие цифровой грамотности и осторожности. Люди массово загружают в ИИ документы с конфиденциальной информацией. Модели могут формировать массив данных о человеке, который затем сложно контролировать. Проблема в том, что пользователи не понимают, что их данные формируют долговременный цифровой след, который однажды может сыграть с ними злую шутку.
ВЗГЛЯД: Значит ли это, что нужны специальные законы для регулирования использования ИИ?
А.Н.: Дискуссия идет активная. Россия выбрала адекватный путь: мы не повторяем путь ЕС, где слишком жесткое регулирование фактически вытолкнуло разработчиков за пределы Европы.
Наша логика – точечная настройка, а не тотальный контроль. Регулируем не сам ИИ, а сценарии его применения.
Например, рекомендательные алгоритмы – это конкретный инструмент, который может продвигать полезный контент, а может создавать пузыри информации и манипулировать взглядами. Соответственно, регулирование должно касаться сферы применения, а не сути алгоритмов. Сегодня обсуждаются корректные определения ИИ, ответственность за вред, механизмы маркировки сгенерированного контента и др.
Пока что существуют лишь фрагментарные, точечные элементы регулирования. Но мы продолжаем работать над разумными нормами, направленными на защиту граждан.
Основная идея: четко определить, где ИИ полезен и нужен – в промышленности, обороне, возможно в медицине (но с ограничениями, чтобы не деградировали компетенции врачей). Мы должны дать технологиям пространство для развития, но при этом ясно очертить границы, где ИИ может положительно влиять на жизнь людей, а где его применение недопустимо. Это позволит сохранить цифровой суверенитет страны и защитить граждан от потенциальных рисков.
ВЗГЛЯД: Как оцениваете надежды бизнеса на внедрение искусственного интеллекта для оптимизации затрат?
А.Н.: Во-первых, по отчету McKinsey за 2025 год, 88% компаний заявляют, что внедрили ИИ, но на деле только 7% полноценно завершили этот процесс. Это означает, что применение поверхностное: гипотезы есть, но бизнес-процессы не перестроены. Причина – низкая промпт-насмотренность. Люди не умеют ставить задачи моделям, не понимают их ограничений и возможностей. Как следствие – ИИ используется на 10–20% своего потенциала.
Во-вторых, ИИ доступен, но это не дешевая технология. Сегодня это огромная нагрузка на инфраструктуру. Не случайно акционеры OpenAI ищут около 100 млрд долларов только для поддержания ИИ-мощностей. Значительная часть этого расходуется на развлекательное использование, за которое никто не платит, но которое "съедает" вычислительные ресурсы.
ВЗГЛЯД: В России недавно прошла конференция по внедрению ИИ – AI Journey. Что лидеры рынка говорят о проблемах внедрения систем искусственного интеллекта?
А.Н.: На AI Journey обсуждалось три главных барьера: кадры, безопасность и экономика. Первое – дефицит квалифицированных специалистов. Крупные корпорации сегодня фактически сами создают себе инженеров, потому что классическая система образования не успевает. Более того, дефицит не только в разработчиках, но и в обычных пользователях: руководители и сотрудники часто просто не понимают, как применять ИИ. Отсюда и эффект McKinsey: есть внедрение, но нет результата.
Второй барьер – работа с данными и требования безопасности. Многим компаниям нельзя использовать внешние облачные решения: риски утечек слишком высоки. Поэтому появляются модели с изолированными контурами – как у Сбера, где рабочая и личная среда ИИ разделены.
Третий барьер – экономический. ИИ-проекты стоят дорого и окупаются не всегда. Поэтому многие выбирают гибридную стратегию: жесткие метрики для стабильных направлений и подход "запустить даже если эффект мал" – для инноваций. Другие идут по партнерской модели: например, Сибур активно работает со стартапами, масштабируя не свои разработки, а лучшие внешние решения.
Рынок растет: в 2025 году он достигнет 520 млрд рублей против 433 млрд годом ранее. Но рост мог бы быть вдвое выше при достаточном уровне компетенций.
ВЗГЛЯД: Как государство, по вашей оценке, будет в итоге регулировать внедрение ИИ?
А.Н.: Нас ждет гибридная модель. Во-первых, точечные законы: маркировка ИИ-контента, ответственность за создание и распространение дипфейков, правила защиты данных, требования к прозрачности алгоритмов в критических сферах.
Во-вторых, саморегулирование: корпоративные стандарты, отраслевые кодексы, внутренние регламенты компаний. Сегодня 31% компаний используют ИИ для разработки, 28% – для создания контента. И каждая компания уже формирует собственные правила безопасности. В-третьих, инфраструктурные меры: сертификация моделей, защищенные дата-центры, выверенные датасеты, отраслевые платформы.
И есть еще четвертый элемент, о котором мало говорят: нам нужно регулировать культуру использования ИИ. Обучение, просвещение, цифровая грамотность – от школ и вузов до бизнеса и госслужащих.
Без этого любая модель регулирования будет неполной: технология слишком мощная, чтобы полагаться только на законы. ИИ – это мотор экономики XXI века. И наша задача – чтобы этот мотор работал безопасно, эффективно и на благо развития, а не создавал новые угрозы.
ВЗГЛЯД: Есть ли у России шанс стать одним из мировых лидеров в индустрии ИИ?
А.Н.: Да, есть. Россия уже в семерке стран, обладающих собственными национальными LLM (Large Language Model, большая языковая модель). Формируется новый "ядерный клуб" XXI века, где ИИ-модели – это инструмент влияния, сравнимый с технологиями прошлого столетия.
Но устойчивое лидерство потребует создания оригинальных архитектур, а не просто переобучения иностранных моделей. Национальные модели должны использоваться в чувствительных сферах – от госуслуг до медицины и образования. Для этого нужны вычислительные мощности, качественные датасеты, защищенные среды и главное – кадры.
Компании уже вкладываются в образование: Сибур – через Центральный университет, Т-Банк – через корпоративные школы, Сбер – через отраслевые курсы. В ближайшие 3–5 лет именно наличие подготовленных инженеров и аналитиков определит, кто войдет в мировой топ. При системной поддержке мы точно будем среди лидеров.
Матвей Мальгин

