Все материалы Назад

Алексей Сидорюк: «Развитие ИИ должно быть во благо человека»

Алексей Сидорюк: «Развитие ИИ должно быть во благо человека»
Советник гендиректора по ИИ Ассоциации ФинТех о подходах к регулированию технологии

В условиях глобальной цифровизации искусственный интеллект (ИИ) становится мощным инструментом ускоренного экономического развития. Согласно исследованию МВФ, внедрение ИИ в экономические и управленческие процессы способно повысить темпы роста глобального ВВП на 0,8 процентного пункта. В России, по подсчетам ИСИЭЗ НИУ ВШЭ, реализация потенциала ИИ может привести к увеличению ВВП на 11,6 трлн руб. к 2030 г. Для сравнения: ВВП России в 2024 г. превысил 201 трлн руб., по данным Росстата.

Развитие ИИ открывает масштабные экономические и социальные возможности, но одновременно несет серьезные риски. Без системы правил технологии могут привести к нарушению прав человека: алгоритмической дискриминации, утечкам данных и манипулированию общественным мнением. Особенно опасно это в критически важных сферах – медицине, правосудии, энергетике и обороне, где ошибки ИИ напрямую влияют на жизнь и безопасность людей.

Грамотная законодательная база снижает технологические и киберугрозы, создает предсказуемые условия для бизнеса и повышает доверие общества к цифровым решениям.

Такие разные подходы

На текущий момент в международной практике отсутствуют четкие подходы к рассмотрению способов регулирования ИИ. Однако сегодня идет процесс выработки вариантов типологизации страновых подходов. Так, в 2023 г. в докладе ЦБ России была представлена методология, где выделяется три основных подхода: ограничительный, гибридный и стимулирующий.

Ограничительный подход предусматривает принятие норм, регламентирующих разработку, внедрение и эксплуатацию систем ИИ, содержащих прямой запрет на использование отдельных систем ИИ, а также дополнительные требования к эксплуатации ИИ с повышенным риском. Ключевой чертой ограничительного подхода является наличие единого закона о регулировании отрасли. В 2024 г. Евросоюз первым в мире принял закон об ИИ как способ обеспечить права человека при развитии ИИ.

Гибридный подход представляет собой сочетание инструментов жесткого регулирования (юридически обязательных норм) и мягкого регулирования (саморегулирование, этические принципы). В качестве примера можно привести Китай, где действуют строгие юридически обязывающие нормы, регулирующие ИИ: например, внедренные в 2023 г, «Временные меры по управлению сервисами генеративного ИИ» обязывают разработчиков перед запуском моделей типа ChatGPT проходить государственные тесты безопасности, фильтровать запрещенный контент и маркировать сгенерированные материалы.

Стимулирующий подход предполагает применение инструментов мягкого регулирования и отсутствие жестких ограничительных мер. К этой модели можно отнести США, которые в июле 2025 г. приняли AI Action Plan, направленный на существенное дерегулирование исследований в сфере ИИ.

Типы регулирования ИИ:

  • Жесткое регулирование (hard-law)
    – юридически обязательные нормы, разрабатываемые законодателями и регуляторами;
  • Техническое регулирование
    – устанавливающее обязательные требования к продукции, процессам производства, эксплуатации и другим аспектам с целью обеспечения безопасности и качества (технические стандарты);
  • Мягкое регулирование (soft-law)
    – необязательные, но предназначенные для оказания нормативного воздействия, издаваемые и поощряемые регулятором нормы (рекомендации и руководящие принципы, лучшие практики, рейтинги и репутационные механизмы), принципы и кодексы поведения, созданные самими участниками рынка.

Интеллект по-русски

Мы бы предложили рассматривать развитие ИИ в России как продолжительный процесс, имеющий корни в более ранних начинаниях, таких как доработка законодательства о персональных данных и запуск национального проекта «Цифровая экономика» в 2018 г.

Годом позже появилось поручение президента о необходимости разработки национальной стратегии развития ИИ.

На уровне высших государственных деятелей неоднократно подчеркивалось, что на текущем этапе не планируется вводить жесткое регулирование в сфере ИИ. Такой стратегический выбор призван способствовать достижению национальной мегaцели – вхождению России в число пяти мировых лидеров по уровню развития ИИ. Модель регулирования в стране носит гибридный характер: преобладают стимулирующие меры, однако дополнительно действуют точечные ограничения и механизмы саморегулирования.

При этом развитие регулирования ИИ в стране является динамичным процессом. В дискуссиях разных уровней возникают предложения о необходимости создания как общего закона об ИИ, так и инициатив по формированию стратегического плана тонкой настройки правового поля.

Ключевым элементом регулирования ИИ в России остается риск-ориентированный подход, согласно которому требования
регулирующих норм определяются масштабом и вероятностью реализации потенциальных рисков. Этот принцип отчетливо проявляется при формировании правовой среды в стране.

В сферах, где ИИ напрямую затрагивает жизнь, здоровье и финансовое благополучие граждан, таких как здравоохранение, транспорт и антифрод-системы, регулирование развивается достаточно оперативно и незначительно отстает от технического прогресса.

В остальных областях государство придерживается практико-ориентированной стратегии, оценивая возможные риски в рамках пилотных проектов и инициатив (к примеру, с 2020 г. в Москве проводится эксперимент по использованию технологий ИИ и компьютерного зрения в медицинской диагностике). Такой формат позволяет постепенно вырабатывать необходимые нормы и сокращать разрыв между быстрым развитием технологий и их регулированием.

Человек прежде всего

В регулировании ИИ заинтересованы все участники рынка, как в способе соблюдения баланса между эффективностью ИИ и безопасностью его применения. Однако у каждого из участников свое понимание таких границ и разные интересы. Меры этического регулирования позволяют в отсутствие жесткой регуляторной базы продолжить активное внедрение ИИ, при этом определив правила игры, а также снизив риски сторон.

В 2021 г. крупные компании и научные организации России разработали и подписали Кодекс этики в сфере искусственного интеллекта. Российский кодекс разрабатывался как развитие международных документов и полностью соответствовал наиболее актуальным подходам своего времени.

Документ представляет собой свод этических норм, образующих систему нравственных правил, которая основана на их добровольном принятии и выполнении. Его ключевой постулат – развитие ИИ должно идти в парадигме человекоцентричности. То есть в первую очередь должны учитываться интересы человека, а развитие ИИ должно быть во благо человека, а не во вред.

В качестве развития кодекса подготавливаются обзоры острых этических вопросов использования ИИ. Так, Белая книга этики в сфере ИИ создана Национальной комиссией по реализации Кодекса этики в сфере ИИ на базе Альянса в сфере ИИ. В ней собраны ответы на наиболее актуальные этические вопросы по ИИ, а также исследования в этой области и практические рекомендации для минимизации этических рисков. Также есть практика формирования специализированных отраслевых кодексов этики ИИ. На данный момент разработаны кодексы в сфере здравоохранения и сфере финансов.

Регулирование ИИ в финансах

Кодекс этики в сфере разработки и применения ИИ на финансовом рынке в 2025 г. разработал Банк России при участии Ассоциации ФинТех совместно с участниками рынка. Он соответствует мировым тенденциям в регулировании ИИ и поддерживает принцип мягкого регулирования применения инновационных технологий.

Пять основных принципов, на которых базируется кодекс, – это человекоцентричность, справедливость, прозрачность, безопасность и ответственное управление рисками.

Среди целей создания кодекса – укрепление доверия клиентов и регуляторов к финансовым институтам, предотвращение дискриминации, злоупотребления данными и минимизация рисков применения ИИ.

Например, рисков разработки ИИ и искажения работы модели ИИ: ошибок работы ИИ-модели, использования неполных или некорректных данных для ее обучения, галлюцинаций ИИ и т. д. Также существуют риски в области данных и информационной безопасности: утечки данных, мошеннические атаки на ИИ-системы. Не менее важны этические риски (дискриминация, нарушение прав потребителей и т. д.) и риски конкуренции – начиная от способствования явному или молчаливому сговору и заканчивая рисками слияний и поглощений, связанных с технологиями ИИ. Наконец, существуют макроэкономические риски и риски финансовой стабильности: накапливаются факторы нестабильности, связанные с непрозрачностью решений, унификацией алгоритмов и зависимостью от ограниченного круга поставщиков. Эти риски могут усиливать процикличность, повышать уязвимость к сбоям и атакам, а в кризисных ситуациях снижать точность прогнозов, что негативно отразится на финансовой стабильности.

Доверяй, но проверяй

Развитие технологий ИИ, включая появление сложных GPT?моделей, автономных ИИ?агентов и мультиагентных архитектур, а также интеграцию ИИ в системы, критически важные для жизни государства и его населения, не только создает новые возможности, но и порождает комплекс проблем.

К ключевым вызовам относятся обеспечение полной прозрачности процессов работы ИИ, контроль качества и раскрытие происхождения данных, снижение эффекта черного ящика (невозможность интерпретировать решения ИИ), а также минимизация предвзятости и искажений выводов. Дополнительно остро стоят вопросы кибербезопасности (защита ИИ от атак и манипуляций), энергоэффективности и устойчивости масштабных моделей. При этом важно помнить, что ИИ остается лишь инструментом, и невозможно полностью исключить человеческие ошибки или злоупотребления.

Решение перечисленных вызовов связывают с концепцией доверенного ИИ, активно развивающейся последние 10 лет и направленной на прозрачность, этичность и надежность использования алгоритмов.

В соответствии с национальной стратегией развития ИИ доверенные технологии ИИ – это технологии, отвечающие стандартам безопасности, разработанные с учетом принципов объективности, недискриминации, этичности, исключающие при их использовании возможность причинения вреда человеку и нарушения его основополагающих прав и свобод, нанесения ущерба интересам общества и государства.

Этичный ИИ фокусируется прежде всего на соответствии решений ИИ нормам морали и этики, доверенный ИИ – более широкий термин, в который включен и этичный ИИ. Проще говоря, этичный ИИ – это часть доверенного ИИ: доверие невозможно без соблюдения этики, но доверие также включает надежность, подотчетность, прозрачность и техническую безопасность.

Взгляд в будущее

Опыт последних лет показал: невозможно предусмотреть все сценарии применения ИИ для разработки соответствующего законодательства. Взрывной рост использования ИИ обычными пользователями после появления генеративных моделей говорит, что некоторые изменения сложно предсказать. В то время как все заняты задачами контроля дипфейков, высока вероятность появления полностью синтетических личностей, которые будут использоваться злоумышленниками.

Можно предположить, что в будущем ИИ, скорее всего, будут регулировать по аналогии с авиацией и фармацевтикой: жесткая сертификация для опасных областей, легкая – для бытового применения, обязательные стандарты прозрачности и устойчивости.

Предполагаем, что в ситуации расширяющегося внедрения ИИ у регулирования технологии будет несколько векторов развития. Во-первых, критерии «доверенного ИИ» будут становиться все более формализованными. Возможно введение обязательных тестов на устойчивость к вредоносным входам и атакам на модель, внедрение многоуровневого аудита создания и функциональности модели на протяжении жизненного цикла. Одновременно вырастет роль независимых аудитов и сертификации.

Кроме того, в ряде узкоспециализированных областей, таких как медицина или редкие языки, наблюдается дефицит обучающих материалов. Одним из решений станет создание синтетических данных, искусственно сгенерированных так, чтобы имитировать структуру и статистические свойства реальных данных, но не содержащих реальной личной информации.

Однако это порождает новую проблему: ИИ, обученный преимущественно на искусственно сгенерированных материалах, рискует начать формировать искусственную картину мира, все менее связанную с реальной действительностью.

Многие виды данных, включая тексты, изображения и программный код, могут находиться под защитой авторского права, и их использование без разрешения чревато юридическими последствиями.

Ситуация с авторскими правами в случае с результатами деятельности ИИ тоже будет меняться. Ключевая проблема – неопределенность правообладателя в отношении результатов работы ИИ. Текущая развилка – либо закреплять права за пользователем/заказчиком, либо переводить созданный без участия человека ИИ?контент в общественное достояние с раскрытием факта его генерации. Вероятно, мир столкнется с фрагментацией подходов к авторскому праву, и на практике будут встречаться примеры применения как первого, так и второго принципов.

Например, китайские платформы WeChat, Douyin, Weibo и Xiaohongshu с 1 сентября 2025 г. начали обязательную маркировку контента, созданного ИИ. Новый закон требует устанавливать как видимые метки на публикациях, так и скрытые цифровые водяные знаки в метаданных. В России также уже идут обсуждения целесообразности маркировки контента.

Еще один трек развития – ответственность за использование ИИ. На данный момент можно установить, кто виновен – разработчик, поставщик данных, интегратор или пользователь. Проблема chained liability – когда ответственность распределена между множеством участников. Однако развитие технологии требует четкого определения, как привлекать к ответственности стороны при ущербе от ИИ-решений.

Также в будущем ИИ-агентов могут использовать как сотрудников организации. Сейчас ИИ – это всегда инструмент, а не сотрудник. Но с ростом автономности и интеграции в управление бизнесом это может кардинально измениться, что приведет к расширению возникающих серых правовых зон.

ЕС и Организация экономического сотрудничества и развития обсуждают введение статуса электронной личности (e-person) для автономных ИИ. США допускают широкое функциональное применение без признания правосубъектности, а Китай интегрирует алгоритмы в государственное администрирование. Эти контрасты показывают, что мир движется к фрагментации правил, где статус и полномочия ИИ будут зависеть от конкретной юрисдикции. России предстоит найти свой путь в этом лабиринте.

Текст подготовлен при участии руководителя проектов по ИИ «Ассоциации ФинТех» Антона Тамаровича


Источник: Ведомости

Подпишитесь на новости

Подпишитесь на новости

И узнавайте о последних событиях и мероприятиях ассоциации