Правила или практика — новые развилки глобального регулирования ИИ
Руководитель лаборатории международных трендов развития ИИ ВШЭ
Краткая версия
С 16 по 20 февраля 2026 г. в Нью-Дели прошел India AI Impact Summit — четвертый и крупнейший в серии глобальных саммитов по искусственному интеллекту, запущенный в 2023 г.
Многие рассчитывали, что саммит станет отправной точкой для выработки устойчивого курса, который позволит средним державам участвовать в формировании правил совместного развития ИИ и предотвратит концентрацию выгод от этой технологии в руках лишь нескольких компаний из США и Китая. Однако вместо единой архитектуры глобального управления саммит зафиксировал то, что раньше существовало как тенденция: глобальный консенсус по ИИ распадается на конкурирующие регуляторные философии. Разногласия носят не технический, а фундаментальный характер — они отражают различные представления о роли государства, рынка и международных институтов.
Если три года назад доминировали опасения по поводу экзистенциальных рисков ИИ и звучали призывы к превентивному регулированию, то сегодня фокус сместился к прагматике: решающим становится вопрос о том, кто сумеет интегрировать ИИ в государственные услуги, экономику и инфраструктуру и тем самым определить правила игры.
ИИ сегодня — это не только технология, но и инструмент суверенитета, экономической конкуренции и глобального влияния. Формируется целый ряд моделей регулирования, взаимодействие и соперничество которых будут определять глобальную ИИ-архитектуру в ближайшее десятилетие.
Фрагментация регулирования при этом выглядит не временным отклонением, а новой нормой. Попытки выработать универсальный глобальный консенсус наталкиваются на фундаментальные различия в политических философиях, экономических интересах и представлениях о роли государства. В этих условиях реалистичной стратегией становятся объединения стран для согласования технических стандартов, обмена практиками внедрения, а также постепенного формирования общих рынков данных.
Одновременно обостряется структурный разрыв между риторикой и реальными возможностями. Для стран глобального Юга проблема заключается не в отсутствии амбиций, а в дефиците «жесткого» потенциала — собственных моделей, вычислительной инфраструктуры, квалифицированных кадров и устойчивых энергетических ресурсов. Без преодоления этих ограничений громкие декларации рискуют остаться символическими жестами, не влияющими на распределение технологической власти.
Ситуацию осложняет и темп распространения ИИ. Технология развивается в беспрецедентных циклах, сокращающихся до месяцев. При столь высокой динамике технологического развития детализированное регулирование способно устареть еще до момента его применения. AI Act — наглядный пример: документ формировался до массового распространения генеративных моделей и ИИ‑агентов, вследствие чего Евросоюзу пришлось неоднократно отложить его полную имплементацию ради глубокой переработки.
При этом остановить внедрение ИИ нельзя. Государства, которые не успеют оперативно встроить ИИ в институциональную ткань, столкнутся с высокими издержками структурной перестройки экономики, институциональной инерцией и зависимостью от внешних поставщиков. В такой логике участие во все чаще звучащей международной гонке ИИ подразумевает не только большие амбиции, но и шаги по практическому внедрению технологии. В конечном счете ключевой вопрос состоит не в том, кто напишет самые всеобъемлющие правила, и даже не в том, насколько большую базовую ИИ-модель сможет разработать страна, а в том, как она сможет интегрировать ИИ в собственные институты и экономику.
Та страна, которая сможет придумать наиболее практичную и эффективную модель развития ИИ получит наибольшие преимущества от грядущей «ИИзации» мира.
Полная версия
С 16 по 20 февраля 2026 г. в Нью-Дели прошел India AI Impact Summit — четвертый и крупнейший в серии глобальных саммитов по искусственному интеллекту, запущенный в 2023 г. В мероприятии приняли участие более 100 тыс. человек, около 20 глав государств и правительств, а также делегации из более чем 110 стран и 30 международных организаций. Всего было проведено свыше 400 сессий — подобный масштаб сам по себе стал политическим заявлением.
Многие рассчитывали, что саммит станет отправной точкой для выработки устойчивого курса, который позволит средним державам участвовать в формировании правил совместного развития ИИ и предотвратит концентрацию выгод от этой технологии в руках лишь нескольких компаний из США и Китая. Однако вместо единой архитектуры глобального управления саммит зафиксировал то, что раньше существовало как тенденция: глобальный консенсус по ИИ распадается на конкурирующие регуляторные философии. Разногласия носят не технический, а фундаментальный характер — они отражают различные представления о роли государства, рынка и международных институтов.
От «безопасности» к «влиянию»: смена глобальной ИИ-повестки
Эволюция саммитов по искусственному интеллекту отражает постоянный поиск точек совместных интересов. Если первые встречи — саммиты «безопасности» в Блетчли-Парке (2023) и Сеуле (2024) — были сосредоточены на снижении рисков и мерах их предотвращения, то саммит «действия» в Париже (2025) вынес на первый план геополитическую и геоэкономическую конкуренцию, включая борьбу за стандарты, рынки и национальных чемпионов. В свою очередь, саммит «влияния» в Нью-Дели (2026) сместил акцент к практическому внедрению технологий.
Если три года назад доминировали опасения по поводу экзистенциальных рисков ИИ и звучали призывы к превентивному регулированию, то сегодня фокус сместился к прагматике: решающим становится вопрос о том, кто сумеет интегрировать ИИ в государственные услуги, экономику и инфраструктуру и тем самым определить правила игры.
Не менее символично и место проведения. Впервые мероприятие такого масштаба было организовано в стране глобального Юга. Управление ИИ более не является исключительной прерогативой западных элит и технологических гигантов. Вопрос в том, подтверждается ли это реальными возможностями.
Нью-Делийская декларация: символ единства, реальность расхождений
Кульминацией саммита стала Нью-Делийская декларация о влиянии ИИ, одобренная 91 страной, включая Китай, Россию и Соединенные Штаты. Напомним, что Вашингтон демонстративно отказался подписывать декларацию Парижского саммита 2025 года, сочтя ее подход к рискам и инклюзивности ИИ чрезмерным.
Декларация охватывает темы демократизации доступа к вычислительным мощностям, данным и моделям ИИ; расширения роли ИИ в здравоохранении, образовании, сельском хозяйстве и государственных услугах; принципы подотчетности и человеческого контроля. При этом документ получил обоснованную критику за концептуальную вторичность: по существу, эти принципы воспроизводят уже сформулированные позиции ОЭСР, G20, ЮНЕСКО и предшествующих саммитов.
Именно здесь кроется системная проблема. Документ не содержит ни финансовых обязательств, ни механизмов формирования и использования совместных вычислительных мощностей, ни обязательных стандартов. Как сказал один из комментаторов: «Необязательные декларации — это международный эквивалент лайков в LinkedIn: щедрые, бесплатные и быстро забываемые».
Этот скептицизм трудно назвать преувеличением. За декларацией скрывается фундаментальная асимметрия: приблизительно 90% мировой вычислительной инфраструктуры ИИ контролируется двумя странами — США и Китаем. Документ призывает к справедливому использованию технологий, но обходит стороной факт концентрации вычислительных мощностей, данных и ноу-хау в руках нескольких государств и корпораций.
Тем не менее было бы ошибкой обесценивать Нью-Делийскую декларацию. Само присоединение 91 участника формирует — пусть и достаточно условную — площадку, где впервые оказались вместе Китай, Россия и США и где появляется возможность обсуждать сосуществование уже сложившихся независимых ИИ‑систем.
Столкновение ИИ-парадигм
К весне 2026 года оформились три отчетливые модели, каждая из которых опирается на собственную философию.
США: технологическое доминирование и минимальное регулирование
Администрация Трампа провозглашает минимальное регулирование отрасли ради поддержания глобального доминирования США в области ИИ. Позиция Вашингтона была артикулирована предельно четко Майклом Крациосом, директором Управления по научно-технической политике Белого дома, который заявил: «Мы категорически отвергаем глобальное управление ИИ. Внедрение ИИ не сможет привести к светлому будущему, если оно будет подчинено бюрократии и централизованному контролю».
При этом в США лидеры техногигантов говорят о необходимости «разумного регулирования», тогда как Белый дом проявляет осторожность и не спешит в этом вопросе.
Европейский союз: зона минимального риска
Европейский подход основан на обязательных требованиях к прозрачности согласно риск-ориентированной модели, которая предполагает, что степень государственного контроля, требования к разработчикам и строгость регулирования напрямую зависят от уровня риска, который конкретная система ИИ представляет для человека.
ЕС первым в мире принял комплексный закон об ИИ (AI Act), который можно назвать одним из самых амбициозных регуляторных экспериментов в истории технологической политики. Он предусматривает обязательную оценку соответствия для систем ИИ высокого риска до их вывода на рынок, значительные оборотные штрафы за нарушения и, что особенно важно, обладает экстерриториальным действием: требования распространяются на любого поставщика, обслуживающего клиентов в ЕС, независимо от местонахождения его штаб-квартиры.
Логика подобных рамок строится на управлении рисками до наступления ущерба. Однако цена такой предосторожности — рост издержек для бизнеса и бегство инвесторов в более лояльные юрисдикции.
Гибкий прагматизм
Третий путь не имеет региональной привязки, но имеет сходства в преобладании добровольных рамок и ситуативной адаптации. Это не отсутствие стратегии — это иная логика, при которой скорость внедрения технологий ценится выше, чем полнота их регулирования.
К примеру, Сингапур 22 января 2026 г. запустил первую в мире систему управления для агентного ИИ — автономных систем, способных планировать и выполнять задачи с минимальным участием человека. Примечательна и модель Китая, которая сочетает формирование условий для быстрого внедрение с жестким политическим надзором, подразумевающего штрафы и строгие требования к локализации данных.
В свою очередь, подход России балансирует между мягким регулированием через этический кодекс для ИИ-отрасли и риск-ориентированным подходом с разграничением свободы эксперимента в зависимости от сферы применения ИИ-инструментов. Примечательно, хотя это часто остается вне поля зрения внешних наблюдателей, российский подход во многом совпадает с моделью, представленной Индией международному сообществу на прошедшем саммите.
Индийская модель: четвертый путь или тактический компромисс?
Ключевая особенность индийской модели — управление развивается параллельно с внедрением, а не предшествует ему. Правила не отвергаются, но их последовательность иная: институциональное освоение технологии предшествует консолидации регуляторных рамок.
Вместо конкуренции в создании передовых моделей Индия делает ставку на:
- институциональное внедрение ИИ;
- адаптацию открытых моделей под национальные задачи;
- интеграцию правовых механизмов в архитектуру технологий.
Без барьеров и ограничений: план развития ИИ в США
Например, на саммите была представлена модель Sarvam AI, разработанная путем дообучения базовой модели с открытым исходным кодом Mistral на данных местных языков. Да, это не прорыв на переднем крае науки, а стратегия внедрения: взять существующие технологии, адаптировать и встроить в институциональную ткань. Для страны, которая не может конкурировать по объему инвестиций с условным Google, это, возможно, единственная рациональная стратегия. Можно предположить, что такой подход может оказаться наиболее релевантным для большинства стран мира.
ООН: площадка глобального консенсуса
ООН стремится стать платформой для глобального управления ИИ, пытаясь объединить в единую рамку разрозненные и быстро развивающиеся регуляторные практики разных стран.
В частности, на различных площадках ООН заявлен ряд инициатив, направленных на международный научный обмен и подготовку ИИ-кадров. На полях саммита в Индии было объявлено о формировании Независимой международной научной группы по ИИ из 40 экспертов. Задача группы — готовить ежегодный доклад с научно обоснованными, основанными на доказательствах оценками, которые синтезируют и анализируют существующие исследования о возможностях, рисках и последствиях применения ИИ, тем самым помогая государствам формировать позицию по его развитию и регулированию на основе экспертизы и данных.
Генеральный секретарь ООН Антониу Гутерриш также анонсировал следующую инициативу как этап дальнейшей институционализации международного сотрудничества — создание собственного форума: Глобального диалога по управлению ИИ, который пройдет в Женеве в мае 2026 года. Как заявил генсек, «Без общей базовой линии побеждает фрагментация — разные регионы будут работать в соответствии с несовместимыми политиками и техническими стандартами. Это повысит издержки, ослабит безопасность и усугубит разногласия».
Серьезную обеспокоенность вызывает позиция США, рассматривающих саму идею многостороннего управления как угрозу, а также непреклонная убежденность европейской бюрократии в необходимости распространения практик AI Act без учета специфик других стран. В таких условиях ооновские инициативы рискуют столкнуться с невозможностью создать заявленную общую мировую стратегию развития ИИ. При всем этом ООН остается единственным международным институтом, который пользуется всеобщим признанием.
Опыт Сингапура в ИИ-сфере и его применимость в России
Выводы и перспективы
ИИ сегодня — это не только технология, но и инструмент суверенитета, экономической конкуренции и глобального влияния. Формируется целый ряд моделей регулирования, взаимодействие и соперничество которых будут определять глобальную ИИ-архитектуру в ближайшее десятилетие.
Фрагментация регулирования при этом выглядит не временным отклонением, а новой нормой. Попытки выработать универсальный глобальный консенсус наталкиваются на фундаментальные различия в политических философиях, экономических интересах и представлениях о роли государства. В этих условиях реалистичной стратегией становятся объединения стран для согласования технических стандартов, обмена практиками внедрения, а также постепенного формирования общих рынков данных.
Одновременно обостряется структурный разрыв между риторикой и реальными возможностями. Для стран глобального Юга проблема заключается не в отсутствии амбиций, а в дефиците «жесткого» потенциала — собственных моделей, вычислительной инфраструктуры, квалифицированных кадров и устойчивых энергетических ресурсов. Без преодоления этих ограничений громкие декларации рискуют остаться символическими жестами, не влияющими на распределение технологической власти.
Ситуацию осложняет и темп распространения ИИ. Технология развивается в беспрецедентных циклах, сокращающихся до месяцев. При столь высокой динамике технологического развития детализированное регулирование способно устареть еще до момента его применения. AI Act — наглядный пример: документ формировался до массового распространения генеративных моделей и ИИ‑агентов, вследствие чего Евросоюзу пришлось неоднократно отложить его полную имплементацию ради глубокой переработки.
При этом остановить внедрение ИИ нельзя. Государства, которые не успеют оперативно встроить ИИ в институциональную ткань, столкнутся с высокими издержками структурной перестройки экономики, институциональной инерцией и зависимостью от внешних поставщиков. В такой логике участие во все чаще звучащей международной гонке ИИ подразумевает не только большие амбиции, но и шаги по практическому внедрению технологии. В конечном счете ключевой вопрос состоит не в том, кто напишет самые всеобъемлющие правила, и даже не в том, насколько большую базовую ИИ-модель сможет разработать страна, а в том, как она сможет интегрировать ИИ в собственные институты и экономику.
Таким образом, именно та страна, которая сможет придумать наиболее практичную и эффективную модель развития ИИ получит наибольшие преимущества от грядущей «ИИзации» мира.