На текущий момент регулирование ИИ на национальном уровне в Сингапуре, как и во многих других странах, в основном осуществляется по секторальному принципу.
При выработке подходов к регулированию Сингапур опирается на международные практики. Наиболее активными акторами в разработке регулирования ИИ стали Управление по развитию информационно-коммуникационных медиа (Infocomm Media Development Authority, IMDA) и Комиссия по защите персональных данных (Personal Data Protection Commission, PDPC), которые, начиная с 2019 г., на ежегодной основе предлагают различные инициативы и разрабатывают методические рекомендации, связанные с ИИ. Например, в 2019 г. на Форуме в Давосе была анонсирована подготовленная с участием обеих структур
Рамочная модель управления ИИ (Model AI Governance Framework). Обозначенные в ней нормы и принципы носят добровольный характер. В модели приводятся рекомендации по приведению внутренней политики, структур и процессов частных компаний и государственных структур в соответствие с существующей практикой управления и защиты данных.
В 2022 г. IMDA и Комитет по защите данных Сингапура (PDPC) заявили о создании первой в мире системы тестирования управления ИИ и инструментария (A.I. Verify) для компаний, которые хотят продемонстрировать соответствие
этическим принципам. Разработчики и владельцы могут проверять заявленную производительность своих систем ИИ в соответствии с набором принципов с помощью стандартизированных тестов. A.I. Verify объединяет набор решений для тестирования с открытым исходным кодом, включая набор технологических проверок и инструментарий для удобной самооценки. Тестирование касается таких свойств ИИ, как прозрачность, безопасность и устойчивость системы, возможность отслеживать работу. В начале 2025 г. был запущен пилотный проект
Global AI Assurance для внедрения передовых методов технического тестирования приложений генеративного ИИ.
В 2024 г. была выпущена Рамочная модель регулирования генеративного ИИ (Model AI Governance Framework for Generative AI), которая предложила рассматривать развитие генеративного ИИ в комплексе через
создание специализированной экосистемы.
Большая часть вопросов применения технологий ИИ и их влияния на общество находится под контролем
Правительственного агентства технологий (Government Technology Agency).
В 2024 г. Сингапур
запустил первую в мире «песочницу» по генеративному ИИ, нацеленную на поддержку внедрения отобранных решений национальными субъектами МСП.
Отраслевое регулированиеМягкое регулирование подразумевает формирование принципов саморегулирования компаний, а также зависит от усилий отраслевых министерств и структур. Порядок и даже время появления документов зависят от сферы и особенностей работы профильных ведомств.
Финансовый сектор Сингапура выделяется тесным взаимодействием бизнеса и регуляторов в создании правил использования ИИ. Еще в 2018 г. при участии таких структур, как Денежно-кредитное управление и Центральный банк Сингапура, появился документ, предлагающий продвигать принципы справедливости, этики, ответственности и транспарентности при использовании ИИ в финансовом секторе (
FEAT Principles). В 2019 г. была выдвинута инициатива создания рамочного документа по ИИ, а впоследствии FEAT Principles стали
частью национальной стратегии Сингапура в области ИИ.
В стране действует законодательство, которое позволяет регулировать и контролировать работу медицинских устройств на базе ИИ. Оно было разработано в рамках
Закона о продуктах для здоровья от 2007 г. При этом «
Рекомендации по использованию ИИ в сфере здравоохранения» были выпущены Министерством здравоохранения Сингапура лишь в октябре 2021 г.
ДанныеВ 2012 г. в Сингапуре был принят Закон о защите персональных данных (
Personal Data Protection Act, PDPA), который регулирует оборот персональных данных в стране. Согласно документу, операторы данных должны уведомлять субъектов данных (граждан Сингапура) о том, как их данные будут использованы. Данный акт
считается одним из наиболее современных и эффективных в Азиатско-Тихоокеанском регионе.
Меры по развитию этичного и безопасного ИИВ 2018 г. был учрежден
Консультативный совет по этике применения ИИ и использованию больших данных (The Advisory Council on the Ethical Use of AI and Data). В список его задач входит консультирование Министерства коммуникаций и информации по вопросам этичной разработки и внедрения ИИ. Помимо прочего Совет помогает в привлечении заинтересованных сторон к решению вопросов, которые могут поспособствовать развитию регулирования ИИ. Советы по этике ИИ есть на многих IT‑предприятиях, и Консультативный совет активно взаимодействует с частными компаниями с целью улучшения и обновления нормативного регулирования в сфере разработки и использования ИИ.
Также имеются два рамочных документа по регулированию ИИ. Первый — уже упоминавшаяся
Рамочная модель управления ИИ (Model AI Governance Framework). Согласно данному документу, вся работа, связанная с использованием ИИ, должна строиться на двух основных принципах: во-первых, ИИ должен быть объяснимым (понятным для всех), прозрачным и справедливым, а во-вторых, человекоцентричным.
Второй документ —
Свод знаний по этике и управлению ИИ версии 2.0 (AI Ethics & Governance Body of Knowledge Version 2.0, BoK 2.0). BoK 2.0 — самый последний документ в области этики и управления ИИ, частично основанный на Рамочной модели управления ИИ. Документ описывает четыре основополагающих принципа решения вопросов, связанных с этикой использования ИИ:
- Внутреннее управление: адаптация структур или создание новых для учета рисков ИИ, назначение ответственных.
- Операционное управление: контроль данных, выбор менее дискриминационных моделей и поддержка работоспособности ИИ.
- Человекоцентричность: ИИ должен быть этичным, недискриминационным и ориентированным на человека.
- Коммуникация: эффективное взаимодействие с заинтересованными сторонами для ответственного управления.
Стандарты ИИГород-государство принимает активное участие в международных форматах в области разработки и внедрения стандартов ИИ. В 2019 г. Сингапур создал
Технический комитет по ИИ (AI Technical Committee), цель которого — принятие и адаптация международных стандартов ИИ в стране, а также разработка собственных ИИ-стандартов. Комитет участвовал в создании двух международных документов по стандартизации:
- ISO/IEC TR 24030 (Information technology — Artificial intelligence (AI) — Use cases) содержит в себе 132 примера использования ИИ в различных областях, описание отдельных кейсов по стандартизации ИИ, а также материалы по обмену примерами стандартизации ИИ с внешними организациями и привлечению новых заинтересованных сторон в данный вопрос.
- TR 99 (Artificial intelligence (AI) security – Guidance for assessing and defending against AI security threats) представляет собой внутрисингапурское руководство по стандартизации использования ИИ, направленное на обеспечение безопасности данных, а также защиту от потенциальных угроз в сторону конфиденциальности систем ИИ.