В июне 2025 г. принят «Закон о содействии исследованиям, разработкам и использованию технологий, связанных с искусственным интеллектом». Это первый в Японии закон, регламентирующий ИИ на рамочном уровне: закрепляет принципы и направления политики, но не предусматривает штрафных санкций.
Кроме того, существуют более
узконаправленные акты, применимые к конкретным сферам экономики. Есть также ряд нормативных документов, содержащих рекомендации по использованию и внедрению технологий ИИ, а также защите персональной информации и данных, например, Руководство по корпоративному управлению конфиденциальностью в условиях цифровой трансформации, Руководство по использованию изображений с камер, Руководство по контрактам по использованию искусственного интеллекта и данных.
Для тестирования новейших технологий, требующих изменений в нормативно-правовой базе, в 2018 г. правительством Японии была
запущена регуляторная «песочница».
Отраслевое регулированиеКак и в рамках общенационального подхода к регулированию ИИ, на отраслевом уровне не существует актов, ограничивающих использование искусственного интеллекта, однако в некоторых секторах устанавливаются определенные требования к бизнесу.
Закон о прозрачности цифровых платформ предписывает маркетплейсам и пр. соблюдать принципы открытости и прозрачности, в том числе в части принципов выдачи результатов по запросам на сайтах. Закон о финансовых инструментах обязывает трейдеров вести систему управления рисками и хранить данные о совершенных транзакциях.
«
Комплексная инновационная стратегия» в редакции 2024 г. уточняет, что некоторые особо важные сферы, такие как здравоохранение, беспилотный транспорт, и финансы, будут дополнительно изучены на предмет необходимости внедрения жесткого регулирования ИИ.
В апреле 2024 г. Министерством внутренних дел, связи и коммуникаций совместно с Министерством экономики, торговли и промышленности были опубликованы
Руководящие принципы ИИ для бизнеса, которые были составлены с учетом положений Всеобъемлющей рамочной договоренности Хиросимского процесса и заменили предыдущие аналогичные документы. Руководство касается трех категорий — разработчиков, провайдеров и пользователей ИИ, причем только использующих ИИ в деловых целях. Руководство не касается частных пользователей и владельцев данных. Таким образом, ответственность за обработку данных возлагается на разработчиков и провайдеров.
В июле 2023 г. был опубликован документ с рекомендациями для университетов по разработке собственной политики в области искусственного интеллекта. Тем не менее среди администраций японских университетов можно наблюдать расходящиеся мнения об использовании ИИ-технологий. Например,
опрос, проведенный газетой Mainichi среди 19 вузов, показал, что некоторые из них, напротив, заняты разработкой руководящих принципов для студентов, которые запрещают использовать сгенерированный ИИ-текст, программный код и результаты вычислений. При этом существует и противоположная точка зрения: директор исследовательского центра искусственного интеллекта следующего поколения Токийского университета Я. Куниёси
полагает, что «более эффективный способ отреагировать на эпоху больших данных — научить студентов расширять свои возможности, исследуя огромный потенциал искусственного интеллекта под пристальным наблюдением».
Собственные руководящие принципы
разработало и Министерство обороны Японии (Guidelines on Responsible Application of AI in the Research and Development of Defense Equipment) на основе Базового курса (Ministry of Defense Basic Policy on Promoting the Utilization of AI).
ДанныеЗакон об авторском праве в редакции 2017 г. позволяет использовать любые данные из Интернета или других источников для обучения ИИ, не считая это нарушением интересов правообладателей. При этом некоторые профессиональные объединения (в частности, Ассоциация издателей и редакторов газет)
указывают, что такой подход означает бесплатную эксплуатацию сервисами их авторских материалов, чреват неправильным толкованием машиной содержания материалов и, следовательно, падением уровня доверия к источнику. Авторов также волнует, что оригинальные материалы перестанут получать просмотры, поскольку пользователи Интернета предпочтут получить ответы на все вопросы от чат-бота, не заботясь о необходимости сверки достоверности такой информации с первоисточником.
Закон о защите персональных данных (APPI) регулирует вопросы обработки персональных данных, не ограничивая возможности использования в этих целях автоматизированных систем.
Поправки в
Закон о предотвращении недобросовестной конкуренции от 2019 г. предписывают, что несанкционированное использование данных с ограниченным доступом (например, по платной подписке) может стать предметом для судебного разбирательства и требований возмещения убытков.
Меры по развитию этичного и безопасного ИИВ 2019 г. были опубликованы «
Социальные принципы человекоцентричного ИИ» (Social Principles of Human-Centric AI), где перечислены базовые ориентиры, которых все участники процесса внедрения ИИ в стране должны придерживаться для максимизации пользы обществу. К таковым были причислены принципы человекоцентричности, образования/грамотности, защиты личной информации, гарантии безопасности, честной конкуренции, справедливости/надежности/прозрачности, а также инновационности. Кроме того, в документе обозначено несколько базовых ценностей, на которых должно строиться новое общество, опирающееся на технологии ИИ: достоинство, разнообразие и инклюзивность, устойчивость.
Свой вклад в развитие подходов к внедрению технологий ИИ предпринимают и игроки частного сектора. Так, например, Fujitsu разработала и периодически обновляет
практическое руководство с описанием процедуры проведения оценки воздействия ИИ на этику и примеры его применения в репрезентативных случаях. Корпорация Sony разработала
Руководство по этике ИИ для Sony Group и включила его в свою систему управления качеством. Компания NEC
следует принципам своей бизнес-группы в области ИИ и прав человека. Схожие документы имеют
NTT Data,
Hitachi,
Fujifilm Group,
Nomura Research Institute Group и др.
Японские исследовательские институты также занимаются выработкой соответствующего инструментария. Национальный Институт передовой промышленной науки и технологии представил
руководство по управлению качеством машинного обучения, которое устанавливает контрольные стандарты для основанного на нем продуктов и услуг. В нем также содержатся методические рекомендации по достижению наивысшего качества путем управления процессом разработки и оценки системы. Институт инициатив будущего при Токийском университете
разработал модель для структурирования факторов риска для ИИ и проводит тематические исследования в сотрудничестве с частными компаниями.
Стандарты ИИЯпония активно
участвует в выработке общемировых стандартов в области ИИ в рамках Международной организации по стандартизации (ISO). В ней страну представляет Комиссия по стандартам информационных технологий при Японском обществе обработки информации (IPSJ/ITSCJ) в лице специального Технического комитета (Technical Committee for SC42) — координатором двух рабочих групп SC42. Помимо ISO, по тематике выработки международных стандартов
Комитет сотрудничает с органами Евросоюза (CEN-CENELEC), США (NIST) и др.