Распечатать
Оценить статью
(Голосов: 14, Рейтинг: 4.71)
 (14 голосов)
Поделиться статьей
Максим Карлюк

Научный сотрудник Института права и развития ВШЭ-Сколково, Национальный исследовательский университет Высшая школа экономики

Системы, использующие технологии искусственного интеллекта, становятся всё более автономными в смысле сложности задач, которые они могут выполнять, их потенциального влияния на мир и уменьшающейся способности человека понимать, предсказывать и контролировать их функционирование. Большинство людей недооценивает реальную автономность таких систем. Они могут учиться на собственном опыте и осуществлять действия, которые не были задуманы их создателями. Этим обусловлен ряд этических и правовых затруднений.

Этика и право неразрывно связаны в современном обществе, и многие правовые решения вытекают из восприятия тех или иных этических проблем. Искусственный интеллект добавляет новое измерение в данные вопросы. Системы, использующие технологии искусственного интеллекта, становятся всё более автономными в смысле сложности задач, которые они могут выполнять, их потенциального влияния на мир и уменьшающейся способности человека понимать, предсказывать и контролировать их функционирование. Большинство людей недооценивает реальную автономность таких систем. Они могут учиться на собственном опыте и осуществлять действия, которые не были задуманы их создателями. Этим обусловлен ряд этических и правовых затруднений, которые будут затронуты в данной статье.

Этика и искусственный интеллект

Существует довольно известный эксперимент — проблема вагонетки. Он поднимает ряд важных этических вопросов, имеющих непосредственное отношение к искусственному интеллекту. Представьте, что неуправляемая вагонетка несётся по рельсам, а на ее пути к рельсам привязаны пять человек. Вы стоите возле рычага, с помощью которого можно переключить стрелку, и вагонетка повернёт и поедет по другому пути, где к рельсам привязан один человек. Переключите ли Вы стрелку?

Источник: Wikimedia.org

Однозначного ответа на данный вопрос нет. Более того, вариаций ситуации, в которой приходится принимать подобное решение, очень много [1]. К тому же разные социальные группы дают разные ответы. Так, например, буддистские монахи преимущественно готовы пожертвовать жизнью одного человека, чтобы спасти пятерых даже в более сложном варианте проблемы вагонетки.

Система, которая учится на информации полученной из внешнего мира, может действовать таким образом, который создатели не могли предсказать, а предсказуемость критична для современных правовых подходов.

Что касается искусственного интеллекта, такая ситуация может возникнуть, например, на дороге, по которой двигается беспилотный транспорт, в случае, если авария непреодолима. Возникает вопрос, чья жизнь должна быть в приоритете — пассажиров, пешеходов или ни тех, ни других? В Массачусетском технологическом университете был даже создан специальный сайт, посвящённый этой проблеме, где пользователь может попробовать на себе различные сценарии и выбрать, как стоило бы поступить в той или иной ситуации.

Возникают также вопросы, что позволено делать с правовой точки зрения? На основе чего делать выбор? И кто в итоге будет виноват? Данная проблема уже получила отклики от компаний и регуляторов. Так, представители компании «Мерседес» прямо сказали, что их машины будут отдавать приоритет пассажирам, на что в Министерстве транспорта Германии был сразу же дан ответ, предвосхищающий будущее регулирование, — что делать такой выбор на основе ряда критериев будет неправомерно и в любом случае производитель будет нести ответственность.

Другие страны могут выбрать иной путь. Возьмём, к примеру, китайскую Систему социального рейтинга, в соответствии с которой каждому гражданину присваивается рейтинг в зависимости от законопослушности, полезной общественной деятельности и др. Обладатели низких рейтингов будут подвергаться санкциям. Что помешает руководству Китая заставить производителей беспилотного транспорта предусмотреть правило, что в случае непреодолимой аварии жертвовать необходимо человеком с наименьшим рейтингом? За счёт, например, технологий распознавания лиц и доступа к соответствующим базам данных, вполне возможно определить и сравнить рейтинги потенциальных жертв.

Основные проблемы, стоящие перед правом

Жёсткие правила могут привести к замедленному внедрению технологий искусственного интеллекта в связи с большими и непредсказуемыми рисками ответственности для создателей.

Но правовые проблемы ещё глубже, особенно в случае роботов. Система, которая учится на информации полученной из внешнего мира, может действовать таким образом, который создатели не могли предсказать [2], а предсказуемость критична для современных правовых подходов. Более того, такие системы могут действовать независимо от создателей или операторов, что усложняет задачу по определению субъекта ответственности. Данные характеристики ставят проблемы предсказуемости и способности действовать самостоятельно, но не быть юридически ответственным [3].

Варианты регулирования многочисленны, в том числе на основе уже существующих норм. Так, технологии, использующие искусственный интеллект, можно регулировать как объекты авторских прав либо как имущество. Однако сложности возникают, если учесть, в частности, способность к автономному действию помимо воли создателя, собственника или владельца. В связи с этим можно применить нормы, регулирующие особый вид имущества — животных, поскольку последние также способны к автономным действиям. В российском праве к животным применяются общие правила об имуществе (ст. 137 ГК РФ), поэтому ответственность будет наступать по ст. 1064 ГК РФ: вред, причинённый личности или имуществу гражданина, подлежит возмещению в полном объёме лицом, причинившим вред, которым является собственник автономного агента.

Не существует фундаментальных причин, почему автономные системы не должны нести ответственность за свои действия.

Предложения о применении правового режима животных высказываются [4], однако они имеют некоторые ограничения. Во-первых, применение законодательства по аналогии недопустимо в рамках уголовного права. Во-вторых, данные нормы созданы в первую очередь для домашних животных, которые не должны причинять вред при обычных обстоятельствах. Для более развитых систем существуют предложения провести аналогию с дикими животными, поскольку для последних существуют более жёсткие правила [5]. Однако и здесь возникает вопрос, как сделать такое разделение в связи с особенностями искусственного интеллекта, указанными выше. Более того, жёсткие правила могут привести к замедленному внедрению технологий искусственного интеллекта в связи с большими и непредсказуемыми рисками ответственности для создателей.

Распространённым предложением является применение к таким системам норм о юридических лицах [6]. Поскольку юридическое лицо является искусственно сконструированным субъектом права [7], то роботов также можно наделить аналогичным статусом. Право может быть достаточно гибким и наделять практически любого правами. Оно также может и ограничить в правах. Например, исторически рабы не обладали практически никакими правами и вообще являлись имуществом. Можно также наблюдать и противоположную ситуацию, когда объекты без явных признаков способности к действию наделяются правами. Даже сегодня существуют примеры необычных объектов, признающихся юридическими лицами, — как в развитых, так и в развивающихся странах. В Новой Зеландии в 2017 г. был принят закон, который признал статус юридического лица за рекой Уонгануи. В законе указывается, что данная река является юридическим лицом и обладает всеми правами, полномочиями и обязанностями юридического лица. Таким образом, данный закон трансформировал реку из собственности в юридическое лицо, что расширило границы понимания относительно того, что может являться собственностью, а что нет. В Индии Верховный Суд в 2000 г. признал юридическим лицом основной священный текст сикхов — Гуру Грантх Сахиб.

Но даже если не рассматривать экстремальные варианты, а привести в пример обычные компании, правовые системы предусматривают гражданско-правовую, а в некоторых случаях и уголовно-правовую [8] ответственность юридических лиц. Не определяя, что компании (или государства) обладают свободой воли или интенцией, или что они могут действовать преднамеренно или осознанно, считается возможным признавать их юридически ответственными за определённые действия. Таким же образом, не обязательно приписывать интенцию или свободу воли роботам, чтобы признавать их ответственными за то, что они делают.

Франция планирует инвестировать 1,5 млрд евро в течение пяти лет для поддержки исследований и инноваций в данной сфере.

Однако аналогия с юридическими лицами проблематична, поскольку, по сути, концепция юридического лица нужна для быстрого и эффективного осуществления правосудия, но действия юридических лиц всегда восходят к действиям индивида или группы людей, даже если невозможно их точно определить [9]. Другими словами, правовая ответственность компаний и похожих образований связана с действиями, выполняемыми их представителями или работниками. Более того, в случае уголовной ответственности, когда она признаётся за юридическими лицами, она возможна только при условии, что физическое лицо, совершившее действие от имени юридического лица, определено [10]. Действия же систем на основе искусственного интеллекта не обязательно будут прямо восходить к действиям человека.

Наконец, к таким системам можно применять правовые нормы об источниках повышенной опасности. В соответствии с п. 1 ст. 1079 ГК РФ юридические лица и граждане, деятельность которых связана с повышенной опасностью для окружающих (использование транспортных средств, механизмов и др.), обязаны возместить вред, причинённый источником повышенной опасности, если не докажут, что вред возник вследствие непреодолимой силы или умысла потерпевшего. Проблема заключается в разграничении, какие системы могут быть отнесены к источникам повышенной опасности. Этот вопрос похож на вышеуказанную проблему разграничения домашних и диких животных.

Национальное и международное регулирование

Многие страны активно создают правовые условия для развития технологий, использующих искусственный интеллект. Так, в Южной Корее ещё с 2008 г. существует Закон «О содействии развитию и распространению умных роботов». Закон направлен на улучшение качества жизни и развитие экономики путём разработки и продвижения стратегии устойчивого развития индустрии умных роботов, а правительство каждые пять лет разрабатывает основной план обеспечения эффективного достижения данной цели.

Здесь хотелось бы остановиться на двух недавних примерах — Франции, которая заявила об амбициях стать европейским и мировым лидером в сфере искусственного интеллекта; и Европейском союзе, в котором предложены продвинутые нормы регулирования умных роботов.

Франция

В конце марта 2018 г. президент Франции Э. Макрон презентовал национальную стратегию в сфере искусственного интеллекта. Франция планирует инвестировать 1,5 млрд евро в течение пяти лет для поддержки исследований и инноваций в данной сфере. Стратегия основана на рекомендациях, сделанных в отчёте, подготовленном под руководством французского математика и депутата национального собрания Франции Седрика Виллани. Причём сделан выбор направить стратегию на конкретные четыре сектора: здравоохранение, транспорт, окружающую среду и оборону, и безопасность. Это сделано для того, чтобы использовать потенциал сравнительных преимуществ и сфер компетенций с фокусом на секторах, в которых компании смогут играть ключевую роль на глобальном уровне, а также из-за их важности для общественного интереса и др.

В целом даны семь ключевых предложений, одно из которых представляет особый интерес для целей статьи — сделать искусственный интеллект более открытым. Действительно, алгоритмы закрыты и в большинстве случаев являются коммерческой тайной. Однако алгоритмы могут быть предвзятыми, например, в процессе самообучения впитать стереотипы, существующие в обществе либо переданные разработчиками, и на их основе принимать решения. Таким образом уже принимаются судебные решения. В США подсудимый был приговорён к продолжительному сроку заключения на основе информации, полученной от алгоритма, оценивающего возможность повторного преступления. Подсудимый безуспешно оспаривал использование алгоритма для принятия такого решения, поскольку не были предоставлены критерии оценки, являющиеся коммерческой тайной. Французская стратегия предлагает развить прозрачность алгоритмов и возможностей по их проверке, а также определить этическую ответственность работающих в сфере искусственного интеллекта, создать консультативные комитеты по этике и т. д.

Европейский союз

Алгоритмы могут быть предвзятыми, например, в процессе самообучения впитать стереотипы, существующие в обществе либо переданные разработчиками, и на их основе принимать решения.

В ЕС первым шагом в направлении регулирования вопросов искусственного интеллекта стала Резолюция Европейского Парламента 2017 г. «Нормы гражданского права о робототехнике». Ещё в 2015 г. в Европейском Парламенте была создана рабочая группа по правовым вопросам, связанным с развитием робототехники и искусственного интеллекта в ЕС. Резолюция не является обязательным документом, но дает ряд рекомендаций Европейской Комиссии для возможных действий в этом направлении, причём не только касательно норм гражданского права, но и этических аспектов робототехники.

Резолюция определяет «умного робота» как робота, получающего автономию через использование сенсоров и/или взаимосвязь с окружающей средой; при этом робот имеет по меньшей мере минимальную физическую поддержку, адаптирует своё поведение и действия в соответствии с условиями среды, при этом у него отсутствует жизнь с биологической точки зрения. Предлагается создать систему регистрации продвинутых роботов, которая управлялась бы Агентством ЕС по робототехнике и искусственному интеллекту. Данное агентство также предоставляло бы техническую, этическую и регулятивную экспертизу по робототехнике. Что касается ответственности, предлагаются два варианта: либо объективная ответственность (не требующая вины), либо подход риск-менеджмента (ответственность лица, которое могло минимизировать риски). Ответственность должна быть пропорциональной реальному уровню указаний, которые отдаются роботу и уровню его автономности. Правила ответственности могут быть дополнены обязательным страхованием для пользователей роботов, и компенсационным фондом для выплаты компенсации в случае отсутствия страхового полиса, покрывающего риск.

Наталия Ромашкина:
Собрать киберпазл

Для решения этических вопросов резолюция предлагает два кодекса поведения: Кодекс этики для разработчиков робототехники и Кодекс комитетов по этике научных исследований. Первый, в частности, предлагает четыре этических принципа: 1) «делай благо» (роботы должны действовать в интересах людей); 2) «не навреди» (роботы не должны причинять вред человеку); 3) автономия (взаимодействие человека с роботами должно быть добровольным); 4) справедливость (выгоды, получаемые от деятельности роботов, должны быть распределены справедливо).

***

Таким образом, примеры, приведённые в статье, показывают, среди прочего, как общественные ценности влияют на отношение к искусственному интеллекту и его юридическому оформлению. Поэтому наше отношение к автономным системам, будь то роботы или что-то другое, наше переосмысление их роли в обществе и положения среди нас, может иметь трансформационный эффект. Правосубъектность определяет то, что важно для общества, и позволяет решить, является ли «что-то» ценным и надлежащим объектом для обладания правами и обязанностями.

В связи с особенностями искусственного интеллекта звучат предложения о непосредственной ответственности определённых систем [11]. В соответствии с такими взглядами, не существует фундаментальных причин, почему автономные системы не должны нести ответственность за свои действия. Однако открытым остаётся вопрос о необходимости либо желательности введения такой ответственности (во всяком случае на данном этапе). Это в том числе связано с этическими проблемами, указанными в статье. Возможно, сделать программистов или пользователей автономных систем ответственными за действия таких систем будет более эффективным. Однако это же может замедлить инновации. Поэтому необходимо продолжить поиски оптимального баланса.

Для этого важно ответить на многие вопросы. Например, какие цели мы преследуем, развивая технологии искусственного интеллекта? Чьи интересы должны преобладать? Насколько эффективно это будет? Ответ на эти вопросы поможет предотвратить ситуации подобно той, которая случилась в России XVII в., когда животное (а именно, козёл) было отправлено в ссылку в Сибирь за совершённые им действия [12].

1. См. напр. D. Edmonds, Would You Kill the Fat Man? The Trolley Problem and What your Answer Tells Us about Right and Wrong, Princeton University Press, 2013.

2. Asaro P., “From Mehcanisms of Adaptation to Intelligence Amplifiers: The Philosophy of W. Ross Ahby”, in Wheeler M., Husbands P., and Holland O. (eds.) The Mechanical Mind in History, Cambridge, MA: MIT Press: 149-184

3. Asaro P. The Liability Problem for Autonomous Artificial Agents // AAAI Symposium on Ethical and Moral Considerations in Non-Human. Agents, Stanford University, Stanford, CA. — March 21-23, 2016. — P. 191.

4. Архипов В.В., Наумов В.Б. О некоторых вопросах теоретических оснований развития законодательства о робототехнике: аспекты воли и правосубъектности // Закон. — 2017. — № 5. — С. 167; Kellye R.

5. Asaro P. The Liability Problem for Autonomous Artificial Agents. P. 193.

6. Архипов В.В., Наумов В.Б. Указ. соч. С. 164.

7. См. напр. Winkler A. We the Corporations: How American Business Won Their Civil Rights. — Liverlight, 2018. См. описание здесь: https://www.nytimes.com/2018/03/05/books/review/adam-winkler-we-the-corporations.html

8. В странах англосаксонской системы права, в странах ЕС, некоторых странах Ближнего Востока. Также, на постсоветском пространстве такая ответственность предусмотрена в Грузии, Казахстане, Молдове, Украине. В России таковая не предусмотрена, хотя и обсуждается.

9. Brożek B., Jakubiec M. On the legal responsibility of autonomous machines // Artificial Intelligence Law. — 2017. — № 25(3). — P. 293-304.

10. Khanna V.S. Corporate criminal liability: what purpose does it serve? // Harvard Law Review. — 1996 — № 109. — 1477-1534.

11. Hage J. Theoretical foundations for the responsibility of autonomous agents // Artificial Intelligence Law. — 2017. — № 25(3). — P. 255-271.

12. U. Pagallo, The Laws of Robots. Cries, Contracts, and Torts, Springer, 2013, p. 36.


Оценить статью
(Голосов: 14, Рейтинг: 4.71)
 (14 голосов)
Поделиться статьей

Прошедший опрос

  1. Какие угрозы для окружающей среды, на ваш взгляд, являются наиболее важными для России сегодня? Отметьте не более трех пунктов
    Увеличение количества мусора  
     228 (66.67%)
    Вырубка лесов  
     214 (62.57%)
    Загрязнение воды  
     186 (54.39%)
    Загрязнение воздуха  
     153 (44.74%)
    Проблема захоронения ядерных отходов  
     106 (30.99%)
    Истощение полезных ископаемых  
     90 (26.32%)
    Глобальное потепление  
     83 (24.27%)
    Сокращение биоразнообразия  
     77 (22.51%)
    Звуковое загрязнение  
     25 (7.31%)
Бизнесу
Исследователям
Учащимся