Распечатать
Оценить статью
(Голосов: 10, Рейтинг: 4.6)
 (10 голосов)
Поделиться статьей
Елена Введенская

К. филос н., в. н. с. ИНИОН РАН, доцент кафедры философии РНИМУ им. Н.И. Пирогова

Робототехника — быстро растущая отрасль производства. В 1990-х гг. разработчики начали создавать новое поколение интеллектуальных роботов, используемых в различных областях. Возникла потребность в этической оценке робототехники, поскольку технические решения, принимаемые при проектировании роботов, имеют потенциал непосредственного и существенного влияния на все сферы жизни людей. Целью робоэтики является оценка позитивных и негативных последствий внедрения роботизированных систем и разработка общих для различных социальных групп научных, культурных и технических решений для предотвращения неэтичного и неправомерного использования техники против человечества.

Главная проблема робоэтики состоит в том, что ученые-робототехники, исследователи и пользователи оценивают роботов с различных точек зрения. По мнению инженера-механика, профессора Венского технического университета Петера Капачека, таких точек зрения всего четыре: 1) роботы — это не что иное, как машины; 2) роботы имеют этические аспекты; 3) роботы как моральные агенты и 4) роботы — эволюционирующий новый вид. Поэтому в изучении феномена робототехники должны быть задействованы различные области знания, такие как информатика, философия, этика, богословие, биология, физиология, психология, когнитивные науки, нейронаука и юриспруденция. Таким образом, робоэтика — это междисциплинарная исследовательская деятельность, находящаяся на стыке этики и робототехники и направленная на изучение процесса интеграции роботов в человеческое общество. Основная задача робоэтики состоит в описании социальных, моральных и юридических аспектов взаимодействия робота и человека. В настоящее время робоэтика является частью этики ИИ.

Внедрение и широкое применение роботизированных систем приводит к трансформации общества, роли и места человека в нем. Робототехника начинает затрагивать и преобразовывать практически все повседневные сферы нашей жизни, в которых акцент смещается с людей на технологии. Грядущий экспоненциальный рост технологий, связанных с робототехникой, не имеет прецедентов в истории человечества, и у нас практически нет времени для адаптации к ним. Точка технологической сингулярности может находиться в промежутке между 2020 и 2070 гг. Многие ученые, в том числе профессор математики писатель-фантаст Вернер Виндж, считают, что эта точка будет достигнута к 2030-м гг.


Робототехника — быстро растущая отрасль производства. В 1990-х гг. разработчики начали создавать новое поколение интеллектуальных роботов, используемых в различных областях. Возникла потребность в этической оценке робототехники, поскольку технические решения, принимаемые при проектировании роботов, имеют потенциал непосредственного и существенного влияния на все сферы жизни людей. Целью робоэтики является оценка позитивных и негативных последствий внедрения роботизированных систем и разработка общих для различных социальных групп научных, культурных и технических решений для предотвращения неэтичного и неправомерного использования техники против человечества.

Истоки формирования робоэтики лежат в научной фантастике. Так, писатель-фантаст Айзек Азимов, автор термина «робототехника», впервые проанализировал этические последствия ее использования. В рассказе «Хоровод» (1942 г.) А. Азимов сформулировал знаменитые три закона робототехники — свод обязательных правил, которые должны соблюдаться, чтобы робот не причинил вреда человеку.

Согласно А. Азимову, «Первое: робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред. <…> Второе: <…> робот должен повиноваться всем приказам, которые даёт человек, если эти приказы не противоречат Первому Закону. <…> И третье: робот должен заботиться о своей безопасности в той мере, в какой это не противоречит Первому и Второму Законам».

В фантастических произведениях эти законы были заложены в основу математической модели позитронного мозга робота, обладающего искусственным интеллектом (ИИ), на которой базировались сознание и инстинкты роботов.

Когда в рассказах А. Азимова роботы стали взаимодействовать не только с человеком, но и с цивилизациями, писатель ввел четвертый закон робототехники, называемый «нулевой закон», поскольку он является приоритетным по сравнению с предыдущими законами. Он гласит, что робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был нанесен вред.

Первая критика законов робототехники принадлежит самому А. Азимову. Так, в своих рассказах («Первый закон», «Кэл», «Салли», «Робот, который видел сны» и др.) фантаст описывает различные способы модифицирования и нарушения этих законов. В рассказе «… Яко помнишь его» два робота создали конвенцию, основанную на том, что истинные люди — это роботы, поскольку они более совершенные и разумные создания и поэтому обладают приоритетом по сравнению с «несовершенными» людьми.

Автор обращает внимание на то, что законы могут быть по-разному поняты роботами, и они могут причинить вред человеку умышленно или неумышленно. Законы также могут быть трансформированы людьми в своих целях или нарушены из-за технической неисправности робота.

Законы А. Азимова, придуманные им для использования в научной фантастике, вследствие стремительного развития робототехники с 1990-х гг. оказали сильное влияние на робототехническое сообщество и представителей гуманитарных наук, занимающихся этической оценкой техники. Так, Билл Джой, соучредитель и главный научный сотрудник Sun Microsystems в мартовском номере журнала «Wired» (США) за 2000 г. опубликовал свою статью «Почему будущее не нуждается в нас». В ней автор высказал мнение, что дальнейшее развитие робототехники представляет угрозу существованию человека как биологического вида, то есть несет в себе колоссальные экзистенциальные риски. Повсеместно стали появляться «умные машины», которые превосходят человека в различных областях его деятельности. Б. Джой пишет, что когда вся совокупность работ будет выполняться распространенной и организованной системой машин, исчезнет потребность в каком бы то ни было человеческом усилии, при этом возможна реализация двух вариантов сосуществования человека и машин. При реализации первого варианта человек сохраняет контроль над машинами, при реализации второго — позволяет машине принимать решения самостоятельно.

«Поскольку общество и проблемы, которые стоят перед ним, становятся все более сложными, а машины — все более разумными, люди станут доверять машинам принимать вместо себя все большее число решений просто потому, что определенное машиной даст лучшие результаты, чем установленное человеком. В конце концов, может быть достигнута ступень, на которой решения, необходимые для управления системой, будут настолько сложны, что интеллект людей окажется неспособным к их генерации. На этой стадии эффективное управление перейдет к машинам,» — пишет Б. Джой. Очевидно, говоря об этом, он имел в виду второй вариант развития событий. Однако и первый вариант, по его мнению, представляет угрозу широким массам народонаселения. Так, при реализации варианта с сохранением человеческого контроля над машинами правящая элита сможет беспрепятственно контролировать массы людей, которые окажутся безработными и в результате лишними для государственной системы и будут уничтожены.

Статья Б. Джоя, а затем и высказанное нобелевским лауреатом, физиком Джозефом Ротблатом мнение, что способность мыслящих компьютеров или роботов, наделенных искусственным интеллектом, к неконтролируемому самовоспроизведению является одной из опасностей новых технологий, вызвали множество дискуссий относительно этических проблем будущего развития робототехники и совместного сосуществования людей и машин. Появилась потребность в создании новой отрасли этики, такой как «этика робототехники» или, сокращенно, «робоэтика».

Термин «робоэтика» был введен итальянским профессором Джанмарко Веруджио (Школа робототехники Института электроники, информационной техники и телекоммуникаций) в 2002 г. Во время Первого международного симпозиума по робототехнике в январе 2004 г. в Сан-Ремо этот термин был предложен официально. Робоэтика подняла два вопроса, остающиеся актуальными по сей день: могут ли роботы выполнять хорошие и плохие действия; могут ли они быть опасными для человечества?

Робоэтика — прикладная этика, ориентированная на разработку научных, культурных и технических решений, которые могут быть общими для различных социальных групп и людей разных убеждений. Эти решения должны быть направлены на стимулирование развития робототехники для улучшения жизни как отдельных индивидов, так и человеческого общества в целом, а также на предотвращение ее неэтичного и неправомерного использования против человека и человечества.

В 2004 г. ведущие международные институты начали формулировать этические нормы робототехники. В Фукуоке (Япония) во время Международной ярмарки роботов в феврале 2004 г. участники подписали Всемирную декларацию роботов. Основные принципы данной декларации состоят в том, что роботы следующего поколения будут партнерами людей и будут помогать им как физически, так и психологически; роботы следующего поколения будут способствовать поддержанию безопасного и мирного общества. Как мы видим, здесь подчеркиваются позитивные моменты сосуществования людей с роботами.

В 2006 г. Дж. Веруджио была разработана дорожная карта робоэтики, в которой были определены этические ценности людей. Речь шла об уважении ценностей, связанных с достоинством и правами человека, содействии равенству и справедливости в доступе к новым технологиям. Этот документ должен способствовать правильной оценке пользы и вреда от использования роботов, защите культурного разнообразия людей и плюрализма, предотвращению дискриминации и стигматизации. Здесь акцентировалось внимание на уважении конфиденциальности и необходимости информированного согласия, принятии личной ответственности за биосферу.

Целью робоэтики является оценка позитивных и негативных последствий внедрения роботизированных систем и разработка общих для различных социальных групп научных, культурных и технических решений для предотвращения неэтичного и неправомерного использования техники против человечества.

В 2010 г. Дж. Веруджио уточнил понятие робоэтики, пояснив, что это не этика роботов и не искусственная этика, а этика разработчиков, производителей и пользователей роботов. «Исследования в области робототехники и их применение все чаще вызывают этические последствия, связанные с более тесным взаимодействием между роботами и людьми, а также с наиболее тесным взаимодействием между самой робототехникой и биологической наукой» [2, с. 105]. О связи робототехники Ош с биологией говорит и японский робототехник Хироши Ишигуро, по мнению которого, у человечества есть два варианта автоэволюции: с помощью редактирования генов и с помощью технологий (имеется в виду робототехника). Технологии робототехники, как их оценивает Х. Ишигуро, являются более надежными для автоэволюции, нежели манипуляции с генами, поскольку дальнейшее совершенствование данных технологий и внедрение в медицину приведет к замене органов тела кибер-аналогами и превратит человечество в неорганическую, бессмертную форму жизни. В перспективе мы видим полное соединение человека с роботом.

Главная проблема робоэтики состоит в том, что ученые-робототехники, исследователи и пользователи оценивают роботов с различных точек зрения. По мнению инженера-механика, профессора Венского технического университета Петера Капачека, таких точек зрения всего четыре: 1) роботы — это не что иное, как машины; 2) роботы имеют этические аспекты; 3) роботы как моральные агенты и 4) роботы — эволюционирующий новый вид [1, c. 69]. Поэтому в изучении феномена робототехники должны быть задействованы различные области знания, такие как информатика, философия, этика, богословие, биология, физиология, психология, когнитивные науки, нейронаука и юриспруденция. Таким образом, робоэтика — это междисциплинарная исследовательская деятельность, находящаяся на стыке этики и робототехники и направленная на изучение процесса интеграции роботов в человеческое общество. Основная задача робоэтики состоит в описании социальных, моральных и юридических аспектов взаимодействия робота и человека. В настоящее время робоэтика является частью этики ИИ.

В 2016 г. Обществом по исследованию ИИ и моделированию поведения (Великобритания) сформулировано пять правил для управления интеллектуальными машинами. Первое правило: роботы — это многоцелевые инструменты; они не должны быть предназначены для единственной или основной цели убивать людей или наносить им вред, если это не затрагивает национальную безопасность. Второе правило: люди являются ответственными агентами. Роботы должны быть спроектированы и реализованы таким образом, чтобы соответствовать действующим законам и основополагающим правам, свободе и неприкосновенности граждан. Третье правило: роботы — это продукты технологий. Они должны быть разработаны с использованием процессов, которые гарантируют безопасность пользователей. Четвертое правило: роботы — это артефакты, объекты, полученные в результате производства. Они не должны быть использованы таким образом, чтобы иметь возможность обманывать субъекты, которые психологически слабы или уязвимы. Их природа как машины должна быть прозрачной и ясной. Пятое правило: вся юридическая ответственность в отношении машин должна быть возложена на человека.

В 2017 г. в России исследовательский центр «Робоправо» начал разрабатывать «Модельную конвенцию о робототехнике и ИИ. Правила создания и использования роботов и ИИ». Цель конвенции заключается в том, «чтобы определить основные проблемы, которые могут возникнуть в обществе и правовой системе в связи с активным развитием киберфизических систем; обобщить ряд основных правил робототехники, высказанных в разное время различными экспертами; обозначить возможные направления решения существующих и (или) ожидаемых проблем; инициировать дискуссию между экспертами разных стран для выработки единых этических и правовых представлений о правилах создания и использования роботов и искусственного интеллекта».

Когда будет создан робот с ИИ, идентичным или превосходящим человеческий интеллект, наделенный субъективными переживаниями и опытом сознания, уровни экзистенциальных рисков возрастут многократно и человеческий вид может оказаться под угрозой уничтожения.

В июне 2019 г. лидерами стран Группы двадцати была принята Осакская декларация (необязательная к исполнению юридически), в которой глубоко проработана проблема развития и внедрения технологии искусственного интеллекта (ИИ). Согласно данному документу, страны Группы двадцати, учитывая имеющийся опыт применения ИИ, выражают намерение сформировать благоприятные условия для разработки, исследования и применения «человеко-ориентированного искусственного интеллекта» (human-centered AI). Поддержанные организацией принципы представляют собой инструкцию по минимизации негативных последствий использования искусственного интеллекта. Так, общепринятыми принципами развития искусственного интеллекта были признаны:

  • содействие инклюзивному росту, устойчивому развитию и благополучию;
  • приоритетность человеческих ценностей и справедливости, защита прав и свобод человека;
  • транспарентность и объяснимость (обеспечение доступа к общей информации о механизмах функционирования искусственного интеллекта);
  • надежность, безопасность и стабильность — подотчетность (лица или организации, разрабатывающие или внедряющие искусственный интеллект, должны придерживаться перечисленных принципов и нести ответственность за свою деятельность).

Выше мы рассматривали законы ответственной робототехники и правила для управления интеллектуальными машинами, декларации, носящие рекомендательный характер. Следует отметить, что область задач робоэтики шире выработки определенных правил взаимоотношений людей с роботами и системами ИИ. Робоэтика изучает также положительные и негативные последствия внедрения и широкого распространения роботизированных систем и дает им этическую оценку. Так, к положительным последствиям внедрения роботов относится избавление человека от рутинных, повторяющихся операций, например, процесса выдачи и приема денег, который в настоящее время способен выполнять банкомат. Также использование роботов необходимо при опасных и вредных для человека операциях, например, при разборе завалов от землетрясений, ликвидации последствий радиационного загрязнения. Роботизированные системы, основанные на ИИ, гораздо лучше, чем человек, анализируют большие данные. Такие системы нашли, в частности, широкое применение в медицине и используются при постановке точного диагноза.

К негативным последствиям внедрения роботов относится утрата людьми своих рабочих мест, что приведет к повышению уровня безработицы и ухудшению социальных условий жизни. Также использование роботов в повседневной жизни в качестве компаньонов или сексуальных партнеров, может отрицательно повлиять на коммуникативные навыки и практики людей. Одушевление людьми роботов и возникновение к ним эмпатии ведет к обесцениванию человека и отчуждению его от себе подобных. Дальнейшая «модификация человека» и «гуманизация роботов» будет способствовать возникновению новых антропологических и этических аспектов робоэтики.

В настоящее время, кроме промышленных роботов, которых уже больше миллиона, появились самые разные роботы-помощники: домашние питомцы; пылесосы; газонокосильщики; спасатели, хирурги. «Общая численность роботов в мире превысила 10 миллионов», — как пишет Ник Бостром. В связи с тем, что создано множество роботов, используемых в различных сферах деятельности, в каждой из них возникают свои этические проблемы, которые должна анализировать робоэтика.

Внедрение и широкое применение роботизированных систем приводит к трансформации общества, роли и места человека в нем. Робототехника начинает затрагивать и преобразовывать практически все повседневные сферы нашей жизни, в которых акцент смещается с людей на технологии. Грядущий экспоненциальный рост технологий, связанных с робототехникой, не имеет прецедентов в истории человечества, и у нас практически нет времени для адаптации к ним. Точка технологической сингулярности может находиться в промежутке между 2020 и 2070 гг. Многие ученые, в том числе профессор математики писатель-фантаст Вернер Виндж, считают, что эта точка будет достигнута к 2030-м гг.

Когда будет создан робот с ИИ, идентичным или превосходящим человеческий интеллект, наделенный субъективными переживаниями и опытом сознания, уровни экзистенциальных рисков возрастут многократно и человеческий вид может оказаться под угрозой уничтожения, как это прогнозировали физики Стивен Хокинг и Илон Маск. Таким образом, робоэтике предстоит успеть найти ответы на фундаментальные вопросы: Что значит быть человеком и что значит быть роботом? Можем ли мы наделить роботов личностью? Можем ли мы говорить о достоинстве роботов и наличии у них совести? Обладают ли роботы самосознанием, чувствами и эмоциями? Есть ли у роботов собственные ценности или они заложены программой? Должны ли они иметь права?

Список литературы

1. Kopacek P. (2012). Roboethics. In Proceedings of the IFAC Workshop on „Supplemental Ways for Improving International Stability – SWIIS 2012, p.67-72, published on line under DOI 10.3182/20120611-3-IE-4029.00015, Elsevier, 2013. P. 67-72

2. Veruggio G. Roboethics. Robotics & Automation Magazine, IEEE. Vol. 17, Issue 2, June 2010, p.105-109.

(Голосов: 10, Рейтинг: 4.6)
 (10 голосов)

Прошедший опрос

  1. Какие глобальные угрозы, по вашему мнению, представляют наибольшую опасность для человечества в ближайшие 20 лет? Укажите не более 5 вариантов.

    Загрязнение окружающей среды  
     474 (59.03%)
    Терроризм и экстремизм  
     390 (48.57%)
    Неравномерность мирового экономического развития  
     337 (41.97%)
    Глобальный системный кризис  
     334 (41.59%)
    Гонка вооружений  
     308 (38.36%)
    Бедность и голод  
     272 (33.87%)
    Изменение климата  
     251 (31.26%)
    Мировая война  
     219 (27.27%)
    Исчерпание природных ресурсов  
     212 (26.40%)
    Деградация человека как биологического вида  
     182 (22.67%)
    Эпидемии  
     158 (19.68%)
    Кибератаки на критическую инфраструктуру  
     152 (18.93%)
    Недружественный искусственный интеллект  
     74 (9.22%)
    Падение астероида  
     17 (2.12%)
    Враждебные инопланетяне  
     16 (1.99%)
    Другое (в комментариях)  
     10 (1.25%)
Бизнесу
Исследователям
Учащимся