Искусственный интеллект в процессе принятия внешнеполитических решений
Вход
Авторизуйтесь, если вы уже зарегистрированы
(Голосов: 65, Рейтинг: 4.85) |
(65 голосов) |
Независимый аналитик
Такие глобальные вызовы, как изменение климата, эпидемиологические кризисы, нарушение цепочек поставок актуализируют изучение возможностей применения технологии ИИ во внешнеполитической сфере, а именно — в процессе принятия внешнеполитических решений (ППВР). Применение ИИ в ППВР можно разделить на три основных сферы: оборона, информационно-аналитическое сопровождение; принятие политических решений.
Из трех вышеперечисленных сфер возможного и уже реального применения искусственного интеллекта в процессе принятия внешнеполитических решений наиболее безопасное и простое с юридической точки зрения — экспертно-аналитическое направление. Принятие внешнеполитических решений, включая военно-стратегические (авторизация боевых действий, организация гуманитарных миссий, сборка разведданных), — это наиболее чувствительные вопросы использования ИИ, так как уровень потенциального риска очень высок. Однако в экспертно-аналитической среде ИИ ускорит процесс накопления и отбора данных, позволит создать «скелет» анализа, а в иных случаях самостоятельно составит материал. Кроме того, структурировать систему контроля над ИИ в рамках аналитического центра гораздо легче. Проблемы с финансовыми ресурсами в секторе экспертизы также могут быть оперативно минимизированы. Например, в Соединенных Штатах, как и в большинстве других развитых стран, основной источник доходов аналитических центров — не средства из государственных бюджетов, а доход от консалтинговых услуг (если это коммерческая организация), гранты и пожертвования.
Разумеется, данная статья не охватывает весь спектр проблем, связанных с внедрением ИИ в нашу жизнь, некоторые ее части и вовсе напоминают фантастику. Однако она обращает внимание на недостаточную изученность перспектив встраивания высоких технологий в процесс принятия внешнеполитических решений. Глобальный вызов ИИ отличается от остальных проблем тем, что может лишить полностью человека контроля. Если человечество будет отстранено от «управления», оно не сможет преодолеть такие серьезные проблемы, как изменение климата, распространение ОМУ, эпидемиологические кризисы. Вполне возможно, что машина не будет рассматривать некоторые катаклизмы как угрозу для себя. Например, пандемия вряд ли может восприниматься роботом как негативное явление. Поэтому распределение ресурсов на ее преодоление, в понимании ИИ, может казаться непродуктивным. Соответственно, угроза случайного международного конфликта также повышается. Нет гарантий, что машина сможет договориться с лидером (человеком) другого государства или что она не воспримет его как низшую форму жизни, иначе говоря, не станет рассматривать его, как мы рассматриваем насекомых.
Это не значит, что следует отказаться от применения ИИ в формировании и реализации внешней политики. Наоборот, необходимо расширить исследования, создать условия для международного взаимодействия в этой сфере. Однако (в контексте процесса принятия внешнеполитических решений) наиболее важно обозначить аугментацию в качестве приоритета и отойти от полной автоматизации. В этом случае ИИ будет развиваться как инструмент ППВР, а не как арбитр в международных делах, что ограничит потенциальное поле рисков.
Темпы встраивания искусственного интеллекта в социально-экономическую систему показывают, что массовое внедрение, как и в случае с другими технологиями, будет опережать результаты исследований. Согласно консалтинговому агентству Gartner, к 2019 г. (по сравнению с 2015 г.) количество производств, использующих ИИ в той или иной форме увеличилось на 270%. В период пандемии также расширился спектр применения и выросли инвестиции стартапов в ИИ (2019 г. — 26,58 млрд долл.; 2020 г. — 36 млрд долл.). Результаты глобального опроса McKinsey «The State of AI in 2021» демонстрируют долгосрочные перспективы ИИ в тяжелом производстве и оптимизации сервисного обслуживания ИТ.
Интересно постепенное встраивание ИИ в процесс принятия корпоративных решений. В данном случае речь идет об автоматизации ряда задач как на общем уровне, так и на уровне управляющего звена компаний: прогностическая аналитика, риск-менеджмент и т.д.
Такие глобальные вызовы, как изменение климата, эпидемиологические кризисы, нарушение цепочек поставок актуализируют изучение возможностей применения технологии ИИ во внешнеполитической сфере, а именно — в процессе принятия внешнеполитических решений (ППВР). Применение ИИ в ППВР можно разделить на три основных сферы:
1. оборона;
2. информационно-аналитическое сопровождение;
3. принятие политических решений.
Для анализа первых двух пунктов использовано три критерия: практика, финансирование, юридическая база. Для наглядности будут рассмотрены показатели двух стран: США и КНР. Выбор объясняется следующими факторами. Во-первых, Соединенные Штаты и Китай — лидеры по количеству патентов в сфере ИИ: 279,145 и 66, 508, соответственно (данные Statista за 2019 г.). Во-вторых, представители академического сообщества обоих государств выпускают больше научных работ по теме ИИ, чем в других странах. За период с 2016 г. по 2020 г. китайские ученые опубликовали по этой теме 76,300 статей, а американские ученые — 44,400 работ (Statista, июнь 2021 г.).
Искусственный интеллект в сфере обороны
Практика
На протяжении последних нескольких лет наиболее развитые с военной точки зрения страны выделяют значительные средства на разработку «умных» наступательных и оборонных систем. Согласно докладу компании «Markets and Markets», к 2025 г. рынок военного ИИ увеличится до 11,6 млрд долл. со среднегодовым темпом роста в 13,1%. В качестве примера приводятся ударно-разведывательные беспилотники и наземные робототехнические комплексы военного и специального назначения.
Внедрение ИИ в оборонную сферу проходит значительно легче, так как объем необходимых данных для машинного обучения и машинного зрения довольно однообразен. Когнитивные способности в этом случае не первостепенны, в приоритете находится точный технический расчет. Однако это касается ранних образцов. С развитием технологий, когнитивная составляющая оборонного ИИ будет также играть существенную роль.
Финансирование
Соединенные Штаты и Китай постепенно увеличивают бюджеты программ, связанных с развитием ИИ как военного инструмента. В проекте оборонного бюджета на 2022 г. Пентагон запросил 112 млрд долл. на развитие современных технологий (военный бюджет США в 2021 г. составлял 754 млрд долл.). Из этой суммы 847 млн долл. планировалось потратить на изучение ИИ. Для сравнения, общие военные расходы КНР в 2021 г. составили 293 млрд долл. Официальные данные о распределении средств отсутствуют, однако профильные американские издания предполагают, что Пекин тратит на ИИ больше средств, чем Вашингтон. Согласно журналу «National Defense», НОАК[1] выделяет больше 1,6 млрд долл. на изучение ИИ ежегодно.
Юридическая база
Вопрос правового обоснования использования ИИ в какой-либо сфере — один из самых сложных. В первую очередь это обусловлено отсутствием правового статуса ИИ. На момент написания статьи в США существует только 5 федеральных документов и всего 16 законов на уровне штатов. При этом большинство носит декларативный и рекомендательный, а не регулятивный характер. Из них только половина принята в штатах, которые лидируют по количеству рабочих мест, связанных с ИИ.
На федеральном уровне стоит выделить Исполнительный указ президента США № 13960 о «Развитии применения ИИ в федеральном правительстве» (Promoting the Use of Trustworthy Artificial Intelligence in the Federal Government). Это один из базовых законов, регулирующих использование технологии в работе правительства. Тем не менее, согласно части 9, он не относится к ИИ, применяющемуся в сфере обороны и национальной безопасности. Уточняется, что правомерность внедрения ИИ в военную и разведывательную области определяется принципами, утвержденными профильными ведомствами: министерство обороны, разведывательным сообществом (пример: DOD Ethical Principles for Artificial Intelligence). Так Пентагон вывел 5 основных принципов: ответственность, беспристрастность, контроль, надежность и управляемость.
Китай с 2017 г. активно занимается кодификацией законов для внедрения ИИ во всех жизненно важных сферах, включая оборону. Конкретный свод регуляций и правил пока не создан. Однако, в отличие от Соединенных Штатов, правительство КНР выступает за интегрированное развитие гражданского и военного ИИ. В докладе о его стандартизации указаны следующие критерии: интересы человека, ответственность, «прозрачность», согласованность прав и задач. Кроме того, Китай выступает за многосторонний подход в вопросе регулирования применения ИИ в сфере обороны. Так в декабре 2021 г. китайская сторона внесла на уровне ООН предложение о сотрудничестве в разработке международных норм по военному применению ИИ.
Тем не менее на момент написания статьи нет ни одного международного договора, регламентирующего использование искусственного интеллекта в военной-стратегической сфере. Отдельно обсуждаются вопросы по регулированию применения дронов, но и в этом случае прогресс ограничивается исследованиями и конференциями.
О глубине, прозрачности и «силе» ИИ в текущем моменте
Искусственный интеллект в экспертно-аналитической среде
Практика
Один из примеров информационно-аналитического сопровождения — деятельность «фабрик мысли». В их задачи входит доктринальное обеспечение внешней политики государства — создание «рынка мнений». В Соединенных Штатах такие организации начали консультировать правительство еще в начале XX в., а после Второй мировой войны они стали одними из ключевых участников процесса принятия внешнеполитических решений. Большинство китайских аналитических центров, которые участвуют в формировании и продвижении внешнеполитической доктрины[2], появились в период 1960–1980-х гг.: Шанхайская Академия Международных Исследований (1960 г.), Китайская Академия Современных Международных Отношений (1965 г.), Академия Общественных Наук КНР (1977 г.) и Центр Развития Госсовета (1980 г.).
Аналитические центры обеих стран используют ИИ в аналитике. Например, корпорация РЭНД организовывала «военные игры» для составления сценариев с использованием электронно-вычислительных машин еще в 1959 г. Это не искусственный интеллект в современном понимании, но применение ЭВМ позволило разработать ряд математических методов: эвристическое, линейное и динамическое программирование, а также электронное моделирование[3].
ИИ способно не только автоматизировать задачи экспертов (поиск информации, редактирование текстов, перевод, нахождение ошибок, проведение имитационных игр). Благодаря современным технологиям, некоторые организации, в первую очередь СМИ, публикуют материалы, подготовленные с минимальным участием человека. Используется генератор текста (Natural language generation, NLG). Речь не идет только о драфтах официальных документов или информационных справках. NLG способно создавать как формализованные тексты, так и работы, требующие креативного мышления (стихотворения, романы); человек выбирает только формат. Японский исследователь Хитоши Матсубара и его ассистенты выбрали ряд слов и предложений согласно определенным параметрам и дали задачу программе написать роман. Так в 2016 г. появилась книга «День, когда компьютер напишет роман» («The Day a Computer Writes a Novel»), автором которой является ИИ.
Аналогично могут действовать и фабрики мысли. Тем не менее, существующих сегодня технологий недостаточно для налаживания полностью автономного процесса создания именно экспертных текстов. Актуальна угроза «передачи» программе предубеждений и личных взглядов «учителя» (тот, кто руководит процессом обучения ИИ), что минимизирует возможность генерации объективной аналитики. Однако искусственный интеллект способен находить новые решения и избегать ошибок, исходя из собственного опыта.
Есть два способа применения искусственного интеллекта: автоматизация и аугментация. Разница состоит в том, что первое предусматривает замену человека, а второе — увеличение производительности труда. Так беспилотные автомобили — это пример автоматизации, а персональные компьютеры были одним из начальных этапов аугментации. Большинство современных инновационных проектов относятся к первой категории. Развитие этой тенденции в сфере внешнеполитической экспертизы пока незаметно, но есть отдельные кейсы. Например, американский информационный портал, посвященный изучению фабрик мысли, Think Tank Watch, анонсировал проект аналитического центра, действующего исключительно за счет ИИ (пример автоматизации). Примером аугментации — система, разработанная в Китае в 2018 г.: «Платформа симуляции и предсказания геополитической среды» (Geopolitical Environment Prediction and Simulation Platform). Было собрано множество баз данных, позволяющих программе вырабатывать политические и иные рекомендации для дипломатов. Ее также использовали во время распределения средств в рамках инициативы «Один пояс, один путь» — система помогла определить рентабельность некоторых инфраструктурных инициатив.
Финансирование
Подобные программы могут оплачиваться из бюджета аналитических центров или государственных учреждений, заказывающих экспертизу. Конкретных цифр о тратах именно на применение искусственного интеллекта в экспертно-аналитических сообществах Китая и США нет в открытом доступе.
Юридическая база
Как и в случае с финансированием, нет данных о разработке специальных внутренних юридических механизмов, позволяющих использовать ИИ как инструмент аналитического сопровождения внешней политики. Так, большинство американских центров регулируются частью 501 (с)(3) закона о доходах[4] (Exempt Purposes - Internal Revenue Code Section 501(c)(3)), которая предусматривает налоговые льготы для некоммерческих организаций. Тем не менее последние обязаны ежегодно предоставлять доступ к отчетности. Например, отчет Института Брукингса за 2020 г. только подтверждает открытие программы по изучению ИИ, а также упоминает компанию Microsoft в качестве основного финансового донора инициативы.
Этика ИИ в авангарде мировой повестки
ИИ в принятии внешнеполитических решений
В этом разделе вышеупомянутые критерии не будут применяться, так как на момент написания статьи нет ни одного прецедента участия ИИ в процессе принятия внешнеполитических решений (на высшем уровне) наравне с человеком. Многие исследователи разделяют искусственный интеллект на три типа: слабый-ИИ, сильный-ИИ и супер-ИИ. Первый запрограммирован на выполнение только одного конкретного вида задач. Второй — на несколько (его также называют «общим искусственным интеллектом», ОИИ). Теоретически создание ОИИ позволит машинам без участия людей создавать и совершенствовать новые машины, результатом чего станет появление супер-ИИ[5]. Последний, в свою очередь, будет превосходить когнитивные способности любого человека. Часть футурологов предсказывает, что это произойдет еще в первой половине XXI в. Так топ-менеджер холдинговой компании Softbank Масаёси Сон утверждал, что супер-ИИ появится к 2047 г. Несмотря на сомнительность подобных прогнозов, в долгосрочной перспективе стоит ожидать множества попыток создания искусственного «сверхразума». Его проникновение во все сферы жизни, в том числе внешнеполитический процесс, сгенерирует целый ряд вызовов, в первую очередь юридических.
В мире не существует универсального определения ИИ. Страны в зависимости от уровня технологического развития, интерпретируют эту «сквозную» технологию по-разному, соответственно, разрабатывают отличающиеся регулятивные меры. Это может стать причиной неравномерного встраивания искусственного интеллекта в процесс принятия внешнеполитических решений (на глобальном уровне), что резко повлияет не только на субъектность страны (акторность), применяющей технологию, но и коренным образом изменит международную систему безопасности. Подобный «дисбаланс» случился в 1945 г., когда Соединенные Штаты были единственным государством, обладающим ядерным оружием. Его распространение, прежде всего среди постоянных членов СБ ООН, стало основанием теории гарантированного взаимного уничтожения. Последнее, в свою очередь, побудило страны (в первую очередь США и СССР) заключить ряд соглашений, регулирующих вопросы ядерной безопасности, что внесло вклад в преодоление технологического «дисбаланса» на уровне развитых и развивающихся стран.
Однако искусственный интеллект, в отличие от атомной бомбы, обладает особенностями, которые не позволяют определить его исключительно как предмет права: наличие цели, способность планировать, обучаться, работать в неопределенных условиях, понимать тексты, общаться, самоорганизовываться[6]. Тем не менее для выдвижения более корректного предположения необходимо понять, что имеется в виду под ИИ в процессе принятия решений. В понимании автора, это робот, обладающий способностями супер-ИИ. Определений слова «робот» также много, поэтому автор ссылается на предложенное в статье В. Архипова и В. Наумова: «…сложное устройство, функционирующее на основе собственной информационной системы, способного к автономным действиям… физическому взаимодействию с окружающим миром»[7]. Вопрос правосубъектности также пока не решен и, скорее всего, не будет урегулирован в долгосрочной перспективе. Предлагается классифицировать ИИ как юридическое лицо, однако это не снимает ряд вопросов. Деятельность юридических лиц (компаний) всегда рассматривается в контексте учредителей/руководителей организации. Уголовная ответственность, признанная за юрлицом, ложится на физическое лицо, действовавшее от имени компании[8]. Однако, если учитывать когнитивные возможности супер-ИИ, его деятельность нельзя будет связать с намерением/решением физлица[9].
Проблема ответственности произрастает из ряда факторов. Во-первых, невозможно будет определить не только, как ИИ будет принимать решение, но и как его остановить в случае необходимости. Во-вторых, сомнительна надежность системы оценки рисков, так как нет гарантии, что машина и человек будут идентично воспринимать то или иное событие. Согласно существующим исследованиям, супер-ИИ способен формулировать собственное мировоззрение, которое может не совпадать с человеческим[10]. В-третьих, в случае если супер-ИИ будет способен создавать подобные себе и превосходящие по способностям системы, то это может стать предпосылкой для вытеснения человека из процесса принятия решений.
Кроме того, одна из областей компьютерных наук (аффективные вычисления) занимается созданием систем, способных определять и прогнозировать эмоциональное состояние людей. Например, существует машина, которая предугадывает намерения человека по тому, как он заходит в комнату[11]. Поэтому есть вероятность, что в случае восприятия человека как угрозы, машина может принять решение по его нейтрализации. В связи с этим некоторые исследователи поддерживают идею о создании систем сдерживания искусственного интеллекта, предусматривающих возможность его централизованного отключения — коробка ИИ (AI Box). Это гипотетическая «темница» для ИИ, ограничивающая возможности технологии напрямую влиять на внешние процессы. Так американский ученый С. Армстронг предложил создать «большую красную кнопку», нажав на которую можно будет «просто выключить» систему.
Критики идеи утверждают, что сложность состоит не только в технических условиях разработки такого инструмента, но и в логике его существования. Главная задача (условно, не навредить человеку) может вынудить машину ограничить собственный потенциал к обучению. Например, в 2013 г. программист Т. Мерфи создал ИИ для игры в тетрис. Опасаясь проигрыша, система поставила ее на паузу, таким образом выполнила главную задачу — не проиграть. Соответственно, при наличии «красной кнопки», есть вероятность, что ИИ либо не будет выполнять поставленных задач, либо попытается саботировать систему. Следовательно, в случае супер-ИИ подход «просто выключить» не эффективен.
Наряду с проблемами изменения климата, распространения ОМУ[12] и международного терроризма человечеству придется разрабатывать варианты преодоления нового глобального вызова — машины со сверхразумом. Нельзя гарантировать, что эта проблема будет актуальна в XXI в. или что она в принципе реализуется. Однако решение уже существующих ее аспектов будет фундаментом для будущих исследований. Например, вопрос правового статуса ИИ активно обсуждается в гражданской (ответственность за ДТП с участием беспилотных автомобилей) и военной областях[13].
Из трех вышеперечисленных сфер возможного и уже реального применения искусственного интеллекта в процессе принятия внешнеполитических решений наиболее безопасное и простое с юридической точки зрения — экспертно-аналитическое направление. Принятие внешнеполитических решений, включая военно-стратегические (авторизация боевых действий, организация гуманитарных миссий, сборка разведданных), — это наиболее чувствительные вопросы использования ИИ, так как уровень потенциального риска очень высок. Однако в экспертно-аналитической среде ИИ ускорит процесс накопления и отбора данных, позволит создать «скелет» анализа, а в иных случаях самостоятельно составит материал. Кроме того, структурировать систему контроля над ИИ в рамках аналитического центра гораздо легче. Проблемы с финансовыми ресурсами в секторе экспертизы также могут быть оперативно минимизированы. Например, в Соединенных Штатах, как и в большинстве других развитых стран, основной источник доходов аналитических центров — не средства из государственных бюджетов, а доход от консалтинговых услуг (если это коммерческая организация), гранты и пожертвования.
Разумеется, данная статья не охватывает весь спектр проблем, связанных с внедрением ИИ в нашу жизнь, некоторые ее части и вовсе напоминают фантастику. Однако она обращает внимание на недостаточную изученность перспектив встраивания высоких технологий в процесс принятия внешнеполитических решений. Глобальный вызов ИИ отличается от остальных проблем тем, что может лишить полностью человека контроля. Если человечество будет отстранено от «управления», оно не cможет преодолеть такие серьезные проблемы, как изменение климата, распространение ОМУ, эпидемиологические кризисы. Вполне возможно, что машина не будет рассматривать некоторые катаклизмы как угрозу для себя. Например, пандемия вряд ли может восприниматься роботом как негативное явление. Поэтому распределение ресурсов на ее преодоление, в понимании ИИ, может казаться непродуктивным. Соответственно, угроза случайного международного конфликта также повышается. Нет гарантий, что машина сможет договориться с лидером (человеком) другого государства или что она не воспримет его как низшую форму жизни, иначе говоря, не станет рассматривать его, как мы рассматриваем насекомых.
Это не значит, что следует отказаться от применения ИИ в формировании и реализации внешней политики. Наоборот, необходимо расширить исследования, создать условия для международного взаимодействия в этой сфере. Однако (в контексте процесса принятия внешнеполитических решений) наиболее важно обозначить аугментацию в качестве приоритета и отойти от полной автоматизации. В этом случае ИИ будет развиваться как инструмент ППВР, а не как арбитр в международных делах, что ограничит потенциальное поле рисков.
1. НОАК — Народно-освободительная армия Китая.
2. Капишникова В. А., Кучинская Т.Н. Развитие китайских «мозговых центров» и региональные исследования // Россия и Китай: проблемы взаимодействия: Сборник Восточного центра, 2017. С. 11-14
3. Диксон П. Фабрики мысли / П. Диксон. – М.: ООО «Издательство АСТ», 2004. С. 97-98
4. “The Political Activity of Think Tanks: The Case for Mandatory Contributor Disclosure.” Harvard Law Review, vol. 115, no. 5, 2002, pp. 1502–24. JSTOR, https://doi.org/10.2307/1342554. Accessed 13 Jul. 2022.
5. Сасскинд Д. Будущее без работы. Технология, автоматизация и стоит ли их бояться / Дэниэл Сасскинд; [пер. с английского под ред. А. Дунаева]. – Москва: Индивидуум, 2021. С. 100-103.
6. Харитонова Ю. С., Савина В. С. Технология искусственного интеллекта и право: вызовы современности // Вестник Пермского университета. Юридические науки – 2020 – Выпуск № 49. – C. 529
7. Архипов В.В., Наумов В.Б. О некоторых вопросах теоретических оснований развития законодательства о робототехнике: аспекты воли и правосубъектности. Подходы к формированию законодательства о робототехнике: информационно-правовой аспект // Информационное право. – 2017 – N 1.
8. Khanna V.S. Corporate criminal liability: what purpose does it serve? // Harvard Law Review. — 1996 — № 109. — 1477-1534.
9. Карлюк М. Там же.
10. Russell S. The Purpose Put Into The Machine // Possible Minds. 25 Ways Looking at AI. Edited by John Brockman. Penguin Press. – 2019 – P. 40
11. Сасскинд Д. Указ. соч. С. 128-131
12. ОМУ – оружие массового уничтожения
13. Baker J. E. Are We Ready: Regulating Military Uses of AI // The Law of Artificial Intelligence and Smart Machines. – 2019 – pp. 521-565.
(Голосов: 65, Рейтинг: 4.85) |
(65 голосов) |
Проблема в том, что, обсуждая опасности, которых нет и не будет в ближайшем будущем, мы пропускаем реальные угрозы.
О глубине, прозрачности и «силе» ИИ в текущем моментеНикакое мировое лидерство невозможно при существующем уровне отставания в области разработки и развертывания «сверхглубоких» нейросетевых моделей
Этика ИИ в авангарде мировой повесткиВ ЮНЕСКО утвержден первый глобальный документ об этических аспектах искусственного интеллекта