Распечатать
Оценить статью
(Голосов: 10, Рейтинг: 4.5)
 (10 голосов)
Поделиться статьей
Антон Тамарович

Ведущий аналитик в Национальном центре по развитию искусственного интеллекта НИУ ВШЭ

Алексей Алмаматов

Независимый политолог

Одним из самых ярких инфоповодов ПМЭФ в 2023 году стала презентация нейросети «Жириновский» на ПМЭФ. Однако серия вопросов-ответов для развлечения публики — лишь малая часть того, что может искусственный интеллект (ИИ). С каждым годом мы видим все большее проникновение «нечеловеческого разума» во все процессы политической коммуникации, и отличить машину от человека становится всё сложнее. Столь масштабное проникновение ИИ в чувствительную сферу политики натолкнется на попытки регуляторов упорядочить эти процессы.

Технологии ИИ могут быть внедрены практически на всех этапах политических процессов. Среди основных направлений использования технологий ИИ можно выделить: создание агитационного контента (тексты, изображения, видео), рассылку таргетированных сообщений, использование чат-ботов для ответов на вопросы избирателей, моделирование политических предпочтений, совершенствование предсказательных моделей, проведение социологических опросов, анализ фейков.

Этот список не исчерпывающий. Любая задача, связанная с анализом большого количества данных и рутинными процедурами, в перспективе может быть отдана ИИ — будь то анализ результатов голосования, работа с массивом юридических документов (проверка подписей, проверка сданных кандидатами документов и пр.) Однако содержательное ядро профессии политконсультантов — стратегия и идеология — в силу сложности и креативного характера сегодня неподвластны ИИ.

Масштабное проникновение ИИ будет неизбежно контролироваться регуляторами, так как применение данных технологий несет в себе слишком чувствительные и плохо прогнозируемые риски. Этот процесс будет сопровождаться дискуссией об этике искусственного интеллекта.

Одним из самых ярких инфоповодов ПМЭФ в 2023 году стала презентация нейросети «Жириновский» на ПМЭФ. Однако серия вопросов-ответов для развлечения публики – лишь малая часть того, что может искусственный интеллект (ИИ). С каждым годом мы видим все большее проникновение «нечеловеческого разума» во все процессы политической коммуникации, и отличить машину от человека становится всё сложнее. Столь масштабное проникновение ИИ в чувствительную сферу политики натолкнется на попытки регуляторов упорядочить эти процессы.

Технологии ИИ активно развиваются. Особым успехом и популярностью сегодня пользуются так называемый генеративный ИИ, использующийся для создания изображений (нейросети по типу MidJorney), текстов (ChatGPT, YandexGPT), видео (нейросеть Pictory и др.), а также интеллектуальные системы поддержки принятия решений (решения по обработке данных под заданную цель).

Учитывая столь обширный функционал, эти технологии находят все более широкое применение в разных сферах жизни человека, в том числе и в политике.

Использование ИИ в политике

Приведем несколько примеров использования ИИ-технологий в политике.

Предвыборная кампании президента Барака Обамы 2008 года стала первой кампанией, в которой активно использовались социальные сети. Во время второй его президентской кампании в 2012 г. были уже использованы технологии ИИ для расчета наилучшего дня, штата и аудитории для публичного выступления Б. Обамы. По разным оценкам, это обеспечило преимущество в 10–12% голосов.

В 2016 г. британская компания Cambridge Analytica незаконно собрала данные 87 млн пользователей в Facebook для анализа, работая в тесном сотрудничестве со штабом Дональда Трампа.

Согласно исследованию Оксфордского университета, в 2020 г. цифровые технологии использовались для манипулирования общественным мнением и распространения вводящей в заблуждение пропаганды как минимум в 81 стране. К инструментам воздействия относились чат-боты, микротаргетинг, алгоритмы формирования контента, клонированные человеческие голоса и базы данных для распознавания лиц.

Российские политики по большей мере только начинают изучать возможности технологий ИИ. ЛДПР презентовала нейросеть «Жириновский», имитирующую слова и речи бывшего лидера партии. «Единая Россия» рассматривает возможности нейросетей для аналитики, прогнозирования, генерации видеоматериалов и изображений. Вместе с тем заместитель секретаря генсовета Сергей Перминов делает особый акцент на угрозах и фейках. КПРФ изучает возможности ИИ для применения в агитационной работе. «Справедливороссы» засветились в СМИ с темой возможного запрета отечественной нейросети «Кандинский», а «Новые люди», напротив, выступили в защиту ИИ как технологии будущего.

Основные направления использования ИИ для политических задач

Технологии ИИ могут быть внедрены практически на всех этапах политических процессов. Среди основных направлений применения технологий ИИ можно выделить:

Создание агитационного контента (тексты, изображения, видео). ИИ может проводить анализ информационного поля и формулировать различные лозунги и агитационные материалы, релевантные текущей ситуации. Это может быть речь, пресс-релиз, фотография или видео. ИИ может применяться и в условиях развивающегося коммуникационного кризиса, где необходимо отслеживание новостей, выявление закономерностей и рисков для минимизации ущерба. Время ответа может сократиться до минут, а не часов или дней. Но пока что сгенерированные материалы не учитывают социально-культурный контекст и больше похожи на работы студента или стажера, требующие редактуры.

Рассылка таргетированных сообщений. В перспективе тексты, которые были персонализированы на основе истории запросов и предпочтений пользователя станут более детализированными. К примеру, в американских политических кампаниях таргетированные сообщения используются для воздействия на четко выделенные колеблющиеся группы избирателей. Это позволяет кандидатам не тратить деньги на определившихся, а сфокусироваться на колеблющихся избирателях, которые будут решать исход выборов.

Использование чат-ботов для ответов на вопросы избирателей. Обученный чат-бот сможет экономить время телефонных операторов и отвечать на наиболее частые вопросы избирателей. Для эффективного убеждения разных групп избирателей сложность ответов может варьироваться от эмоциональных призывов и лозунгов до статистики, опыта правоприменительной практики и мирового опыта. Кроме того, представители партий смогут «собирать» своих избирателей на специальных цифровых платформах, коммуницировать с ними. Там же будет вестись анализ поведения (с согласия самих избирателей).

Моделирование политических предпочтений. ИИ способен проанализировать большие объемы данных, чтобы сформировать политическую повестку. Так, в Дании искусственный интеллект «Лидер Ларс» провел анализ публикаций 230 небольших политических партий, начиная с 1970 г., и создал на этой базе программу Синтетической партии, повестка которой отражает политические предпочтения около 15–20% избирателей страны. Таким образом, ИИ может высвечивать в политической повестке реалистичные запросы избирателей, заставляя живых политиков обращать на них внимание.

Совершенствование предсказательных моделей. ИИ может помочь предсказывать результаты выборов и иных политических кампаний, дополняя уже известные прогнозные технологии с помощью выделения неочевидных для человека взаимозависимостей.

Проведение социологических опросов. Возможно использование ИИ-роботов на телефонных опросах населения о политических предпочтениях. Однако пока роботы недостаточно хорошо распознают человеческую речь, плохо реагируют на изменения поведения респондента и допускают много ошибок.

Анализ фейков. Проверка достоверности контента может стать одним из самых востребованных направлений.

Этот список не исчерпывающий. Любая задача, связанная с анализом большого количества данных и рутинными процедурами, в перспективе может быть отдана ИИ — будь то анализ результатов голосования, работа с массивом юридических документов (проверка подписей, проверка сданных кандидатами документов и пр.) Однако содержательное ядро профессии политконсультантов — стратегия и идеология — в силу сложности и креативного характера сегодня неподвластны ИИ.

Риски и регулирование ИИ

Масштабное проникновение ИИ будет серьезно контролироваться регуляторами, так как применение данных технологий несет в себе слишком чувствительные и плохо прогнозируемые риски. Этот процесс будет сопровождаться дискуссией об этике искусственного интеллекта.

Если афинская демократия могла осуществляться «лицом к лицу», то сегодня политические коммуникации достигли такой степени виртуализации, что порой мы никак не можем проверить источник и достоверность распространяемой информации.

Нейросети могут создавать гиперреалистичные человеческие голоса, изображения, видео и аудио за считанные секунды при минимальных затратах. Привязанные к мощным алгоритмам социальных сетей, таргетированные электронные письма, тексты или видео могут использоваться для введения в заблуждение избирателей в масштабах и со скоростью, которые ранее были невозможны. Можно лишь представить, что это может быть: звонок от кандидата гонки, дающий совет голосовать в неправильный день; появление компрометирующих видео или аудиозаписей.

Исследователи из Стэнфордского университета провели опыт по определению убедительности ИИ. Для эксперимента нейросеть создала тексты по нескольким спорным темам (по типу поддержки торговли оружием или запрета абортов). Затем эти тексты смешали с реальными и выдали случайным образом участникам эксперимента из разных категорий населения. Участников просили заявить о своей позиции по вопросам до и после чтения. Во всех сравнениях сообщения, созданные ИИ, оказались убедительны для читателей. Мало того, испытуемые отметили, что после их прочтения стали больше поддерживать позицию, которую отстаивал ИИ.

Что особенно важно, ИИ-сервисы дают сложные инструменты обычному человеку. Людям больше не нужно быть экспертами по программированию или мастерами видео, чтобы генерировать цифровой продукт. Им не обязательно работать на «ферме троллей», чтобы инициировать масштабные политические дебаты в Интернете. Они могут просто использовать передовые технологии для распространения сообщений, которые они хотят (в том числе и фейков). В этом смысле любой может стать создателем политического контента и попытаться повлиять на избирателей или СМИ.

Чтобы решить эти недостатки, требуется государственное регулирование. Оно должно базироваться на определенных этических принципах, таких как подотчетность, прозрачность и справедливость — то, что в мировой практике теперь называется «ответственным ИИ».

Для создания модели регулирования ИИ нужно ответить на следующие вопросы:

  • как обеспечивается получение и подтверждение согласия на использование персональных данных пользователей;
  • как обезличиваются при обучении и работе ИИ данные пользователей;
  • кому могут быть доступны технологии (всем или избранным);
  • в какой степени уместна цензура, кто ее будет обеспечивать (государство, разработчики или специальные организации).

Стоит отметить, что ответы на эти вопросы в той или иной стране могут быть разными. Именно поэтому государства могут по-разному регулировать деятельность ИИ.

Американское министерство торговли инициировало публичное обсуждение по проблеме необходимости сертификации потенциально рискованных новых моделей ИИ перед их выпуском. Страны «Большой семерки» объявили о работе над международными стандартами использования ИИ. ЕС также разрабатывает свой документ, который должен гарантировать, что «ИИ, разработанный и используемый в Европе, полностью соответствует правам и ценностям ЕС, включая надзор со стороны человека, безопасность и конфиденциальность».

16 мая Сэм Альтман, генеральный директор OpenAI, компании, создавшей ChatGPT, призвал Конгресс США предотвратить возможность ИИ нанести «значительный вред миру» и «манипулировать» президентскими выборами в США. Параллельно с этим американские законодатели начали рассматривать норму, требующую маркировать предвыборную рекламу, созданную с помощью ИИ. Примечательно, что в этом отношения дальше всех пошли депутаты Госдумы России, которые предложили маркировать весь контент, создаваемый с помощью нейросетей.

Если западные страны склоняются к более тонкому нормативно-правовому регулированию, то Китай — к цензуре. В тот момент, когда власти США больше озабочены тем, что нейросети дают заведомо ложные ответы, Китай вводит цензуру в нейросетях, а не регулирует их. Управление по вопросам киберпространства КНР опубликовало проект мер по регулированию сервисов генеративного ИИ. Создаваемый им контент должен отражать основные ценности социализма, не может призывать к подрыву государственной власти, свержению социалистического строя.

В России дискуссия об ограничении действия ИИ в чувствительных сферах идет не первый год. Так, в августе 2021 г. партия «Единая Россия» приняла «Цифровой манифест», где были обозначены риски использования ИИ (в основном в таких сферах, как образование, медицина, юриспруденция, собственность, право на труд).

В целом Россия стремится сочетать как западные подходы в желании создать определенные регуляторные нормы для ИИ (разработан этический Кодекс ИИ, внедряются отраслевые стандарты в сфере ИИ), так и китайские практики. Влияние опыта Китая вновь подтвердил на ПМЭФ глава Минцифры Максут Шадаев, заявив, что подходы России к регулированию искусственного интеллекта близки к позиции Пекина, где считают, что все данные принадлежат государству и являются стратегическим ресурсом.

Какие события и условия необходимы, чтобы ИИ начал заниматься политикой в России? На этот вопрос нейросеть ChatGPT отвечает так:

«1. ИИ должен достичь уровня развития, когда он сможет анализировать и понимать политические процессы, принимать обоснованные решения и предлагать стратегии для решения политических проблем.

2. В России должны быть приняты законы и нормативные акты, которые разрешают использование ИИ в политических процессах и определяют правила и ограничения для такого использования.

3. Общество должно быть готово принять участие ИИ в политике и доверять его решениям. Это может потребовать времени и образовательных программ для информирования граждан о возможностях и ограничениях ИИ.

4. Политические лидеры и партии должны быть заинтересованы в использовании ИИ для улучшения политических процессов и быть готовыми внедрять его в свою работу.

5. Должна быть создана техническая инфраструктура для интеграции ИИ в политические процессы, включая доступ к данным, алгоритмы анализа и принятия решений, а также системы безопасности и защиты данных».

Когда все эти условия будут выполнены, ИИ сможет начать заниматься политикой в России. Однако стоит отметить, что полное замещение человеческого участия в политике ИИ вряд ли возможно, поскольку политические процессы всегда будут требовать человеческого взаимодействия, эмпатии и интуиции.


(Голосов: 10, Рейтинг: 4.5)
 (10 голосов)
 
Социальная сеть запрещена в РФ
Социальная сеть запрещена в РФ
Бизнесу
Исследователям
Учащимся