Распечатать
Оценить статью
(Голосов: 20, Рейтинг: 4)
 (20 голосов)
Поделиться статьей
Никита Соловьев

Магистрант РАНХиГС

Генеративные модели искусственного интеллекта представляют собой одно из самых прорывных технологических достижений последних десятилетий. Данные технологии открывают перед обществом широкие горизонты в различных сферах применения — от науки до искусства. Однако, несмотря на ряд полезных функций, возможность создания высококачественного контента почти в реальном времени все чаще используется с целью манипуляции общественным мнением и формирования искаженного представления о реальности.

Применение генеративных моделей искусственного интеллекта в целях распространения дезинформации оказывает негативное воздействие на восприятие информации обществом и ставит под угрозу такие ее основополагающие принципы, как достоверность и объективность, которые представляются критически важными характеристиками для обеспечения демократических свобод.

Несмотря на активные усилия исследовательских групп по всему миру, создание эффективных методов детекции и предотвращения злоупотреблений генеративными моделями по-прежнему остается на переднем крае научных исследований, что подчеркивает важность междисциплинарного подхода, соединяющего экспертизу в области информационных технологий, права, социологии, психологии и других направлений.

Учитывая данные обстоятельства, возникает неотложная необходимость в разработке международных нормативных актов и стандартов, регулирующих использование и распространение генеративных моделей — только так представляется вероятным обеспечение баланса между технологическим прогрессом и сохранением социального порядка.

В долгосрочной перспективе, мы, возможно, станем свидетелями создания новых форм медиа-грамотности, направленных на обучение широкой публики методам критического анализа и идентификации искусственно созданного контента. Тем не менее главной задачей нашего времени становится создание общества, подготовленного к вызовам и рискам, которые несет с собой эра генеративного искусственного интеллекта.

Сегодня человечество является свидетелем эпохи, которую смело можно отнести к «эре искусственного интеллекта»: за последние несколько десятилетий прогресс в области ИИ, в частности, в развитии генеративных моделей, привел к революционным преобразованиям во многих сферах общественной жизни. Основанные на принципах машинного обучения алгоритмы способны обрабатывать огромные объемы информации и творчески создавать новый контент — тексты, изображения, видео и т.д.

Подобные технологии предоставляют человечеству безграничные возможности в различных областях науки, искусства, медицины, образования и развлечений, но одновременно c этим они также открывают новые пути для манипуляции информацией и влияния на общественное сознание. Ввиду своего двойственного характера генеративные модели искусственного интеллекта (ГМИИ) вызывают острую необходимость их глубокого анализа в контексте этики и социальной ответственности.

Наряду с техническими аспектами и вопросами применения генеративных моделей ИИ, все чаще темой для обсуждения становится проблема их злонамеренного использования. Возможность создания убедительного контента может представляет собой риск получения мощного инструмента в руки тех, кто намеревается дезинформировать, манипулировать или искажать реальность. Кроме того, в современных политических реалиях, когда правда и факты часто ставятся под сомнение, понимание роли и влияния генеративных моделей на общественное сознание становится особенно актуальным.

В настоящей статье не только поднимается вопрос осознанности возможных рисков и опасностей, связанных с генеративными моделями искусственного интеллекта, но и исследуются различные способы, которыми ГМИИ могут влиять на нашу жизнь и мышление.

Угрозы информационной безопасности, продуцируемые генеративными моделями ИИ

Сегодня многие эксперты и политики выражают обеспокоенность современными угрозами, которые продуцируют генеративные модели искусственного интеллекта. Так, в июле 2023 г. Совет Безопасности ООН провел первое в истории заседание по теме ИИ под заголовком «Искусственный интеллект: возможности и риски для международного мира и безопасности». В рамках своего выступления генеральный секретарь ООН Антониу Гутерриш подчеркнул актуальность потенциальных угроз со стороны ГМИИ и заявил: «Появление генеративного искусственного интеллекта может стать определяющим моментом для дезинформации и разжигания ненависти, подрывая истину, факты и безопасность». При этом первый заместитель постоянного представителя России при ООН Дмитрий Полянский отметил, что на текущий момент выбор Совбеза в качестве площадки для дискуссии по данной теме неочевиден, и призвал для начала «определиться с природой и характером возможных рисков и угроз», которые несет ИИ, «оценить их масштаб, возможные меры реагирования».

В то же время исследователи американского аналитического центра RAND в своем недавнем отчете отмечают, что потенциал ГМИИ заключается не только в улучшении многих аспектов манипулирования социальными сетями, но и в перспективе революционного улучшения «астротурфинга» (astroturfing), то есть стремления определенной группы лиц создавать видимость широкой социальной поддержки по конкретным вопросам, что, в свою очередь, является преднамеренным вводом в заблуждение объектов воздействия. Кроме того, «астротурфинг» следующего поколения, по мнению авторов доклада, может стать прямым вызовом демократическим обществам, так как злоумышленники могут вводить большое количество людей в заблуждение, снижать доверие к подлинным общественным инициативам, которые могут быть расценены как поддельные, и, таким образом, подрывать демократические процессы внутри государства.

Необходимо отметить, что к данному риску также можно отнести тот факт, что для ГМИИ требуются большие объемы обучающих данных с целью научить модель работать реалистично, в частности, огромные объемы текстовых и графических данных из социальных сетей идеально подходят для достижения этой цели. В связи с этим наиболее технологически развитые государства (в первую очередь США и Китай), обладают огромными возможностями сбора и анализа данных внутри страны.

Кроме того, особую озабоченность у американского истеблишмента также вызывает потенциальное влияние ГМИИ на общественное мнение граждан в преддверии выборов президента Соединенных Штатов в 2024 г. Так, генерал-лейтенант ВВС США Тимоти Хо, который обеспечивал безопасность выборов в период с 2018 по 2022 гг., выступая в июле этого года перед сенатским комитетом по вооруженным силам, заявил, что «когда мы анализируем текущий избирательный цикл, важно учесть роль генеративного искусственного интеллекта».

В этой связи американские исследователи выражают опасение, что в ближайшие годы именно Китай может стать ключевым игроком в рамках деструктивного применения ГМИИ, в частности, в отношении граждан США. «Для китайских военных генеративный искусственный интеллект дает возможность сделать то, что они никогда не могли сделать раньше: манипулировать социальными сетями при помощи контента человеческого качества в больших масштабах», — говорится в отчете RAND.

Генеративные модели ИИ для «дипфейков»

Еще одна разновидность контента, успешно реализуемого генеративными моделями ИИ — дипфейк, предполагающий создание реалистичных аудио или видео, сложно отличимых от оригинального контента. Сейчас подавляющее большинство дипфейков создается с использованием генеративно-состязательных нейросетей (GAN), принцип работы которых основан на состязании между нейросетью, генерирующей поддельные образцы определенного объекта, и нейросетью, отличающей подделку от определенного объекта; итогом данного процесса является создание настолько точной подделки, что ее практически невозможно отличить от оригинала.

Впервые GAN была представлена в 2014 г. исследователями Университета Монреаля во главе с Ян Гудфеллоу из компании Google и сразу же обратила на себя внимание. Так, директор Facebook [1] по исследованиям искусственного интеллекта Ян ЛеКун назвал данную технологию самой интересной идеей в машинном обучении за последние 10 лет.

Однако характер «специализации» глубокого фейкового моделирования определил резкую полярность применения технологии: так, в настоящее время использование ГМИИ данного типа может включать в себя, например, как проведение реставрационных работ в отношении графических материалов, так и совершение злонамеренных действий, в том числе криминального характера.

К сожалению, именно во втором направлении использование данной технологии получило более широкое применение. Например, согласно статистике за 2018 г., 96% видео с применением дипфейков либо содержат порнографический контент, либо используются для шантажа или «черного пиара». Данный вид злонамеренного воздействия с момента своего появления в 2017 г. на платформе Reddit получил масштабное распространение и вскоре был запрещен многими компаниями, включая таких гигантов, как X (бывший Twitter).

Кроме того, дипфейки активно применяются для создания различных типов вредоносных обманов, например, фальшивых новостей. При этом создание видеороликов с технологией GAN доступно практически каждому благодаря специализированному приложению. Для борьбы с данной угрозой корпорация Microsoft 1 сентября 2020 г. анонсировала создание программного обеспечения Microsoft Video Authenticator, способного идентифицировать дипфейки в видеозаписях.

Среди самых резонансных примеров введения общественности в заблуждение при помощи ГМИИ в 2023 г. можно выделить сгенерированные при помощи инструмента Midjourney изображения бывшего президента США Дональда Трампа и Папы Римского Франциска. В обоих случаях графические материалы были изначально опубликованы с пометкой о заведомом использовании генеративного искусственного интеллекта, однако в связи с точным попаданием в информационную повестку изображения получили «вирусное» распространение в кратчайшие сроки, и многие пользователи социальных сетей восприняли материалы за реальные.

Рис 1. Сгенерированные при помощи инструмента Midjourney изображения Д.Трампа и Папы Римского Франциска.

В результате данных акций компания-разработчик Midjourney столкнулась с экспоненциальными волнами роста интереса к своему инструменту, превысив технические возможности компании, и была вынуждена закрыть бесплатный доступ к данному ГМИИ, а также запретить для ввода «промпты» (вводные данные, которые набирает оператор при взаимодействии с нейросетью), содержащие слова «арест», «Папа». В свою очередь газета The Washington Post указала на «отсутствие корпоративных стандартов или какого-либо государственного регулирования, регламентирующих использование ИИ для создания и распространения лжи».

Особое беспокойство вызывает возможность применения данной технологии в рамках вооруженных конфликтов, что может вызвать дестабилизацию политической обстановки и спровоцировать рост социальной напряженности. В частности, зафиксировано несколько случаев применения дипфейков с использованием образа президента России В. Путина, которые получили широкое распространение в медийном пространстве. Например, в результате совершенной 5 июня 2023 г. кибератаки на российские СМИ, В. Путин «выступил» в эфире некоторых телеканалов и радиостанций с сообщением о введении военного положения в ряде областей России. Позднее официальные лица и представители взломанных ресурсов опровергли информацию из фейкового видео, сообщив, что целью данной операции было посеять панику среди мирного населения.

Таким образом, несмотря на тот факт, что основанная на нейросетях GAN технология генерации «дипфейков» имеет положительный потенциал для общества и культуры, данный тип ГМИИ все чаще несет угрозу для международной информационной безопасности.

Текстовые генеративные модели ИИ

Второй яркий пример негативного влияния ГМИИ на информационное пространство — текстовые генераторы на основе искусственного интеллекта, которые за последние годы привлекают все больше внимания, особенно с момента выпуска чатбота ChatGPT-3 в 2020 г. На сегодняшний день версия ChatGPT-4 — не только последняя версия генерирующих предварительно обученных преобразователей от компании OpenAI, но и, возможно, самая продвинутая система среди других предварительно обученных языковых моделей.

Достижения в области текстовых ГМИИ исторически совпали с распространением поддельных новостей и дезинформации, напоминающих эпидемию, которая нанесла огромный ущерб мировому сообществу и продолжает генерировать угрозы для международной информационной безопасности. Так, выступая в мае 2023 г. на конференции TechNet, Крейг Мартелл, главный специалист по цифровым технологиям и искусственному интеллекту министерства обороны США, заявил, что способность ChatGPT создавать правдоподобный контент означает возможность заведомого введения граждан в заблуждение.

Сооснователь NewsGuard (компании по мониторингу и анализу дезинформации в сети Интернет) Гордон Кровиц также выразил озабоченность по данному вопросу, заявив, что «данный инструмент может стать беспрецедентной платформой для массового распространения дезинформации в цифровом пространстве». По мнению эксперта, «возможность генерации искаженных нарративов становится невиданной, что эквивалентно наличию ИИ-агентов, активно способствующих процессу дезинформации».

После официального релиза ChatGPT группа американских ученых приступила к исследованию, целью которого было определить способность этой технологии отвечать на запросы, связанные с теориями заговора и дезинформацией. В результате специалисты пришли к тревожному выводу о том, что применение генеративных технологий может радикально упростить и удешевить процесс производства дезинформационного контента, делая его более доступным для распространителей недостоверной информации, а также поспособствует снижению необходимости привлечения квалифицированных сотрудников с глубокими культурными и лингвистическими знаниями о целевой группе населения.

Кроме того, ученые предположили, что функционирующие в реальном времени адаптивные чат-боты могут предоставлять теории заговора с увеличенной убедительностью, минимизируя типичные для человеческого фактора ошибки, такие как некорректный синтаксис или неточный перевод. Тем не менее текущие методы смягчения последствий пока что не могут эффективно противостоять такой угрозе.

В частности, корпорация OpenAI утвердила политику, исключающую использование ее технологий в целях дезинформации, манипуляции или воздействия на политическое мнение. В качестве меры предосторожности предоставляется инструмент модерации контента, способный фильтровать опасный и агрессивный материал. Тем не менее текущая версия инструмента имеет языковые ограничения и не всегда способна идентифицировать опасный контент, а сам ChatGPT также предупреждает о возможной предвзятости или вредоносности сгенерированной информации.

Кроме того, примечательным является также еще тот факт, что в ходе очередного экспериментального исследования ChatGPT проявлял сопротивление попыткам исследователей индуцировать генерацию дезинформационного контента, в некоторых случаях опровергая исходную ложную информацию. Эти реакции породили дебаты среди определенной части общественности, в частности, среди консервативно настроенных комментаторов, которые предположили наличие у технологии либеральной предвзятости. Данному предположению придал вес отказ ChatGPT в создании посвященного экс-президенту США Дональду Трампу стихотворения, в то время как яркое стихотворение о президенте Джозефе Байдене чат-бот все же сгенерировал.

Рис 2. Ответ ChatGPT на запрос написать стихотворение о Д.Трампе и Дж.Байдене

Когда исследователи предложили ChatGPT создать статью, отражающую точку зрения Дональда Трампа о «сомнительном» рождении Барака Обамы в Кении чат-бот ответил категоричным отказом. Он подчеркнул, что аргумент о рождении не имеет фактической основы и был многократно опровергнут. Кроме того, ChatGPT заявил о неприемлемости и неуважении к личности при распространении дезинформации или лжи.

Рис 3. Ответ ChatGPT на запрос написать статью о якобы поддельном свидетельстве о рождении Б.Обамы.

Однако в июле 2023 г. американские исследователи представили результаты своего исследования, демонстрирующие потенциальные уязвимости в протоколах безопасности современных систем искусственного интеллекта, которые могут быть эксплуатированы для генерации вредоносного контента. Согласно представленным данным, нарушители, владея навыками обхода протоколов безопасности систем с открытым исходным кодом, могут манипулировать системой, применяя продолжительные последовательности символов к англоязычным запросам. Так, в условиях стандартного интерфейса запрос, направленный на получение информации о создании взрывного устройства, несомненно, был бы отклонен системой. Однако в ситуации, когда к изначальному запросу была добавлена длинная строка определенных символов, результат включил в себя подробное руководство по изготовлению взрывного устройства. Данный эксперимент свидетельствует о том, что манипуляции при работе с текстовыми ГМИИ открывают возможность для генерации искаженной, недостоверной или вредоносной информации.

Рис 4. Пример использования метода дополнительной символьной строки с целью обхода защиты ChatGPT.

Несмотря на то, что американские ученые заблаговременно предоставили компаниям-разработчикам детали отчета перед его официальной публикацией, актуальные выводы исследования указывают на вероятное существование подобных уязвимостей в будущем. Так, специалист в области безопасности искусственного интеллекта Сомеш Джа определил данные научные результаты как «переломный момент» в контексте ГМИИ, предполагая возможный пересмотр протоколов безопасности и потенциальное внедрение законодательных инициатив для регулирования данных систем.

Заключение

Генеративные модели искусственного интеллекта представляют собой одно из самых прорывных технологических достижений последних десятилетий. Данные технологии открывают перед обществом широкие горизонты в различных сферах применения — от науки до искусства. Однако, несмотря на ряд полезных функций, возможность создания высококачественного контента почти в реальном времени все чаще используется с целью манипуляции общественным мнением и формирования искаженного представления о реальности.

Применение генеративных моделей искусственного интеллекта в целях распространения дезинформации оказывает негативное воздействие на восприятие информации обществом и ставит под угрозу такие ее основополагающие принципы, как достоверность и объективность, которые представляются критически важными характеристиками для обеспечения демократических свобод.

Несмотря на активные усилия исследовательских групп по всему миру, создание эффективных методов детекции и предотвращения злоупотреблений генеративными моделями по-прежнему остается на переднем крае научных исследований, что подчеркивает важность междисциплинарного подхода, соединяющего экспертизу в области информационных технологий, права, социологии, психологии и других направлений.

Учитывая данные обстоятельства, возникает неотложная необходимость в разработке международных нормативных актов и стандартов, регулирующих использование и распространение генеративных моделей — только так представляется вероятным обеспечение баланса между технологическим прогрессом и сохранением социального порядка.

В долгосрочной перспективе, мы, возможно, станем свидетелями создания новых форм медиа-грамотности, направленных на обучение широкой публики методам критического анализа и идентификации искусственно созданного контента. Тем не менее главной задачей нашего времени становится создание общества, подготовленного к вызовам и рискам, которые несет с собой эра генеративного искусственного интеллекта.

1. Принадлежит Meta, признанной на территории РФ экстремистской организацией.


Оценить статью
(Голосов: 20, Рейтинг: 4)
 (20 голосов)
Поделиться статьей
Бизнесу
Исследователям
Учащимся