Распечатать Read in English
Оценить статью
(Голосов: 9, Рейтинг: 4.89)
 (9 голосов)
Поделиться статьей
Ольга Афанасьева

Операционный директор научно-исследовательской компании GoodAI

Мы пока не можем доверять ИИ принятие решений в важнейших областях — например, искусственный интеллект оказывает помощь медицинскому персоналу, только давая рекомендации, не больше. Тем не менее, исследования продвигаются в сторону «сильного ИИ», и мы стараемся разработать алгоритмы, которые позволят принимать лучшие решения и дополнять, а не просто автоматизировать человеческий интеллект. Это позволило бы нам оптимизировать научные исследования и найти им практическое применение в различных областях.

Чтобы иметь возможность решать проблемы в новых для себя сферах, «сильный» ИИ должен быть в состоянии обучаться самостоятельно, а также улучшать свои навыки обучения и решения проблем. Подобный «сильный» искусственный интеллект еще не разработан, и один из наиболее важных вопросов, который нам необходимо решить, — какие ценности будут продвигать подобные системы?

Мы называем искусственный интеллект (ИИ), который существует сегодня, «слабым ИИ», потому что диапазон задач, который он может выполнять, очень ограничен. По сути, все эвристики ИИ «хранятся» в мозге человека – в головах исследователей и инженеров, которые проектируют искусственный интеллект для выполнения определенных задач с использованием конкретных наборов данных.

Ценности или предубеждения «слабого» ИИ также обусловлены человеческими знаниями. Например, система «слабого» ИИ становится расово предвзятой из-за данных, на которых она обучается, а эти данные, конечно, генерируются людьми. Простой «слабый» искусственный интеллект не делает предположений о мире и не создает собственных ценностей, как это делают люди.

Ольга Афанасьева

Мы пока не можем доверять ИИ принятие решений в важнейших областях - например, искусственный интеллект оказывает помощь медицинскому персоналу, только давая рекомендации, не больше. Тем не менее, исследования продвигаются в сторону «сильного ИИ», и мы стараемся разработать алгоритмы, которые позволят принимать лучшие решения и дополнять, а не просто автоматизировать человеческий интеллект. Это позволило бы нам оптимизировать научные исследования и найти им практическое применение в различных областях.

Чтобы иметь возможность решать проблемы в новых для себя сферах, «сильный» ИИ должен быть в состоянии обучаться самостоятельно, а также улучшать свои навыки обучения и решения проблем. Подобный «сильный» искусственный интеллект еще не разработан, и один из наиболее важных вопросов, который нам необходимо решить, — какие ценности будут продвигать подобные системы?

В «GoodAI» мы считаем, что сложные человеческие ценности не могут быть просто закодированы раз и навсегда, ИИ должен изучать их постепенно, в ходе управляемого процесса. Это очень похоже на то, как мы, люди, учимся c помощью образовательных программ в среде, сформированной для нас семьей, институтами и обществом в целом. Вместо того чтобы изучать строгие правила в мире, который редко бывает черно-белым, мы учимся понимать основополагающие принципы нашей культуры, после чего мы можем обобщать эти принципы для ранее не встречающихся ситуаций и действовать в соответствии с нашими ценностями — это намного более надежная стратегия.

Другим аргументом против жестко закодированных значений в сложных адаптивных системах (таких как будущий «сильный» ИИ) является то, что мы хотим, чтобы ценности эволюционировали. Например, мы не хотели бы жить в соответствии с ценностями прошлых веков, когда мирились с рабством или ограничивали свободу групп людей на основе цвета их кожи или пола. Было бы неразумно ограничивать способность искусственного интеллекта открывать системы ценностей, более совершенные, чем существующие сегодня. Однако для достижения этого нам необходимо убедиться, что мы задаем ИИ правильную траекторию обучения ценностям.

GoodAI / AI Race

Как мы можем научить искусственный интеллект правильным ценностям? Во-первых, нам нужно убедиться, что у нас есть эффективный механизм обучения ИИ пониманию нашего мира. Чтобы научить ИИ решать общие задачи, нам сначала нужно создать систему с врожденной способностью учиться постепенно. Т.е. систему, способную «накладывать» новые навыки поверх ранее изученных, эффективно использовать приобретенные знания повторно и обобщать их, распространяя на новые области. Хоть это и несложно для людей, это все еще нерешенная проблема для искусственного интеллекта.

Прелесть постепенного обучения в его эффективности - человеческая культура представляет собой накопленный набор знаний, которые каждый новый человек не должен «изобретать с нуля», этот набор может быть передан учителями и наставниками и может быть «достроен». Механизм постепенного обучения идет рука об руку с управляемым обучением: как исследователи ИИ, мы будем разрабатывать учебные планы в виртуальных средах постепенно возрастающей сложности, где ИИ приобретет навыки и изучит эвристические правила, которые мы считаем полезными. Мы будем направлять искусственный интеллект с помощью учебного процесса, так же, как мы направляем наших детей, предоставляя им правильную информацию в нужное время и не позволяя им рисковать в реальном мире, вне песочницы, прежде чем они будут готовы к этому риску.

Обучение, подготовка и, в особенности, испытание ИИ могут быть гораздо более утомительным процессом, чем разработка базового алгоритма. Тот, кто будет создателем «сильного» ИИ, напрямую повлияет на то, какие ценности будут заложены в систему в результате. Учитывая трансформирующий потенциал, который может иметь такая технология сильного искусственного интеллекта, эти ценности могут повлиять на будущее человечества. И, учитывая конкурентное преимущество, которое ИИ мог бы дать своим обладателям, эти ценности стали бы ценностями, которые в конечном итоге будут доминировать в нашей вселенной.

Итак, как мы можем убедиться в том, что «сильный» ИИ развивается для всеобщего блага человечества, пропагандирует правильные ценности, общие для разных культур, а не только приносит пользу избранному узкому кругу людей, которые первыми его создали?

Чтобы попытаться ответить на этот сложный вопрос, в «GoodAI» мы запустили глобальную программу под названием «Решение проблемы гонки ИИ». ИИ обладает беспрецедентным потенциалом, чтобы изменить существующий баланс сил в мире и может дать бесспорное конкурентное преимущество даже какому-либо новому или слабому игроку. Поэтому, когда дело доходит до разработки революционного «сильного» ИИ, желательно снизить вероятность сценария, в котором победитель получает все, поскольку мы не можем исключать возможность оппортунистического поведения игроков. Мы также должны предусмотреть защиту от небрежности в процессе разработки или от отсутствия надлежащего тестирования безопасности перед тем, как такой искусственный интеллект будет запущен (поспешный запуск может быть вызван давлением со стороны конкурентов).

Нахождение значительного стимула к сотрудничеству и создание надежной модели кооперации между заинтересованными лицами и разработчиками ИИ по всему миру проложили бы путь к «хорошему» искусственному интеллекту. Совместная разработка нового поколения искусственного интеллекта могла бы стать опцией, при котором все участвующие стороны получат преимущества, смягчая сценарий «победитель получает все», а также смогут вести более эффективную работу по вопросам обучения ценностям и безопасности ИИ в целом. Как это будет работать на практике? Или есть ли другой, лучший способ смягчить риски, связанные с глобальной гонкой ИИ? Хотели бы вы помочь разработать структуру, способную максимизировать преимущества искусственного интеллекта для общества? Если это так, я приглашаю вас попытаться найти ответы на эти вопросы вместе, присоединившись к нашей программе.

Оценить статью
(Голосов: 9, Рейтинг: 4.89)
 (9 голосов)
Поделиться статьей
Бизнесу
Исследователям
Учащимся