Распечатать Read in English
Оценить статью
(Голосов: 3, Рейтинг: 4)
 (3 голоса)
Поделиться статьей
Ноэль Шарки

Почетный профессор Шеффилдского университета по вопросам искусственного интеллекта и робототехники, со-директор Фонда ответственной робототехники и председатель Международного комитета по контролю над роботизированным оружием (ICRAC)

Татьяна Канунникова

Выпускница факультета журналистики МГИМО МИД России, журналист, эксперт РСМД

Ноэль Шарки — доктор философии, член Британского общества вычислительной техники, сертифицированный специалист в области разработки ПО. Он является почетным профессором Шеффилдского университета по вопросам искусственного интеллекта и робототехники, а также со-директором Фонда ответственной робототехники и председателем Международного комитета по контролю над роботизированным оружием (ICRAC). Ноэль работал в области искусственного интеллекта, робототехники и смежных дисциплин более 4 десятилетий. Он занимал исследовательские и преподавательские должности в США (Йельский и Стэнфордский университеты) и Великобритании (Эссекский, Эксетерский и Шеффилдский университеты).

Начиная с 2006 года Ноэль занимается этическими, юридическими, правозащитными вопросами, связанными с искусственным интеллектом и робототехникой в таких областях, как вооруженные силы, уход за детьми и за пожилыми людьми, охрана общественного порядка, автономный транспорт, медицина, хирургия, пограничный контроль, наблюдение, алгоритмическая гендерная и расовая предвзятость. Большая часть его нынешней работы заключается в лоббировании политиков на международном уровне и в пропаганде на уровне ООН запрета автономных систем оружия. Ноэль, пожалуй, наиболее известен широкой публике своей работой на популярных телепередачах. Например, судьей во всех сериях «Битвы роботов» на BBC2 начиная с 1998 года.

Эксперт РСМД Татьяна Канунникова побеседовала с экспертом об угрозах автономного оружия для международной безопасности.

Ноэль Шарки — доктор философии, член Британского общества вычислительной техники, сертифицированный специалист в области разработки ПО. Он является почетным профессором Шеффилдского университета по вопросам искусственного интеллекта и робототехники, а также со-директором Фонда ответственной робототехники и председателем Международного комитета по контролю над роботизированным оружием (ICRAC). Ноэль работал в области искусственного интеллекта, робототехники и смежных дисциплин более 4 десятилетий. Он занимал исследовательские и преподавательские должности в США (Йельский и Стэнфордский университеты) и Великобритании (Эссекский, Эксетерский и Шеффилдский университеты).

Начиная с 2006 года Ноэль занимается этическими, юридическими, правозащитными вопросами, связанными с искусственным интеллектом и робототехникой в таких областях, как вооруженные силы, уход за детьми и за пожилыми людьми, охрана общественного порядка, автономный транспорт, медицина, хирургия, пограничный контроль, наблюдение, алгоритмическая гендерная и расовая предвзятость. Большая часть его нынешней работы заключается в лоббировании политиков на международном уровне и в пропаганде на уровне ООН запрета автономных систем оружия. Ноэль, пожалуй, наиболее известен широкой публике своей работой на популярных телепередачах. Например, судьей во всех сериях «Битвы роботов» на BBC2 начиная с 1998 года.

Эксперт РСМД Татьяна Канунникова побеседовала с экспертом об угрозах автономного оружия для международной безопасности.

Почему нужно запретить разработку и использование автономного роботизированного оружия?

Существует три основных аргумента против использования автономных систем вооружения.

Во-первых, нельзя гарантировать, что такие технологии будут соответствовать правилам ведения войны. Несмотря на значительные достижения в области искусственного интеллекта в последние десятилетия, алгоритмы демонстрируют слишком большую неточность для принятия решений в реальных условиях. Это может значительно усугубиться в ситуации вооруженного конфликта. Мы не сможем гарантировать принципы избирательности или соразмерности, и у нас нет возможности официально их протестировать, чтобы убедиться, что программы будут работать в условиях неясной боевой обстановки.

Во-вторых, есть связанные с моралью аргументы, согласно которым делегирование машине решений о жизни и смерти является оскорблением человеческого достоинства.

В-третьих, что меня больше всего беспокоит, так это та угроза, которую автономное оружие представляет для международной безопасности. Все крупные державы разрабатывают версии этого вооружения. И все текущие обсуждения касаются вопроса использования боевых роботов в огромных количествах, способных приумножить военную силу. Это повышает вероятность того, что они могут инициировать случайные конфликты в приграничных районах, которые будут вестись с высокой скоростью и приведут к огромным жертвам среди гражданского населения. Никто не станет раскрывать принципы работы программ или алгоритмов своего оружия, и когда встретятся два неизвестных алгоритма, последствия будут непредсказуемы. Они могут просто рухнуть на землю, а могут и разрушить жилые здания, что приведет к гуманитарным кризисам.

Они выводят человека из системы принятия решений относительно того, кто будет жить, а кто умрет. Делегирование таких решений машине противоречит человеческому достоинству.

Некоторые эксперты говорят, что ИИ можно запрограммировать так, чтобы определенные цели не подвергались атаке. Как искусственный интеллект может отличать гражданских лиц от военных? Есть ли риск ошибки?

Нельзя полагаться на машину в этом вопросе. Многие участники боевых действий не носят военную форму. Машину легко обмануть, заставив убить не тех людей. Сенсорные системы, включая камеры, намного лучше производят идентификацию в лабораторных условиях, но не в реальном трехмерном мире теней и полутонов, и уж точно не в условиях неясной боевой обстановки.

Как вы оцениваете риск получения террористами роботизированного оружия? Какое оружие это может быть?

Вполне вероятно, что повстанческие группировки будут использовать автономные беспилотники. Дроны уже широко использовались ИГИЛ*, и они не откажутся применить автономные беспилотники, если их не заботят возможные удары по гражданским лицам.

Есть ли эффективные методы борьбы с роботизированным оружием, а также эффективная противодроновая оборона для отражения таких атак со стороны террористов?

Существует несколько видов систем противодействия атакам дронов, но в настоящее время их легко может преодолеть боевая система беспилотных летательных аппаратов, как это мы видели, когда нефтеперерабатывающий завод в Саудовской Аравии был атакован 18 дронами с установленными на них взрывными устройствами. Эта страна обладает сложными средствами противовоздушной обороны, но они не справились с таким количеством дронов.

Какие ИИ-технологии используются государственными ведомствами в борьбе с терроризмом?

Есть множество средств ведения наблюдения, доступных службам безопасности для мониторинга онлайн-активности и телефонов, а также значительное число биометрических инструментов, таких как автоматическое распознавание лиц.

Революция искусственного интеллекта оказывает влияние на различные области безопасности. Считается, что ИИ дает возможность собирать больше информации и делать это точнее и быстрее. По вашему мнению, какова будет роль искусственного интеллекта в обеспечении безопасности в будущем?

Я считаю, что спешка с применением ИИ в военных целях — серьезная ошибка. Коммерциализация ИИ все еще находится в зачаточном состоянии и если начать использовать его слишком рано, до того как мы узнаем все его недостатки, это может создать множество проблем для военных и привести к поражениям от традиционных вооруженных сил, которые используют проверенные и надежные средства.

Возможен ли в будущем сценарий восстания машин?

Некоторые люди так считают, но я не вижу доказательств того, что это может произойти. И все же будущее — это большой отрезок времени.

Оценить статью
(Голосов: 3, Рейтинг: 4)
 (3 голоса)
Поделиться статьей
Бизнесу
Исследователям
Учащимся