Статус: Открыт

Автономность в военной сфере — как оценить опасность боевых роботов?

27 июня 2019

МОСКВА, 27 ИЮНЯ. ПИР-ПРЕСС. «Автономные системы постепенно вытесняют человека с поля боя, и во многом это можно считать благом для военных, которые подвергаются меньшему риску. Однако, при этом человек передает искусственному интеллекту (ИИ) часть своих полномочий, а с ними – часть ответственности. Специалисты говорят, что, вероятно, нейронные сети никогда не научатся объяснять человеку свои решения. Это может стать серьезной проблемой по мере привлечения ИИ в такие сферы, как разведка, анализ данных, связь и управление, разработка сценариев, а в перспективе – и принятие решений», – директор проекта ПИР-Центра по новым технологиям и международной безопасности Вадим Козюлин.

31 мая ПИР-Центр совместно с Институтом актуальных международных проблем Дипломатической академии МИД России провёл встречу в рамках цикла неформальных семинаров Научные среды по теме «Автономность в военной сфере — международно-правовые аспекты». В ходе семинара с докладами выступили директор проекта ПИР-Центра по новым технологиям и международной безопасности Вадим Козюлин и старший исследователь Программы по международному праву и вооруженным конфликтам Гарвардской школы права Дастин Льюис.

По оценке Вадима Козюлина, использование технологий искусственного интеллекта в военной сфере порождает три группы угроз. Во-первых, в отношении непосредственного применения оружия речь идёт о последствиях исключения человека из цикла принятия решения. Этот вопрос является предметом международных консультаций под эгидой Конвенции по негуманному оружию, а также часто поднимается в кампаниях неправительственных активистов. Вторая группа угроз связана с поддержанием стратегической стабильности. По мнению эксперта, в этой области военный искусственный интеллект несёт дестабилизирующий потенциал. Наконец, третья группа угроз относится к внедрению технологий ИИ не только в системы вооружений, но шире – в системы коммуникации, сбора разведданных, логистики и т.д. Высокие темпы и растущая автоматизация в военной сфере будут вести к уменьшению пространства для участия человека в принятии решений. Вадим Козюлин отметил, что государствам нужно реалистично оценивать риски и действовать на опережение для предупреждения худших сценариев.

Дастин Льюис представил результаты исследований Программы по международному праву и вооруженным конфликтам Гарвардской школы права (HLS PILAC). В 2018-2020 гг. Программа реализует проект «Международно-правовые и политические измерения военных алгоритмов: сохраняющиеся и новые проблемы», в рамках которого будет изучено, как искусственный интеллект и компьютерные алгоритмы влияют на военную сферу и как это соотносится с международным правом. Дастин Льюис рассказал о том, как может проводиться оценка вооружений, в которых используются технологии ИИ, и предложил 16 элементов и свойств, которые могли бы учитываться при такой оценке. По словам эксперта, одним из направлений дискуссии об искусственном интеллекте и компьютерных алгоритмах в военной сфере могло бы быть сохранение режимов правовой ответственности.

В семинаре приняли участие представители МИД России, Международного Комитета Красного Креста, члены международного клуба «Триалог», эксперты Дипломатической академии МИД России, МГИМО, Института системного анализа РАН и других организаций.

По вопросам, связанным с проектом ПИР-Центра по новым технологиям и международной безопасности, Вы можете обращаться к Вадиму Козюлину по телефону +7 (495) 987 19 15 или по электронной почте kozyulin@pircenter.org.