Вадим Козюлин
В настоящее время можно выделить три группы угроз, связанных с автономными боевыми системами и военным искусственным интеллектом: 1) Meaningful Human Control – эта проблема сегодня единственная, которая замечена общественностью, и ее обсуждают в рамках Конвенции о запрещении или ограничении применения конкретных видов обычного оружия (Convention on Certain Conventional Weapons, CCW); 2) Strategic stability – автономные вооружения сегодня приобретают потенциал для того, чтобы влиять на стратегическую стабильность. Они позволяют увеличить проекцию силы, они делают океаны более транспарентными, и в перспективе смогут обнаруживать и преследовать атомные подводные лодки с баллистическими ракетами (ПЛАРБ), что поставить под сомнения ядерные потенциалы; 3) C3ISR Outsourcing – передача функций человека машине, программе на основе искусственного интеллекта. Пока искусственный интеллект (ИИ) выполняет вспомогательные функции: собирает и анализирует информацию, готовит данные для принятия решения человеком.
Проблемы взаимодействия “человек – ИИ”
В мире не найдется военного или политика, который бы признал, что стратегические решения (например, в системах раннего предупреждения) принимаются искусственным интеллектом. Однако, сегодня мир знаком лишь с так называемым «слабым» искусственным интеллектом. Мы приближаемся к появлению «сильного» ИИ, а в перспективе – супер-ИИ. Предположительно, развитие технологий подведет человечество к моменту, когда ИИ получит и функции принятия решений, в том числе – стратегических. Этому способствует тот факт, что все большая часть работы по сбору и анализу информации передается искусственному интеллекту. ИИ позволяет быстрее оценить ситуацию и быстрее принять решение. И фактически собранная и обработанная с помощью ИИ информация должна быть переведена в понятный для человека формат (существует проблема интерфейса, о чем сообщают специалисты), чтобы человек мог ее правильно оценить, понять и осмыслить.
Процессы ускоряются, и в военном отношении это означает, что время на оценку и принятие решения сокращается. ИИ будет разрабатывать варианты сценариев и предлагать их для выбора человеку. На каком-то этапе человек станет помехой, тормозом в процессе принятия решений. Технологии диктуют, что и процесс принятия решения однажды тоже должен быть передан автомату. Сигналом этого служит тот факт, что в США недавно был поднят вопрос о необходимости создания автоматической системы применения ядерного оружия, подобной системе Периметр, которую на Западе называют Dead Hand.
Гонка вооружений и технологический диктат
С 2017 года Россия последовательно и планово сокращает свои военные расходы. На сегодня они составляют порядка 48 млрд долларов. Для сравнения только на военные исследования и разработки (R&D) США тратят сегодня почти 90 млрд долларов. Очевидно, что у России нет финансовых возможностей участвовать в гонке вооружений. И руководство страны пытается этого избежать. Однако, вероятно, обстоятельства могут заставить ее принять участие в этой гонке. Президент Владимир Путин в интервью итальянской газете Correra Della Serra 4 июля 2019 года сказал: «Сравните, сколько тратит на оборону Россия — порядка 48 миллиардов долларов — и военный бюджет США, составляющий более 700 миллиардов долларов. Какая здесь в реальности может быть гонка вооружений? Мы не собираемся в неё втягиваться. Но и свою безопасность обязаны обеспечить. Именно поэтому были вынуждены пойти на разработку новейшего вооружения и техники, отвечая на наращивание военных расходов и явно деструктивные действия США».
Сегодня в мире разворачивается процесс, который можно было бы назвать «технологическим диктатом» (Technological Predominance или Technological Dictatorship): появляющиеся технологии требуют их внедрения в военной области для модернизации существующих или создания новых вооружений. В качестве примера: автономность (беспилотные аппараты на суше, в воздухе, на воде, под водой); ИИ в C3ISR; лазерные технологии; электромагнитные вооружения, радиофотонные технологии и радарные системы на их основе, военный интернет вещей, Predictive maintenance, широкополосная связь, военный интернет, 5G; биотехнологии и их использование для создания насекомых-киборгов, разработки экзоскелетов; гиперзвуковые технологии; космические технологии (космические войска) и кибер-технологии (киберкомандование) и др.
Признаки новой гонки вооружений становятся очевидны. Технологическая революция подталкивает человечество к гонке вооружений, в которой отстающий может отстать навсегда. Так что фраза Владимира Путина: «Но и свою безопасность обязаны обеспечить» становится ключевой.
Государства-лидеры гонки, очевидно, рассчитывают, что победитель обеспечит себе военные преимущества, которые гарантируют ему безопасность. Действительно, успех в технологиях, кажется, ведет к военному доминированию. Но возможна ли сегодня «ситуация 1945» (когда США были единственной страной, обладавшей ядерным оружием)? Очень маловероятно. В сегодняшнем мире невозможно добиться такого военного и технологического превосходства, которое бы обеспечило безопасность какого-либо государства. Наоборот, мы видим, что прогресс военных технологий лишь усугубляет международную безопасность, инициирует гонку вооружений, заставляет человечество тратить гигантские средства на создание новых систем: на новой высоте – в космосе, на новых скоростях – гиперзвуковых, на новых принципах – с использованием ИИ.
Вовлекаясь в разработку новых военных технологий, государства-участники гонки надеются, что технологии сделают мир безопаснее, предсказуемее, надежнее. Но более вероятно, что с новыми технологиями мир станет менее безопасен, менее предсказуем, менее защищен от конфликтов, провокаций, инцидентов. С другой стороны, мир стал настолько уязвим и взаимозависим, что даже слабый актор может изыскать средства (например, с помощью кибер-операций) нанести гигантский ущерб. Слабый или отстающий в военном отношении актор будет изыскивать «ассиметричные» (причем – наиболее разрушительные) способы обеспечить собственную безопасность. Соединенные Штаты с их гигантским военным бюджетом, с колоссальным потенциалом частных компаний сегодня лидируют в гонке военных технологий. Эта гонка начинает проявляться и на гражданском поле: например, в противостоянии США с китайской Huawei.
Технологический диктат потребует, чтобы человечество потратило колоссальные средства на обновление вооруженных сил. Эти средства было бы возможно потратить на решение острых глобальных проблем, которых в мире множество: экология, исчерпание био- и энергоресурсов, бедность, миграция.
Необходимость широкого обсуждения проблемы ИИ
На какой площадке было бы уместно обсуждать эти проблемы? Любые площадки пригодны для обсуждения этих проблем, однако, они пригодны для малых шагов. Форума, способного остановить техно-диктат, нет. Что требуется, чтобы признать эту простую логику и взяться за исправление ситуации? Необходимо лидерство, нужен лидер, который поднимет эту идею, как флаг. Вероятно, Соединенные Штаты, технологический лидер планеты, могли бы стать таким лидером. Однако, сегодня это маловероятно. Может ли это быть Европа? С одной стороны, Европе не предусмотрено место в формуле стратегической стабильности, которую сформулировали в 1990 году лидеры США и СССР. С другой стороны идея – это само по себе оружие, если она находит путь к сердцам миллионов людей. В 1954 году Джавахарлал Неру, тогда премьер-министр Индии, впервые поднял перед мировым сообществом вопрос о прекращении ядерных испытаний. Индия не была ядерной державой, и индийский лидер тогда обладал только моральной силой. Но в 1963 году был заключен договор о запрещении ядерных испытаний в трех средах – в атмосфере, в космосе и под водой. Участники договора со временем стали свыше 130 государств.
Сегодня технологии ставят человечество перед сложным выбором, но люди отличаются от машин тем, что способны быть гуманными и принимать решения в интересах всего человечества.