Роботы и законы войны: проверить алгеброй гармонию

20 января 2021

В международном праве есть понятие – «законы войны» (англ. Laws of war) – подразумевающие нормы поведения во время боевых действий, которые детально прописаны, в частности, в Дополнительном протоколе I к Женевским конвенциям от 12 августа 1949 года, касающихся жертв международных вооруженных конфликтов. Офицеры российской армии провели за их изучением десятки учебных часов, поскольку нарушение этих законов может быть сочтено военным преступлением.

Основой принцип международного гуманитарного права – принцип проведения различий – в частности, предусматривает, что нападающая сторона обязана обеспечить:

  1. Различие между гражданскими лицами и комбатантами
  2. Различие между гражданскими объектами и военными объектами
  3. Запрет на нападения неизбирательного характера (нападения, которые не направлены на конкретные военных объект и которые, таким образом, поражают военные объекты и гражданских лиц или гражданские объекты без различия)
  4. Соблюдение принципа соразмерности при нападении (запрещены нападения, которые, как можно ожидать, попутно повлекут за собой потери жизни и ранения гражданских лиц и ущерб гражданским объектам, которые были бы чрезмерны по отношению к предполагаемому военному преимуществу)
  5. Соблюдение мер предосторожности при нападении (нападающая сторона обязана выяснить характер объектов нападения, выбрать средства и методы ведения войны, предварительно оценить последствия нападения и заблаговременно предупредить гражданское население о возможных угрозах)
  6. Ограничение средств и методов ведения войны (запрет на излишние разрушения или причинение чрезмерных страданий).

При практическом анализе принципов МГП становится очевидным, что закон требует от военачальников наличия механических навыков и математических способностей, а именно:

  • Способность к распознанию образов
  • способность отличить военных от гражданских лиц
  • способность распознавать и различать военные и гражданские объекты
  • знание технических характеристик собственных вооружений
  • знание возможностей вооружений противника
  • умение просчитать оборонительные действия противника и их боевую эффективность
  • способность рассчитать минимальные силы и средства, необходимые для достижения военных целей
  • умение определить способ нанесения минимального ущерба гражданским лицам и объектам при выполнении боевой задачи.

Для этого командиры должны располагать широкими знаниями, значительными аналитическими способностями и арифметическими навыками. Иными словами: обширной базой данных, высокой вычислительной мощностью и способностью к обработке «больших данных». То есть именно тем, чем обладают нейронные сети или «искусственный интеллект». Сам принцип соразмерности (или в английском варианте – proportionality) указывает на математическую основу правил ведения войны.

Компьютер, вероятно, способен совершить все требуемые подсчеты на много порядков быстрее и точнее человеческого разума, отягощенного предрассудками, чувствами и рефлексией. Результаты применения автономных вооружений в Нагорном Карабахе могут послужить тому подтверждением. Эти расчеты окажутся еще надежнее, когда вооруженные силы сформируют «сетецентрическую систему», объединяющую вычислительные мощности и различные ресурсы с помощью военного «облачного хранилища». Этим сегодня заняты все передовые армии мира. И даже если прототипы (прекурсоры) смертоносных автономных систем (САС) не смогут соперничать с человеком в соблюдении МГП, следующие поколения автономных вооружения станут «образцовыми солдатами» и опередят человека подобно тому, как компьютер вышел в лидеры в шахматах или игре Го.

В случае, когда нарушения МГП со стороны автономных систем будут зафиксированы, системы регистрации  или «черный ящик» с записью основных параметров послужит инструментом для расследования.

Здесь следует сделать оговорку: пока мы можем судить об автономных системах только на примере воздушных ударных беспилотников, для которых основной мишенью служит не человек, а машина. Ситуация может оказаться иной, когда на поле боя выйдут наземные автономные дроны. Несколько десятков стран сегодня совершенствуют свои беспилотные боевые машины. Наземные роботы в боевых действиях, где неизбежен контакт с людскими массами, могут потрясти мир своей «эффективностью».

Однако, представляется, что главной проблемой смертоносных автономных систем будет не неспособность соблюдать МГП, а отсутствие представления о человеческом достоинстве. Самый умный компьютер будет оставаться бездушной машиной, не способной, к примеру, осмыслить оговорку Мартенса и соблюдать «принципы гуманности и требования общественного сознания». Человечность и гуманность едва ли поддаются «оцифровке». Этот недостаток надолго, и возможно – навсегда, останется родимым пятном любого самого умного аппарата. По этой причине человек не должен выпустить из рук контроль над автономными вооружениями. Машина, какой бы продвинутой она не была, не должна получить право лишать человека жизни.

Ценность человеческого достоинства могла бы стать достаточным аргументом в пользу запрета или строгого ограничения САС. Однако, это представляется невозможным по ряду чисто технических и политических причин:

  • Испытания дистанционно управляемых наземных роботов в ряде стран показали, что эффективная дальность радиосвязи с оператором не превышает 2-5 км. В автономном режиме наземный робот будет способен действовать на удалении до 500 км. Ограниченная радиосвязь становится техническим препятствием, заставляющим военных разрабатывать абсолютно автономные режимы использования САС.
  • Современные боевые действия предусматривают активное применение средств радиоэлектронной борьбы (РЭБ) для подавления или изменения качества управления, связи и разведки противника. В настоящее время эта разновидность вооруженной борьбы переживает заметный подъем. Радиоэлектронное подавление считается одним из эффективных средств борьбы с автономными системами.

У разработчиков нет универсального решения для сохранения контроля над дистанционно управляемым боевым роботом, подвергшимся  РЭБ-атаке. Возможные сценарии для потерявшего связь дрона таковы:

  • попытаться выйти в район с устойчивой связью
  • вернуться на базу
  • остаться на месте до получения указаний
  • перейти в автономный режим и продолжить выполнение боевой задачи.

С точки зрения военных, последний вариант должен быть обязательно предусмотрен, как тот «бронепоезд на запасном пути». И эта, по сути, чисто техническая проблема не позволяет найти даже гипотетического решения для запрета автономного применения дрона на поле боя.

На этом пути есть и другие препятствия:

  • Новые технологии САС, как правило, возникают не в головах военных стратегов или политических лидеров. Их порождают лаборатории, выпестовывает промышленность и лоббисты продвигают на вооружение армий. То есть военные технологии развиваются при слабом общественном контроле в режиме гонки вооружений, которая до поры до времени остается скрытой от глаз стенами конструкторских бюро.
  • Верификация САС представляется технически сложной, но не невозможной задачей. Видеоролики в интернете подтверждают, что применение высокоточных боеприпасов неплохо «протоколируется»: оператор осуществляет видеозапись, которая, вероятно, хранится в архиве министерства обороны. То есть теоретически существует возможность при необходимости изучить обстоятельства конкретного случая применения оружия. Значит, возможно заключить международное соглашение о предоставлении такого рода видео-свидетельств в определенных случаях. Такие материалы могли бы служить подтверждением того, что оператор сохранял контроль над беспилотным аппаратом при осуществлении атаки.

Однако, соображения секретности будут превалировать для большинства передовых армий мира при рассмотрении верификационных мер. Верификационные механизмы неизбежно начнут вторгаться не только в организационные механизмы воинских подразделений, но также в техническое устройство и программное обеспечение новейших вооружений. Кроме того, верификационные меры по контролю над САС будет нетрудно обойти, ведь, в конце концов, вся разница между автономным и дистанционно управляемым аппаратом скрыта в программном обеспечении, которое, в отличие от «бронепоезда на запасном пути», легко утаить. И здесь контроль над САС упирается в проблему глобального политического недоверия.

  • Мир возвращается к временам холодной войны. Планета испытывает дефицит доверия, и новые информационные и кибертехнологии только обостряют ситуацию. Когда вся система контроля над вооружениями распадается под реальными и надуманными предлогами, сложно надеяться на взаимопонимание в такой чувствительной сфере, как контроль над САС.

В силу подобных обстоятельств полный запрет САС представляется невозможным. Однако, политическая декларация, участники которой взяли бы обязательства придерживаться сохранения человеческого контроля над беспилотными ударными системами, может оказаться приемлемой альтернативой бесконтрольному распространению «автономных терминаторов» по планете. В пользу этого говорят одиннадцать принципов, принятые в сентябре 2019 года Группой правительственных экспертов по новым технологиям в области смертоносных автономных систем вооружения. Один из принципов гласит: «Должна быть сохранена ответственность человека за решения о применении оружейных систем, поскольку ответственность не может быть переложена на машину». В конце концов, человечество отличает от машин гуманизм, человечность и бережное отношение к человеческому достоинству.