В международном праве есть понятие – «законы войны» (англ. Laws of war) – подразумевающие нормы поведения во время боевых действий, которые детально прописаны, в частности, в Дополнительном протоколе I к Женевским конвенциям от 12 августа 1949 года, касающихся жертв международных вооруженных конфликтов. Офицеры российской армии провели за их изучением десятки учебных часов, поскольку нарушение этих законов может быть сочтено военным преступлением.
Основой принцип международного гуманитарного права – принцип проведения различий – в частности, предусматривает, что нападающая сторона обязана обеспечить:
При практическом анализе принципов МГП становится очевидным, что закон требует от военачальников наличия механических навыков и математических способностей, а именно:
Для этого командиры должны располагать широкими знаниями, значительными аналитическими способностями и арифметическими навыками. Иными словами: обширной базой данных, высокой вычислительной мощностью и способностью к обработке «больших данных». То есть именно тем, чем обладают нейронные сети или «искусственный интеллект». Сам принцип соразмерности (или в английском варианте – proportionality) указывает на математическую основу правил ведения войны.
Компьютер, вероятно, способен совершить все требуемые подсчеты на много порядков быстрее и точнее человеческого разума, отягощенного предрассудками, чувствами и рефлексией. Результаты применения автономных вооружений в Нагорном Карабахе могут послужить тому подтверждением. Эти расчеты окажутся еще надежнее, когда вооруженные силы сформируют «сетецентрическую систему», объединяющую вычислительные мощности и различные ресурсы с помощью военного «облачного хранилища». Этим сегодня заняты все передовые армии мира. И даже если прототипы (прекурсоры) смертоносных автономных систем (САС) не смогут соперничать с человеком в соблюдении МГП, следующие поколения автономных вооружения станут «образцовыми солдатами» и опередят человека подобно тому, как компьютер вышел в лидеры в шахматах или игре Го.
В случае, когда нарушения МГП со стороны автономных систем будут зафиксированы, системы регистрации или «черный ящик» с записью основных параметров послужит инструментом для расследования.
Здесь следует сделать оговорку: пока мы можем судить об автономных системах только на примере воздушных ударных беспилотников, для которых основной мишенью служит не человек, а машина. Ситуация может оказаться иной, когда на поле боя выйдут наземные автономные дроны. Несколько десятков стран сегодня совершенствуют свои беспилотные боевые машины. Наземные роботы в боевых действиях, где неизбежен контакт с людскими массами, могут потрясти мир своей «эффективностью».
Однако, представляется, что главной проблемой смертоносных автономных систем будет не неспособность соблюдать МГП, а отсутствие представления о человеческом достоинстве. Самый умный компьютер будет оставаться бездушной машиной, не способной, к примеру, осмыслить оговорку Мартенса и соблюдать «принципы гуманности и требования общественного сознания». Человечность и гуманность едва ли поддаются «оцифровке». Этот недостаток надолго, и возможно – навсегда, останется родимым пятном любого самого умного аппарата. По этой причине человек не должен выпустить из рук контроль над автономными вооружениями. Машина, какой бы продвинутой она не была, не должна получить право лишать человека жизни.
Ценность человеческого достоинства могла бы стать достаточным аргументом в пользу запрета или строгого ограничения САС. Однако, это представляется невозможным по ряду чисто технических и политических причин:
У разработчиков нет универсального решения для сохранения контроля над дистанционно управляемым боевым роботом, подвергшимся РЭБ-атаке. Возможные сценарии для потерявшего связь дрона таковы:
С точки зрения военных, последний вариант должен быть обязательно предусмотрен, как тот «бронепоезд на запасном пути». И эта, по сути, чисто техническая проблема не позволяет найти даже гипотетического решения для запрета автономного применения дрона на поле боя.
На этом пути есть и другие препятствия:
Однако, соображения секретности будут превалировать для большинства передовых армий мира при рассмотрении верификационных мер. Верификационные механизмы неизбежно начнут вторгаться не только в организационные механизмы воинских подразделений, но также в техническое устройство и программное обеспечение новейших вооружений. Кроме того, верификационные меры по контролю над САС будет нетрудно обойти, ведь, в конце концов, вся разница между автономным и дистанционно управляемым аппаратом скрыта в программном обеспечении, которое, в отличие от «бронепоезда на запасном пути», легко утаить. И здесь контроль над САС упирается в проблему глобального политического недоверия.
В силу подобных обстоятельств полный запрет САС представляется невозможным. Однако, политическая декларация, участники которой взяли бы обязательства придерживаться сохранения человеческого контроля над беспилотными ударными системами, может оказаться приемлемой альтернативой бесконтрольному распространению «автономных терминаторов» по планете. В пользу этого говорят одиннадцать принципов, принятые в сентябре 2019 года Группой правительственных экспертов по новым технологиям в области смертоносных автономных систем вооружения. Один из принципов гласит: «Должна быть сохранена ответственность человека за решения о применении оружейных систем, поскольку ответственность не может быть переложена на машину». В конце концов, человечество отличает от машин гуманизм, человечность и бережное отношение к человеческому достоинству.