
МОСКВА. 17 АПРЕЛЯ 2026. ПИР-ПРЕСС. «Нам всем пора понять, что не искусственный интеллект убивает людей, ведь ИИ – всего лишь инструмент. За данными системами стоят люди – например оператор связи или обученный IT-специалист. Следовательно, ответственность за убийство людей с использованием данных систем лежит исключительно на человеке», – Вадим Козюлин, консультант и член Совета ПИР-Центра, главный научный сотрудник Института актуальных международных проблем Дипломатической академии МГИМО МИД России.

2 апреля ПИР-Центр совместно с МГИМО МИД России провел экспертный семинар на тему «Военный искусственный интеллект: угрозы международной безопасности и попытки регулирования». Основным докладчиком на семинаре выступил Вадим Козюлин, консультант и член Совета ПИР-Центра, главный научный сотрудник Института актуальных международных проблем Дипломатической академии МГИМО МИД России.
В начале своего выступления докладчик обозначил, что технологии постепенно все больше забирают функции у человека, и фактически дело дошло до того, что человек исполняет команды искусственного интеллекта. Отдельной темой своего доклада Вадим Борисович обозначил аспект возможности регулирования смертоносных автономных систем (САС). По мнению докладчика, по ряду причин невозможно запретить САС или остановить их разработку. САС способны соблюдать принципы международного права и международного гуманитарного права.
Говоря про вопрос регулирования САС, Вадим Козюлин обратил внимание слушателей на то, что за все, что делают САС, должен быть ответственен именно человек, поскольку человек сохраняет непрямой контроль за данными системами. Тем не менее, формы контроля и регулирования САС можно и необходимо обсуждать, однако на данном этапе можно констатировать определенную стагнацию в обсуждении данного вопроса на международном уровне. Вадим Борисович выразил надежду, что Конференция о негуманном оружии в дальнейшем может стать оптимальной площадкой для обсуждения темы САС.
По мнению докладчика, на данном этапе важно определить является ли достаточной действующая правовая база по вопросу регулирования САС, так как именно от этого вопроса зависят дальнейшие шаги государств по достижению прогресса в регулировании деятельности таковых систем. Консультант ПИР-Центра также отметил, что на современном этапе ИИ активно внедряется в системы связи управления, разведки и логистики и крайне важно предусмотреть сохранение человеческого контроля за данными системами.
В завершение докладчик отметил, что, опасаясь искусственного интеллекта или машин, основанных на нем, люди фактически боятся человека, стоящего за программой или механизмом, и на данный момент по-прежнему востребована аналитика, основанная на человеческом научном подходе, на общественном опыте, личной интуиции и проницательности.

Комментаторами на семинаре выступили Елена Зиновьева, профессор кафедры мировых политических процессов МГИМО МИД России, и Юлия Цешковская, руководитель отдела маркетинга компании Evocargo и член Экспертного совета ПИР-Центра.
Елена Зиновьева отметила, что на данном этапе прослеживается необходимость в новых форматах экспертизы и подготовки как кадров, так и исследований. Именно эти новые форматы в дальнейшем будут лежать на пересечении ИИ и классических знаний. Эксперт отметила и новую тенденцию на снижение когнитивного контроля. «Мы наблюдаем ситуацию, когда потребность в экспертизе возрастает. Качественный эксперт должен быть лучше ИИ», – отметила Елена Зиновьева. Профессор кафедры мировых политических процессов МГИМО МИД России в конце своего экспертного комментария констатировала наличие двух рисков и вызовов с точки зрения подготовки кадров и научной работы: чрезмерная технификация и чрезмерная политизация, призвав слушателей как будущих молодых специалистов в области международной безопасности активно содействовать решению данных вопросов.

Юлия Цешковская подчеркнула, что существует риск ошибки восприятия анализа данных – ИИ может принять гражданский объект за военный. По мнению эксперта, крайне сложно описать и формализовать все человеческие ценности на доступном и понятном для машины языке и, следовательно, интегрировать их в систему. «Чем более автономным становится ИИ, тем сложнее выстроить согласование, поскольку чем агентнее и умнее система, тем более изощренно она обходит ограничения», – сказала в завершение Юлия Цешковская.


На сайте ПИР-Центра в разделе «NONPROLIFERATION.WORLD» уже доступна запись экспертного семинара и презентация докладчика в подразделе онлайн-курса «Актуальные проблемы международной безопасности 2025–2026: цикл семинаров ПИР–МГИМО».
Ключевые слова: Международная безопасность; Искусственный интеллект
RUF
E16/SHAH – 26/04/17