За последние пять лет нейросети совершили качественный скачок, превратившись из инструментов точечного анализа данных в системы, способные генерировать детальные инструкции, творческие решения и даже предсказывать сценарии будущего.
Однако этот технологический прорыв обнажил парадокс: чем мощнее становятся алгоритмы, тем острее встают вопросы их этического применения и контроля. История человечества знает немало примеров, когда инновации оборачивались угрозой — от пороха до ядерной энергии. Сегодня ИИ, балансируя на грани между созиданием и разрушением, требует переосмысления старых правил и создания новых.
Цензура vs. анархия: две крайности в регулировании ИИ
Попытки обуздать потенциал нейросетей уже привели к формированию противоположных друг другу подходов. К примеру, китайские нейросети, что в значительной мере отличает их от западных, фильтруют запросы пользователей по ключевым словам.
В случае обнаружения таких слов они отвечают максимально нейтрально, уклончиво или вовсе отказываются обрабатывать запрос. В частности, китайская нейросеть DeepSeek в большинстве случаев не позволяет загружать материалы, в которых освещаются проблемы терроризма или вопросы распространения оружия массового уничтожения. Нейросеть отказывается обрабатывать эти файлы, и пользователь не получает ответа на запрос.
Есть и более яркие примеры, такие как российская нейросеть GigaChat, которая в случае обнаружения подозрительных запросов предлагает вовсе не обсуждать эту тему.
Но есть и обратные примеры, причём очень экстремальные. Одним из таких является нашумевшая бунтарская нейросеть Grok AI от стартапа xAI, возглавляемая Илоном Маском.
На протяжении уже как минимум года Илон Маск рекламирует свою новую «нейронку», которая, по его словам, не подвержена этическим ограничениям, в отличие от аналогичных продуктов конкурентов.
С одной стороны, это отличный рекламный ход для продвижения его продукта. Как-никак, пользователям интересны более непредвзятые ответы от нейросети, что расширяет простор для фантазии и творчества. Однако такая политика развития нейросети создаёт прецеденты для использования этих услуг в недобросовестных целях. Ещё в 2023 году Маск похвастался тем, что его ИИ представил, хоть и в шутливой манере, инструкцию по производству кокаина, что моментально стало маркетинговым козырем миллиардера. Однако подобная свобода обнажила риски: нейросети без ограничений могут стать инструментами для криминала или терроризма. Парадоксально, но именно отсутствие барьеров, призванное стимулировать креативность, создаёт почву для злоупотреблений.
Разработки Маска вызвали настоящий фурор в сети. Новости о разработках не обошли и президента Российской Федерации. Чуть более года назад Владимир Путин в интервью Такеру Карлсону отметил: «Я думаю, что Маска остановить невозможно – он всё равно будет делать то, что считает нужным. Но надо с ним как-то договариваться, надо искать какие-то способы убедить его…
Человечество, конечно, думать должно по поводу того, что будет происходить с ним в связи с развитием этих новейших исследований и технологий в генетике либо в искусственном интеллекте. Прогнозировать можно примерно, что будет происходить. Поэтому тогда, когда человечество почувствовало угрозу своему существованию от ядерного оружия, все обладатели ядерного оружия начали между собой договариваться, потому что понимали, что их неаккуратное применение может привести к полному, тотальному уничтожению.
Когда наступит понимание того, что беспредельное и бесконтрольное развитие искусственного интеллекта, либо генетики, либо ещё каких-то современных направлений, остановить которые невозможно…, тогда, мне кажется, наступит период договариваться на межгосударственном уровне о том, как мы будем это регулировать.»
Надо отметить, что Grok AI Илона Маска является не единственной системой, которая позволяет с помощью некоторых манипуляций обходить её систему контроля ответов пользователя.
И тут остро встаёт вопрос контроля над искусственным интеллектом, который может просто выйти за границы дозволенного.
Опасность выхода ИИ из-под контроля ярче всего проявляется в военной сфере. В 2022 году ЦАХАЛ использовал систему «Евангелие» для идентификации целей в Секторе Газа. Алгоритм предлагал до 100 целей в день, но его ошибки привели к гибели мирных жителей. Этот кейс — лишь верхушка айсберга. Смертоносные автономные системы, принимающие решения о жизни и смерти, ставят под сомнение актуальность знаменитых «Законов робототехники» Азимова, сформулированных в 1942 году.
Ещё более тревожными выглядят эксперименты на стыке ИИ и химического- и биотерроризма, и это не информационная пустышка, вроде нашумевшей в 1990-е года т.н. «красной ртути», а серьезное научное исследование. Известны и ситуации, когда научное сообщество целенаправленно использовало потенциал ИИ для генерации токсинов. Так, в 2022 году Швейцарский федеральный институт ядерной, биологической и химической защиты (лаборатория Шпиц) провёл серию конференций «Конвергенция», организованных правительством Швейцарии для оценки технологий, способных повлиять на Конвенции по химическому и биологическому оружию. В своей статье Dual use of artificial-intelligence-powered drug discovery ученые из компании Collaborations Pharmaceuticals, Inc. раскрыли шокирующие результаты: фармацевтическая компания с помощью ИИ за 6 часов создала 40 000 токсичных молекул, включая нервно-паралитический газ VX. Многие из них превзошли по летальности известные аналоги.
Открытый код подобных моделей делает их доступными для террористов и экстремистов — от ИГИЛ до неофитов вроде японской секты «Аум Синрикё», которая в 1995 году провела атаку зарином в токийском метро, в результате которой насмерть отравилось 12 человек, а более 6000 получили отравления разной степени тяжести. История этой организации закончилась в 2018 году, когда лидер секты был приговорён к смертной казни, но память о событиях тех дней живет до сих пор.
Надо заметить, что применение зарина в токийском метро произошло ещё в те годы, когда искусственного интеллекта, каким мы его видим сейчас, не было и в помине. Если тогда террористам не хватало технологий, то сегодня ИИ может стать их «союзником», упростив создание прекурсоров для боевых отравляющих веществ.
Другой случай был связан с биотерроризмом. За два года до применения зарина секта вывела патоген сибирской язвы, который распространила с крыши своей штаб-квартиры. К счастью, в результате атаки никто не пострадал: по незнанию сектанты использовали штамм, не опасный для человека.
Однако вопрос об угрозах биотерроризма недавно снова встал на повестку дня. Поводом для обсуждения стали нейросети. Даже в повседневной жизни они демонстрируют непредсказуемость. На этот раз отличилась нейросеть от Google.
Летом 2024 года пользователь Reddit, следуя совету Google-ИИ, попытался приготовить оливковое масло с чесноком. Однако вместо кулинарного шедевра он получил культуру Clostridium botulinum — возбудителя ботулизма, тяжёлой пищевой интоксикации, ведущей к поражению нервной системы и остановке сердца. Своими находками он поделился в сети и предостерег от бездумного использования ИИ даже в быту.
Этот случай, хотя и случайный, подчеркивает: алгоритмы, не обладая здравым смыслом, могут превратить бытовые задачи в угрозу для жизни.
В вышеупомянутом интервью Такеру Карлсону Владимир Путин провёл параллель между контролем над ИИ и ядерным разоружением: «Когда человечество почувствует угрозу, начнутся переговоры». Однако время на раскачку ограничено. Если ядерные технологии требовали физических ресурсов, то ИИ-алгоритмы этого не требуют, вследствие чего распространяются с гораздо большей скоростью.
Ключевой вопрос сегодня — как найти баланс. Жёсткая цензура, с одной стороны тормозит инновации в науке и технике, а полная свобода ИИ, как у Илона Маска, провоцирует хаос.
Возможно, ответ лежит в создании «этических протоколов» на уровне международных организаций (ШОС, ООН), подобных Конвенции по химоружию. Но для этого нужна политическая воля государств и их беспрецедентная кооперация с корпорациями и научным сообществом.
Нейросети сегодня во многом отражают противоречия развития человечества. Они усиливают как наш творческий потенциал, так и деструктивные инстинкты.
История с ботулизмом в холодильнике, генерацией VX и военными алгоритмами — тревожные звоночки. Как писал Азимов, «насилие — последнее прибежище некомпетентных».
Чтобы ИИ не стал оружием некомпетентных, пора перейти от философских дискуссий к действиям — пока технологии не опередили нашу способность их обуздать.
Ключевые слова: Глобальная безопасность; Искусственный интеллект; Кибербезопасность; Терроризм
NPT
F8/SEL – 25/04/05