Федоров А.В. (2024). Угрожает ли искусственный интеллект когнитивной безопасности? Caspium Securitatis: журнал каспийской безопасности, 4(3), 21-36. https://www.caspiumsecuritatis.ru/index.php/csj/article/view/133
С ноября 2022 года, когда пользователи во всем мире впервые получили возможность познакомиться с явлением под названием ChatGPT, эксперты и аналитики опубликовали десятки статей, половина которых восторженно описывает невероятные горизонты, которые открывает для человечества технология Large Language Model (большая языковая модель), а другая предупреждает о серьезных, возможно, фатальных последствиях.
А.В. Федоров в статье «Угрожает ли искусственный интеллект когнитивной безопасности?» справедливо обращает внимание на потенциальные угрозы, связанные с использованием ИИ в общественном управлении и образовании.
В частности, бездумное использование GPT в образовании открывает контроль над образовательным процессом потенциальным недоброжелателям России, для которых подобный доступ уже стал важной частью концепции когнитивных войн. Автор отмечает, что в ряде стран использование ИИ в образовательном процессе уже ограничено, а ChatGPT в начале 2023 г. был даже заблокирован в Италии.
Александр Федоров отмечает несколько тревожных моментов, связанных с использованием ИИ:
Автор детально рассматривает влияние ИИ на важнейшие вопросы образовательной этики, справедливости и безопасности используемой в обучении информации. Кроме развивающих игр на базе искусственного интеллекта, которые могут, как считается, обеспечить целенаправленное обучение благодаря программированию, ориентированному на пользователя, во всем мире активно разрабатываются адаптивные платформы обучения, автоматизированные системы оценивания и обратной связи, чат-боты для поддержки учащихся и даже интеллектуальные системы обучения. Он отмечает, что разработчики систем, где используется ИИ, обычно забывают о необходимости модерировать циркулирующую в них информацию. Задания на разработку образовательных программ на базе ИИ, как правило, вовсе не содержат подобного раздела.
Другая технология с огромным негативным потенциалом воздействия на обучающихся заложена в проект чат-ботов. «Чат-боты могут учить чему угодно, а с использованием дипфейков (фото, аудио и видеоконтента) и как угодно: и тому, что Земля стоит на китах, и тому, что во Второй мировой войне укры вместе с американцами победили москалей, которые воевали на стороне Гитлера. Причем все — и то, и другое — будет подтверждаться документальными кадрами и личными свидетельствами якобы участников, опровергать которые будет некому и негде», — пишет он.
И хотя под влиянием поддерживаемых IT-гигантами СМИ в обществе сложилось мнение, что ИИ оказывает положительное влияние на процесс обучения и преподавания, 20% педагогов, принявших участие в опросе Forbes Advisor, прямо указали на отрицательный эффект.
Преподаватели констатировали, что субстантивно заложенное в алгоритмы ИИ заимствование контента из данных, использованных для машинного обучения, приучает обучаемых к «академической нечестности» и восприятию плагиата как нормы творчества. Использование ИИ в школах и вузах способствует распространению методов обмана: учащиеся применяют генеративный ИИ, составляющий эссе и предоставляющий ответы на вопросы, чтобы выдать их за свои работы. Отдельно отмечалось мнение о том, что такие системы, как ChatGPT, могут способствовать мошенничеству и генерировать дезинформацию.
По мере «взросления» ИИ имеет шансы превратиться в субъекта социальных отношений и стать «новой властью», в руках которой будут программы и методики обучения, учебники и виртуальные преподаватели, обучающие с их помощью.
Среди существенных недостатков существующих ИИ-систем Александр Федоров выделяет:
За всем этим автор видит не только риски привнесения в учебный процесс элементов мошенничества, дезинформации, подмены эмоциональных и социальных связей и потери человеческого взаимодействия, но и возможность создания каналов злонамеренного когнитивного воздействия. Основанные на ИИ системы могут в условиях отсутствия объяснимости блокировать истинные выводы, включая текстовые, фото- и видеоматериалы, в угоду ложным. И выявить этот момент в процессе формирования вывода будет невозможно.
Автор статьи поднял важную проблему: быстрая интеграция ИИ в образование коренным образом меняет его природу. Преподаватели отчасти растеряны и, не зная, как реагировать на вторжение, делают вид, что ничего особенного не происходит. Школьники и студенты воспринимают новую реальность как данность, используя ИИ-поддержку в учебе как подарок судьбы — и во благо, и во вред себе.
Система образования пока не выработала внятного подхода к проблеме: остановить прогрессирующие технологии или найти способ использовать их с пользой?
Очевидно, что решение лежит в плоскости ориентированного на человека ИИ, развивающего навыки и компетенции учащихся, выступающего в качестве дополнения, а не замены образования.
Между тем, пока мы наблюдаем явление, которое в некоторых научных кругах получило название ИИ-гиаризм (Aigiarism) — от сочетания двух слов: «Искусственный интеллект (ИИ)» и «Плагиат», означает плагиат с использованием ИИ. Это новая форма академической нечестности, когда студенты используют контент, созданный ИИ, в своей работе без надлежащего подтверждения, фактически «заимствуя» идеи или язык, выдавая их за собственные. В отличие от традиционного плагиата, который подразумевает копирование идей или текста другого человека, концепция ИИ-гиаризма поднимает несколько иные проблемы, связанные с оригинальностью и авторством, и требует новых стандартов и рекомендаций в академической среде, поскольку граница между человеческим и машинным вкладом становится все более размытой.
Образовательная среда нуждается в четких указаниях, как этично и эффективно включить ИИ в академическую работу, и как научить студентов ценить подлинную живую мысль и творчество в среде, все глубже трансформируемой технологиями.
В нынешний «период вольного ИИ-гиаризма» студенты непреднамеренно приучаются к этой новой форме плагиата. Очевидно, что подобные навыки не идут им на пользу, поскольку академические успехи, больше зависящие от помощи ИИ, чем от собственных способностей, воспринимаются как обман, вызывают страх осуждения, ощущение некомпетентности и отсутствие самореализации. Студенты привыкают жить с тем, что называют синдромом самозванца.
Ситуация, когда ИИ подменяет личные навыки и обесценивает человеческий интеллектуальный вклад, ведет к стигматизации ИИ-образования.
Но заслуживает ли использование ИИ в образовании порицания или запрета?
Прошло слишком мало времени с момента вторжения ИИ в образовательный процесс, и его возможности и последствия еще не изучены. Пока мы плохо представляем, с чем имеем дело. Инструменты ИИ становятся неотъемлемой частью повседневной жизни, и требуются новые структуры, которые исследуют социальные последствия грамотности в области ИИ, налаживают этическое взаимодействие с ИИ.
Нужны этические руководящие принципы, правила, которые поощряют ответственное использование ИИ и этическую грамотность, уменьшают внутреннюю вину, возникающую из-за недопонимания или социального давления.
Другой обозначенный автором статьи важный аспект ИИ-педагогики — внедрение прозападных нарративов через образовательные ИИ-инструменты. Большие языковые модели могут становиться порталом в мир антироссийских толкований и смыслов.
России необходимо побеждать в интеллектуальном соперничестве, и роль образования в этой деятельности необычайно высока. Можно действовать запретительными мерами, но этот путь, вероятно, приведет к технологической и интеллектуальной деградации страны. России необходимо развивать собственные образовательные ИИ-компетенции и технологии.
Сегодня производство одной компьютерной игры в мире обходится в сумму от 60 до 300 миллионов долларов. Расходы на один образовательный курс составляют от 4 до 10 тысяч долларов. При этом можно видеть, что IT-корпорации с бОльшим интересом вкладываются в производство игровых программ, поскольку они приносят больше прибыли.
В недавнем докладе «AI in America», выпущенном компанией Open AI, авторы пишут: «Миссия OpenAI — гарантировать, что искусственный интеллект принесет пользу всем… ИИ — слишком мощная технология, чтобы ее могли формировать и направлять автократы, но это растущий риск, с которым мы сталкиваемся, в то время как экономические возможности, которые предоставляет ИИ, слишком убедительны, чтобы упускать их»[1].
Конечно же, Open AI лукавит. Сегодня не «автократы», а именно IT-корпорации формируют и направляют развитие ИИ.
Искусственный интеллект стал высокодоходным и конкурентным бизнесом. Поскольку двигателем технологий остается нажива, искусственный интеллект остается, в первую очередь, средством извлечения прибыли. Это приводит к тому, что инвестиции идут в сферу развлечений, и интернет с его ИИ-приложениями чаще выполняет роль массовика-затейника, циркового клоуна или злодейского джокера, а значительно реже — учителя и наставника. По сути, в своем формировании глобальная цифровая среда еще не вошла в период зрелости. Она переживает возраст юношества — время, когда нужно все попробовать и порой «пуститься во все тяжкие». Остается надеяться, что однажды вектор изменится, и цифровая среда станет более конструктивной и созидательной. Как пишет в своей книге «Вещи, которые делают нас умнее» Дональд Норман, для этого надо всего лишь думать о наших потомках и создавать машины с мыслью о них[2].
А пока шумная попытка американских суперкорпораций договориться и «сделать паузу» в разработке больших языковых моделей провалилась. В марте 2023 года более тысячи предпринимателей, инженеров и исследователей (включая Илона Маска, Стива Возняка, сооснователей Skype, Pinterest и Ripple, а также разработчиков ИИ-решений Stability AI, Scale AI, Character.ai) подписали открытое письмо с призывом срочно приостановить обучение больших языковых моделей, поскольку продвинутые ИИ-модели могли представлять серьезную угрозу человечеству. Однако уже в апреле 2023 года сам Маск запустил собственную языковую модель TruthGPT, объясняя это тем, что TruthGPT может «быть лучшим путем к безопасности в том смысле, что ИИ, который заботится о понимании Вселенной, вряд ли уничтожит людей, потому что мы являемся интересной частью Вселенной»[3].
Сегодня транснациональные ИТ-компании получают власть и право решать государственные вопросы, например, предоставлять или ограничивать доступ к мобильному интернету или облачным сервисам. Руководитель компании OpenAI Сэм Альтман и американский предприниматель Илон Маск обрели глобальное политическое влияние. Влияние крупных технологических компаний на геополитику подрывает государственный суверенитет, поскольку зачастую государство выпускает из рук контроль за технологиями либо делегирует его корпорациям. Пол Тиммерс даже пишет: «Возможно, нам придется признать, что суверенитет — это, по сути, спорная концепция, так же как религия или искусство. В эпоху, когда власть связана с контролем над технологиями, и когда глобальные проблемы выходят за рамки полномочий любого отдельного государства, мы должны принимать во внимание международные корпорации, такие как крупные технологические компании, и их влияние на геополитику»[4].
Западные системы LLM, обученные на англоязычных массивах данных, дают прозападное толкование событий. Однако при блокировке недружественных интернет-ресурсов следует учитывать, что это может привести к технологическому отставанию и искусственной деградации для российских пользователей.
Состязание в области интеллектуальных систем становится новым полем технологического соперничества, где успех зависит не только от качества и количества цифрового оборудования и программного обеспечения (США выделяют 52 млрд долларов на программу ИИ-чипов)[5], но также от объемов и качества больших данных, на которых эти системы обучаются. В мире разворачивается соперничество за доступ к большим данным.
LLM-системы, очевидно, станут двигателями информационной войны с широкими возможностями для генерации и распространения дезинформации, пропаганды и фейковых новостей, влияя на общественное мнение, политическую стабильность и международные отношения.
Александр Федоров справедливо констатирует, что «ИИ — это всего-навсего сложный программно-технический продукт, разработанный, созданный, «обученный» и используемый человеком, находящимся в условиях постоянного противоборства, в том числе информационного, с другими: бизнес-конкуренция, межпартийная борьба, межгосударственное противостояние. Нет плохих или хороших инструментов — нужно учиться ими пользоваться. Цепная реакция в ядерном реакторе АЭС дает человеку необходимую энергию, а в атомной бомбе убивает все живое. Предоставляемые современными технологиями ИИ возможности для когнитивного воздействия в рамках информационного противоборства следует рассматривать как серьезнейшую угрозу, многократно превышающую по своим последствиям применение оружия массового уничтожения».
[1] AI in America, OpenAI’s Economic Blueprint, https://openai.com/global-affairs/openais-economic-blueprint/.
[2] Donald A. Norman, Things That Make Us Smart: Defending Human Attributes in the Age of the Machine. January 1993, DOI:10.2307/1511661, https://www.researchgate.net/publication/37420086_Things_That_Make_Us_Smart_Defending_Human_Attributes_in_the_Age_of_the_Machine.
[3] Elon Musk claims to be working on ‘TruthGPT’ — a ‘maximum truth-seeking AI’, The Verge, Emma Roth, Apr 18, 2023. https://www.theverge.com/2023/4/17/23687440/elon-musk-truthgpt-ai-chatgpt.
[4] Sovereignty in the Digital Age, Paul Timmers, Introduction to Digital Humanism, Textbook. С.575, 2024. ISBN 978-3-031-45303-8 ISBN 978-3-031-45304-5, https://link.springer.com/book/10.1007/978-3-031-45304-5.
[5] Biden administration hopes chips will give it an election year boost, Eva Dou, Washington Post, January 16, 2024. https://www.washingtonpost.com/technology/2024/01/16/biden-chips-center-research/.
Ключевые слова: Искусственный интеллект; Новые технологии; Образование; Рецензия
RUF
F4/SOR – 25/01/27