КомментарийОбщество

Кто рулит машинами для убийства

Военные технологии отодвигают человека от принятия решений. Почему это опасно — рассказывает эксперт

Об опасностях развития систем вооружения с искусственным интеллектом рассказывает профессор Вадим Козюлин, эксперт ПИР-Центра, участник [«Международной панели по регулированию автономных систем вооружений»](https://www.ipraw.org/#:~:text=The%20International%20Panel%20on%20the,autonomous%20weapons%20systems%20(LAWS).), участник [российско-американского Дартмутского диалога](https://en.wikipedia.org/wiki/Dartmouth_Conferences_(peace)).
Фото: Getty Images
Фото: Getty Images

Традиционно основной темой исследования для российского ПИР-Центра было нераспространение ядерного оружия и контроль над ним. Но люди, действительно понимающие в этом вопросе, все больше выходят на пенсию, заканчивают активный участок карьеры. Да и людей, которые боялись ядерного удара, лично усвоили уроки Второй мировой и холодной войн, в руководстве России сегодня практически нет. В мире ныне ядерное оружие не применяется скорее в силу морального табу, а угроз последствий уже не слишком боятся, как боялось поколение Рейгана и входивших в состав Политбюро ЦК КПСС фронтовиков.

А оружие, которое появится в ближайшие годы, само по себе не увеличит количество конфликтов в странах, близких к нашим границам. Разрастание конфликтов скорее определяется действиями политиков. Но изменения в ходе таких конфликтов идут на глазах.

Пехота не у дел

Например, даже в таком периферийном для мировой политики конфликте, как война в Карабахе, людей отчасти заменили системы наблюдения и наведения. Применение беспилотников в сочетании с современными боеприпасами, в том числе барражирующими, резко снизили роль человека. Запуск дронов наблюдения заменил выдвижение разведчиков на передовые позиции. Даже хорошо мотивированный и обученный пехотинец в этих боях оказался не у дел.

Следующая война, если она там случится, будет совсем уже другой, все для себя сделали выводы. Это прообраз будущих войн. Страны технологически слаборазвитые, но находящиеся в зоне потенциальных или действующих конфликтов, перевооружаются довольно торопливо.

В общественной оценке превалирует мнение, что у бедных стран нет средств на закупку критически важных вооружений. Реально все наоборот — именно они первые находят в своих бюджетах такие деньги.

Достаточно посмотреть, как вооружаются Пакистан, Северная Корея.

Иран 35 лет назад вообще не имел оборонной промышленности, а сегодня выпускает некоторые образцы вооружений, в том числе беспилотники, которых даже в России пока нет. Россия опоздала из-за позднего старта, но активно наверстывает. Барражирующие боеприпасы начал производить и наш концерн «Калашников».

Барражирующий дрон-камикадзе «ZALA Ланцет» на ежегодной презентации концерна «Калашников» в Москве. Фото: Алексей Паньшин / РИА Новости
Барражирующий дрон-камикадзе «ZALA Ланцет» на ежегодной презентации концерна «Калашников» в Москве. Фото: Алексей Паньшин / РИА Новости

На Ближнем Востоке все используют новые технологии, но возможности разные. Мы видели дроны ИГИЛ (организация запрещена на территории РФ), они собраны на коленке. Однако даже эти изгои нашли головастых ребят, сумевших, не нарушая балансировки, развесить под ними 12 бомб по килограмму и научили действовать в составе группы на дальности 50 км. В регионах с перманентным вооруженным противостоянием, типа Сирии или Карабаха, появление оружия с новыми технологиями ускорит само течение сражений, развязка будет наступать быстрее: побежденный получит невосполнимый ущерб в очень короткие по нынешним представлениям сроки.

Есть и режимы нераспространения, и меры наказания, и договор о торговле оружием, его подписало 135 стран (Россия пока не подписала) в 2014-м. Но действуют они слабо.

В целом, надо быть готовыми к неожиданному появлению самых современных вооружений везде, где есть конфликтный потенциал, невзирая на все усилия международных контролирующих организаций.

Искусственный интеллект уменьшает гражданские жертвы

И на этом фоне в полный рост встала опасность внедрения искусственного интеллекта (ИИ) в вооружения и системы военного управления. Он появляется порой очень неожиданно. Недавно DARPA (Управление перспективных исследовательских проектов Министерства обороны США) приступило к разработке «гуманитарных беспилотников».

В зонах, где мирное население перемешано с беженцами и комбатантами (например, бойцами ИГИЛ) нанести избирательный авиаудар пока невозможно. Но если беспилотники просканируют в районе все лица, сервер военных быстро создаст картотеку, отделит вооруженных людей от невооруженных, сличит лица с уже имеющимися в базах, предупредит всех голосовой трансляцией о местах выходов из зоны боевых действий, созданных для беженцев. В подобном сценарии операции урон мирному населению можно будет резко сократить.

Например, Google получил не так давно контракт на обработку информации с дронов и спутников по всему Ближнему Востоку. Результаты вызвали огромный энтузиазм. Google как глобальная компания испытывает в этой связи большой соблазн совместить данные идентификации на условном поле боя со своими базами данных.

Теперь они не просто видят какого-то Мохаммеда или Саида, но могут немедленно вытащить и добавить к снимкам военных все данные его профиля: образование, личные фото и видео, близкие и дальние дружеские связи, родственников, покупки, полную карту перемещений и т.д. Очевидна коллизия между коммерческой тайной клиента и желанием выполнить контракт МО США.

Вадим Козюлин. Фото: Евгений Одиноков / РИА Новости
Вадим Козюлин. Фото: Евгений Одиноков / РИА Новости

В результате, Google все-таки отказался от участия в таких проектах, вооружившись лозунгом Be not evil. Немалую роль сыграло давление общественности, письма самих сотрудников Google. Но это естественный, очень человеческий соблазн. Появились уже альтернативные программы по развитию разведывательного искусственного интеллекта. Потенциал России против американского в этой области очень мал, но идут такие исследования и у нас.

Таким образом, будет создано избирательное оружие для действий в условиях плотной городской застройки, например, о чем всегда беспокоилось международное гуманитарное право. И разделять цели будет военный компьютер почти без участия человека. Причем по окончании картографирования и маркировки целей конкретных лиц можно вывести из строя нелетальными средствами типа электрошокеров, лазеров, излучателей СВЧ и ультразвука.

Поскольку население по всему миру все больше скапливается в городах, приоритетом для военных становится разработка интеллектуального оружия для действий в населенных пунктах. Конфликты на территории Югославии и бывшего СССР, даже самые недавние, были войнами ХХ века. А вот войны XXI века, как ни странно, могут быть более щадящими по отношению к мирному населению.

Особенно если они, не дай бог, конечно, вспыхнут в государствах с высоким уровнем культурного и технологического развития. Эти войны будут даже дешевле, они не потребуют такого массового развертывания сил и средств, которое сегодня по боевым уставам обязательно. Да и психологический эффект будет несравнимо сильнее: по дронам ты можешь стрелять сколько угодно, но соседний дрон гарантированно занесет тебя в базу как вооруженного противника, законную цель на уничтожение.

Дьявол приходит не спеша

Основная же проблема развития искусственного интеллекта в военных целях состоит в том, что технологии потихоньку отодвигают человека от принятия решений. Сначала на поле боя робот снимал лишь разведывательную информацию, например, со спутников, видеокамер и т.д. Ранее аналитики, изучавшие видео с дронов, например, во время войн на Ближнем Востоке, 80% времени тратили на просмотр, глаз быстро «замыливался», необходимо было часто менять людей.

Но потом все усложнилось. В итоге и эту функцию передали роботам. Обрабатывая образы, они идентифицируют цели в скоростном режиме и передают их следующему роботу в иерархии. Тот уже выбирает способы противодействия, хотя сегодня это в конечном итоге решает человек. И это не фантастика, а рутинные действия в штабах современных армий.

втра способ противодействия будут выбирать тоже роботы.

В современных зонах высокой политической напряженности уже можно теоретически представить, как робот спровоцирует конфликт малой интенсивности.

А через несколько лет робот-советник с опытом дипломатии человечества за 2000 лет вполне может подсказать вновь назначенному послу, что сложившиеся риски требуют адекватного военного ответа.

В Сирии мы можем ждать и день, и неделю, и месяц. В глобальном же конфликте времени на осмысление не будет. В ближайшем будущем гиперзвуковые вооружения станут массовыми. Это очень скоростные средства доставки, которые по характеру траектории трудно отличить от обычных. А если их разместить в Европе, время на анализ ситуации у политиков сократится в два раза. И тогда принятие окончательного решения на ответный ядерный удар именно человеком может оказаться худшим вариантом — робот противника окажется быстрее.

Роботы на низкой орбите — кто быстрее?

Еще быстрее надо соображать, если такие средства будут размещены в космосе, буквально в нескольких сотнях километров над целями. В 2023 году США приступают к испытаниям целого набора космических систем оружия на низких орбитах. Если вдруг выясниться, что это вполне рабочая схема (а для милитаризации космоса надо пройти очень большой путь) и для бюджета это не критические расходы, наступит час Х для российской ядерной триады — встанет вопрос: что делать?

Участие человека в принятии решения, на которое отведено 100–120 секунд, исключено: только искусственный интеллект при таком количестве вводных данных может оперировать с необходимой скоростью. И вполне может победить мысль, уже прозвучавшая на весь мир: «Зачем нам Земля, если на ней не будет России?». Полагаю, в самых развитых странах мира немалая часть истеблишмента думает схожим образом. А непредсказуемость международной политики тем временем действительно растет.

С Россией руководству НАТО в общем все ясно: она не опасна с точки зрения размеров военного потенциала, ее абсолютно не боятся (пусть никого не вводит в заблуждение политическая риторика). С СССР договаривались именно потому, что боялись. А вот Китай растет, и из договора об ограничении ракет малой и средней дальности США вышли именно поэтому.

Так что, размещения очень сложного оружия в космосе ожидать можно. Все это произойдет в условиях, когда искусственный интеллект получит доступ не просто к обработке разведывательной информации и назначению целей, но и к выдаче сценариев дальнейших боевых действий. Ситуация пока не очень ясна, мы судим по отдельным кейсам.

Город Шуши в Карабахе после атаки с применением беспилотников (осень, 2020). Фото: Павел Волков / для «Новой»
Город Шуши в Карабахе после атаки с применением беспилотников (осень, 2020). Фото: Павел Волков / для «Новой»

Например, в этой области развивается очень интересная программа США — COMPASS. Она ищет с помощью анализа информации изо всех возможных источников конфликты в глобальном пространстве на разных уровнях. В том числе в серых зонах, где конфликты проистекают, например, из неочевидной конкуренции, из замыслов или связей нам неизвестных.

Эта же программа предлагает способы разрешения конфликтов и пути противодействия. Далее все зависит от людей, использующих искусственный интеллект. Так уж устроен человек, что всегда рассматривает найденный конфликт или важную информацию как инструмент воздействия. Если он найдет конфликт между, условно, Китаем и Россией, то искусственный интеллект подскажет, как его раздуть сильнее, какие пружины нажать для обострения.

Надо отдать должное агентству DARPA и Пентагону за их транспарентность — все это мы читаем в официальных источниках. Про аналогичные российские и китайские разработки (без сомнения, они ведутся) мы вряд ли узнаем из наших СМИ. Понятно уже, что с информацией, которую предоставляет интернет, можно очень далеко зайти. С учетом того, что все это перешло в нейронные сети, прогресс будет очень быстрым.

Ограничение военного ИИ — глобальный вызов цивилизации

Путь тут обозначился ясно, им пойдут абсолютно все. Сегодня искусственный интеллект в начале развития. Он, образно выражаясь, слушается человека. Но далее ИИ все более активно будет человеку советовать и подменять его при принятии решений. Постепенно человек может утратить понимание, откуда проистекают те или иные решения, чья воля за ними стоит.

Сегодня европейцы определили четыре технологии, развитие которых несет особые риски: гиперзвуковые аппараты, автономные роботы, кибербезопасность и биологическое оружие. Для исследования таких угроз уже формируется исследовательское сообщество. Где ставить защитный забор, пока не очень ясно. По идее, государства должны контролировать разработчиков и производителей. Но как?

Посетитель рассматривает беспиолотный летательный аппарат на технологической выставке в Гуанчжоу (Китай). Фото: Getty Images
Посетитель рассматривает беспиолотный летательный аппарат на технологической выставке в Гуанчжоу (Китай). Фото: Getty Images

Общественность обеспокоена исследованиями в области автономных вооружений очень давно. С 2016-го в рамках ООН действует конференция по так называемому негуманному оружию. В ней группа экспертов разных правительств ищет варианты регулирования автономных вооружений. Ожидается, что в этом году будут обнародованы первые предложения.

В целом, пока все сводится к запрету передачи машине критической функции — решения на уничтожение противника. Оно обязательно должно быть запрошено у человека.Это очень сложная проблема.

Допустим, все правительства подпишут такой запрет. Но ведь никто не может контролировать производство машин, которые будут превращаться полностью в автономного робота простой дистанционной перепрошивкой программы. Ее обновление устранит человека из цепи принятия решений на открытие огня за полчаса. Ведь в договорах главное — доверие, вызванное возможностями взаимного контроля. Но если мы не можем никак проконтролировать программный код чужого оружия, мы сами сделаем все, чтобы они тоже не могли это сделать.

shareprint
Добавьте в Конструктор подписки, приготовленные Редакцией, или свои любимые источники: сайты, телеграм- и youtube-каналы. Залогиньтесь, чтобы не терять свои подписки на разных устройствах
arrow