Содержание:
Принято считать, что искусственный интеллект, как боевое оружие — дело далекого будущего. Ведь мыслящие машины — это явно фантастика, их показывают в фильмах вроде «Терминатора», а в реальном мире все совсем иначе. Однако ряд последних событий в области разработки военной техники показал, что военные роботы уже почти рядом с нами. В том числе и в России. Самым интригующим за последние недели по теме искусственного интеллекта (ИИ) оказался анонс помощника секретаря (министра) ВВС США по закупкам Уилла Ропера. Еще в начале декабря он постоянно намекал, что вот-вот, через несколько дней произойдет эпохальное событие. Он выкладывал в своем Twitter намеки на будущую сенсацию, которая должна была произойти в четверг, 17 декабря. В американских соцсетях ходили интригующие вопросы. Что хочет показать ВВС? Может быть прототип какого-то нового самолета? В обещанный срок ВВС США показали старенький высотный самолет-разведчик U-2, РЛС и ряд приборов которого управлялись искусственным интеллектом, а не живым пилотом. В среде энтузиастов проскользнуло разочарование. Все ждали как минимум истребитель нового поколения, а тут радар под управлением алгоритма, который написан на базе игрового… Между тем ничего смешного или разочаровывающего в этом нет. Перед нами на самом деле прорыв. Алгоритмы типа тех, которые американцы применили на своем самолете, в будущем позволят делать недоступные сегодня для военных вещи. Например, вертолет или танк с вполне себе живым экипажем будет подсказывать людям опасные направления или возможные замаскированные цели. При отсутствии команд самостоятельно наводить на подозрительные объекты оружие и запрашивать разрешение открыть огонь. Управление боевыми машинами станет чем-то напоминать компьютерную игру, когда программа подсказывает игроку массу вещей, которые он сам просто не успел бы понять. Метит цели маркерами, в некоторых случаях наводит оружие, программирует боеприпасы с учетом меняющейся обстановки. Подобные технологии превращают боевую машину в человеко-машинную систему, в которой качества живого оператора, свойственные именно людям — инициатива, смелость, способность к нестандартным решениям, тактическое мастерство — будут многократно усиливаться качествами машин: безошибочным выбором целей, способностью ранжировать обнаруженные цели по степени опасности в автоматическом режиме, заблаговременным наведением оружия, управлением корректируемыми боеприпасами. И все это с характерным для компьютеров быстродействием и отсутствием «человеческих» ошибок.
Рои дронов и специальные операции
Американцы давно работают над технологиями ИИ для военного применения. Но пока это были технологии очень простого «интеллекта» — практически на уровне насекомого, может чуть сложнее. В апреле 2015 года ВМС США сообщили о программе LOCUST — Low Cost UAV Swarming technology, в переводе — технологии «роения» БПЛА с низкой стоимостью. Термин «роение» означает отладку между боевыми машинами взаимодействия по той же схеме, по которой оно идет в рое насекомых — или, как вариант, стае рыб. То есть машины взаимодействуют друг с другом, основываясь не на командах оператора (которых нет), а на собственном «сознании». Максимальное количество летательных аппаратов, которые смогли выполнить совместный полет, подстраиваясь друг под друга, составило 31 машину. В 2016 году ВВС США показали сброс роя маленьких беспилотнков-уничтожителей из специального контейнера самолета-истребителя, с самостоятельными маневрами группой из нескольких десятков роботов и атаку роем заданных целей. Причем из анимации следует, что рой способен понять, что вот именно эта цель уже уничтожена, и оставить ее, совершив перелет к следующей. В 2017 году стало известно, что агентство передовых исследований Пентагона DARPA совместно с командами ВМС, ВВС, армии и ряда других структур ведет программу Academies Swarm Challenge. Смысл программы — создание технологий, которые позволяли бы рою маленьких боевых беспилотников выполнять задачу, не получая никаких команд по радиосвязи, уязвимой перед средствами радиоэлектронной борьбы. Дроны должны были получать только некоторые базовые команды (например, местоположение цели), и потом вести бой с дронами конкурентов. В учебных боях (без реального поражения целей) сошлись десятки БПЛА, но управляли ими считанные люди и считанные минуты, «воевали» машины уже самостоятельно, без операторов. Помимо этого, американцы ведут работу над роботами «Гремлин» — малогабаритными беспилотниками, способными не только самостоятельно атаковать цели, но и при необходимости возвращаться в точку подбора. Где их с помощью специального захвата прямо на лету поднимают на борт военно-транспортного самолета. Это очень впечатляюще, по-голливудски выглядит на видео — с поправкой на то, что американские техники на самом деле, а не в кино, цепляют один маленький самолет-робот и затаскивают его в другой, большой и пилотируемый. Похожие же алгоритмы американцы используют в уже серийной противокорабельной ракете LRASM. Эта крылатая ракета самостоятельно выходит в район нахождения цели, ищет ее, идентифицирует все обнаруженные корабли в группе. Выделяет из них именно тот, который ей необходимо атаковать, выбирает момент атаки и курс, с которого она пойдет к цели — и затем на сверхмалой высоте идет к цели, не обнаруживая себя включением излучающих средств самонаведения до самого последнего момента. «Интеллект» этой ракеты еще примитивнее, нежели у «роящихся» беспилотников-убийц, но все равно впечатляет. А самое главное — в отличие от БПЛА, эта ракета уже на вооружении ВМС США, причем в немалых количествах.
Но это не все
9 декабря в США прошло незамеченным еще одно важное событие — конференция по глобальной гонке по созданию ИИ. Ее провел Институт Хадсона, который в России зачастую называют «Гудзоновский институт» (в силу искаженного произношения оригинального названия на русском). Среди экспертов института выступали в том числе и военные. Так, командующий командованием специальных операций США генерал Ричард Кларк заявил, что американские спецвойска используют ИИ для работы с массивами разведданных и вычисляют цели для воздушных ударов. И что алгоритмы ИИ привели к взрывному росту эффективности поиска целей для поражения. Эта система, называемая американцами «проект Мэйвен» («проект Знаток»), базируется на алгоритмах самообучения и позволяет компьютерным системам становиться «умнее» с каждой выполненной задачей. Досталось на конференции и нашей стране. Представитель Университета Тафта Ричард Шульц, комментируя тот факт, что соревнование в области искусственного интеллекта — это разновидность гонки вооружений, сказал дословно: «Путин смотрит на это именно так. Не думаю, что у нас есть выбор». Некоторые вещи — например, отношение американцев к России — не меняет даже искусственный интеллект. Тем не менее представляет интерес ответ на вопрос: а что же у нас? Прямо на следующий день после того, как американский машинный разум отправился в свой полет на самолете-разведчике, в России прошло совещание Совета безопасности, на котором президент Путин обсудил опасности, которые влечет за собой развитие систем искусственного интеллекта в иностранных вооруженных силах. Докладчиком выступил глава Генштаба ВС РФ Валерий Герасимов. Подробности совещания в открытый доступ не попали, известно лишь то, что президент и ранее не раз обращался к теме искусственного интеллекта, и в целом в руководстве России есть консенсус на тему важности этого направления.
Проблема связи и проблема этики
Сведения о том, что в России идут работы над ИИ в военных целях, не тайна уже давно. При этом, правда, известно становится только о провальных направлениях, а вот успешные продолжают оставаться очень непубличными. И есть почему. После применения роботизированного комплекса «Уран-9» в Сирии стало известно о том, что автономная боевая машина в силу потери связи иногда оставалась без управления на длительное время. «В лоб» способ решения проблемы военные не указывали, но между строк сквозило понимание того, что такая боевая машина в условиях потери связи с оператором должна уметь действовать сама. Хотя бы прекратить огонь и откатиться по своему же маршруту назад, в зону устойчивой связи. То есть роботизированные комплексы, действующие хотя бы в наземном бою, уже не могут полагаться на дистанционное управление. А если противник применит средства радиоэлектронной борьбы? Если связи не будет вообще? Тогда приходится сделать следующий логический шаг — признать, что такие комплексы должны стать просто роботами, которых оператор только контролирует, когда может. Проблема связи, таким образом, требует автономности, иначе боевая машина не сможет воевать. На этой стадии возникает этическая проблема. Создавая такой комплекс, мы отдаем машине право самостоятельно принимать решение об убийстве живого человека и возможность совершить это убийство. Без запроса оператору и иногда без контроля с его стороны. Многие мыслители считают саму идею робота, самостоятельно решающего, кого из людей убить, а кого нет, неприемлемой. Это прецедент — создать искусственную сущность, решающую за человека вопросы жизни и смерти этого человека. И тут мы упираемся в боевую систему, которая сразу, с самого начала, создается как робот-убийца людей, являющихся ее военными противниками. Которая не может применяться по предназначению в принципе, если у нее не будет возможности самостоятельно уничтожать противника, никого не спрашивая. И эта система — наша. Создаваемая в России.
«Охотник»
С первых полетов БПЛА «Охотник», с первых заявлений Минобороны всем специалистам стало ясно, как и для чего будет применяться этот беспилотник. 27 сентября 2019 года ТАСС, цитируя источник в Минобороны, сообщало: «Беспилотник совершил полет в автоматизированном режиме в полной конфигурации с выходом в зону дежурства. В Минобороны пояснили, что во время мероприятия было отработано взаимодействие между беспилотником и Су-57 по расширению радиолокационного поля истребителя и целеуказанию для применения авиационных средств поражения». В переводе на русский язык — невидимка «Охотник» входит в воздушное пространство противника, используя свою малозаметность, обеспечивает наведение ракет с истребителей извне зоны обнаружения ими самолетов противника своей радиолокационной станцией. Однако уже тогда тип двигателя, примененный на этом самолете, и ряд других особенностей конструкции говорил, что эта машина, если надо, будет драться сама. И так и вышло, в этом году Минобороны подтвердило испытания «Охотника» на применение оружия. Налицо та же концепция, которой придерживаются американцы в своей программе NGAD — создание авиационной системы будущего, включая специальный боевой самолет нового поколения, который должен применяться точно так же, как наш «Охотник». Но американский самолет пилотируемый. Потому что там, где он будет действовать, связь будет далеко не всегда. А значит, и возможность управлять дистанционно аппаратом тоже будет не всегда. Там, где будет воевать наш «Охотник», со связью тоже будут постоянные проблемы из-за противодействия противника. Но пилота на нем нет. Значит, обнаружив истребители противника с живыми пилотами, российский летающий робот должен будет, если связи с нашими истребителями нет, уничтожить противника самостоятельно. Машина должна будет самостоятельно принять решение об уничтожении людей и выполнить эту боевую задачу. Или она бесполезна. И это не американский фантастический фильм, это российский боевой самолет-робот, который испытывается прямо сегодня и который обещают принять на вооружение менее чем через пять лет. Неизвестно, насколько российские алгоритмы боевого искусственного интеллекта соответствуют масштабу задачи и насколько им соответствует аппаратная часть управляющей электроники. Мы по ней очень сильно отстаем от Запада и сравнимых с Западом ресурсов направить на проект не можем. Но в то же время в России великолепная школа математики и программирования, и задачу создания машинного разума для такой системы нельзя считать нерешаемой. Человечество, похоже, прямо на наших глазах перешло Рубикон. БПЛА «Охотник» приносит в этот мир новую сущность, которой в нем никогда в прошлом не было. Где будет финал у процесса, началом которого стал «Охотник»?
Будущее на пороге
Впрочем, мы такие не одни. Пока «Охотник» летает с ракетами «воздух — воздух», на другом конце мира делает первые пробежки по аэродрому «Loyal wingman» — «Верный ведомый». Беспилотный истребитель компании «Боинг-Австралия», еще один «всадник Апокалипсиса». Его задачи скромнее — просто лететь ведомым за пилотируемым истребителем и вести бой совместно с ним. Это тоже требует искусственного интеллекта, и неизвестно, чем ограничатся австралийцы в итоге. И во что превратится эта машина, когда попадет в ВВС США (а она туда попадет). Так или иначе, а технологии искусственного интеллекта уже почти прорвались в военную сферу. Осталась пара-тройка лет, и то будущее, которое многие считают нереальной фантастикой, станет обыденной реальностью. Это уже неизбежно и необратимо. Но готовы ли мы к этому?