Эксперт поведал, чем опасен ИИ в американской ударной авиации

Опубликовано 24 октябрь 2019.

Военный аналитик Алексей Леонков считает, что США совершают ошибку, делая ставку на боевые системы с искусственным интеллектом.

Ранее стало известно, что Агентство перспективных оборонных разработок (DARPA) Минобороны США заключило с восемью разработчиками соглашение на проведение предварительных испытаний нейросетевых алгоритмов виртуальными воздушными боями. Полученные данные могут быть использованы для составления требований к системам искусственного интеллекта, управляющего перспективными боевыми БПЛА.

Разработка системы проводится в рамках программы ACE (Air Combat Evolution, или развитие воздушного боя). По мнению сотрудников DARPA, система ИИ должна быть самообучаемой и набираться опыта как курсанты-люди, начиная с простых маневров и заканчивая фигурами высшего пилотажа. Предполагается также, что новая система ИИ будет способна вести воздушный бой быстрее и эффективнее человека, существенно снижая нагрузку на летчика и предоставляя ему время для принятия тактических решений в рамках более масштабной боевой задачи.

Соглашения на проведение предварительных испытаний заключены с компаниями Aurora Flight Sciences, EpiSCI, Heron Systems, Lockheed Martin, Perspecta Labs, physicsAI, SoarTech, а также с Исследовательским институтом технологий Джорджии. Программа предварительных испытаний получила название AlphaDogfight Trials. Они будут проводиться в три этапа — в ноябре 2019 года, январе и марте 2020-го.

Испытания алгоритмов осуществятся в открытом авиационном симуляторе FlightGear с использованием программной модели динамики полета JSBSim. Последняя также имеет открытый код. В виртуальной среде все алгоритмы будут управлять тяжелым истребителем F-15C Eagle, модель которого присутствует в симуляторе FlightGear. На первых двух этапах нейросетевые алгоритмы будут вести воздушные бои с игровым искусственным интеллектом, а на третьем этапе — друг с другом.

Комментируя планы DARPA, военный аналитик, эксперт журнала «Арсенал Отечества» Алексей Леонков в интервью корреспонденту Федерального агентства новостей высказал мнение, что США ошибочно делают ставку на создание боевых систем с искусственным интеллектом.

«Они хотят поместить ИИ во все виды вооружения, в том числе и в гиперзвуковое, а также отдать ему на откуп боевое управление, то есть сделать его автономным. Таким образом, по определенным признакам он будет принимать решение и реагировать на возникающие угрозы. Но опасность такого подхода состоит в том, что все эти ИИ, нейросети и т. д. — это просто более усовершенствованные программные алгоритмы, которые пишут люди. И право на ошибку, в отличие от людей, у них отсутствует, а значит, они могут совершать ошибки, производить ужасающие по конечным результатам действия не против военных объектов, а против гражданского населения. Такая вероятность очень высока», — поясняет эксперт.

Собеседник ФАН подчеркивает, что все может начаться с использования самообучаемых алгоритмов в боевой технике (авиация, артиллерия, танки и т. д.), а закончится тем, что искусственный интеллект получит доступ к американской ядерной триаде.

«В таком случае мы в реальности можем столкнуться с тем, что показывалось в фильме «Терминатор». Например, сбой в программе системы NORAD, которая отвечает за формирование алгоритмов ответного удара у США, может привести к тому, что в нашу сторону полетят баллистические ракеты. То есть ИИ — это неправильное название более совершенных алгоритмов, там нет никакого интеллекта, нет мозгов, сознания. Есть лишь программа, которая действует, используя принципы логики, а логика, как мы знаем, при принятии решений является более бесчеловечной, чем человек. Там отсутствуют такие составляющие мозговой деятельности, которые позволяют человеку принимать правильные решения — интуиция, абстрактное мышление и другие высшие формы интеллекта, которые нас действительно делают людьми, а не машинами», — продолжает Алексей Леонков.

По словам военного аналитика, тот ИИ, на который ставят Соединенные Штаты, не дотягивает даже до уровня инстинктов некоторых, даже самых примитивных животных. Тем не менее в Пентагоне уверены, что подобные алгоритмы могут работать быстрее человеческой мысли. И это весьма однобокий подход к теме.

«Такие системы нарушат тот самый стратегический баланс сил, который сложился в результате появления ядерного оружия. И мы, кстати, им об этом говорим, предупреждаем, но американцы нас не слушают. Они не могут создать универсального солдата, у них солдаты никогда не выигрывали в серьезных боевых конфликтах, они не могут создать системы передового вооружения, которые мы продемонстрировали в марте 2018 года. Они решили сделать ставку на то, что считают преимуществом, — на системы с ИИ, а это опасный путь», — добавил Леонков.

В отличие от США, где все расчеты и принятие решений отданы на откуп информационным системам, в России создана своя система вспомогательных алгоритмов, однако окончательное решение в таких случаях принимает человек. И именно человеческий фактор в связке «человек — ИИ» позволяет России принимать такие решения, на которые страны вероятного противника даже не рассчитывают. Это повышает боевую эффективность.

«Тут можно вспомнить реакцию США на появление наших гиперзвуковых комплексов. У них существует система анализа ЦРУ, построенная на технологии ИИ. У них там суперкомпьютеры обрабатывали огромные потоки информации, чтобы из открытых и закрытых источников выявить сведения о том, что Россия разрабатывает какие-либо виды вооружения. И эта система не смогла узнать о том, что мы делаем, потому что там отсутствовал пробел, который назывался «человеческий фактор». Все наши наработки хранились в головах людей, которые не отдавали сведения каким-то информационным сетям. В этом они и просчитались. У американцев нет резидентов, которые могли бы на месте оценить ситуацию», — подчеркивает эксперт.

Ранее в США уже реализовывались программы по созданию БПЛА, который мог бы заменить истребитель в воздушном бою. Однако эти планы были сорваны, так как имеющиеся на тот момент вычислительные алгоритмы просто не успевали за человеком, который моментально получал и принимал решение в скоротечном воздушном бою.

«Поступающая извне информация об обстановке в таком бою настолько инвариантна, что алгоритмы не учитывают всех нюансов. Даже наземные роботизированные комплексы, запущенные американцами с автономными боевыми алгоритмами, которые должны были эффективно вести себя на поле боя, проигрывали бой человеку. Потому что на технику влияют разрывы, взрывы, газы, разрушающиеся конструкции и т. д. Все это воспринимается ИИ неоднозначно. И в условиях вот этой канонады плюс в условиях электронного противодействия ИИ просто перестает работать. Американцы об этом знают, но молчат. Ведь есть определенные круги лоббирования дорогостоящих проектов в Пентагоне, которые как раз и раздувают вот эту тему с ИИ», — заключил Алексей Леонков.

Напомним, в феврале 2019 года военное ведомство США опубликовало новую военную стратегию, согласно которой Вашингтон мог сдерживать Россию и Китай при помощи искусственного интеллекта.

Другие мировые новости

Все мировые новости
Новости парртнеров
 

Рекомендуем к прочтению

Самое читаемое за неделю

Новости партнеров
Загрузка...
 

Последние новости