Любое автономное оружие имеет шанс выйти из строя и эти ошибки могут иметь широкий спектр последствий, говорят эксперты.

Боевой беспилотник, находясь в полном автономном режиме работы, атаковал людей. Первый зафиксированный случай в истории, когда дрон без приказа человека совершил убийство, произошел в Ливии в марте прошлого года, но об этом стало известно только сейчас из доклада ООН.

Такие оружейные системы считаются одной из самых опасных военных технологий, разрабатываемых в настоящее время. Против автономных боевых машин выступали астрофизик Стивен Хокинг, глава Tesla Илон Маск и тысячи других ученых и инженеров. Корреспондент.net рассказывает подробности.

 

Стрелять, забывать и вновь находить

Конфликт в Нагорном Карабахе показал, что беспилотные летательные аппараты станут одним из основных видов вооружения в настоящих и будущих военных конфликтах. Главным действующим лицом в таком развитии мировой ситуации является Турция во главе с автократическим президентом Тайипом Эрдоганом.

Страна разработала свои собственные дроны и успешно использовала их в своих военных операциях против курдских вооруженных группировок на севере Ирака и Сирии, сил мятежного фельдмаршала Халифы Хафтара в Ливии и сирийского режима, а также для поддержки своих союзников, как это было с Азербайджаном в Карабахе.

На прошлой неделе журнал New Scientist со ссылкой на исследование ООН сообщил, что военный квадрокоптер Kargu-2, находясь в автономном режиме работы, убил человека во время вооруженного конфликта в Ливии в марте 2020 года.

Погибший был участником Ливийской национальной армии под предводительством Халифа Хафтара, которая воюет против регулярной армии правительства Ливии в Триполи.

В отчете ООН говорится, что подразделения Хафтара «не были обучены и не мотивированы для защиты от эффективного использования этой новой технологии и обычно отступали в беспорядке».

Во время плохо организованного отхода формирования Хафтара «подвергались постоянному преследованию со стороны боевых беспилотных летательных аппаратов разных типов».

В отчете также говорится, что подобное смертоносное автономное оружие привело к «значительным потерям» при использовании БЛА против зенитного ракетного комплекса Панцирь С-1, произведенного в РФ и имевшегося в распоряжении у формирований Хафтара.

Kargu-2 был создан турецкой военно-технической компанией STM и работал в «высокоэффективном автономном режиме», то есть был запрограммирован для атаки целей без необходимости команд от оператора. Дрон обладает «сложной системой распознавания объектов и лиц».

Эти машины оснащаются осколочно-фугасной боевой частью и могут быть наведены на цель для самоподрыва. Вес дрона-камикадзе составляет 15 килограмм с возможностью находиться в воздухе до 30 минут.

Также отличительной особенностью Kargu-2 является способность группироваться с другими такими же дронами (до 20 штук) и совершать более масштабные атаки, говорится в докладе.

Решение об атаке Kargu-2 принимаютна основе машинного обучения. Беспилотники работают на программных алгоритмах, которые позволяют искусственному интеллекту распознавать различные объекты, будь это школьный автобус, трактор или танк.

«Но наборы данных, на которых они обучаются, могут быть недостаточно сложными или надежными, в результате чего искусственный интеллект может «усвоить» неправильный урок», — отмечает New Scientist.

Однако, как пишет Daily Mail, в Ливии была продемонстрирована функция «стрелять, забывать и вновь находить возможности для поражения очередных целей».

Отметим, что многие функции у современных боевых беспилотников автоматизированы — от взлета до посадки. Оптикоэлектронные системы наблюдения и соответствующее программное обеспечение позволяют делегировать машине многие функции, упрощая работу операторов.

Обнаружение и идентификация объектов, соответствующих заданным критериям, сопровождение их, наведение оружия и прочие подобные задачи могут выполняться автоматикой. Функции оператора зачастую сводятся лишь к верификации полученной информации и выдаче команды на применение силы в отношении обнаруженных целей.

 

Однажды люди на самом деле могут утратить контроль

Сторонники применения летальных автономных дронов типа Kargu-2 утверждают, что их использование ограничивает жертвы среди гражданского населения, но критики полагают, что технология на данном этапе еще слишком неточна.

«Современные системы, основанные на машинном обучении, не могут эффективно отличить фермера от солдата», — написал специалист по национальной безопасности Закари Калленборн в колонке для издания Bulletin of the Atomic Scientists (Бюллетень ученых-атомщиков).

Фермеры могут держать винтовку, чтобы защитить свою землю, а солдаты могут использовать грабли, чтобы опрокинуть орудийную башню, обращает внимание Калленборн. Он также добавил, что без управления человеком риск использования такой технологией слишком высок.

Любое автономное оружие имеет шанс выйти из строя, но эти ошибки могут иметь широкий спектр последствий, говорят аналитики по оружию.

Еще в 2015 году тысячи ученых, инженеров и бизнесменов со всего мира, в том числе физик и популяризатор науки Стивен Хокинг, глава Tesla Илон, создатель компании в области искусственного интеллекта DeepMind (принадлежит Google) Маск Мустафа подписали открытое письмо с призывом ввести запрет на использование оружия с ИИ.

«Опасность велика, так как подобные автономные виды вооружений представляют собой третью революцию в военной области после изобретения пороха и ядерного оружия», — говорилось в письме.

При этом подписавшие призыв не говорят о полном запрете разработки технологий искусственного интеллекта для оборонной промышленности, но, по их мнению, эти технологии не должны быть автономными и наделяться функцией самостоятельного принятия решений.

Так, Маск считает искусственный интеллект самой большой угрозой, с которой сталкивается человеческая цивилизация, а Хокинг призывал искать новые планеты для заселения, иначе человечество погибнет. Об этом подробно в материале Чем пугает ИИ.

Комментируя первое автономное убийство дроном, бывший командующим сухопутными войсками Польши генерал Вальдемар Скшипчак, написавший книги о войне будущего, говорит, что если международные организации сейчам не ограничат развитие таких вооружений, то вскоре военных по обе стороны фронта будут убивать роботы.

«Нам нужно уже сейчас к этому подготовиться, подумать об ограничениях в использовании таких вооружений, поскольку если все активнее развивающийся ИИ будет использоваться для убийства, однажды люди на самом деле могут утратить над ними контроль. Возможно, мы сами создадим нечто, что в будущем нас убьет», — отметил он в интервью Onet.

Новости от Корреспондент.net в Telegram. Подписывайтесь на наш канал https://t.me/korrespondentnet

Подписаться
Уведомить о
guest
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии