Пока на украинском фронте главной ударной силой остаются дроны, за каждым их действием всё ещё стоит человек. Однако, как отмечает немецкое издание Süddeutsche Zeitung (SZ), в будущем ситуация может кардинально измениться. На поле боя постепенно появляются автономные системы, способные принимать решения без участия оператора. Такие технологии уже проходят испытания в рамках конфликта на Украине и, по мнению экспертов, это лишь начало.
По информации SZ, разработка автономного оружия активно ведётся как на Украине, так и в России. Речь идёт прежде всего о дронах, оснащённых «машинным зрением» — системой, позволяющей распознавать цель и действовать без постоянного контроля человека. Пока подобные технологии применяются ограниченно и в тестовом режиме, но уже сейчас очевидно, что стороны конфликта делают ставку на ускоренное развитие этих систем.
Проблема в том, что международные усилия по регулированию автономного вооружения пока не приводят к обязательным результатам. С 2014 года в рамках ООН ведутся обсуждения, но по итогам выработаны лишь необязательные принципы, в которых говорится, что решение о применении силы должен принимать человек. Попытка начать переговоры о полноценном договоре по автономному оружию в 2023 году столкнулась с противодействием ряда стран, включая США и Россию.
Как пишет SZ, одно из основных преимуществ автономного оружия — его независимость от связи. Современные методы радиоэлектронной борьбы затрудняют управление обычными дронами, но полностью автономные системы могут действовать даже в условиях полной блокировки сигналов. Они быстрее анализируют обстановку, не подвержены страху, усталости или стрессу, и не требуют длительной подготовки, как живые бойцы.
Тем не менее, с расширением применения таких технологий растут и риски. Авторы материала обращают внимание на этическую и правовую неурегулированность темы. Если автономная система допустит ошибку и нанесёт удар по мирным жителям или союзным силам, возникает вопрос: кто будет нести ответственность — оператор, командир, программист или сама машина? Особенно остро стоит проблема прозрачности — решения, принимаемые искусственным интеллектом, часто непредсказуемы даже для его разработчиков.
Издание приводит пример инцидента 1983 года, когда советская система предупреждения о ядерном ударе выдала ложную тревогу. Тогда офицер Станислав Петров принял решение не наносить ответный удар, спасая тем самым мир от катастрофы. Если бы в той ситуации решал искусственный интеллект, последствия могли бы быть необратимыми.
По данным SZ, хотя полностью автономные «роботы-убийцы» пока не стали массовым оружием, их разработка идёт ускоренными темпами. И то, что ещё недавно казалось фантастикой, сегодня становится частью реальности на фронтах современных конфликтов.