Le Parisien: США и Израиль используют ИИ в войне с Ираном, что ведет к новым рискам

Пентагон и ЦАХАЛ активно задействовали системы искусственного интеллекта при подготовке операции против Ирана. Об этом сообщает Le Parisien со ссылкой на данные американских СМИ и отраслевых экспертов. В первые дни боевых действий, по оценкам источников, действия США и Израиля развивались успешно, однако дальнейший ход конфликта остается неопределенным, в том числе из-за специфики самих ИИ-моделей. Передает ИноСМИ.

Как утверждают ряд американских изданий, в рамках операции под названием «Эпическая ярость» применялась модель искусственного интеллекта Claude, разработанная компанией Anthropic. По информации The Washington Post, в течение первых суток было поражено свыше тысячи целей, и сотни из них были идентифицированы именно с помощью Claude, который определял их местоположение и ранжировал по степени приоритетности.

Речь идет не о человеке, а о цифровой системе, относящейся к семейству ИИ-моделей. Подобные технологии уже широко используются в гражданской сфере — от обработки текстов до анализа данных. Однако в военной области их применение вызывает дискуссии. The Wall Street Journal и Reuters ранее сообщали, что американские военные использовали Claude при планировании операции, связанной с силовым захватом президента Венесуэлы Николаса Мадуро в январе. В то же время источники The Washington Post утверждают, что конфликт с Ираном стал первой крупной операцией, где эта модель сыграла заметную роль.

По данным Financial Times, Израиль на протяжении нескольких лет якобы взламывал дорожные камеры в Тегеране для сбора информации о перемещениях представителей иранского руководства. Эти сведения, наряду с другими источниками данных, как утверждается, использовались при подготовке операции, в ходе которой был устранен аятолла Али Хаменеи. ЦАХАЛ заявлял о «тысячах часов» совместной работы с армией США по созданию масштабного банка данных о целях.

Подробности технического применения ИИ стороны не раскрывают. Научный сотрудник Института международных и стратегических отношений Ален Филипович пояснил, что такие системы способны обрабатывать изображения, сопоставлять информацию из различных источников — от человеческих данных до электромагнитных сигналов — и формировать обобщения. Он отметил, что генеративные модели также применяются для подготовки отчетов и анализа документов.

В то же время вопросы вызывает надежность подобных решений. Израильско-палестинское агентство +972 сообщало, что программа Lavender, используемая ЦАХАЛ в секторе Газа, допускала ошибки примерно в 10% случаев. По словам Филиповича, некоторые офицеры выражали недовольство тем, что выводы ИИ получали приоритет перед их профессиональными оценками.

Эксперт по регулированию вооружений с элементами ИИ Тоби Уолш в подкасте Uncomfortable Conversations заявил, что, по имеющимся данным, в автономных летальных системах применяются в основном языковые модели. Компания Anthropic ранее отказалась разрешить использование Claude для уничтожения людей без обязательного подтверждения со стороны человека, что привело к разрыву отношений с администрацией Дональда Трампа. После этого Пентагон, как сообщается, обратился к OpenAI, добившись гарантий ограниченного применения их модели.

Ситуация вызвала резонанс в технологическом сообществе. Более 900 сотрудников Google, работающих над моделью Gemini, и OpenAI подписали открытое письмо в поддержку позиции Anthropic, призвав отказаться от использования ИИ для убийств без человеческого контроля. Между тем Claude уже интегрирован в структуры вооруженных сил США, и, по официальным данным, в мае прошлого года им пользовались более 20 тысяч человек. The Wall Street Journal утверждает, что модель продолжали применять даже после публичного запрета, озвученного Дональдом Трампом в связи с операцией против Ирана, в том числе для моделирования сценариев вооруженных столкновений.

Отдельное исследование, проведенное научным сотрудником Королевского колледжа Лондона Кеннетом Пейном, показало, что ИИ-модели в смоделированных сценариях конфликтов нередко склонялись к эскалации. В 95% случаев участники виртуальных противостояний в итоге прибегали к ядерному оружию. Эти выводы усиливают дискуссию о допустимых границах применения искусственного интеллекта в военной сфере.

Читать нас в Дзен Новостях
Новости Рязанской области, России и мира!