Эксперты: развитие ИИ грозит появлением дипфейков голоса в реальном времени

Эксперты по кибербезопасности из NCC Group сообщили о новом уровне угроз, связанных с развитием искусственного интеллекта. По данным специалистов, современные технологии позволяют в реальном времени воспроизводить голос любого человека, что открывает возможности для создания так называемых «речевых дипфейков».

Во время исследований специалисты NCC Group провели серию практических экспериментов, доказав, что для точного копирования голоса достаточно короткой аудиозаписи речи и обычного ноутбука с базовой графической картой. Алгоритм способен генерировать голос с естественной интонацией и тембром, полностью идентичным оригиналу. Даже знакомые с человеком участники эксперимента не смогли отличить подделку от настоящего голоса.

Эксперты назвали этот тип атак «дипфейк-фишингом» или «вокальным фишингом». По сути, это форма мошенничества, при которой злоумышленники используют синтетический голос, чтобы вводить людей в заблуждение — например, звонить от имени знакомого, руководителя или родственника. Технология может работать в паре с подменой телефонного номера, что делает её особенно опасной.

Отмечается, что для создания таких подделок не требуется ни мощных серверов, ни дорогостоящего оборудования. Все операции выполняются с использованием программ с открытым исходным кодом, а для работы достаточно видеокарты уровня RTX A1000.

В NCC Group предупреждают, что подобные технологии открывают широкие возможности для злоупотреблений. Чтобы снизить риски, специалисты советуют использовать дополнительные способы проверки личности собеседника — кодовые слова, секретные фразы или двухфакторную аутентификацию при совершении любых финансовых и служебных операций.

Читать нас в Дзен Новостях
Новости Рязанской области, России и мира!