Яндекс.Метрика
  • Антон Качалов

Аферисты начали активно применяют технологию подделки голоса для кражи

Об этом рассказали в Роскачестве
Фото: Олег Золото/«Петербургский дневник»

Мошенники активно применяют технологию подделки голоса для кражи денег россиян, сказал RT Сергей Кузьменко, руководитель Центра цифровой экспертизы Роскачества.

«Используя нейросети на базе искусственного интеллекта, злоумышленники создают убедительные голосовые копии знакомых или родственников потенциальных жертв. Для этого им требуется лишь короткий образец голоса, который легко добыть из аудио- и видеозаписей в соцсетях, мессенджерах или просто записав разговор по телефону», – уточнил эксперт.

Эволюцией этой схемы становятся видеозвонки с использованием технологии дипфейк, которые выводят обман на новый уровень.

«Если при голосовом звонке у вас ещё есть шанс заподозрить неладное, положить трубку и перезвонить на настоящий номер, написать в мессенджер для подтверждения, то с дипфейком всё иначе. Перед вами не просто голос, а живое изображение близкого человека, его мимика и движения. Этот мощный эффект присутствия сметает последние барьеры осторожности, заставляя мозг поверить в реальность происходящего», – сказал специалист.

Ранее сообщалось, что в России с начала этого года на 120 процентов выросло число пострадавших от кибермошенников детей.