Яндекс.Метрика
  • Полина Яук

Специалист по кибербезопасности объяснил, почему не стоит бояться мошенничества с использованием голосовых дипфейков

Это явление не станет массовым
Фото: Олег Золото/«Петербургский дневник»

Мошенники не смогут массово использовать созданные нейросетями голоса. Об этом в понедельник, 7 августа, телеканалу «360» рассказал руководитель направления аудитов и соответствия требованиям информационной безопасности компании УЦСБ Евгений Баклушин.

По словам специалиста, обзвонить несколько тысяч абонентов с помощью искусственных голосов будет сложно. При этом обманывать отдельных людей станет проще.

«Атаками с подменой голоса, но теперь с помощью технологий машинного обучения злоумышленникам станет проще ввести жертву в заблуждение и поймать на крючок», – поделился Баклушин.

И все-таки тон и тембр голоса, а также манера речи могут показать, что по ту сторону линии – не настоящий человек, а робот.

«Некачественный голосовой дипфейк может распознать любой пользователь при должном внимании, правда, нередко мы ведем телефонные переговоры или слушаем голосовые записи в соцсетях на бегу. Но если вас ничто не отвлекает и вы вслушиваетесь в то, что вам говорят, то узнать подделку можно. Если качество дипфейка высокое, то задача серьезно усложняется», – добавил Баклушин.

Ранее «Петербургский дневник» писал о том, что лицо Владимира Высоцкого в новом фильме воссоздадут с помощью нейросети.