Яндекс.Метрика
  • Светлана Меглицкая

Мошенники стали использовать нейросети для имитации голоса

Кроме того, злоумышленники могут использовать фальшивые видео
Фото: Олег Золото/«Петербургский дневник»

Мошенники все чаще стали использовать возможности нейросетей, чтобы войти в доверие к своей жертве, предупреждают в ГУ МВД России по Санкт-Петербургу и Ленобласти. Теперь они разговаривают со своими жертвами, используя фальшивые аудио и видео. Благодаря технологии синтеза речи злоумышленники создают реалистичные голосовые записи родственников жертвы на основе небольших образцов аудио, которые они находят в мессенджерах и соцсетях. Новые технологии также позволяют на видео заменять лицо одного человека на лицо другого.

На днях пожилой женщине поступил звонок, где мошенник разговаривал с ней голосом внучки, убеждая, что та находится в больнице после аварии. Заподозрив неладное, женщина положила трубку и перезвонила родственнице. Убедившись, что с ней все в порядке, обратилась в полицию. Это пример хорошей бдительности, которая играет значительную роль в борьбе с мошенничеством, отметили в полиции. «Будьте начеку и не доверяйте всему, что слышите», – советуют в правоохранительных органах.

Ранее «Петербургский дневник» рассказывал, что бесплатный Wi-Fi может угрожать гаджетам.