Яндекс.Метрика
  • Анна Миронова

В полиции научили россиян распознавать дипфейки с «бездомными»

Правоохранители перечислили, на что стоит обратить внимание
Фото: генерация нейросети Grok

Нейросети позволяют создавать убедительные поддельные видео для розыгрышей и мошенничества. Как защититься от аферистов, которые используют технологии искусственного интеллекта (ИИ), рассказали в УБК МВД России.

Правоохранители забили тревогу после волны «пранков с бездомным», захлестнувших соцсети. Подростки с помощью ИИ генерируют фото неопрятного человека у себя дома и пугают родителей историей о том, что впустили его «попить воды». Реакцию родных снимают на видео и выкладывают в Сеть. Некоторые инциденты в США были настолько реалистичны, что приводили к вызову экстренных служб.

Однако за безобидными, на первый взгляд, шутками скрывается серьезная угроза. Сегодня создать убедительный дипфейк может любой желающий – нейросети автоматически подгоняют мимику и голос. Эта же технология позволяет злоумышленникам распространять фейковые новости от имени публичных лиц или мошеннические призывы.

Чтобы обезопасить себя, следуйте простым правилам проверки контента.

Источник. Любое видео без четкого происхождения – повод нажать на паузу. Сверяйте информацию с официальными аккаунтами.

Детали. Синтетическую природу видео часто выдают мелкие артефакты: «дрожащие» тени, неровные контуры лица, рассинхрон звука и движения губ.

Обратный поиск. Загрузите скриншот в Google или «Яндекс.Картинки» – это поможет найти оригинал, из которого был взят кадр.

Для более глубокого анализа существуют специальные сервисы. Такие инструменты, как Sensity AI, Reality Defender и Deepware, оценивают вероятность монтажа. На подходе и российские разработки – лаборатории тестируют нейросети-детекторы для борьбы с дипфейками.

Однако важно помнить, что ни одна технология не дает стопроцентной гарантии.

О том, как в Петербурге задержали мошенника, находившегося в межгосударственном розыске, можно прочитать здесь.