Поддержать команду Зеркала
Беларусы на войне
  1. Почему Лукашенко собирает совещание, чтобы обсудить, как сушить зерно и ремонтировать технику? Спросили экс-главу сельхозпредприятия
  2. Силовики расширили географию поиска участников протестов 2020 года. Их интересуют выходившие на марши в еще одном городе
  3. Евросоюз согласовал 18-й пакет санкций против России и Беларуси
  4. Люди танцевали, не подозревая о нависшей над ними смерти. Одна из крупнейших инженерных катастроф убила 114 человек — вот ее история
  5. Кремль пытается скрыть влияние западных санкций на экономику, но чиновники все же иногда проговариваются: в ISW привели примеры
  6. Санкции ЕС против Беларуси: Эмбарго на импорт вооружений, четыре банка и восемь предприятий ВПК — «в бан»
  7. «Почему он у вас с наручниками не ходит». На совещании у Лукашенко произошла перепалка с участием чиновников и самого Лукашенко
  8. Из России приходят новости, которые способны ударить по валютному рынку Беларуси. Но это далеко не все возможные проблемы для Минска
  9. ГУБОПиК случайно раскрыл новую базу «политических», по которой проверяет беларусов. Вот что о ней узнало «Зеркало»


/

У мошенников появилась новая схема обмана через функцию коротких видеосообщений в «кружочках» Telegram. В милиции рассказали, как она работает.

Снимок носит иллюстративный характер. Источник: Christian Wiediger / Unsplash
Снимок носит иллюстративный характер. Источник: Christian Wiediger / Unsplash

Первым делом мошенники взламывают чужие аккаунты людей в мессенджере через фишинговые ссылки, например, под предлогом голосования за родственника в конкурсе либо получения премиум-подписки в соцсети.

После взлома начинается вторая фаза атаки. Из взломанного аккаунта скачивают «кружочки», на их основе делают фейковое видео и рассылают от имени жертвы ее друзьям и знакомым с просьбой срочно одолжить денег и перевести их на карту. И все это — с голосом и лицом настоящего человека.

На первый взгляд видео может показаться подлинным. Мошенники используют нейросети, чтобы создавать дипфейки — видео, в которых лицо и голос человека смонтированы так, что трудно отличить подделку от реальности.

— Поддельные видео, как правило, выдают засветы и слишком идеальная кожа. Оттенок кожи лица может отличаться от шеи, а губы собеседника не всегда двигаются естественно. Однако из-за низкого разрешения разглядеть недочеты на видео могут не все, — пояснили в милиции.

Беларусов просят критически относиться к каждому присланному видеосообщению, а чтобы защитить аккаунт от мошенников — использовать двухфакторную аутентификацию и никогда не переходить по ссылкам от неизвестных лиц.