Россиянам начали приходить письма о введении “нового налога”
12:00
Неосторожный туризм: как Бурятия "расплачивается" за красоту природы
11:45
Закон о передаче пустующего жилья нуждающимся внесли в Госдуму
11:00
В Улан-Удэ огнеборцы спасли жилой дом рядом с горящим зданием
10:39
Учителей предупредили о наказании за получение подарков
10:00
С 1 января на дорогах появятся новые знаки: вот как они выглядят и что меняют
09:30
Снег и -14 обрушатся на Бурятию в воскресенье
08:53
Бурятские врачи могут официально назначать пациентам БАДы
4 октября, 22:10
В Чите определили победителя регионального этапа конкурса "Мама-предприниматель"
4 октября, 16:10
Музыкальная встреча "Рябиновый вечер" собрала пианистов в Иркутске
4 октября, 16:10
ФК "Бурятия" сохранил третье место после ничьей с "Сибирью-М"
4 октября, 15:05
В Китай из Бурятии отправлено 58 тонн лекарственных трав
4 октября, 14:03
Бурятская ГСХА и "Эвалар" объединят усилия в изучении лекарственных культур
4 октября, 13:05
В Улан-Удэ завершили дело о жестоком убийстве 2-месячного младенца
4 октября, 11:02
Сбер и "Газпром нефть" поддержат молодежные технологические стартапы
4 октября, 10:50

Мошенничество в мессенджерах: как киберпреступники используют голосовые записи

МВД России: мошенники могут подделывать голос жертв для обмана
Телефон, ноутбук Илья Аверьянов, ИА PrimaMedia.ru
Телефон, ноутбук
Фото: Илья Аверьянов, ИА PrimaMedia.ru
Нашли опечатку?
Ctrl+Enter

В Управлении по борьбе с противоправным использованием информационно-коммуникационных технологий (УБК) МВД России выпустили предупреждение о новых методах мошенничества, связанных с использованием технологий, таких как нейросети. Они отметили, что преступники могут взламывать аккаунты людей в мессенджерах и использовать записи их голосов для создания фальшивых сообщений.

Когда мошенники получают доступ к аккаунту, они могут записать голос жертвы и затем использовать эту запись как образец для генерации текста. Это делается с помощью нейросети, которая может воспроизводить голос жертвы и отправлять сообщения ее родным и знакомым. Такое мошенничество может привести к серьезным последствиям, так как близкие жертвы могут поверить, что общаются с реальным человеком, и, возможно, поддаться манипуляциям или предоставить мошенникам личные данные или деньги.

Кроме того, злоумышленники могут использовать видеозаписи, сделанные с фронтальной камеры устройства, чтобы создавать дипфейки. Дипфейк это технология, позволяющая накладывать лицо человека на видео другого человека, создавая иллюзию, что он говорит или делает что-то, чего на самом деле не происходило.

Таким образом, МВД призывает пользователей быть осторожными и не оставлять свои аккаунты без защиты. Рекомендуется использовать сложные пароли, двухфакторную аутентификацию и внимательно относиться к подозрительным сообщениям, чтобы избежать мошенничества и защиты своей личной информации.

190425
32
24