20 Фев 2026, Пт

Дата:

Поделиться:

Мошенники притворяются родственниками жертв с помощью ИИ

Злоумышленники нашли новый способ обмана.

Теперь они научили искусственный интеллект притворяться родственниками жертв, чтобы выманивать у них деньги и не вызывать лишних подозрений.

Для того, чтобы подделать голос, киберпреступники получают образцы голоса и манеры речи тех, кого собираются скопировать. К примеру, они могут скачать видео с личных страниц пользователей социальных сетей, либо же позвонить якобы с целью простой рекламы, однако на самом деле записать голос на диктофон. Далее нейросеть генерирует новые фразы, якобы человек попал в беду и ему срочно требуются деньги, сообщают «Известия».

В зону повышенного риска попадают пожилые люди, так как они намного хуже осведомлены о новых технологиях, нежели молодежь. Однако важно помнить, что жертвой мошенников может стать кто угодно, если не сохранять необходимую осторожность.

Подпишитесь на наш официальный Telegram-канал «МОЙКА78 Новости СПб». Мы покажем и расскажем Вам, как и чем живёт Петербург. Будет интересно!
ДзенЧитайте наши материалы в Дзене

Поделиться:

Сбер совместно с НСПК и другими участниками финансового рынка разработал новый механизм межбанковского обмена риск-индикаторами транзакций.

Жители Северо-Западного федерального округа в 2025 году заключили через Сбер более 60 тысяч договоров купли-продажи недвижимости без привлечения кредитных средств, что на 50% превышает показатели прошлого года.

Новости дня

По теме

Подпишись на соцсети:

Сообщить новость

Отправьте свою новость в редакцию, расскажите о проблеме или подкиньте тему для публикации. Сюда же загружайте ваше видео и фото.