Злоумышленники нашли новый способ обмана.

Теперь они научили искусственный интеллект притворяться родственниками жертв, чтобы выманивать у них деньги и не вызывать лишних подозрений.

Для того, чтобы подделать голос, киберпреступники получают образцы голоса и манеры речи тех, кого собираются скопировать. К примеру, они могут скачать видео с личных страниц пользователей социальных сетей, либо же позвонить якобы с целью простой рекламы, однако на самом деле записать голос на диктофон. Далее нейросеть генерирует новые фразы, якобы человек попал в беду и ему срочно требуются деньги, сообщают «Известия».

В зону повышенного риска попадают пожилые люди, так как они намного хуже осведомлены о новых технологиях, нежели молодежь. Однако важно помнить, что жертвой мошенников может стать кто угодно, если не сохранять необходимую осторожность.