Банк России сообщил, что мошенники стали чаще применять технологию дипфейков для обмана граждан и выманивания у них денег.

Для создания поддельных видеозаписей с целью мошенничества злоумышленники часто взламывают аккаунты в соцсетях или мессенджерах, копируют оттуда медиафайлы, а затем с помощью технологий ИИ создают сверхреалистичные видеоролики.

В этих роликах они выдают себя за близких или друзей и рассказывают о сфабрикованных проблемах, например, о тяжелом заболевании или катастрофе, и просят перевести крупные суммы денег на указанный счет. Иногда мошенники используют образы представителей государственных органов, как сообщили в пресс-службе Центрального банка России.

Чтобы не попасться на удочку мошенников, эксперты рекомендуют позвонить или написать человеку, от имени которого просят деньги. Если с ним не связаться, то задайте вопрос, ответ на который знает только он. Также важно проверить видеосообщение на подлинность. Если голос звучит монотонно, лицо выглядит неестественно или звук плохой, не верьте этому сообщению и не переводите деньги.

В мае 2024 года в Госдуме был представлен законопроект, который предусматривает наказание за создание фальшивых видеороликов с использованием изображений или голосов людей. За такие действия могут быть назначены штрафы до 1,5 млн рублей или заключение на срок до семи лет.

Кроме того, студент из Петербурга создал видеообращение к президенту РФ Владимиру Путину, используя технологию дипфейка, чтобы заменить свое лицо на лицо лидера России. В этом видео он спросил о потенциальных рисках, связанных с ИИ.