Искусственный интеллект — полезная технология, но ее взяли на вооружение и мошенники. Теперь аферисты с помощью нейросетей создают дипфейки, и особенно уязвимы к этому дети, предупредили в пресс-службе УБК МВД России по Петербургу и Ленобласти.

Дипфейк — это технология, позволяющая создавать видео или аудио с подменой лиц и голосов. В таких роликах может быть использовано чье угодно изображение.
«Особенно уязвимы дети. Часто родители публикуют фото и видео малышей в соцсетях, не задумываясь, что эти материалы могут использоваться злоумышленниками для создания дипфейков»,— отмечают в киберполиции.
В итоге это может стать инструментом мошенничества, шантажа и дезинформации, предупредили родителей.
В ведомстве советуют не размещать слишком личную информацию и фото в открытом доступе, а также использовать настройки приватности в соцсетях, чтобы материалы не мог увидеть кто угодно. Детям следует тоже разъяснить важность конфиденциальности.