Разговор с искусственным интеллектом кажется приватным — ведь вы общаетесь с программой один на один, в закрытом чате. Но это обманчивое ощущение.

Что на самом деле знают о вас нейросети
Управление по организации борьбы с противоправным использованием информационно-коммуникационных технологий МВД России опубликовало подробный перечень данных, которые анализируют и сохраняют ИИ-чатботы.
- Темы запросов. Нейросеть фиксирует, о чем вы спрашиваете: работа, финансы, здоровье, личные отношения. Это позволяет алгоритму предположить ваш род занятий, текущие задачи и даже финансовое положение.
- Стиль общения. Изучается лексика, длина сообщений, количество и характер ошибок. На основе этого формируется «языковой почерк» — уникальная комбинация, по которой в теории можно идентифицировать человека.
- Поведенческие паттерны. Скорость отправки сообщений, манера уточнять информацию, критичность суждений — все это помогает ИИ понять, как вы принимаете решения и насколько уверены в своих действиях.
- Эмоциональный тон. Нейросеть фиксирует признаки раздражения, тревоги, спешки или сомнения. Это позволяет оценить, насколько вы уязвимы в стрессовых ситуациях.
- Контекст. Совокупность деталей — город проживания, график работы, упомянутые места — позволяет восстановить ваш социальный портрет даже без прямых персональных данных.
Как отмечают специалисты, искусственный интеллект способен определить не только интересы человека, но и уровень его образования, эмоциональное состояние и даже манеру принимать решения.
ИИ-мошенники

Создание дипфейков сегодня требует минимальных ресурсов. Нейросети автоматически подгоняют выражения лица и голос под заданный текст, делая поддельные видео практически неотличимыми от реальных.
Как распознать дипфейк? Правоохранители советуют обращать внимание на детали: неровные контуры лица, «дрожащие» тени, странные движения губ и глаз, запаздывание звука. Проверить видео можно с помощью специальных сервисов.
Новый закон: что меняется с 2026 года

В 2026 году вступили в силу существенные изменения в законодательстве, касающиеся защиты персональных данных.
При этом использование нейросети не считается ни смягчающим, ни отягчающим обстоятельством. Закон оценивает само действие, а не инструмент, которым оно совершено. Кроме того, Минцифры разработало законопроект, обязывающий создателей систем искусственного интеллекта предупреждать пользователей о недопустимости использования нейросетей для манипуляций.
Документ также вводит запрет на эксплуатацию уязвимостей человека с помощью ИИ. Речь идет об использовании возрастных, психологических или иных особенностей для целенаправленного воздействия на поведение человека или несанкционированного доступа к его данным.
Как защитить свои данные

Полностью защитить информацию от автоматизированного сбора нейросетями технически невозможно. Скрипты непрерывно сканируют сеть, собирая тексты и фото в гигантские базы для обучения ИИ. Однако снизить риски можно.
- Настройте приватность
- Используйте защитные инструменты
Авторам визуального контента (фотографам, дизайнерам, художникам) стоит применять утилиты. Они внедряют в картинки невидимый цифровой шум, который «отравляет» нейросеть при попытке обучения на ваших работах.
- Не сообщайте лишнего ИИ
Правило безопасности, которое рекомендовали в МВД: не сообщайте искусственному интеллекту того, что не хотите оставлять в цифровом следе навсегда. Избегайте сочетаний деталей, по которым вас можно узнать. Не рассказывайте чат-ботам о своем финансовом положении, проблемах со здоровьем или конкретных деталях личной жизни.
- Удаляйте цифровой след
- Проверяйте видео
Перед тем как поверить информации с видео, проверьте его с помощью сервисов обнаружения дипфейков или хотя бы используйте обратный поиск по фото в Яндекс.
Так, регуляторные изменения продолжаются. Ожидается, что закон о маркировке синтетического контента и ответственности за дипфейки может вступить в силу с 1 сентября 2027 года. Главный вывод, который можно сделать из текущей ситуации: нейросети перестали быть просто технологической игрушкой. Они стали инструментом, который при бесконтрольном использовании способен причинить реальный вред. Требуется осознанная цифровая гигиена — не менее важная, чем физическая безопасность в реальном мире.



