В МВД рассказали, как распознать дипфейк и не стать жертвой ИИ-розыгрышей

В МВД рассказали, как распознать дипфейк и не стать жертвой ИИ-розыгрышей

В управлении по организации борьбы с противоправным использованием ИКТ МВД РФ привели пример набирающего популярность розыгрыша среди подростков. Они генерируют с помощью ИИ-инструментов реалистичное изображение неопрятного мужчины, который якобы находится у них дома. После этого они сообщают родителям, что впустили "бездомного" попить воды или отдохнуть, фиксируют их испуганную реакцию на видео и выкладывают в соцсети.

В ведомстве отметили, что, хотя в данных розыгрышах нет злого умысла, они служат важным "симптомом времени": сейчас создание дипфейков требует минимальных ресурсов. Современные нейросети способны автоматически подгонять выражения лица и голос под заданный текст, делая видео очень достоверным.

Именно эта реалистичность и создает серьезные риски. В МВД пояснили, что под видом шутки могут распространяться фейковые новости, ложные заявления от имени публичных лиц или мошеннические призывы, например, к инвестициям.

Чтобы не стать жертвой подобного розыгрыша, преступления или информационной операции, в ведомстве рекомендуют в первую очередь проверять источник. Видео без понятного происхождения — это повод для паузы. Стоит проверить официальные аккаунты, сайты или Telegram-каналы.

Также необходимо обращать внимание на мелкие артефакты, которые выдают синтетическую природу видео. К ним относятся неровные контуры лица, "дрожащие" тени, странные движения губ и глаз, а также небольшое запаздывание звука. Важен и контекст: если человек в ролике говорит непривычные для себя вещи, следует проверить, соответствует ли это его публичной позиции и реальной ситуации.

В МВД советуют использовать обратный поиск по изображениям. Кадр или фрагмент ролика можно проверить через Яндекс или Google Images, чтобы понять, не взят ли он из другого видео. Кроме того, существуют специализированные сервисы, которые анализируют видео и показывают вероятность синтетического монтажа. Как сообщили правоохранители, российские лаборатории кибербезопасности уже тестируют нейросети-детекторы дипфейков, включая face-swap в видеозвонках. При этом в управлении подчеркнули, что ни одна технология не даёт стопроцентной гарантии: алгоритмы лишь оценивают вероятность, а окончательное суждение всегда остается за человеком.Ранее боец СВО из Краснодарского края стал жертвой мошенников.

 

Автор: Лев Громов

 

RuNews24 RuNews24

13:05
17
Нет комментариев. Ваш будет первым!
Использование нашего сайта означает ваше согласие на прием и передачу файлов cookies.

© 2025