Раскрыты способы разоблачить звонящих по видеосвязи мошенников. Новые технологии им не помогут

Раскрыты способы разоблачить звонящих по видеосвязи мошенников. Новые технологии им не помогут

Неправильные ударения в словах и «неестественно плавные движения» во время видеозвонка могут выдать дипфейк — поддельное видео или аудио, созданное с помощью искусственного интеллекта (ИИ). Как правило, такие методы используют мошенники. Об этом в интервью «Москве 24» рассказал эксперт по кибербезопасности Алексей Курочкин.

Ранее специалисты предупредили, что к концу 2025 года каждый второй россиянин рискует столкнуться с мошенничеством с применением технологий ИИ. По словам Курочкина, это связано с их быстрым развитием. «Чем проще делать дипфейки, тем чаще мошенники ими пользуются», — подчеркнул он.

Эксперт объяснил, что отличить поддельный звонок от реального крайне сложно. Речь собеседника может звучать слегка роботизированно, предложения — строиться с ошибками, а ударения в словах — ставиться неправильно, хотя голос будет почти неотличим от настоящего.

 

Мослента Мослента

11:05
Нет комментариев. Ваш будет первым!
Использование нашего сайта означает ваше согласие на прием и передачу файлов cookies.

© 2025