Раскрыты способы разоблачить звонящих по видеосвязи мошенников. Новые технологии им не помогут
Неправильные ударения в словах и «неестественно плавные движения» во время видеозвонка могут выдать дипфейк — поддельное видео или аудио, созданное с помощью искусственного интеллекта (ИИ). Как правило, такие методы используют мошенники. Об этом в интервью «Москве 24» рассказал эксперт по кибербезопасности Алексей Курочкин.
Ранее специалисты предупредили, что к концу 2025 года каждый второй россиянин рискует столкнуться с мошенничеством с применением технологий ИИ. По словам Курочкина, это связано с их быстрым развитием. «Чем проще делать дипфейки, тем чаще мошенники ими пользуются», — подчеркнул он.
Эксперт объяснил, что отличить поддельный звонок от реального крайне сложно. Речь собеседника может звучать слегка роботизированно, предложения — строиться с ошибками, а ударения в словах — ставиться неправильно, хотя голос будет почти неотличим от настоящего.