Эксперты по кибербезопасности бьют тревогу: в ход мошенников вошли цифровые клоны умерших людей.
С помощью современных технологий искусственного интеллекта преступники создают крайне реалистичные видео- и аудиозаписи, имитирующие голос и внешность покойных, и направляют их родным и близким через мессенджеры и соцсети.
Такие атаки особенно опасны, потому что жертвы — как правило, люди в состоянии глубокого горя — легко поддаются эмоциям и теряют бдительность.
Мошенники используют это, выдавая себя за умершего: просят срочно перевести деньги, «погасить долг», «освободить из беды» или даже требуют выкуп, будто человек оказался в заложниках.
Проверить правдивость таких сообщений почти невозможно: связаться с умершим напрямую нельзя, а ИИ-копия выглядит настолько правдоподобно, что даже близкие не сразу распознают подделку.
В отдельных случаях злоумышленники доводят жертв до отчаяния, манипулируя чувством вины и надеждой.
Специалисты настоятельно рекомендуют:
— никогда не переводить деньги по просьбам, поступившим через мессенджеры от «воскресшего» родственника;
— при малейших сомнениях — сразу связываться с другими членами семьи или друзьями умершего;
— помнить, что голос и лицо сегодня можно подделать, и доверять только проверенным каналам общения.
Как отмечают в «Известиях», такие схемы уже действуют в России и за рубежом.
--------
Подписывайтесь на телеграм-канал «МК в Самаре». Там оперативно публикуются самые интересные новости Самары и губернии. Также мы создали свой канал в Дзене для тех, кому удобнее читать обо всем именно там.