Аферисты начали использовать нейросеть, чтобы вымогать деньги голосом близкого человека
Мошенники вышли на новый уровень, используя для обмана искусственный интеллект. Они генерируют голоса людей в соцсетях и вымогают деньги у их близких и знакомых, сообщает управление по организации борьбы с противоправным использованием информационно-коммуникационных технологий МВД России.
Первым делом пользователю Telegram или WhatsApp* приходит ссылка на фейковое голосование, благодаря чему его взламывают мошенники. Затем они извлекают сохраненные голосовые сообщения и создают на их базе новые записи с помощью искусственного интеллекта. Как правило, это просьба одолжить крупную сумму денег.
– Они рассылают эти сообщения в личные и групповые чаты, подкрепляя их фейковыми банковскими картами, – пояснили в полиции.
Полиция Югры настоятельно рекомендует не верить в выдуманные истории, бояться запугиваний со стороны мошенников, не переводить денежные средства по их указаниям и не переходить по подозрительным ссылкам.
Если вы пострадали от мошенничества, то необходимо немедленно обратиться в ближайший отдел полиции или сообщить об этом по телефону 102.
*WhatsApp принадлежит компании Meta, признанной экстремистской и запрещенной на территории России.
Ранее «Вестник» писал, что перед новогодними праздниками мошенники стали использовать хитрую схему обмана россиян: вручение подарка-кружки, получение которой может обернуться судом.