Мошенники научились подделывать голосовые сообщения в мессенджере «Телеграм» с помощью искусственного интеллекта (ИИ). Об этом сообщает РБК.
Собеседник издания столкнулся с тем, что вымогатели взломали его аккаунт и стали рассылать его знакомым просьбу перевести деньги. Для подкрепления они создали аудиозапись, синтезированную ИИ на основе более ранних голосовых сообщений пострадавшего. Также к сообщению прилагалось фото банковской карты с измененными данными. Аналогичная схема была зафиксирована и в соцсети «ВКонтакте».
«Схема опасна тем, что мошенники используют несколько факторов идентификации жертвы — аккаунт, голос и банковскую карту. Чтобы не потерять деньги, необходимо перепроверить, действительно ли владелец аккаунта обращается с подобной просьбой, например, перезвонив ему по телефону», — говорит ведущий специалист департамента Digital Risk Protection компании F.A.C.C.T. Евгений Егоров.
Ранее стало известно о мошеннических схемах на сайтах онлайн-кинотеатров. В конце 2023 года ЦБ РФ перечислил фразы, после которых надо сразу бросать трубку.
Внимание!
Комментирование временно доступно только для зарегистрированных пользователей.
Подробнее
Комментарии 1
Редакция оставляет за собой право отказать в публикации вашего комментария.
Правила модерирования.