Такая запись голоса может требоваться мошенникам, поскольку качество записи телефонного разговора недостаточно для обучения нейросетей, говорит бизнес-консультант по информационной безопасности компании Positive Technologies Алексей Лукацкий. Для подделки голосов мошенники используют нейросеть, отметил Андрей Ефимов Фото: Александр Елизаров © Мошенники не подделывали ее голос, но использовали продуманную со всех сторон схему.
Мошенники начали использовать поддельные голоса родственников жертв
В статье рассказывается о том, как мошенники используют технологию подделки голоса для обмана людей и получения доступа к их биометрическим данным. Теперь мошенники с помощью нейросетей могут подделывать голоса прямо во время разговора. Мошенники начали подделывать голоса россиян с помощью искусственного интеллекта. Об этом сообщает РИА Новости со ссылкой на данные Центробанка. «Я сам сталкивался с тем, что мне звонили мошенники и включали синтез голоса моего ребёнка.
Подделали голос внучки. В Кизеле пойман мошенник, забравший у пенсионерки 100 тысяч
Мошенники для обмана россиян стали подделывать голоса родных и знакомых потенциальной жертвы, сообщили РИА Новости в пресс-службе регулятора. Новости Технологии 29 июля 2022. Телефонные мошенники начали подделывать голос «Алисы». Мошенники подделали голос гендиректора московского фитнес-клуба с помощью нейросети и украли выручку. Чтобы подделать чей-то голос, мошенникам достаточно использовать недорогой онлайн-инструмент на базе искусственного интеллекта, который анализирует уникальные особенности голоса любого человека и воспроизводит его с учетом пола, возраста и даже акцента.
Не дайте себя обмануть! Что придумали телефонные мошенники в 2024г: нейросети, QR и маркетплейсы
Могут ли мошенники подделать голос и украсть деньги со счета? | Эксперты объясняют от Роскачества | В статье рассказывается о том, как мошенники используют технологию подделки голоса для обмана людей и получения доступа к их биометрическим данным. |
Мошенники начали активно выманивать образцы голосов граждан - Ведомости | Мошенники научились клонировать голоса детей и играя на родительских чувствах вымогают у них крупные суммы. |
Голос в трубке заставил московского врача перевести мошенникам 3 млн рублей | Как мошенникам удается подделать голос. |
Мошенник подделал голос друга и выманил 50 000 ₽ | Эксперты по кибербезопасности отмечают рост использования аудиодипфейков для мошеннических звонков в мессенджерах — подделку голоса руководителя компании для авторизации перевода средств. |
ЦБ: мошенники стали обманывать россиян, подделывая голоса их родных | Аргументы и Факты | Мошенники стали использовать для вымогательства денег созданные ИИ голосовые сообщения от имени владельца аккаунта в соцсетях или мессенджерах. |
Почему банк отказался возвращать деньги
- Мошенники начали использовать поддельные голоса родственников жертв | Правмир
- Греф рассказал о мошенниках, подделывающих голос и изображение клиентов банков
- Украденные голоса: мошенники осваивают новый способ обмана россиян
- Мошенники научились подделывать ваш голос: стоит ли опасаться
- Мошенники подделывают голоса и крадут деньги – ГТРК «Коми Гор»
- Как мошенники научились подделывать голос с помощью нейросети?
Мошенники научились подделывать ваш голос: стоит ли опасаться
злоумышленники подделывают голос с помощью технологии дипфейка и одновременно подменяют номер. Глава Сбербанка Герман Греф сообщил о телефонных мошенниках, которые совершают атаки на клиентов банков с помощью подделки голоса. Благодаря бурно развивающемуся искусственному интеллекту (ИИ) мошенники теперь способны воспроизвести голос знакомого человека, а в некоторых случаях даже его лицо.
Мошенники имитируют голос родственников с помощью искусственного интеллекта
Первым оказался мужчина, которому мошенники позвонили в позднее время. Представились его сыном и разыграли классическую схему — якобы парень попал в аварию, телефон садится, срочно нужны деньги. Несмотря на то, что преступники подделали не только голос, но и номер, мужчина засомневался и решил перезвонить сыну. Естественно, ни в какую аварию тот не попадал. Второй была девушка, решившая продать дорогой браслет Bulgari с бриллиантами за 500 тысяч рублей.
С ней связались мошенники, изобразили покупателей и предложили перевести деньги на карту подруги у девушки не было доступа к своей карте , попросив ее номер телефона.
Естественно, ни в какую аварию тот не попадал. Второй была девушка, решившая продать дорогой браслет Bulgari с бриллиантами за 500 тысяч рублей. С ней связались мошенники, изобразили покупателей и предложили перевести деньги на карту подруги у девушки не было доступа к своей карте , попросив ее номер телефона. Через какое-то время с этого номера позвонила будто бы та самая подруга и подтвердила перевод. Девушка отдала мошенникам браслет и уже позже узнала, что на самом деле разговаривала не с подругой, а с нейросетью.
Действуют преступники следующим образом.
Как работает новая схема мошенничества с подделкой голоса Как работает новая схема мошенничества с подделкой голоса МВД 24 апреля 2024, 16:55 Внедрение искусственного интеллекта идет своим чередом, но, как и в любой сфере, всегда находятся деятели, которые умудряются паразитировать на том, что было создано с благой целью. Последние технологии в области обработки аудиофайлов — один из таких примеров. Разработчики искусственного интеллекта приложили немало усилий, чтобы воспроизводить речь людей. В 2024 году мошенники приняли эту разработку с радостью и начали подделывать разговор, выдавая себя за родственников и друзей телефонных жертв. Сложно повесить трубку, когда в трубке раздается «голос» матери, дочери, подруги, которая якобы попала в беду и просит отправить деньги на проверенный счет. На это всё и рассчитано. Чтобы подделать чей-то голос, мошенникам достаточно использовать недорогой онлайн-инструмент на базе искусственного интеллекта, который анализирует уникальные особенности голоса любого человека и воспроизводит его с учетом пола, возраста и даже акцента. Причем для клонирования голоса программе нужно проанализировать всего лишь 30-секундный отрывок реального голоса, который сейчас без труда можно найти в аккаунте любого пользователя соцсетей.
Затем телефонному мошеннику остается раздобыть контакт жертвы и никак не выдать себя во время разговора. А говорить можно все что угодно: онлайн-инструменты позволяют произносить напечатанный текст голосом любого человека. Что делать, чтобы не попасться на уловку Если вам поступил звонок, где знакомый голос просит вас о финансовой помощи, трезво оцените ситуацию.
Евгения Егорова, в одном мошенническом сценарии злоумышленники заставляли детей отдавать курьерам сбережения семьи, используя смоделированный голос родственника. Среди других распространенных способов мошенничества с использованием дипфейков и социальной инженерии Мельников назвал обход систем безопасности в сервисах с голосовой идентификацией, а также создание видеоконтента с использованием лиц и голосов знаменитостей. Последний способ, к примеру, используют для «продвижения» несуществующих инвестиционных проектов, добавляет старший исследователь данных «Лаборатории Касперского» Дмитрий Аникин. Сами данные для подделки голоса собираются в процессе обычного телефонного разговора злоумышленника с жертвой, поясняет он. По словам Семенычева, мошеннические схемы, связанные с подделкой изображения или видео, распространены в меньшей степени, так как более сложны и ресурсоемки. Такие активности в основном направлены на нанесение репутационного ущерба, уточняет он.
При этом в действующей практике использование дипфейков чаще встречается не для имитации клиента или его знакомого, а для сокрытия внешности преступника, чтобы было невозможно установить его личность и задокументировать следы преступления, поясняет представитель ВТБ. В таких случаях чаще используются «личности» известных актеров или политиков, а также случайных пользователей, не связанных с атакуемым клиентом, уточняет он.
Могут ли мошенники подделать голос и украсть деньги со счета?
Те, кто разбирается в технологиях мошенничества, без труда подделают не только голос, но и другие личные данные. В Атырау полицейские задержали мошенника, который с легкостью подделывал свой голос, сообщает Для обмана граждан мошенники начали подделывать голоса родных и знакомых потенциальной жертвы. Об этом, как передаёт 17 января РИА Новости, предупреждает Центробанк. В России активизировались мошенники, подделывающие голоса близких и коллег своих потенциальных жертв. Мошенники используют записи телефонных звонков, в том числе разговоров с роботами, для подделки голоса в мошеннических целях.
Мошенники научились подделывать аудио и видео с помощью ИИ - Москва 24
Telegram: Contact @nastroenie_tvc | «Таймырский телеграф» – Мошенники продолжают совершенствоваться: теперь они стали использовать специальную программу, с помощью которой подделывают голоса. |
Мошенники активно выманивают образцы голоса россиян | Мошенники стали подделывать голоса родных и знакомых для обмана россиян. Об этом пишет РИА «Новости» со ссылкой на пресс-службу Центробанка. |
Мошенники массово воруют голоса россиян. Как не стать их жертвой? | Мошенники научились подделывать голоса родных потенциальной жертвы. Кроме того, они создают адресные схемы, которые составлены по цифровому портрету человека, сообщили «РИА Новости» в Центробанке. |
Мошенники имитируют голос родственников с помощью искусственного интеллекта
Теперь мошенники с помощью нейросетей могут подделывать голоса прямо во время разговора. Напомним, ранее россиян предупредили о новом способе мошенничества в «Телеграме» и во «ВКонтакте» — мошенники научились подделывать голосовые сообщения в мессенджерах с помощью искусственного интеллекта. Для обмана граждан мошенники начали подделывать голоса родных и знакомых потенциальной жертвы. Об этом, как передаёт 17 января РИА Новости, предупреждает Центробанк.
Содержание
- Мошенник обманывал людей, подделывая голоса близких по телефону | 360°
- Почему сработал обман
- Нейросеть подделывает голоса ваших близких: как уберечься от новой мошеннической схемы | Финтолк
- Подделали голос внучки. В Кизеле пойман мошенник, забравший у пенсионерки 100 тысяч
Метод Терминатора
- Эксперт Кузьменко: мошенники начали использовать нейросети и дипфейки для обмана россиян
- Правила комментирования
- Мошенники научились подделывать голоса и видео. Как распознать подмену
- Греф рассказал о мошенниках, подделывающих голос и изображение клиентов банков
- ЦБ: Мошенники начали подделывать голоса родных и знакомых россиян — Большой город
- Следующий звонок от вашей семьи может оказаться мошенничеством с подменой голоса дипфейком
В Роскачестве дали советы, как защитить свои биометрические данные от мошенников
Преступная схема следующая: сначала злоумышленник взламывает аккаунт пользователя в Telegram или WhatsApp принадлежит корпорации Meta, которая признана экстремистской и запрещена в России и скачивает оттуда голосовые сообщения. Затем нейросеть, используя полученные данные, создает новые сообщения, с помощью которых мошенник вымогает деньги. Искусственному интеллекту достаточно и трех секунд речи оригинального носителя для того, чтобы дипфейк получился убедительным. Можно качественно подделать тембр и интонацию человека. По словам экспертов, количество таких атак будет только расти: "не исключаем и использование видеозвонков с одновременным синтезом речи и изображения звонящего".
В первую очередь, потому, что поговорить с дочерью Дженнифер не позволили. О чём она и сообщила звонившей. Очень скоро это подтвердилось: после нескольких неудачных попыток дозвониться до Брианны, та перезвонила сама, недоумевая, что случилось. В действительности они вместе с отцом спокойно катались на лыжах в 110 милях от дома. По собственному признанию Дженнифер, она никогда не забудет тех минут ужаса, которые ей пришлось пережить из-за мошенников. Когда дочь перезвонила и сообщила, что с ней всё в порядке, мать просто сползла на пол в слезах облегчения.
Дипфейк как инструмент мошенничества Правоохранительным органам давно знакомы подобные схемы, однако благодаря ИИ они вышли на принципиально новый уровень. Используя записи голосов, взятые из соцсетей, злоумышленники теперь способны очень убедительно «клонировать» голоса и заставлять их говорить нужные слова. Тенденции последних лет показывают, что для убедительного фейка нужно всё меньше данных».
В этом вопросе лучше проявить осторожность и сбросить подозрительный звонок, особенно если он идет через мессенджер, связавшись с банком самостоятельно по официальному телефону, указанному на обороте банковской карты. Запугать, не дать собраться с мыслями, "забросать" технической информацией — вот излюбленные приемы мошенников, а отнюдь не хакерские атаки», — заключил собеседник «Ленты. И наконец, самый радикальный, но действенный совет: не разговаривайте по телефону с незнакомцами. Банки или другие ответственные организации в любом случае найдут способ донести до вас нужную информацию Шамиль МагомедовIT-эксперт.
Сегодня существуют технологии, позволяющие распознать подделку голоса, однако угроза все же существует.
Поэтому в Роскачестве настоятельно рекомендуют не брать трубку, если кто-либо звонит с подозрительного или просто незнакомого номера, проявлять крайнюю осторожность, размещая в мессенджерах или социальных сетях голосовые сообщения и другой контент. Кроме того, необходимо регулярно использовать антивирусное и антишпионское ПО, чтобы своевременно обнаруживать программы, способные украсть персональную информацию.