Мошенники убедили врача оформить три кредита и перевести все свои деньги на неизвестные счета, напугав списанием средств в пользу Украины и ВСУ. Для подделки голоса мошенникам будет недостаточно записанных фраз. Как сообщили специалисты Центра цифровой экспертизы Роскачества, мошенники научились имитировать голос человека с помощью нейросети.
Голос в трубке заставил московского врача перевести мошенникам 3 млн рублей
Уже известны случаи, когда подделывали голос человека и даже внешность. «Таймырский телеграф» – Мошенники продолжают совершенствоваться: теперь они стали использовать специальную программу, с помощью которой подделывают голоса. Телефонные мошенники научились подделывать голоса, ЦБ РФ предупредил о новых видах мошенничества с нейросетями в Волгограде. Мошенники в России научились подделывать голос по телефону и в социальных сетях. Также развивается технология deepfake: преступники подделывают голос близких людей жертв.
Информационная безопасность операционных технологий
Могут ли мошенники подделать голос и украсть деньги со счета? | Мошенники стали использовать для вымогательства денег созданные ИИ голосовые сообщения от имени владельца аккаунта в соцсетях или мессенджерах. |
Следующий звонок от вашей семьи может оказаться мошенничеством с подменой голоса дипфейком | Мошенники научились клонировать голоса детей и играя на родительских чувствах вымогают у них крупные суммы. |
Как работает новая схема мошенничества с подделкой голоса | Напомним, ранее россиян предупредили о новом способе мошенничества в «Телеграме» и во «ВКонтакте» — мошенники научились подделывать голосовые сообщения в мессенджерах с помощью искусственного интеллекта. |
Мошенники могут подделать чужой голос, чтобы украсть деньги | «Я сам сталкивался с тем, что мне звонили мошенники и включали синтез голоса моего ребёнка. |
Как работает новая схема мошенничества с подделкой голоса | Мошенники убедили врача оформить три кредита и перевести все свои деньги на неизвестные счета, напугав списанием средств в пользу Украины и ВСУ. |
Центробанк: мошенники стали чаще имитировать голоса родных и знакомых россиян
Технологические прорывы в сфере ИИ еще впереди. Чтобы машина получила полноправное звание искусственного интеллекта, она должна пройти самостоятельно, как минимум, тест Тьюринга. Благодаря имеющимся уже технологиям хакерам достаточно всего лишь 20-секундного фрагмента с разговором, взятым из социальной сети, для создания клона голоса любого человека. Идентичность поражает настолько, что даже мать не сможет отличить голос своего ребенка от робота. Схема обмана та же, но инструменты более прогрессивные.
ИИ звонит и просит перевести деньги. Преступники заставляют жертв думать, что они разговаривают с родственником, которому вдруг понадобились деньги, например, на возмещение ущерба в результате ДТП. Сейчас нейросеть можно обучить языкам, и она с легкостью осваивает любые акценты, чтобы умело вести диалог. Следует не вестись на эмоции, а сразу перезвонить своим родным и знакомым, от которых вы якобы получили срочную или тревожную просьбу.
Я уже стал прислушиваться к телефону, как вдруг он и вправду зазвонил. Номер высветился незнакомый, но к моему ужасу я услышал в трубке плачущий голос своей дочери. Меня привезли в реанимацию. У меня сломано три ребра, порвана губа и еще с ногой что-то не так. А этот телефон мне дала добрая тетя-водитель. Да что еще можно чувствовать в такой момент.
Следователь сказал, что девочка в машине при аварии из-за меня пострадала и на ее лечение нужно полтора миллиона рублей. Тут я наконец-то с усилием включил мозг и понял, что меня откровенно разводят. Я положил трубку. И попытался представить, что у дочки сейчас на самом деле все в порядке и стал названивать ей на мобильный. А вот тут меня накрыла уже вторая волна липкого ужаса. В трубке автомат ответил, что абонент отключен или находится вне зоны действия сети.
Я тут же отчетливо увидел на черно-красном от крови асфальте раздавленный мобильник. Затем дочку на операционном столе и уже стал сомневаться, что это был розыгрыш. В этот момент вновь позвонил тот самый, незнакомый номер и плачущая девочка с голосом моей дочери начала вновь рассказывать ту же историю с самого начала.
Сбросить и перезвонить. Это хороший способ проверить, что вам действительно звонит близкий человек, даже если звонок поступил якобы с его номера.
Главное правило — перезванивать нужно не на поступивший номер, а на номер из своей телефонной книжки или на мессенджер близкого человека. Почему еще нужно быть начеку О телефонных мошенниках сейчас говорят очень много, и это хорошо. Многие уже выработали иммунитет к подобным звонкам и понимают, как действовать в такой ситуации. Но это не останавливает аферистов, и теперь некоторые из них предварительно изучают жертву, перед тем как совершить звонок. Изучают соцсети, анализируют круг друзей и родственников, выясняют финансовое положение, чтобы понять, на какую сумму можно развести «клиента» и дадут ли ему кредит.
Дальше под конкретного человека составляют индивидуальный сценарий развода. Популярность набирают виды финансового мошенничества через мессенджеры — когда жертве отправляют аудиосообщения с просьбой отправить деньги. Причем такие сообщения могут приходить даже с реальных аккаунтов, если преступникам удается их взломать. Подводим итог Телефонные аферисты держат руку на пульсе новых технологий и активно переходят к использованию программ клонирования голоса.
К защитнику уже обращались за юридической помощью известные лица, столкнувшиеся с подделкой их голоса. Предполагаемая жертва, имя которой он не может назвать из-за профессиональной тайны, смогла с помощью экспертизы доказать растиражированный «фейк», однако в суд иск подан пока не был.
Для этого необходима экспертиза, а вот гарантии, что она подтвердит полное совпадение, пока нет. Необходимо высочайший класс экспертов, и не каждая организация с этой задачей справится. Я вижу в развитии технологий синтеза голоса большую угрозу именно в уголовной практике. Сейчас почти любой мошенник может разыграть телефонный звонок, заменить голос в нём на голос жертвы и шантажировать, например, уголовным делом или падением деловой репутации. Важно помнить, что даже в случае положительного решения экспертизы и суда, уголовное преследование стоит для жертвы существенных усилий. Это вызывает у меня серьезные опасения», — отмечает Жорин.
При этом адвокат считает, что время судебных разбирательств по делам об использовании нейросетей в контексте интеллектуальной собственности пока не настало. Он связывает это с тем, что судьи редко принимают нестандартные решения, а изменения настанут только после появления практики от высших судов.
Мошенники подделывают голоса и крадут деньги
Для этого необходима экспертиза, а вот гарантии, что она подтвердит полное совпадение, пока нет. Необходимо высочайший класс экспертов, и не каждая организация с этой задачей справится. Я вижу в развитии технологий синтеза голоса большую угрозу именно в уголовной практике. Сейчас почти любой мошенник может разыграть телефонный звонок, заменить голос в нём на голос жертвы и шантажировать, например, уголовным делом или падением деловой репутации. Важно помнить, что даже в случае положительного решения экспертизы и суда, уголовное преследование стоит для жертвы существенных усилий. Это вызывает у меня серьезные опасения», — отмечает Жорин. При этом адвокат считает, что время судебных разбирательств по делам об использовании нейросетей в контексте интеллектуальной собственности пока не настало. Он связывает это с тем, что судьи редко принимают нестандартные решения, а изменения настанут только после появления практики от высших судов. Говорить про защиту интеллектуальных прав пока преждевременно.
Сейчас в некоторых судах даже иски о защите чести и достоинства остаются диковинкой, не говоря уже о нейродипфейках», — указал защитник.
Я вижу в развитии технологий синтеза голоса большую угрозу именно в уголовной практике. Сейчас почти любой мошенник может разыграть телефонный звонок, заменить голос в нём на голос жертвы и шантажировать, например, уголовным делом или падением деловой репутации. Важно помнить, что даже в случае положительного решения экспертизы и суда, уголовное преследование стоит для жертвы существенных усилий. Это вызывает у меня серьезные опасения», — отмечает Жорин. При этом адвокат считает, что время судебных разбирательств по делам об использовании нейросетей в контексте интеллектуальной собственности пока не настало. Он связывает это с тем, что судьи редко принимают нестандартные решения, а изменения настанут только после появления практики от высших судов. Говорить про защиту интеллектуальных прав пока преждевременно. Сейчас в некоторых судах даже иски о защите чести и достоинства остаются диковинкой, не говоря уже о нейродипфейках», — указал защитник. Хорошо забытое старое Преступники уже давно используют синтез голоса для различных злоупотреблений, не афишируя доступность технологии модуляции и её мощности для обывателей, уверен бывший следователь и действующий адвокат Александр Бурчук.
Суды и следователи нередко сталкиваются с поддельными аудиозаписями, поэтому назвать технологию чем-то особенным защитник не может.
Сергей Кузьменко, руководитель Центра цифровой экспертизы Роскачества: «Схемы мошенничества остаются неизменными, однако использование современных технологий во многом развязывает руки злоумышленникам, что позволяет им старые успешные схемы подавать под новым углом. В наше время каждый, у кого есть смартфон и любая сумма денег на счету, становится потенциальной жертвой аферистов. Важно провести беседу с близкими и установить некую кодовую фразу, чтобы быть уверенным, что входящие звонки не являются мошенническими. Основное правило — не паниковать и не торопиться. Не стоит вестись на манипуляции мошенников и отправлять деньги на незнакомый счет.
Для начала свяжитесь со своими родственниками или знакомыми, чтобы проверить информацию о предполагаемой тревожной просьбе». Эксперты Центра цифровой экспертизы Роскачества отмечают, что в скором времени на смену аудиозвонкам, сгенерированным нейросетью, придут видеозвонки DeepFake. Примеры подобных мошеннических схем уже существуют, но пока они не получили широкого распространения. Все потому, что технология DeepFake еще недостаточно совершенна, и даже простой интернет-пользователь легко отличит поддельное видео от настоящего. К тому же, киберэксперты не исключают, что в будущем записи разговоров с клиентами аферисты будут продавать. Так же, как сейчас они торгуют базами телефонных номеров.
Читайте также.
По его словам, злоумышленники используют технологии искусственного интеллекта, так называемой технологии дипфейк, когда могут быть смоделированы изображение и голос человека, передает РИА Новости. Греф заявил, что это серьезная угроза, с которой человеку сложно бороться, сообщает RT.
В Роскачестве дали советы, как защитить свои биометрические данные от мошенников
Также нужно установить везде двухфакторную аутентификацию. То есть, чтобы при входе в аккаунт на телефон или электронный адрес приходило подтверждение авторизации. Кроме того, важно устанавливать и пользоваться только теми программами, которые размещены на официальных сайтах производителя. Если же профиль все же взломали, то стоит связаться техподдержкой социальной сети.
В случае мошеннических действий нужно обратиться в правоохранительные органы.
Скорее всего, образец мошенники взяли из аудиосообщений во взломанном мессенджере. Просто надо чистить кэш наверное, убирать голосовые. Тогда не будет таких ситуаций, даже если взломают", — рассказала жертва мошенников Александра Никитина. С появлением новой схемы мошенничества под удар попадают все, кто отправляет голосовые сообщения. И даже любителям текстовых теперь стоит задуматься, какие видео они публикуют в социальных сетях. Ведь для создания клона голоса достаточно записи длиной всего в несколько минут.
Возьмем любой ваш сюжет, тут вы говорите что-то, мы возьмем этот голос, дальше закинем в программу", — рассказал специалист по информационной безопасности Роберт Симонян. Нейронная сеть думает и достаточно быстро выдает черновую версию. По тексту, который ей написали. Похоже, кажется, близкие и родные, конечно, заметят разницу, а вот остальные — нет.
Эта система затем анализирует голосовые образцы и учится имитировать особенности речи человека. Могут ли мошенники позвонить в банк и украсть деньги? С имитированным голосом жертвы мошенники могут попытаться позвонить в банк и выполнить различные операции, такие как снятие денег со счета или перевод средств на другой счет. Однако ведущие российские банки не используют систему управления счетом с помощью голоса. Банки сохраняют ваш голос в биометрической базе только для того, чтобы автоматически распознавать его при звонках в техническую службу поддержки банка. К тому же существует опасение, что мошенники запишут ваш голос и передадут в Единую биометрическую систему или биометрические системы банков. Несмотря на возможность утечки биометрии из банковского хранилища, использовать ее для несанкционированной идентификации невозможно. Причина состоит в самом процессе идентификации. Когда вы сдаете биометрические данные в базу, сохраняется не конкретное фото лица или одна аудиозапись голоса, а некий ее слепок в виде набора ваших характерных признаков.
То, что сделано с лицом Владимира Марченко, можно отнести скорее ко второму направлению, — говорит сотрудник администрации города. И если рассматривать это как элемент искусства, то для выбора кандидатуры в этих целях необходимо для фактора: узнаваемость героя, чье лицо применяется в дипфейке, и достаточное количество разных изображений для того, чтобы искусственный интеллект смог с ними работать. Собеседник редакции уверен, что выбор Владимира Марченко для создания таких видео, объясняется его узнаваемостью и популярностью среди жителей Волгограда и пользователей соцсетей. Однако отдельные волгоградцы в комментариях под публикацией этих дипфейков неоднократно писали о том, что не знают человека, чье лицо использовано в видео. И получая ответ на вопрос о герое дипфейка, искренне радовались, ведь наконец узнали, как выглядит глава Волгограда. И ни горожанам, ни представителям властей не стоит беспокоиться, когда подобный контент несет лишь положительный характер. Героем подобного дипфейка развлекательного формата стал и бывший глава Тракторозаводского района, политолог, историк и знаменитый полемист Михаил Серенко. На опубликованных в телеграм-канале правозащитника и активиста Алексея Ульянова видео политолог якобы поет известные хиты. Лицо этой публикации — Михаил Серенко — рассказал, почему не воспринимает такие посты в негативном ключе и почему в стране до сих пор распространено мошенничество. Источник: Алексей Ульянов — Если это делается друзьями, а автор видео — мой друг Алексей Ульянов, здесь скрывать нечего, то я только положительно отношусь. Это дружеский прикол. Как отличить умного человека от глупого: у первого развита самоирония, обижаются дураки, — поделился Михаил Серенко. И я придерживаюсь той точки зрения, что если какой-то вид преступления не могут пресечь, то нужно искать погоны, стоящие за этим видом преступления. Если бы силовики захотели, то давно бы прекратились все эти разводы бабушек, использования искусственного интеллекта, но, видимо, пока не хотят приложить достаточно усилий, чтобы это пресечь. По мнению волгоградского полемиста, чтобы минимизировать количество подобных преступлений, необходимо ужесточить меры уголовного наказания. Потому что срок маленький дают, а вы дайте пожизненный срок за утечку базы данных, они перестанут. Здесь вопрос не в искусственном интеллекте, от него мы никуда не денемся, со временем, в какой-то степени он всех заменит, — рассуждает Михаил Серенко. Даже без этих дипфейковых видео мошенники совершают такие виды преступлений, что волосы на голове дыбом встают. Например, взять какой-то кредит, это сложно, но мошенники с легкостью их оформляют. Любое благое начинание мошенники будут использовать против людей, то же самое и с нейросетями. Как защитить себя от дипфейков? Часто злоумышленники пользуются одной из главных уникальных функций нейросетей — генерированием несуществующих в реальности видео, аудио и изображений, в попытках обмануть не самую внимательную жертву. Специалист «Лаборатории Касперского» Владислав Тушканов рассказал, как можно опознать фейковое видео, чтобы не попасть в ловушку мошенника.
Украденные голоса: мошенники осваивают новый способ обмана россиян
Мошенники начали использовать поддельные голоса родственников жертв | Правмир | Мошенники научились подделывать голоса начальников для выманивания денег. |
Украденные голоса: мошенники осваивают новый способ обмана россиян // Новости НТВ | Для подделки голоса мошенникам будет недостаточно записанных фраз. |
Компания потеряла $25,6 млн из-за обмана сотрудника по видеосвязи / Хабр | Мошенники для обмана россиян стали подделывать голоса родных и знакомых жертвы. |
Украденные голоса: мошенники осваивают новый способ обмана россиян | Как мошенникам удается подделать голос. |
Мошенники научились подделывать ваш голос: стоит ли опасаться
Мошенники начали подделывать голоса: Луки.ру выяснили, смогут ли они оформить кредит в банке | «Атаковали даже мэра Марченко»: мошенники подделывают голоса и лица жителей Волгограда с помощью нейросетей. |
ЦБ: мошенники стали обманывать россиян, подделывая голоса их родных | Аргументы и Факты | С имитированным голосом жертвы мошенники могут попытаться позвонить в банк и выполнить различные операции, такие как снятие денег со счета или перевод средств на другой счет. |
Пенсия.PRO | Для подделки голоса мошенникам будет недостаточно записанных фраз. |
Могут ли мошенники подделать голос и украсть деньги со счета? | «Атаковали даже мэра Марченко»: мошенники подделывают голоса и лица жителей Волгограда с помощью нейросетей. |
Мошенник обманывал людей, подделывая голоса близких по телефону | 360° | С помощью специальных программ мошенники воспроизводят голоса родных потенциальной жертвы. |
ЦБ: Мошенники начали подделывать голоса родных и знакомых россиян
злоумышленники подделывают голос с помощью технологии дипфейка и одновременно подменяют номер. Голоса других людей злоумышленники имитируют при помощи специальных программ — этой уловкой они вынуждают потерпевших сообщать различные сведения или совершать денежные переводы. Мошенники не подделывали ее голос, но использовали продуманную со всех сторон схему.
Подделали голос внучки. В Кизеле пойман мошенник, забравший у пенсионерки 100 тысяч
Мошенничество с клонированием голоса появилось относительно недавно и уже встречается в западных странах. Телефонные мошенники в России все чаще подделывают голоса родственников и знакомых своих жертв. В Электрогорске задержали мужчину, который при помощи голоса умудрился обогатиться более чем на четверть миллиона рублей. Те, кто разбирается в технологиях мошенничества, без труда подделают не только голос, но и другие личные данные.
Мошенники активно выманивают образцы голоса россиян
Кликабельные ссылки на магазины и прочие бизнес-проекты. Если Вам нужно сослаться на подобный ресурс — вставляйте пробелы вокруг точек: pikabu. Пошаговые, излишне подробные мошеннические схемы и инструкции к осуществлению преступной деятельности. Мотивация к мошенничеству, пожелания и советы "как делать правильно". Флуд, флейм и оскорбления пользователей, в т.
О первых случаях применения этой схемы и о том, как она работает, — Анна Воропай. Поделиться Мошенники начали подделывать голоса с помощью нейросети Мошенники начали подделывать голоса с помощью нейросети Александра показывает переписку — от ее имени мошенники отправили знакомым десятки сообщений.
С общим смыслом: привет, вышли деньги. Чтобы получилось правдоподобно, в стандартную схему обмана добавили новый элемент: голосовое сообщение. Тембр, интонация. Да и сам голос, будто записанный на бегу, — все это так напоминало настоящего собеседника. Скорее всего, образец мошенники взяли из аудиосообщений во взломанном мессенджере. Просто надо чистить кэш наверное, убирать голосовые.
Тогда не будет таких ситуаций, даже если взломают", — рассказала жертва мошенников Александра Никитина. С появлением новой схемы мошенничества под удар попадают все, кто отправляет голосовые сообщения.
Однако в режиме реального времени создавать подобную запись не получится, — рассказывает эксперт. Образцы голоса потенциальной жертвы для создания дипфейков злоумышленники могут добывать разными путями.
Как отмечает Александр Самсонов, мошенникам помогают публичные аудио- и видеозаписи в соцсетях, а также утечки биометрических данных. Кроме того, они могут просто позвонить человеку по телефону и записать его голос на диктофон. Поэтому, чтобы защититься от них, очень важно беречь личную голосовую информацию. Также следует соблюдать конфиденциальность в соцсетях и мессенджерах, чтобы ограничить возможность получения голосовых данных третьими лицами, — говорит специалист.
Как поясняет Багдасарян, если злоумышленник получит доступ к профилю в соцсети, он воспользуется не только образцами голоса, но и дополнительной контекстной информацией о человеке, что в дальнейшем позволит ему более убедительно взаимодействовать с жертвой. Поэтому для защиты своих социальных сетей от взлома эксперт советует соблюдать определенные меры безопасности — к примеру, использовать сложные уникальные пароли и регулярно их обновлять. Кроме того, важно ограничивать доступ к профилю, чтобы личную информацию пользователя могли видеть только его доверенные люди. Как распознать мошенника, признаки обмана Между тем пока еще голосовые дипфейки можно выявить по ряду признаков.
По словам Сергея Голованова, если вы разговариваете с человеком во время звонка в реальном времени, то отличить речь знакомого человека от подделки будет довольно просто.
Поэтому основная защита от мошенников — это просто обычная бдительность и игнорирование голосовых сообщений от отправителей, которых вы не знаете. Авторы объявлений, которые предлагают людям записать свой голос для рекламы или других проектов, обычно просят предоставить аудиозапись, которую нужно отправить личным сообщением в мессенджере. За участие предлагают гонорар от 300 до 5000 рублей, при этом в некоторых случаях его действительно выплачивают жертве.
Между тем «Сбер» предупредил о новой схеме мошенничества, которая осуществляется при помощи трансляции экрана смартфона. Она выглядит так: мошенники звонят в мессенджер с фейкового аккаунта с номером 900 и логотипом банка и спрашивают, обновлял ли пользователь приложение банка. Затем человеку звонит второй злоумышленник, якобы для идентификации личности клиента по биометрии. Он просит включить режим демонстрации экрана и зайти в мобильное приложение банка.
Трансляция экрана позволяет мошенникам увидеть номера карт, суммы на счетах, коды в смс от банка и другую информацию. Данный способ мошенничества появился около двух месяцев назад, рассказывает эксперт по информационной безопасности, генеральный директор Phishman Алексей Горелкин. Алексей Горелкин эксперт по информационной безопасности, гендиректор Phishman «Такой способ был, он применялся на школьниках: покажите, а что у вас за карта, а у ваших родителей какие карты, зайдите к себе в телефон, в общем, была такая схема, чтобы люди, которые не шибко разбираются в цифровых технологиях, но при этом имеют доступ к устройству родителей, могли предоставить злоумышленникам необходимую информацию.