Финансовое мошенничество с использованием ИИ становится одной из самых серьезных угроз в 2025 году. Киберпреступники используют реалистичные дипфейки для вымогательства денег и конфиденциальных данных. Узнайте, как работает эта технология и как эффективно от нее защититься.
Искусственный интеллект как новая технология для киберпреступников
Технология искусственного интеллекта больше не является просто инструментом, поддерживающим бизнес или автоматизирующим простые задачи. В руках киберпреступников оно стало эффективным и опасным оружием, которое они используют для:
- финансовые атаки,
- вымогательство,
- кража личных данных.
Еще недавно это казалось нереальным, но сегодня мы все столкнулись с реальной проблемой. Это касается как частных лиц, так и целых компаний.
Развитие генеративного искусственного интеллекта позволило создавать фейковые видеоролики, реалистичные голосовые записи или подделывать документы. Благодаря ИИ преступники могут действовать быстрее и масштабировать свои атаки.. Все благодаря машинному обучению, которое анализирует огромные объемы данных, в том числе: из социальных сетей. Сюда мошенники выдают себя за начальство, известные бренды и даже близких людей.
Что такое мошенничество с использованием ИИ?
Чтобы помочь вам лучше осознать опасность дипфейков, вот несколько тем, которые помогут вам узнать больше о мошенничестве. Вы поймете масштаб угроз и тот факт, что жертвой мошенничества может стать каждый. Это больше, чем уже известные традиционные методы, такие как фишинговые сообщения.
- Deepfake audio — это голосовая запись, созданная с помощью искусственного интеллекта.. Он может с невероятной точностью имитировать голос конкретного человека. Для этого алгоритмы анализируют манеру речи, тон, акцент и темп речи. Подобную запись можно использовать, например, для того, чтобы позвонить клиенту или сотруднику финансового отдела и вымогать деньги у человека, которому он доверяет.
- Дипфейк-видео — это фейковая видеозапись.в котором ИИ может генерировать лицо, мимику, поведение и голос выбранного человека. Видео также можно отредактировать, чтобы создать впечатление, будто человек действительно произнес определенные слова или выполнил определенное действие. Технология Deepfake означает, что видеодоказательства больше не являются неопровержимыми, поскольку их можно полностью сгенерировать.
- Клонирование голоса — это продвинутая форма дипфейкового звука.. При этом ИИ не только воспроизводит голос, но и может в реальном времени адаптировать высказывание к любому контенту. Это позволяет преступникам выдавать себя за избранных людей во время телефонного разговора.
- Синтетические личности — это новые цифровые личности, созданные из смеси реальных и сгенерированных данных.. Таким образом, ИИ позволяет создавать поддельные фотографии профиля, онлайн-историю, а также цифры и данные, похожие на реальные. В руках мошенников они используются, например, для открытия личных счетов, получения кредитов или инвестирования в мошенничество.
Стоит знать, какие возможности предлагают инструменты ИИ. Тем более, что мошенники с их использованием становится все сложнее отличить от реальных сообщений или видео в Интернете. Жертва может не осознавать, что ею манипулируют с помощью искусственного интеллекта.
Михаил Нилов / Pexels
Самые популярные мошенничества с использованием ИИ
Генеративный искусственный интеллект позволяет мошенникам автоматически создавать рекламу, выдающую себя за известных людей, с целью вымогательства денег или конфиденциальной информации. Ниже мы подготовили наиболее распространенные модели преступной деятельности.
1. «Для начальника» — продвинутый вариант мошенничества с генеральным директором
Как это работает: преступник создает фальшивый звук или клонирует голос, чтобы выдать себя за директора или руководителя. Он связывается с финансовым отделом и заказывает срочный перевод или смену получателя. Атака может быть поддержана фальшивой перепиской по электронной почте, чтобы завоевать большее доверие.
Пример: The Guardian сообщила о случае, когда мошенники выдали себя за генерального директора крупнейшей в мире рекламной группы WPP. Для этого преступники создали фейковую учетную запись WhatsApp, которую использовали для организации встречи в Microsoft Teams. Для клонирования голоса использовались материалы с YouTube. Мошенники пытались вымогать данные и деньги под видом создания новой компании.
Предупреждающие сигналы: Необычная форма заказа (торопливость, отсутствие документов), просьба о срочном переводе вне обычных процедур, общение с неизвестных номеров.
2. Фейковые инвестиции и реклама со знаменитостями
Как это работает: Создаются манипулированные интервью «с участием» известного человека. Это может быть спортивная знаменитость, влиятельный человек или финансовый эксперт. В записи он рекомендует конкретную инвестиционную платформу, криптовалюту или другой инвестиционный продукт. Рекламу можно увидеть в Интернете и социальных сетях. Таким образом, жертвы теряют свои деньги, вкладывая средства, например. на фейковых платформах.
Пример: Громкое дело касалось грузинской группы, выдававшей себя за Мартина Льюиса, Зои Болл и Бена Фогла. Для этого они использовали фейковые криптовалюты и инвестиционные программы. Обманутым оказались жители Великобритании, Европы и Канады. В общей сложности воры похитили 35 миллионов долларов США.
Предупреждающие сигналы: Обещания «гарантированной прибыли», нехватка времени («предложение только сегодня»), отсутствие поддающихся проверке данных о компании, подозрительные мнения и отсутствие лицензии от Польского управления финансового надзора или другого учреждения.
3. Кража личных данных и фейковые аккаунты
Как это работает: Преступники создают поддельные личности, чтобы брать кредиты или открывать брокерские счета. Такие документы, как удостоверения личности и фотографии, выглядят настолько реальными, что традиционные системы проверки эффективно обманываются.
Пример: Согласно отчету Veriff 2025 Identity Fraud Report, количество таких попыток увеличилось на 21%, а дипфейки ответственны за 1 из 20 ошибок при проверке личности.
Предупреждающие сигналы: документы с метаданными низкого качества, противоречивой онлайн-историей, учетные записи с минимальной активностью, используемые для крупных транзакций.
4. Выдача себя за сотрудника банка
Как это работает: мошенничество использует клонирование голоса или изменение идентификаторов вызовов. Таким образом, получатель видит, что с ним связывается банк или техническая служба. Цель состоит в том, чтобы убедить жертву предоставить данные для входа в онлайн-банкинг, коды SMS или одобрение перевода.
Пример: Это одна из самых популярных афер в Польше. Например, в 2024 году таким образом 340 тыс. житель Радомского района потерял PLN, а PLN 100 000. PLN житель Ястшембе.
Предупреждающие сигналы: Просьбы предоставить пароли или смс-коды, инструкции по установке удаленных приложений, просьбы отвести средства «в целях безопасности» из-за взлома аккаунта.
Как распознать дипфейк?
Вы можете защитить себя от мошенничества с помощью ИИ. Поэтому, имея дело с подозрительными запросами или слишком красивой рекламой, обратите внимание на такие детали, как:
- Неестественные движения рта или глаз, невозможность моргать.
- Несоответствующее освещение или тени на лице.
- Изображение размытое, дрожащее или имеет размытые края.
- Искусственный, плоский или искаженный голос.
- Отсутствие связи между мимикой и эмоциями в речи.
- Подозрительно идеальное качество лица при худшем фоне.
- Неестественные паузы в речи или обрывы звука.
- Создание цейтнота и поощрение быстрых действий.
Не забывайте сохранять бдительность в любых ситуациях. Особенно, когда речь идет об отправке денег или передаче конфиденциальных данных. Искусственный интеллект также позволяет распознавать попытки мошенничества, для этого можно использовать детекторы дипфейков, например. Чувствительность ИИ. Однако помните, что ни один инструмент не дает 100% уверенности.
Как защититься от финансовых мошенников?
Вы можете не только следить за деятельностью преступников, но и сами активно проверять подозрительные ситуации. Чтобы более эффективно противодействовать угрозам с использованием, в частности, генеративного ИИ, помните:
- Всегда проверяйте заказы на перевод за пределами канала, по которому вы их получили, например. позвоните по официальному номеру банка.
- Не сообщайте SMS-коды и пароли. Не устанавливайте программу удаленного доступа по просьбе звонящего.
- Проверьте источник рекламы: веб-сайт с правилами, контактными данными, номером лицензии Финансовой инспекции Польши или мнения независимых источников.
- Будьте осторожны, увидев такие лозунги, как «гарантированная прибыль», «быстрый возврат инвестиций» и т. д.
- Сообщайте о подозрительной рекламе и материалах участвующим компаниям или платформам социальных сетей. Быстрое сообщение может защитить других людей.
Что делать, если вы стали жертвой цифрового мошенника?
Потеря денег, особенно большой суммы сбережений, может стать шоком. Однако самое главное – действовать быстро. Чем быстрее вы отреагируете, тем больше у вас шансов ограничить свои потери.
Вот почему ниже мы подготовили шаги, которые следует предпринять, если вас уже обманули.
- Блокировать доступ и менять пароли ко всем аккаунтам, связанным с инцидентом. Включите двухфакторную аутентификацию (2FA) и, в случае банковского счета, не забудьте заблокировать карту.
- Свяжитесь со своим банком и сообщите о несанкционированной транзакции.. Запросите возврат платежа или подайте жалобу. Также стоит распорядиться заморозить подозрительные переводы, если они еще не были зафиксированы.
- Сообщите об этом в полицию. Доказательства в виде скриншотов, записей или ссылок будут полезны. Вы можете сообщить об утечке персональных данных в Управление по защите персональных данных (UODO).
- Заблокируйте свои данные. Особенно полезно зарезервировать свой номер PESEL.
- Сообщите своим близким и коллегамесли мошенник выдает себя за вас или вашу компанию. Расскажите своим друзьям, если они получили подозрительные сообщения от вашего аккаунта.
Дипфейки и мошенничество с использованием искусственного интеллекта становятся все более распространенными, но, зная об этом и действуя быстро, вы можете эффективно защитить свои деньги, данные и репутацию. Сознательный ответ — лучшая форма защиты в цифровом мире.
FAQ – часто задаваемые вопросы и ответы
Является ли дипфейк ИИ?
Да, дипфейк — это генеративный искусственный интеллект, который может создавать реалистичное изображение, видео или голос. Образцов фотографий и голосов достаточно, чтобы алгоритмы машинного обучения генерировали ложные, но очень убедительные материалы.
Это означает, что мошенник может использовать ИИ для создания записей, которые становится все труднее обнаружить и которые могут быть использованы для финансовых атак, мошенничества или кражи личных данных.
Как проверить, является ли разговор или видео AI?
Ни один метод не является эффективным на 100%. Однако, чтобы выявить мошенничество с использованием ИИ, вы можете обратить внимание на:
- Неестественные паузы, отсутствие эмоций или слишком плавная интонация.
- Задержки между движением губ и звуком.
- Проверить собеседника через другой канал невозможно.
- Подозрительная просьба о быстром решении.
- Искажение изображения вокруг глаз, зубов или волос.
Существуют ли инструменты для обнаружения дипфейков?
Да, существуют продвинутые инструменты, которые могут обнаружить мошенничество с помощью ИИ. Хотя они не на 100% точны. Они могут анализировать аудио-видео материалы в режиме реального времени.
К наиболее популярным детекторам дипфейков относятся:
- Чувствительность ИИ,
- Сканер глубокого ПО,
- видеоаутентификатор Microsoft,
- Защитник реальности,
- Диптрейс.
Эти инструменты используют различные методы, такие как анализ выражения лица, интонации голоса, характеристик фона и метаданных, чтобы обнаружить даже незначительные признаки манипуляции. Тем не менее, наиболее эффективное решение — объединить технологии с бдительностью человека. Особенно в случае подозрительных сообщений, записей или запросов на быструю передачу.
Юридическая оговорка и отказ от ответственности
Содержание сайта E-kursy FX является исключительно частным мнением авторов и не представляет собой инвестиционную рекомендацию по смыслу Постановления Министра финансов от 19.10.2005. Мы не несем ответственности за решения, принятые на их основе. Инвестирование (особенно с кредитным плечом) сопряжено с риском потери капитала. Сайт не предоставляет консультационные услуги.
Предупреждение о CFD
CFD сложны и сопряжены с высоким риском быстрой потери денежных средств из-за кредитного плеча. До 90% счетов розничных инвесторов несут убытки. Убедитесь, что вы понимаете, как работают CFD, и можете позволить себе такие высокие риски.
Принадлежность
Контент может содержать партнёрские ссылки. Используя их, вы поддерживаете развитие веб-сайта без каких-либо дополнительных затрат с вашей стороны.