Мошенничество с использованием ИИ: виды и способы борьбы

·

·

5 мин.

Искусственный интеллект появился в общем доступе относительно недавно – весной 2023 года. Тогда в гонку с OpenAI включились другие технологические компании. Буквально в течение нескольких месяцев из простого чат-бота выросли специфические нейросети-«помощники» на основе искусственного интеллекта.

В самостоятельное направление отделилась AI-графика – искусственный интеллект, позволяющий создавать картинки быстро и с фантазией по заданной задаче (промпту). Появилось ПО разрабатывающее алгоритмы, прогнозы на основе математических моделей. Если раньше нужно было обращаться за базой данных к аналитическим порталам, подключать API и самостоятельно проводить анализ, то теперь даже в ChatGPT 4о можно подключить базу данных. Или бот подскажет скрипт. После чего можно попросить ИИ по, например, модели ARIMA спрогнозировать курс валютных пар.

То, что раньше делалось вручную, теперь можно легко и быстро автоматизировать. И главное – практически бесплатно. Этим также воспользовались и мошенники, которые активизировались с появлением AI. Ведь теперь можно нарастить объемы мошенничества и сгенерировать настолько убедительный контент, что поверит даже сомневающийся скептик.

Искусственный интеллект и мошенничества

С точки зрения мошенника, главное – убедить жертву сделать первый шаг. Заинтересовать, предложить, подтолкнуть к действию (нечто вроде модели продаж AIDA). Каналы коммуникации – электронная почта, мессенджеры, телефон.

  1. Клонирование голоса членов семьи и друзей.

Синтезировать голос любого человека можно было и раньше, но теперь это стало еще проще. С помощью искусственного интеллекта мошенники могут аудио фейк за несколько секунд. В ИИ загружается текст, пример голоса человека – результат через минуту. Вопрос в том, как получить голос знакомых. Но это дело техники. Базы данных «гуляют» в даркнете, получить доступ к базам данных телефонной компании – не проблема (вопрос цены). Дальше мошенники звонят вашим знакомым и записывают голос.

В США уже были громкие случаи, когда люди путем синтезирования чужих голосов пытались подделать голос других людей для достижения своих целей.

  • Как бороться. «Ровный тон, необычно чистый фон, нет пауз и дыхания» — так эксперты чаще всего распознают голосовые фейки. Обычному человеку это не под силу. Потому совет один: любые неизвестные номера, адреса – игнорировать. Позвонил знакомый человек с неизвестного номера – перезвоните на известный ему контакт.

2. Фишинг и спам по электронной почте с персонализацией

По данным компании по безопасности SlashNext, за последний год с июля 2023 года количество фишинговых атак выросло на 856%, с момента запуска ChatGPT (ноябрь 2022) – на 4151%.

С помощью искусственного интеллекта мошенники:

  • Генерируют и адаптируют тексты в соответствии с целевой аудиторией. ИИ автоматически генерирует любой посыл в соответствии с заданными задачами.
  • Тексты переводятся и рассылаются на десятки языков.
  • AI может генерировать индивидуальные письма, зная интересы человека.

Утечка данных происходит постоянно. Мошенники могут получать информацию о месте жительства человека, его привычках. Дальше человеку приходит письмо:

«Добрый день, Александр! Я представляю компанию ХХХ, которая предоставляет финансовые услуги по инвестированию в акции. Вы недавно интересовались возможностями арбитража и мы готовы предложить вам бесплатный кейс, который поможет вам научиться зарабатывать в этом направлении. Воспользуйтесь нашей ссылкой, которая будет доступна бесплатно еще 3 часа».

Здесь и индивидуальный подход, и стимул в виде «бесплатно», «еще 3 часа». Если раньше для таких текстов нужен был креативный человек, теперь за секунды «креативит» ИИ.

  • Как бороться. Не открывать незнакомые письма, не переходить по незнакомым ссылкам. Тем более при подозрительном URL.

3. Дипфейк.

Если ваше лицо есть в открытом доступе (социальные сети, мессенджеры), если есть видео с вашим участием, можно создать дипфейк. Искусственный интеллект позволяет наложить лицо любого человека на другое тело, повторив его жестикуляцию, мимику. Затем дипфейк может использоваться для шантажа или для убеждения ваших друзей.

В январе 2024 года созвон с дипфейками обошелся сотруднику гонконгской компании в 25 млн долл. США. Этот случай стал для Гонконга первым с применением дипфейков. Жертва получила приглашение на онлайн-видеовстречу с участием финансового директора компании. В созвоне принимали участие также и несколько «коллег», которые в последствии оказались имитацией. Во время обсуждения конфиденциальной сделки мошенники убедили жертву перечислить им 25 млн долл. США. По мнению экспертов, с помощью архивных кадров было подделано видео, также были подделаны голоса участников встречи с помощью ИИ.

  • Как бороться. Привлекать при обнаружении проблемы помощь. В том числе помощь полиции, регуляторов и т.д.
  • Подмена личности.

Новый вид применения дипфейков. Используя утечку данных, мошенники получают доступ к базовой информации: номер телефона, дата рождения, электронная почта. Далее мошенники входят в аккаунт биржи/брокера и под видом потери пароля просят восстановить доступ. У криптовалютных бирж для восстановления аккаунта может понадобиться селфи, но и здесь нейросеть справится без проблем.

  • Как бороться. Многофакторная аутентификация. Любые попытки входа должны отображаться у вас на почте или смартфоне.

Комментарий автора. Так как я подписан на многие финансовые каналы, меня без моего ведома добавляют в разные группы. К сожалению, они на данный момент удалены, потому скрина не будет. Но суть следующая: некий гуру трейдинга/арбитража/криптовалют предлагает заработок. И в чате группы идет постоянная переписка людей между собой. Переписка убедительная, если не присматриваться к сути. Она «ни о чем». Если вы попросите поставить живых людей в чате «+» или зададите актуальный вопрос, скорее всего вы результат не получите. Задача админа – перехватывать в чате интересующихся предложением людей. Остальная переписка ведется ИИ.

Вывод: искусственный интеллект позволил во много раз ускорить то, что человек раньше делал практически вручную. Пока он далек от идеала, но это хороший помощник в простых задачах. Но этот момент играет также на руку и мошенникам. Потому проверяйте любую незнакомую информацию и не торопитесь принимать решение.

Что почитать: «Мошенничества в социальных сетях», «И снова о мошенничествах в Telegram», «Криптовалютные мошенничества».

UPD. Пока готовился этот обзор, «в дверь постучали»:

Обратите внимание на стиль написания текста. Человек с именем Tomasz настолько идеально владеет русским языком и речевыми оборотами, что появляются сомнения. Еще и текст написан курсивом. Скажите, если бы вы сами писали обращение к человеку с другой страны, у вас бы так получилось? Или все же приложил руку искусственный интеллект?

И суть: гарантированная доходность от 912,5% годовых (2,5*365), которая не снится даже инвестиционным фондам. Вывод денег без комиссии (это вообще как?) и «очень надежный проект».

А дальше классика:

Не менее профессионально написанный на русском текст, скрин с якобы выводом денег. Ссылка на инвестиционную платформу, у которой при британской регистрации нет ни малейшего намека на лицензию FCA (и вообще какую-либо лицензию). Да и сам сайт с регистрацией в Нигерии и датой регистрации 3 месяца назад.

Сам Tomasz ни на один мой вопрос не ответил, а потом и вовсе перестал читать мои сообщения.

Искусственный интеллект работает в обе стороны. Но если его используют мошенники, почему бы с его помощью не попробовать их разоблачать?

Будьте осторожны! И к любым предложениям заработка тем более без комиссий и с фиксированным доходом воспринимайте скептически.

Теги: