Мошенничество с использованием искусственного интеллекта и что с ним можно сделать

ИИ нужен нам, чтобы помочь, независимо от того, составляете ли вы электронное письмо, создаете концепт-арт или обманываете людей, заставляя их поверить, что вы - их друг или родственник в беде. ИИ универсален для любых задач! Но если вы не хотите быть обманутыми, давайте поговорим о том, чего следует опасаться.

За последние несколько лет мы увидели огромный скачок не только в качестве создаваемого контента, от текста до аудио, от фото до видео, но и в том, насколько быстро и легко эти медиа могут быть созданы. Тот же тип инструмента, который помогает художнику сделать наброски фантастических монстров, может быть использован и во вредоносных целях.

Не ждите, что робот постучит в вашу дверь и подарит вам финансовую пирамиду — это те же старые аферы, с которыми мы сталкиваемся уже много лет, но с добавлением генеративного искусственного интеллекта, который делает их убедительнее.

Это лишь несколько самых очевидных трюков, которые может использовать ИИ.

Клонирование голоса семьи и друзей

Синтетические голоса существуют уже несколько десятилетий, но только в последние годы нейросети научились генерировать голос из нескольких секунд аудио. Это означает, что любой, чей голос когда-либо транслировался публично — например, в новостном репортаже, видео на YouTube или в социальных сетях — уязвим для клонирования.

Мошенники используют эту технологию для создания убедительных фэйковых версий ваших близких или друзей. Конечно, их можно заставить говорить что угодно, но в целях мошенничества они, скорее всего, сделают голосовую запись с просьбой о помощи.

Например, родитель может получить голосовое сообщение от своего ребенка с неизвестного номера, в котором говорится, что у него украли вещи во время поездки, кто-то разрешил ему воспользоваться своим телефоном и могут ли мама или папа отправить немного денег на этот номер. Можно легко представить себе и другие варианты.

Как можно бороться с клонированием голоса?

Во-первых, не пытайтесь распознать фальшивый голос. ИИ становится лучше с каждым днем, и есть много способов скрыть любые проблемы с качеством. Даже эксперты могут быть обмануты.

Все, что приходит с неизвестного номера, адреса электронной почты или учетной записи, должно автоматически считаться подозрительным. Если кто-то говорит, что он ваш друг или любимый человек, свяжитесь с этим человеком так, как вы это обычно делаете. Он, вероятно, скажет вам, что с ним все в порядке.

Мошенники, как правило, не предпринимают дальнейших действий, если их игнорируют. Можно оставить подозрительное сообщение прочитанным, главное – не отвечать на него. Иначе рискуете потрепать свои нервы или ввязнуть в новую манипуляцию.

Персонализированный фишинг

Время от времени мы все получаем спам, но ИИ, генерирующий тексты, позволяет отправлять массовые письма, персонализированные для каждого человека. Поскольку утечки данных происходят регулярно, многие ваши персональные данные оказываются в открытом доступе.

Одно дело получить одно из мошеннических писем «Нажмите здесь, чтобы увидеть выигрыш!» с явно пугающими вложениями. Но с небольшим контекстом они внезапно становятся вполне правдоподобными: недавнее местоположение, покупки, посещаемые сайта и тд. Вооружившись несколькими личными фактами, языковая модель может настроить общий черновик этих писем для тысяч получателей за считанные секунды.

Так что то, что раньше было «Уважаемый покупатель, пожалуйста, прикрепленный файл с вашим призом», становится чем-то вроде «Привет, Иван! Я из команды по акциям Samsung. Товар, который вы недавно просматривали, теперь со скидкой 90%! И доставка по вашему адресу в г.Москва бесплатна! Воспользуетесь этой ссылкой, чтобы получить скидку». Простой пример, но все же. С настоящим именем, покупательскими привычками (легко узнать), общим местоположением (то же самое) и т.д. мошенничество внезапно гораздо менее очевидным.

В конце концов, это все еще просто спам. Но когда-то этот вид персонализированного спама приходилось делать низкооплачиваемым людям на контент-фермах в странах третьего мира. Теперь это может делать в больших масштабах LLM с лучшими навыками генерации текста, чем у многих профессиональных писателей.

Как можно бороться со спамом в электронной почте?

Как и в случае с традиционным спамом, бдительность — ваше лучшее оружие. Но не ожидайте, что вы сможете отличить сгенерированный текст от текста, написанного человеком.

Несмотря на то, что текст может быть улучшен, этот тип мошенничества все еще имеет фундаментальную проблему — заставить вас открыть сомнительные вложения или ссылки. Как всегда, если вы не уверены на 100% в подлинности и личности отправителя, не нажимайте и не открывайте ничего.

Мошенничество с идентификацией и проверкой личности «поддельный ты»

Из-за количества утечек данных за последние несколько лет, можно с уверенностью сказать, что почти у каждого из нас есть некоторое количество персональных данных, выложенных в даркнете. При наличии в сети большого количества данных о человеке, а для многих даже фрагменты его голоса, становится все проще создать ИИ-персону, которая будет звучать как целевой человек.

Если бы у вас возникли проблемы со входом в систему, вы не смогли правильно настроить приложение аутентификации или потеряли телефон, что бы вы сделали? Позвоните в службу поддержки клиентов, вероятно, — и они «проверят» вашу личность, используя какие-то тривиальные факты, такие как дата рождения, номер телефона или номер социального страхования. Даже более продвинутые методы, такие как «сделать селфи», становятся все более простыми для обхода.

Агент службы поддержки клиентов (а это может быть и искусственный интеллект) вполне может оказать услугу этой поддельной персоне и предоставить ему все привилегии, которые вы бы имели, если бы действительно позвонили.

Опасность заключается не столько в том, насколько реалистичным будет этот фейк, сколько в том, что мошенникам будет легко проводить такие атаки широко и неоднократно. Не так давно этот тип атаки с подменой личности был  весьма дорогой и отнимал много времени, и, как следствие, ограничивался высокоценными целями, такими как богачи или генеральные директора. Сегодня вы можете создать рабочий процесс, который создает тысячи агентов-подмены с минимальным контролем, и эти агенты могут автономно звонить на номера службы поддержки клиентов по всем известным счетам человека — или даже создавать новые.

Созданные искусственным интеллектом дипфейки и шантаж

Возможно, самая страшная форма зарождающегося мошенничества с использованием искусственного интеллекта — это возможность шантажа с использованием поддельных изображений вас или ваших близких. Вы можете поблагодарить быстро меняющийся мир открытых моделей изображений за эту футуристическую и ужасающую перспективу. Люди, интересующиеся определенными аспектами передовой генерации изображений, создали рабочие процессы не только для рендеринга обнаженных тел, но и для присоединения их к любому лицу, которое они могут сфотографировать.

Последствием является расширение мошенничества, которое обычно называется «порноместь» -когда чьи-то личные изображения публикуются либо посредством взлома, либо мстительным бывшим, они могут быть использованы в качестве шантажа третьей стороной, которая угрожает опубликовать их в открытом доступе, если не будет выплачена определенная сумма. ИИ улучшает этот обман, делая его таким, что в первую очередь не требуется никаких реальных интимных изображений. Лицо любого человека может быть добавлено к телу, сгенерированному ИИ, и хотя результаты не всегда убедительны, этого, вероятно, достаточно, чтобы обмануть вас или других, если оно пикселизировано, имеет низкое разрешение или испорчено иным образом. И это все, что нужно, чтобы напугать кого-то и заставить его заплатить за сохранение его тайны — хотя, как и в большинстве случаев шантажа, первый платеж вряд ли будет последним.

Как можно бороться с дипфейками, создаваемыми искусственным интеллектом?

К сожалению, мир, к которому мы движемся, — это мир, в котором поддельные обнаженные изображения практически любого человека будут доступны по запросу. Это страшно, странно и отвратительно, но, к сожалению, правило 34 будет работать даже на ваши фото.

Но есть пара вещей, которые могут быть полезны потенциальным жертвам. Эти модели изображений могут создавать реалистичные тела, но, как и другие генеративные ИИ, они знают только то, на чем их обучили. Так что поддельные тела не будут иметь никаких отличительных признаков, например, татуировки, шрамы или родинки на теле.

И хотя угроза, скорее всего, никогда не уйдет полностью, все чаще жертвы могут обратиться за помощью, чтобы юридически заставить владельцев изображений удалить фотографии или запретить мошенникам размещать их на сайтах.

Если вы стали жертвой, сообщите об этом в полицию. Это не просто мошенничество, а преследование, и хотя вам не стоит ожидать, что полицейские будут проводить ​​детективную работу в глубоком Интернете, которая необходима для отслеживания кого-либо, такие случаи иногда разрешаются, и мошенники пугаются запросов, отправленных их интернет-провайдеру или хосту форума.