Современный интернет-мир предстает в новой реальности. Сегодня количество процессов, в которые вмешался искусственный интеллект увеличивается с каждым днем. И, конечно, быстрее всего все технические новинки адаптируют мошенники. Пока человечество думает, как им использовать те или иные возможности ИИ, преступники уже создают дипфейки и ложные голосовые сообщения.
Искусственный интеллект очень многое упростил. И раньше к чужому телу приделывали головы иных людей, и меняли голоса с помощью звуковых программ, но это все требовало много времени и определенных довольно уверенных профессиональных навыков. Сегодня все проблемы запросто решает ИИ, а потому количество и качество мошенничества вышло на новый уровень.
Голосовые сообщения
Не нужны какие-то шумы и голоса «сквозь вату». Сегодня с помощью ИИ ваш голос подделают с точностью до интонации. А потом голосовые сообщения полетят родственникам и друзьям. О чем будут говорить? Конечно, о том, что нужны деньги. Срочно на что-то важное и очень нужное. Все настолько достоверно, что обмануться ничего не стоит.
Сегодня многие переписываются с помощью голосовых. И никого не удивит, если придет подобное. Несколько слов о том – о сем, потом о проблемной ситуации, о деньгах. Может даже незначительная сумма будет называться. Таких обманов очень много.
Если вы получили голосовое сообщение, в котором есть просьба о деньгах или еще какая-то странная, сомнительная, то лучше свяжитесь с человеком иным способом. Позвоните, напишите в других социальных сетях. С большой долей вероятности голосовое сообщение окажется фейком. Еще можно придумать кодовое слово, которое сможет вам подсказать, общаетесь ли вы с реальным близким человеком или это мошенник.
Дипфейк
Шантаж с помощью дипфейка – тоже не новинка «рынка». Фотошоп прибавил нам забот очень давно, но такие фотографии мы научились отличать, да и делались они куда реже, ведь процесс был сложным. ИИ сделает все моментально: и разденет, и переместит вас куда-нибудь, и добавит что-то…. А потом вас начинают шантажировать. В таких случаях сразу обращайтесь в милицию.
Вам прислали дипфейк с другим человеком? Верить или нет? Нам кажется, что в ситуации, когда все вокруг врут, стоит 100 раз подумать, прежде чем доверять даже своим глазам. И видео, и фото не соответствующие действительности сейчас сделать очень легко. Если вам попалась подобная информация, то в первую очередь оцените: кому нужно, чтобы вы поверили в нее. Чем это грозит как вам, так и тому человеку, фейки про которого распространяют. Вполне вероятно, сразу все станет на свои места.
Спам по почте
Сколько уже спама мы получили за всю жизнь, но чаты GPT создают его с невероятной скоростью. Если добавить ко всему массированную утечку информации, то получается очень интересная картина. Часто мошенники знают, что и когда вы покупали, где бывали и что вам интересно. И с этими знаниями ИИ сделает для вас прекрасное предложение, от которого вы не сможете отказаться. Придет письмо, персональное, между прочим, вы по ссылке пройдете… Ну, и далее все вытекающие.
Здесь очень важно помнить и понимать, на кого вы подписаны, на чью рассылку действительно давали согласие, а что пришло непонятно откуда. Также проверяйте адреса, с которых приходят, казалось бы, известные вам предложения. Может быть вы действительно подписаны на подобную рассылку, но одна буква в адресе отправителя все меняет. И, как всегда, на все сомнительные сообщения, письма не отвечайте, по ссылкам не переходите.
Несуществующие товары
Купить что-то интересное, чего пока нет нигде по привлекательной цене. Заманчивые предложения размещали даже на маркетплейсах. Большое количество подобного было на Amazon, добралось и до Вайлдберриз. Правда, торговые площадки и сами предпринимают максимум, чтобы избавиться от мошенников, но каждому покупателю нужно критично относиться к товарам. А оплачивать покупки и общаться с продавцом вне маркетплейса точно не стоит.
Кстати, ИИ отлично наводят красоту на карточках товаров. И сегодня нет никакой проблемы, чтобы создать такую фотографию, которая точно разойдется с реальностью. Это и раньше не составляло особого труда, но сегодня стало в разы проще.
Фальшивая переписка в «тиндере»
В приложениях для знакомств мошенникам всегда было где разгуляться. Несуществующие страницы, выманивание денег и личных данных. Все это упростилось вместе с ИИ. Вы можете месяцами переписываться с искусственным интеллектом и даже не догадаетесь, что это всего лишь нейросетка, за которой даже реального мошенника нет. Обидно. Потому ни в коем случае в подобном общении не делитесь личными данными и никуда не переходите по ссылкам, никому не переводите деньги. Как и раньше тут ничего не меняется.
Чтобы не тратить свое время на ботов, обратите внимание на характер переписки. Для нейросетей характерны слишком быстрые ответы, очень бурные реакции или наоборот их отсутствие там, где должны быть, а также общие фразы, много «воды», повторение одного и того же. В общем, они довольно скучные и странные собеседники.
Копия личности
То, что вас или ваших знакомых, коллег, родственников уже двое, вы можете и не узнать. А для этого ИИ нужны только ваши данные, например, телефон, фото, дата рождения. Все это, наверняка не сложно отыскать в сети. И вот, нейросетка уже делает ваше селфи и подтверждает аккаунт. Вы уже им не управляете. Обезопасить свои интернет-владения можно с помощью многофакторной аутентификации.
Фейк-документы
Понятно, что если фото сделать не проблема, то и с документами проблемы не будет. Сегодня мы часто для регистрации где-либо прикрепляет фотографию паспорта или другого удостоверения. Так вот нейросеть наштампует таких документов сколько угодно. Ваши данные в сети могут оказаться на документах, которые будут применять мошенники для регистраций в сети.
Если вы просите документы, то просите делать несколько фотографий документов с разных ракурсов, а еще проверяйте с помощью специальных сервисов, которые вычисляют ИИ. А каждому пользователю сети стоит помнить, что чем меньше в интернете информации о вас, тем меньше шансов, что ею воспользуются мошенники.