На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

РИА Новый день

323 подписчика

Свежие комментарии

  • Маша Глага
    ИзменаВ Калининградской...
  • Evgeni Velesik
    Дети и правила дорожного движения - это нонсенс! Ну, не поведут они велосипед по пешеходному переходу и всё!За один вечер вод...
  • Eduard
    ЦАХАЛ свой уничтож с кастратами обрезаными!Премьер-министр И...

Боты стали объединяться в группы для обмана пользователей в мессенджерах

Нейроботы стали объединяться в группы для кражи аккаунтов. Командная работа ИИ позволяет создать впечатление общения с живыми собеседниками, так обман пользователей становится более эффективным, чем традиционный спам. Боты начали обманывать людей, объединяясь в группы в Telegram. Они больше не ограничиваются примитивным спамом, а обучаются красть данные, анализировать поведение пользователей и вести многоуровневые фишинговые кампании, пишут «Известия».

По словам экспертов, это отражает общий тренд на усложнение технологических правонарушений за счет использования генеративных нейросетей. Если ранее ИИ легко было отличить от живых людей, то в последнее время он лучше подстраивается под стиль общения, анализирует написанное в посте, создает более правдоподобные аватарки. Несколько ботов в чате создают видимость естественного диалога, что резко повышает доверие к их сообщениям. Это тревожный сигнал, демонстрирующий, как быстро злоумышленники адаптируются к современным технологиям. В целом использование ИИ для создания фейковых профилей и имитации живых диалогов – это качественный скачок в методах социальной инженерии. Боты генерируют осмысленные комментарии в тему определенной публикации. Они не похожи на спам и не вызывают негативную реакцию. Злоумышленники добавляют в описание своего аккаунта фишинговую ссылку – заинтересованные комментарием пользователи переходят по ней и рискуют потерять персональные данные и деньги. Для маскировки ботов-нейрокомментаторов их создатели стараются использовать фотографии реальных людей, чтобы повысить доверие к публикуемым сообщениям – с изображениями от нейросети это сделать труднее. При этом решений, которые позволили бы предотвратить использование фото реальных людей для оформления аккаунтов ботов, распространяющих рекламу, спам-комментарии и недостоверную информацию, пока что нет.

 

Ссылка на первоисточник
наверх