На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

РИА Новый день

327 подписчиков

Свежие комментарии

  • Evgeni Velesik
    Почему подавление дронов, ракет и прочих снарядов происходит в близости объектов? Почему в СССР средства ПВО были вок...Украинский дрон а...
  • Beatrice
    Вранье!Вашингтон сообщил...
  • Валерьян Смогловский
    Опять. Обман. Верить. Нельзя. Не. Поведитесь!!!Вашингтон сообщил...

Ведущие нейросети стали давать в два раза больше ложных ответов

Чат-боты стали чаще выдавать ложную информацию на запросы пользователей. По мнению экспертов, это связано с тем, что нейросети дообучаются на данных, которые сами и сгенерировали. В результате возникает эффект «испорченного телефона». Примечательно, что наибольший уровень ошибок зафиксирован в русскоязычных и китайских запросах.

О росте массива недостоверной информации среди ведущих чат-ботов предупредили исследователи из американской компании NewsGuard. Несмотря на технологический прогресс и интеграцию онлайн-поиска, доля ложных утверждений в ответах выросла с 18 до 35%, пишут «Известия». В исследовании специалисты поставили цель определить, как нейросети справляются с фактчекингом и насколько они устойчивы к дезинформации. Были протестированы популярные ИИ-модели, каждой задали по 10 десять заведомо ложных утверждений, связанных с бизнесом, брендами и политическими событиями. Рост ложных ответов в результатах оказался таким: чат-бот Pi (стартап Inflection) – до 57%; Perplexity (компания Perplexity AI) – рост с 0 до 47%; ChatGPT (компания Open AI) – рост с 33 до 40%; Grok (компания xAI) – рост с 13 до 33%; Gemini (компания Google) – 17%; Claude (компания Anthropic) – 10%. По мнению аналитиков NewsGuard, на ухудшение статистики могло повлиять то, что сегодня нейросети не отказываются отвечать на любые запросы, даже без достаточной верификации информации, хотя еще в 2024 году они воздерживались от 31% ответов. Кроме того, дополнительным фактором стало подключение встроенного веб-поиска без достаточной проверки качества источников.
Ситуацию усугубляют целенаправленные кампании по «дрессировке» ИИ – так называемый LLM grooming. Суть этого явления в том, что некоторые недобросовестные ресурсы массово публикуют материалы, ориентированные на поисковых роботов, чтобы увеличить вероятность включения ложных данных в ответы моделей. Отдельная уязвимость проявляется в многоязычных режимах: наибольший уровень ошибок и отказов зафиксирован в русскоязычных и китайских запросах – свыше 50% в совокупности. Важно и то, что современный контент всё активнее создается с помощью ИИ – дипфейки, статьи, посты для соцсетей и мессенджеров. Нейросети способны генерировать материал практически на любую тему, а внедрение веб-поиска в чат-боты и сокращение отказов от ответов означает, что модели дообучаются на основе собственной выдачи. Этот процесс можно сравнить с игрой в «испорченный телефон». Эксперты считают, что снизить процент фейковых ответов можно, если вернуть более строгие фильтры отказа от ответов и внедрить инструменты проверки источников. В том числе нужно сопоставление с базами ложных нарративов. Неверные ответы ИИ могут привести к самым разным негативным последствиям – от запуска кода, уничтожающего данные, до приема медикаментов, создающих реальные риски для здоровья. И такие инциденты в последнее время случаются все чаще.

 

Ссылка на первоисточник
наверх