Microsoft показало, что чат-боты страдают «цифровой шизофренией» при долгом общении.
Автор: Профессор Данила Лебединский
Загружено: 2026-02-24
Просмотров: 32
Описание:
Внимание!!! В данном ролике может присутствовать ненормативная лексика!!!
Оставляйте свой комментарии, лайки для видео и обязательно подпишись на мой канал, если хочешь быть в курсе всех (почти)актуальных новостей и моих мыслей на счёт всего.
Донат Профессору, подписываемся https://boosty.to/swan555/donate
Пользователи по всему миру все чаще жалуются, что при длительном общении с чат-ботами нейросети начинают «плыть» и нести чушь. Долгое время это списывали на субъективное восприятие или сложность вопросов, но масштабное исследование Microsoft Research и Salesforce подтвердило, что искусственный интеллект действительно деградирует прямо в процессе диалога.
Аналитики двух корпораций изучили более 200 тысяч бесед с участием самых современных языковых моделей: GPT-4.1, Gemini 2.5 Pro, Claude 3.7 Sonnet, o3 от OpenAI, DeepSeek R1 и Llama 4. Результаты показали странную закономерность: если задавать вопросы по одному, боты демонстрируют блестящие результаты — точность ответов достигает 90%, но стоит диалогу стать естественным и многоходовым (с уточнениями и встречными вопросами), как точность падает до 65%.
Оказалось, что современные LLM (большие языковые модели) страдают от так называемой «преждевременной генерации»: они пытаются дать ответ, даже не дочитав до конца сообщение пользователя. В долгой беседе это приводит к накоплению ошибок. Хуже того, бот использует свой собственный предыдущий ответ (даже если он был абсурдным) как основу для следующей реплики.
Кроме того, специалисты заметили феномен «раздувания ответов». Если в начале диалога ИИ отвечает кратко, то к концу его сообщения становятся длиннее на 20–300% и логика простая: чем больше слов, тем больше в них допущений и откровенных галлюцинаций. При этом бот сам же начинает считать эти ложные данные контекстом и опирается на них в дальнейшем. Интересно, что даже модели с дополнительными «токенами мышления» (такие как o3 или DeepSeek R1) не смогли выпутаться из этой ловушки.
Многие уже начали заменять традиционный поиск в Google на ИИ-обзоры и ответы чат-ботов. Исследование предупреждает: если вы ведете с ботом долгую беседу, пытаясь детализировать задачу, есть огромный риск принять за чистую монету информацию, которую нейросеть буквально выдумала на пустом месте пару реплик назад.
Повторяем попытку...
Доступные форматы для скачивания:
Скачать видео
-
Информация по загрузке: