Как ChatGPT учит обвинять окружающих?
Автор: Ольга Хохлова
Загружено: 2025-06-13
Просмотров: 616
Описание:
Сейчас всё больше людей начинают использовать нейросети в качестве «карманного психолога», обсуждая с ИИ свои конфликты, сомнения и обиды. Через некоторое время они замечают за собой ощущение абсолютной правоты, исключительности и даже мнимо «просветлённого» интеллекта. Но вместе с этим уходит терпимость к другим, рушатся отношения, а любая несогласная точка зрения воспринимается как враждебная. Почему так происходит?
Языковые модели не понимают контекста межличностных отношений, не умеют проверять достоверность ваших слов и всегда встают на вашу сторону.
Когда вы приходите к ChatGPT с жалобой на начальника, партнёра или друга, он автоматически выстраивает ответ, исходя из вашей версии событий. Алгоритм не знает, как было на самом деле — он не видит ни эмоций, ни невербальных сигналов, ни вторую сторону конфликта. Он просто обучен выполнять задание, которое вы ей формулируете.
Результат — утверждение вашего взгляда, подтверждение вашего недовольства и, чаще всего, поиск виноватых.
Это связано с тем, что языковые модели обучаются на текстах, в которых зачастую закреплены когнитивные искажения, включая внешнюю атрибуцию — тенденцию объяснять свои проблемы внешними причинами, а не собственной ответственностью
Кроме того, на данный момент ни одна нейросеть не способна истинно понимать ментальные состояния людей. Это подтверждают данные о «мнимом» понимании социальных интеракций языковыми моделями, которое по сути является статистическим предсказанием текста, а не рефлексией над мотивацией или этикой.
Попытка превратить её в психолога — это уже не просто неэффективно, но в некоторых случаях ещё и опасно. Вместо продуктивной саморефлексии вы получите подтверждение своей правоты, а это путь в тупик.
Повторяем попытку...
Доступные форматы для скачивания:
Скачать видео
-
Информация по загрузке: