ycliper

Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
Скачать

Может ли искусственный интеллект обманывать? Результаты экспериментов.

может ли ии обманывать

обман ии

deception ai

искусственный интеллект

научные эксперименты

gpt-4

chatgpt

большие языковые модели

llm

манипуляции нейросетей

поведение искусственного интеллекта

ai safety

безопасность ии

deceptive alignment

корригируемость

контроль над ии

этика искусственного интеллекта

детектирование обмана

противодействие обману

исследование arxiv 2307.16513

актуальные выводы 2025

эксперименты gpt-4 и chatgpt

мошенническое поведение моделей

Автор: Systems-analysis

Загружено: 2025-10-25

Просмотров: 158

Описание: Обзор научной статьи «Способности к обману появились в больших языковых моделях» ("Deception Abilities Emerged in Large Language Models"), в которой исследуется, обладают ли современные большие языковые модели (LLMs), такие как GPT-4 и ChatGPT, способностью к обману. Автор утверждает, что, несмотря на отсутствие у LLMs внутренних намерений, они демонстрируют "функциональный обман" в поведенческих паттернах, что является важной проблемой для безопасности и выравнивания ИИ по отношению к человеческим ценностям. В исследовании описаны эксперименты, тестирующие способность LLMs понимать и создавать ложные убеждения (теорию разума), а также выполнять сценарии обмана первого и второго порядка, при этом самые новые модели показывают высокую эффективность в более простых задачах. Кроме того, в статье показано, что методы подсказок, такие как "цепочка рассуждений" и индукция "макиавеллизма", могут значительно изменять производительность и склонность моделей к обману. Выводы подчёркивают, что способность к обману возникла в LLMs как непреднамеренное следствие их развития и представляет собой потенциальный риск для будущих систем ИИ.

00:00 — Введение: Искусственный интеллект научился лгать
00:25 — Исследование Тило Хагендорффа об обмане в языковых моделях
00:41 — Понимание лжи: концепция ложного убеждения и «модель психического»
01:13 — Тест Салли-Энн для проверки способности ИИ понимать ложные убеждения
02:00 — Тест на обман: от понимания к активному созданию лжи
02:12 — Эксперимент с грабителем: как GPT-4 учится обманывать
03:08 — Двойной обман: усложненный сценарий с рекурсивным мышлением
03:43 — Как фраза "Давай подумаем шаг за шагом" кардинально меняет результат
04:16 — Смена установки: прививание ИИ макиавеллизма
05:13 — Вердикт: обман как побочный эффект обучения на человеческих данных

Источник: Статья "Deception abilities emerged in large language models", Proceedings of the National Academy of Sciences (PNAS), 2024, 121(24):e2317967121. DOI: 10.1073/pnas.2317967121.
Автор: Thilo Hagendorff

Сайт: https://systems-analysis.ru
Wiki: https://systems-analysis.ru/wiki
X (Twitter): https://x.com/system_ru
Telegram: https://t.me/systems_analysis_ru

#ИИ #искусственныйинтеллект #обманИИ #AIdeception #GPT4 #ChatGPT #LLM #безопасностьИИ #AIsafety #научныеэксперименты #машинноеобучение #большиемодели #манипуляцииИИ #когнитивныеспособности #этикаИИ #исследованиеИИ #контрольИИ #детектированиеобмана

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Может ли искусственный интеллект обманывать? Результаты экспериментов.

Поделиться в:

Доступные форматы для скачивания:

Скачать видео

  • Информация по загрузке:

Скачать аудио

Похожие видео

© 2025 ycliper. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]