ycliper

Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
Скачать

Sparse Autoencoders: Progress & Limitations with Joshua Engels

Автор: NDIF Team

Загружено: 2025-08-28

Просмотров: 589

Описание: In this talk, Joshua Engels discusses sparse autoencoders, commonly referred to as SAEs, which are used to learn monosemantic features from large model internals. He overviews the motivation and background of SAEs for interpretability, along with addressing their key limitations and future directions, including work on improving SAEs through low-rank adapting models.

Joshua Engels is a research scientist at Google DeepMind working on applied interpretability. At the time of this talk, he was pursuing his PhD at MIT. He is interested in language model representations, AI control, and AI safety more broadly.

Discussed Papers:
https://arxiv.org/abs/2502.16681
https://arxiv.org/abs/2501.19406
Josh's Website: https://www.joshengels.com/

00:00 Intro
28:30 Decomposing the Dark Matter of Sparse Autoencoders
37:43 Are Sparse Autoencoders Useful? A Case Study in Sparse Probing
50:41 Low-Rank Adapting Models for Sparse Autoencoders

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Sparse Autoencoders: Progress & Limitations with Joshua Engels

Поделиться в:

Доступные форматы для скачивания:

Скачать видео

  • Информация по загрузке:

Скачать аудио

Похожие видео

Hoagy Cunningham — Finding distributed features in LLMs with sparse autoencoders [TAIS 2024]

Hoagy Cunningham — Finding distributed features in LLMs with sparse autoencoders [TAIS 2024]

cs294a Sparse Autoencoder Lecture Part 1

cs294a Sparse Autoencoder Lecture Part 1

Vector-Quantized Variational Autoencoders (VQ-VAEs)

Vector-Quantized Variational Autoencoders (VQ-VAEs)

New England Mechanistic Interpretability Workshop

New England Mechanistic Interpretability Workshop

LLM fine-tuning или ОБУЧЕНИЕ малой модели? Мы проверили!

LLM fine-tuning или ОБУЧЕНИЕ малой модели? Мы проверили!

TAIS 2024 | All Talks

TAIS 2024 | All Talks

Глава AI Meta о крахе хайпа вокруг ChatGPT и тупике нейросетей

Глава AI Meta о крахе хайпа вокруг ChatGPT и тупике нейросетей

The Dark Matter of AI [Mechanistic Interpretability]

The Dark Matter of AI [Mechanistic Interpretability]

Как внимание стало настолько эффективным [GQA/MLA/DSA]

Как внимание стало настолько эффективным [GQA/MLA/DSA]

ИИ - ЭТО ИЛЛЮЗИЯ ИНТЕЛЛЕКТА. Но что он такое и почему совершил революцию?

ИИ - ЭТО ИЛЛЮЗИЯ ИНТЕЛЛЕКТА. Но что он такое и почему совершил революцию?

Neural Mechanics Week 1: LLM Foundations and Logit Lens with David Bau

Neural Mechanics Week 1: LLM Foundations and Logit Lens with David Bau

Что такое встраивание слов?

Что такое встраивание слов?

Demo: Gemma Scope: Sparse autoencoders on Gemma 2

Demo: Gemma Scope: Sparse autoencoders on Gemma 2

"In Defense of Curiosity" with David Bau (NeurIPS 2025 Mech Interp Workshop)

Реакция на антропогенную рекламу

Реакция на антропогенную рекламу

A Window  Into LLMs | Sparse Autoencoders Explained

A Window Into LLMs | Sparse Autoencoders Explained

Лучший документальный фильм про создание ИИ

Лучший документальный фильм про создание ИИ

Interpreting SDXL Turbo Using Sparse Autoencoders with Chris Wendler

Interpreting SDXL Turbo Using Sparse Autoencoders with Chris Wendler

Introduction to Mechanistic Interpretability with David Bau

Introduction to Mechanistic Interpretability with David Bau

Самая сложная модель из тех, что мы реально понимаем

Самая сложная модель из тех, что мы реально понимаем

© 2025 ycliper. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]