ycliper

Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
Скачать

How Do Transformers Learn Variable Binding?

Автор: Simons Institute for the Theory of Computing

Загружено: 2025-02-18

Просмотров: 1720

Описание: Raphaël Millière (Macquarie University)
https://simons.berkeley.edu/talks/rap...
LLMs, Cognitive Science, Linguistics, and Neuroscience

Variable binding—the ability to temporarily associate variables with values while maintaining their independent identity—is considered a fundamental requirement for symbolic computation and higher cognitive functions. Classical theories argue that this capability requires specific architectural features, particularly an addressable read/write memory system supporting indirect addressing. This has led to skepticism about whether neural networks, which lack such explicit architectural support, can implement genuine variable binding mechanisms.

In this study, we investigate whether and how a Transformer-based neural network can learn to solve a variable binding and dereferencing task. We train the model on synthetic programs containing chains of variable assignments, where success requires tracking multiple variable bindings and resolving reference chains of varying depths. The task is specifically designed to require systematic variable binding rather than simple pattern matching, as the network must maintain and traverse complex graphs of variable references while ignoring irrelevant distractor chains.

The Transformer architecture's residual stream provides a high-dimensional vector space that could theoretically support variable binding through learned partitioning into functional subspaces. Using mechanistic interpretability techniques, we investigate how the trained network implements this symbolic computation. Our analysis reveals how the network initially learns shallow heuristics, then undergoes a rapid transition towards implementing a general algorithm to solve the task by tracking variable assignments.

This work contributes to our understanding of how neural architectures might support symbolic computation, suggesting that capabilities traditionally thought to require specific architectural features can emerge through learning. I will conclude by reflecting on the implications of these findings for cognitive science and artificial intelligence.

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
How Do Transformers Learn Variable Binding?

Поделиться в:

Доступные форматы для скачивания:

Скачать видео

  • Информация по загрузке:

Скачать аудио

Похожие видео

Understanding Outer Optimizers in Local SGD: Learning Rates, Momentum, and Acceleration

Understanding Outer Optimizers in Local SGD: Learning Rates, Momentum, and Acceleration

Neuroscience and AI: a symbiosis

Neuroscience and AI: a symbiosis

Что мы знаем о Москве без интернета, депортациях россиян, Паралимпиаде и конституции Казахстана

Что мы знаем о Москве без интернета, депортациях россиян, Паралимпиаде и конституции Казахстана

Exact Unlearning of Finetuning Data via Model Merging at Scale

Exact Unlearning of Finetuning Data via Model Merging at Scale

Может ли у ИИ появиться сознание? — Семихатов, Анохин

Может ли у ИИ появиться сознание? — Семихатов, Анохин

Травматолог №1: Суставы в 40, будут как в 20! Главное внедрите эти простые привычки

Травматолог №1: Суставы в 40, будут как в 20! Главное внедрите эти простые привычки

Почему AI генерит мусор — и как заставить его писать нормальный код

Почему AI генерит мусор — и как заставить его писать нормальный код

Математическая тревожность, нейросети, задачи тысячелетия / Андрей Коняев

Математическая тревожность, нейросети, задачи тысячелетия / Андрей Коняев

Лучший документальный фильм про создание ИИ

Лучший документальный фильм про создание ИИ

Дороничев: ИИ — пузырь, который скоро ЛОПНЕТ. Какие перемены ждут мир?

Дороничев: ИИ — пузырь, который скоро ЛОПНЕТ. Какие перемены ждут мир?

4 Hours Chopin for Studying, Concentration & Relaxation

4 Hours Chopin for Studying, Concentration & Relaxation

Эти мышцы запрещено растягивать каждому! Никогда не растягивай эти мышцы!

Эти мышцы запрещено растягивать каждому! Никогда не растягивай эти мышцы!

Нейробиолог: Как не отупеть к 50 годам. Связь слабоумия и привычек | Владимир Алипов

Нейробиолог: Как не отупеть к 50 годам. Связь слабоумия и привычек | Владимир Алипов

Лекция от легенды ИИ в Стэнфорде

Лекция от легенды ИИ в Стэнфорде

Лучшие из Бах

Лучшие из Бах

Как вредит смартфону беспроводная зарядка? + НОВОСТИ!

Как вредит смартфону беспроводная зарядка? + НОВОСТИ!

АУДИО. Как звучал древнерусский язык? • Подкаст Arzamas о русском языке • s01e01

АУДИО. Как звучал древнерусский язык? • Подкаст Arzamas о русском языке • s01e01

Как заговорить на любом языке? Главная ошибка 99% людей в изучении. Полиглот Дмитрий Петров.

Как заговорить на любом языке? Главная ошибка 99% людей в изучении. Полиглот Дмитрий Петров.

Музыка для работы за компьютером | Фоновая музыка для концентрации и продуктивности

Музыка для работы за компьютером | Фоновая музыка для концентрации и продуктивности

УХТОМСКИЙ - физиолог ДОКАЗАЛ, что МОЗГ сам выбирает РЕАЛЬНОСТЬ. ОДИН против всех !

УХТОМСКИЙ - физиолог ДОКАЗАЛ, что МОЗГ сам выбирает РЕАЛЬНОСТЬ. ОДИН против всех !

© 2025 ycliper. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]