ycliper

Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
Скачать

Modular & Causal Knowledge Representation for Lifelong Learning - Yoshua Bengio - CoLLAs 2022

Автор: Conference on Lifelong Learning Agents (CoLLAs)

Загружено: 2022-09-19

Просмотров: 3940

Описание: Abstract:
How can what has been learned on previous tasks generalize quickly to new tasks or changes in distribution? The study of conscious processing in human brains (and the window into it given by natural language) suggests that we are able to decompose high-level verbalizable knowledge into reusable components (roughly corresponding to words and phrases). This has stimulated research in modular neural networks where attention mechanisms can be used to dynamically select which modules should be brought to bear in a given new context. Another source of inspiration for tackling this challenge is the body of research into causality, where changes in tasks and distributions are viewed as interventions. The crucial insight is that we need to learn to separate (somewhat like in meta-learning) what is stable across changes in distribution,environments or tasks and what may be separate to each of them or changing in non-stationary ways in time. From a causal perspective what is stable are the reusable causal mechanisms, along with the inference machinery to make probabilistic guesses about the appropriate combination of mechanisms (maybe seen as a graph) in a particular new context. What may change with time are the interventions and other random variables which are those that yield more directly to observations. If interventions are not observed (we do not have labels for fully explaining the changes in tasks in terms of the underlying modules and causal variables) we would ideally like to estimate the Bayesian posterior over the interventions, given whatever is observed.This research approach raises many interesting research questions ranging from Bayesian inference and identifiability to causal discovery, representation learning and out-of-distribution generalization and adaptation, which will be discussed in the presentation.

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Modular & Causal Knowledge Representation for Lifelong Learning - Yoshua Bengio - CoLLAs 2022

Поделиться в:

Доступные форматы для скачивания:

Скачать видео

  • Информация по загрузке:

Скачать аудио

Похожие видео

Continuous Self-supervision and Curiosity - Abhinav Gupta - CoLLAs 2022

Continuous Self-supervision and Curiosity - Abhinav Gupta - CoLLAs 2022

Innovation, AI, and Antitrust (Digital Competition Conference 2026)

Innovation, AI, and Antitrust (Digital Competition Conference 2026)

Лекция от легенды ИИ в Стэнфорде

Лекция от легенды ИИ в Стэнфорде

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

Может ли у ИИ появиться сознание? — Семихатов, Анохин

Может ли у ИИ появиться сознание? — Семихатов, Анохин

Дороничев: ИИ — пузырь, который скоро ЛОПНЕТ. Какие перемены ждут мир?

Дороничев: ИИ — пузырь, который скоро ЛОПНЕТ. Какие перемены ждут мир?

Математическая тревожность, нейросети, задачи тысячелетия / Андрей Коняев

Математическая тревожность, нейросети, задачи тысячелетия / Андрей Коняев

Как заговорить на любом языке? Главная ошибка 99% людей в изучении. Полиглот Дмитрий Петров.

Как заговорить на любом языке? Главная ошибка 99% людей в изучении. Полиглот Дмитрий Петров.

Альтермагнетики: новый вид магнетизма или хайп? – Семихатов, Перов

Альтермагнетики: новый вид магнетизма или хайп? – Семихатов, Перов

Лучший документальный фильм про создание ИИ

Лучший документальный фильм про создание ИИ

Panel Discussion on 'Scaling on Deep Learning' - CoLLAs 2022

Panel Discussion on 'Scaling on Deep Learning' - CoLLAs 2022

КВАНТОВАЯ МЕХАНИКА: 100 лет открытий за 1 час / физик Семихатов

КВАНТОВАЯ МЕХАНИКА: 100 лет открытий за 1 час / физик Семихатов

Фильм Алексея Семихатова «ГРАВИТАЦИЯ»

Фильм Алексея Семихатова «ГРАВИТАЦИЯ»

Зачем нужна топология?

Зачем нужна топология?

Как война в Иране повлияет на Россию. Митинги в регионах. Выборы-2026. Борис Надеждин: Особое мнение

Как война в Иране повлияет на Россию. Митинги в регионах. Выборы-2026. Борис Надеждин: Особое мнение

КАК ИЗМЕНИТСЯ БЛИЖНИЙ ВОСТОК? БЕСЕДА С МИХАИЛОМ КРУТИХИНЫМ

КАК ИЗМЕНИТСЯ БЛИЖНИЙ ВОСТОК? БЕСЕДА С МИХАИЛОМ КРУТИХИНЫМ

But how do AI images and videos actually work? | Guest video by Welch Labs

But how do AI images and videos actually work? | Guest video by Welch Labs

Лучшее от Вивальди 🎵 15 самых популярных произведений 🎼 Исцеление, расслабление

Лучшее от Вивальди 🎵 15 самых популярных произведений 🎼 Исцеление, расслабление

Maintaining Plasticity in Deep Continual Learning - Rich Sutton - CoLLAs 2022

Maintaining Plasticity in Deep Continual Learning - Rich Sutton - CoLLAs 2022

Самая Сложная Задача В Истории Самой Сложной Олимпиады

Самая Сложная Задача В Истории Самой Сложной Олимпиады

© 2025 ycliper. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]