ycliper

Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
Скачать

Learning Forever, Backprop Is Insufficient

Автор: Edan Meyer

Загружено: 2022-04-04

Просмотров: 19789

Описание: #ai #ml

Continual Learning, or Life-long learning, is becoming more popular in Machine Learning (ML). This new research paper talks about plasticity decay, and how normal backpropagation is insufficient for continual learning. The inherent non-stationary property in many problems, especially in Reinforcement Learning (RL), makes it difficult to learn. Continual Backpropagation (CBP) is proposed as a solution to this.

Outline:
0:00 - Overview
2:00 - Paper Intro
2:53 - Problems & Environments
8:11 - Plasticity Decay Experiments
11:45 - Continual Backprop Explained
15:54 - Continual Backprop Experiments
22:00 - Extra Interesting Experiments
25:34 - Summary

Paper source: https://arxiv.org/abs/2108.06325

Abstract:
The Backprop algorithm for learning in neural networks utilizes two mechanisms: first, stochastic gradient descent and second, initialization with small random weights, where the latter is essential to the effectiveness of the former. We show that in continual learning setups, Backprop performs well initially, but over time its performance degrades. Stochastic gradient descent alone is insufficient to learn continually; the initial randomness enables only initial learning but not continual learning. To the best of our knowledge, ours is the first result showing this degradation in Backprop's ability to learn. To address this issue, we propose an algorithm that continually injects random features alongside gradient descent using a new generate-and-test process. We call this the Continual Backprop algorithm. We show that, unlike Backprop, Continual Backprop is able to continually adapt in both supervised and reinforcement learning problems. We expect that as continual learning becomes more common in future applications, a method like Continual Backprop will be essential where the advantages of random initialization are present throughout learning.

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Learning Forever, Backprop Is Insufficient

Поделиться в:

Доступные форматы для скачивания:

Скачать видео

  • Информация по загрузке:

Скачать аудио

Похожие видео

This Brain Theory Could Replace Backpropagation

This Brain Theory Could Replace Backpropagation

This Algorithm Could Make a GPT-4 Toaster Possible

This Algorithm Could Make a GPT-4 Toaster Possible

Learning Fast with No Goals - VISR Explained

Learning Fast with No Goals - VISR Explained

LLMs Don't Need More Parameters. They Need Loops.

LLMs Don't Need More Parameters. They Need Loops.

Почему в Москве так мало небоскрёбов?

Почему в Москве так мало небоскрёбов?

Dynamic Deep Learning | Richard Sutton

Dynamic Deep Learning | Richard Sutton

Объяснение Шиншиллы: оптимальные для вычислений массивные языковые модели

Объяснение Шиншиллы: оптимальные для вычислений массивные языковые модели

Разбор 7 уровней Ситхов в деталях

Разбор 7 уровней Ситхов в деталях

Can We Build an Artificial Hippocampus?

Can We Build an Artificial Hippocampus?

Backpropagation and the brain

Backpropagation and the brain

What's New In Machine Learning?

What's New In Machine Learning?

Как Англия стала ЦЕНТРОМ МИРОВОГО Станкостроения! Истоки Станочного Производства

Как Англия стала ЦЕНТРОМ МИРОВОГО Станкостроения! Истоки Станочного Производства

Почему ИИ может решить самые сложные математические задачи — Ян-Хуэй Хэ (математический физик)

Почему ИИ может решить самые сложные математические задачи — Ян-Хуэй Хэ (математический физик)

Мастер и Маргарита: Каков Иисус у Булгакова?

Мастер и Маргарита: Каков Иисус у Булгакова?

Giorgia Dellaferrera: Biologically plausible alternatives to backpropagation

Giorgia Dellaferrera: Biologically plausible alternatives to backpropagation

Визуализация скрытого пространства: PCA, t-SNE, UMAP | Глубокое обучение с анимацией

Визуализация скрытого пространства: PCA, t-SNE, UMAP | Глубокое обучение с анимацией

AlphaCode Explained: AI Code Generation

AlphaCode Explained: AI Code Generation

Самый важный алгоритм в машинном обучении

Самый важный алгоритм в машинном обучении

Обучение с подкреплением на основе моделей наконец-то работает!

Обучение с подкреплением на основе моделей наконец-то работает!

Настоящая «Матрица» никогда не была зелёной?

Настоящая «Матрица» никогда не была зелёной?

© 2025 ycliper. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]