ycliper

Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
Скачать

Babak Hassibi: "Implicit and Explicit Regularization in Deep Neural Networks"

Автор: Institute for Pure & Applied Mathematics (IPAM)

Загружено: 2021-05-28

Просмотров: 1067

Описание: Tensor Methods and Emerging Applications to the Physical and Data Sciences 2021
Workshop IV: Efficient Tensor Representations for Learning and Computational Complexity

"Implicit and Explicit Regularization in Deep Neural Networks"
Babak Hassibi - California Institute of Technology

Abstract: Deep learning has demonstrably enjoyed a great deal of recent practical success and is arguably the main driver behind the resurgent interest in machine learning and AI. Despite its tremendous empirical achievements, we are far from a theoretical understanding of deep networks. In this talk, we will argue that the success of deep learning is not only due to the special deep architecture of the models, but also due to the behavior of the stochastic descent methods used, which play a key role in reaching "good" solutions that generalize well to unseen data. We will connect learning algorithms such as stochastic gradient descent (SGD) and stochastic mirror descent (SMD) to work in H-infinity control in the 1990's, and thereby explain the convergence and implicit-regularization behavior of the algorithms when we are highly over-parametrized (what is now being called the "interpolating regime"). This gives us insight into why deep networks exhibit such powerful generalization abilities, a phenomenon now being referred to as "the blessing of dimensionality". The theory also allows us to construct a new algorithm called regularized SMD (RSMD) which can provable explicitly regularize and has far superior generalization performance over SGD for noist data sets.

Institute for Pure and Applied Mathematics, UCLA
May 18, 2021

For more information: https://www.ipam.ucla.edu/tmws4

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Babak Hassibi: "Implicit and Explicit Regularization in Deep Neural Networks"

Поделиться в:

Доступные форматы для скачивания:

Скачать видео

  • Информация по загрузке:

Скачать аудио

Похожие видео

Qing Qu:

Qing Qu: "Landscape Analysis for Overcomplete Tensor and Neural Collapse"

Nadav Cohen:

Nadav Cohen: "Implicit Regularization in Deep Learning: Lessons Learned from Matrix & Tensor Fac..."

Теорема Байеса, геометрия изменения убеждений

Теорема Байеса, геометрия изменения убеждений

Terry Tao - Machine assistance and the future of research mathematics - IPAM at UCLA

Terry Tao - Machine assistance and the future of research mathematics - IPAM at UCLA

Фильм Алексея Семихатова «ГРАВИТАЦИЯ»

Фильм Алексея Семихатова «ГРАВИТАЦИЯ»

Почему простые числа образуют эти спирали? | Теорема Дирихле и пи-аппроксимации

Почему простые числа образуют эти спирали? | Теорема Дирихле и пи-аппроксимации

Дороничев: ИИ — пузырь, который скоро ЛОПНЕТ. Какие перемены ждут мир?

Дороничев: ИИ — пузырь, который скоро ЛОПНЕТ. Какие перемены ждут мир?

Откуда НА САМОМ ДЕЛЕ появились корейцы и корейский язык?

Откуда НА САМОМ ДЕЛЕ появились корейцы и корейский язык?

Объяснение Transformers: понимание модели, лежащей в основе GPT, BERT и T5

Объяснение Transformers: понимание модели, лежащей в основе GPT, BERT и T5

The Arrow of Time in Causal Networks

The Arrow of Time in Causal Networks

Ideas for Tomorrow | Gentry Lee, Chief Engineer for the Solar System Exploration Directorate at JPL

Ideas for Tomorrow | Gentry Lee, Chief Engineer for the Solar System Exploration Directorate at JPL

АСЛАНЯН. Путин спрятал триллионы в Китае. На войну деньги будут, на еду — нет. Сбивают дроны лаптями

АСЛАНЯН. Путин спрятал триллионы в Китае. На войну деньги будут, на еду — нет. Сбивают дроны лаптями

Игорь Липсиц: цена войны — разруха, нищие пенсионеры, разгул криминала

Игорь Липсиц: цена войны — разруха, нищие пенсионеры, разгул криминала

On Implicit Regularization in Deep Learning

On Implicit Regularization in Deep Learning

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

Фейнман в Калифорнийском технологическом институте — Джон Прескилл и Кип Торн — 11 мая 2018 г.

Фейнман в Калифорнийском технологическом институте — Джон Прескилл и Кип Торн — 11 мая 2018 г.

Math Encounters - Primes and Zeros: A Million-Dollar Mystery

Math Encounters - Primes and Zeros: A Million-Dollar Mystery

Q2B24 Silicon Valley | Scott Aaronson, California Institute of Technology

Q2B24 Silicon Valley | Scott Aaronson, California Institute of Technology

GraphRAG: союз графов знаний и RAG: Эмиль Эйфрем

GraphRAG: союз графов знаний и RAG: Эмиль Эйфрем

ФЕДОРОВ:

ФЕДОРОВ: "Это круче Томагавка". Почему Путину надо креститься, что разработала Украина, Кремль, ИРАН

© 2025 ycliper. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]