ycliper

Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
Скачать

Beyond Empirical Risk Minimization: the lessons of deep learning

Автор: MITCBMM

Загружено: 2019-10-29

Просмотров: 6845

Описание: Mikhail Belkin, Professor, The Ohio State University - Department of Computer Science and Engineering, Department of Statistics, Center for Cognitive Science

Abstract: "A model with zero training error is overfit to the training data and will typically generalize poorly" goes statistical textbook wisdom. Yet, in modern practice, over-parametrized deep networks with near perfect fit on training data still show excellent test performance. This apparent contradiction points to troubling cracks in the conceptual foundations of machine learning. While classical analyses of Empirical Risk Minimization rely on balancing the complexity of predictors with training error, modern models are best described by interpolation. In that paradigm a predictor is chosen by minimizing (explicitly or implicitly) a norm corresponding to a certain inductive bias over a space of functions that fit the training data exactly. I will discuss the nature of the challenge to our understanding of machine learning and point the way forward to first analyses that account for the empirically observed phenomena. Furthermore, I will show how classical and modern models can be unified within a single "double descent" risk curve, which subsumes the classical U-shaped bias-variance trade-off.

Finally, as an example of a particularly interesting inductive bias, I will show evidence that deep over-parametrized auto-encoders networks, trained with SGD, implement a form of associative memory with training examples as attractor states.

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Beyond Empirical Risk Minimization: the lessons of deep learning

Поделиться в:

Доступные форматы для скачивания:

Скачать видео

  • Информация по загрузке:

Скачать аудио

Похожие видео

Reconciling modern machine learning and the bias-variance trade-off

Reconciling modern machine learning and the bias-variance trade-off

Лекция по машинному обучению 16 «Минимизация эмпирического риска» — Корнелл CS4780 SP17

Лекция по машинному обучению 16 «Минимизация эмпирического риска» — Корнелл CS4780 SP17

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

Но что такое нейронная сеть? | Глава 1. Глубокое обучение

Но что такое нейронная сеть? | Глава 1. Глубокое обучение

Все, что вам нужно знать о теории управления

Все, что вам нужно знать о теории управления

Что происходит с миром. Фазовый переход, через который пройдут не все. Андрей Фурсов

Что происходит с миром. Фазовый переход, через который пройдут не все. Андрей Фурсов

Блокировка Telegram: ТОП-5 защищенных мессенджеров на замену

Блокировка Telegram: ТОП-5 защищенных мессенджеров на замену

Портал в карманное пространство оказался страшнее чем я думал...

Портал в карманное пространство оказался страшнее чем я думал...

Почему простые числа образуют эти спирали? | Теорема Дирихле и пи-аппроксимации

Почему простые числа образуют эти спирали? | Теорема Дирихле и пи-аппроксимации

DeepOnet: Изучение нелинейных операторов на основе универсальной теоремы об аппроксимации операто...

DeepOnet: Изучение нелинейных операторов на основе универсальной теоремы об аппроксимации операто...

Is Optimization the Right Language to Understand Deep Learning? - Sanjeev Arora

Is Optimization the Right Language to Understand Deep Learning? - Sanjeev Arora

A Universal Law of Robustness

A Universal Law of Robustness

ICLR 2021 Keynote -

ICLR 2021 Keynote - "Geometric Deep Learning: The Erlangen Programme of ML" - M Bronstein

Альфред Кох – Путин 1990-х, бандиты, НТВ, Навальный / вДудь

Альфред Кох – Путин 1990-х, бандиты, НТВ, Навальный / вДудь

Computation and Learning with Assemblies of Neurons

Computation and Learning with Assemblies of Neurons

16. Learning: Support Vector Machines

16. Learning: Support Vector Machines

Learning Representations Using Causal Invariance - Leon Bottou

Learning Representations Using Causal Invariance - Leon Bottou

Complete Statistical Theory of Learning (Vladimir Vapnik) | MIT Deep Learning Series

Complete Statistical Theory of Learning (Vladimir Vapnik) | MIT Deep Learning Series

Как LLM могут хранить факты | Глава 7, Глубокое обучение

Как LLM могут хранить факты | Глава 7, Глубокое обучение

Проблема нержавеющей стали

Проблема нержавеющей стали

© 2025 ycliper. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]