ycliper

Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
Скачать

Andrea Montanari | Self-induced regularization from linear regression to neural networks

Автор: Harvard CMSA

Загружено: 2020-09-29

Просмотров: 1103

Описание: CMSA New Technologies in Mathematics Seminar 9/23/2020

Speaker: Andrea Montanari, Departments of Electrical Engineering and Statistics, Stanford

Title: Self-induced regularization from linear regression to neural networks

Abstract: Modern machine learning methods -most noticeably multi-layer neural networks- require to fit highly non-linear models comprising tens of thousands to millions of parameters. Despite this, little attention is paid to the regularization mechanism to control model's complexity. Indeed, the resulting models are often so complex as to achieve vanishing training error: they interpolate the data. Despite this, these models generalize well to unseen data : they have small test error. I will discuss several examples of this phenomenon, beginning with a simple linear regression model, and ending with two-layers neural networks in the so-called lazy regime. For these examples precise asymptotics could be determined mathematically, using tools from random matrix theory. I will try to extract a unifying picture.
A common feature is the fact that a complex unregularized nonlinear model becomes essentially
equivalent to a simpler model, which is however regularized in a non-trivial way.
[Based on joint papers with: Behrooz Ghorbani, Song Mei, Theodor Misiakiewicz, Feng Ruan, Youngtak Sohn, Jun Yan, Yiqiao Zhong]

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Andrea Montanari | Self-induced regularization from linear regression to neural networks

Поделиться в:

Доступные форматы для скачивания:

Скачать видео

  • Информация по загрузке:

Скачать аудио

Похожие видео

Seminario Andrea Montanari: mathematical problems in modern machine learning

Seminario Andrea Montanari: mathematical problems in modern machine learning

Алекс Дамиан | Понимание оптимизации в глубоком обучении с использованием центральных потоков

Алекс Дамиан | Понимание оптимизации в глубоком обучении с использованием центральных потоков

Как Америка стала великой

Как Америка стала великой

Теорема Байеса, геометрия изменения убеждений

Теорема Байеса, геометрия изменения убеждений

49 минут, которые ИЗМЕНЯТ ваше понимание Вселенной | Владимир Сурдин

49 минут, которые ИЗМЕНЯТ ваше понимание Вселенной | Владимир Сурдин

Спор вокруг видео Юлии Навальной: Личный выбор или система Путина?

Спор вокруг видео Юлии Навальной: Личный выбор или система Путина?

ОРЕШКИН:

ОРЕШКИН: "А вы это видите?" Что у Путина случилось с губами, кому плохо в Кремле, Трамп, Украина, ТВ

АСЛАНЯН: Дизайн распила. Самый глупый коп. Судьба Гренландии / МАШИНЫ

АСЛАНЯН: Дизайн распила. Самый глупый коп. Судьба Гренландии / МАШИНЫ

Для Чего РЕАЛЬНО Нужен был ГОРБ Boeing 747?

Для Чего РЕАЛЬНО Нужен был ГОРБ Boeing 747?

Уиткофф в Кремле: что обсуждают с Путиным? Станислав Белковский

Уиткофф в Кремле: что обсуждают с Путиным? Станислав Белковский

Как работала машина

Как работала машина "Энигма"?

Кумрун Вафа | Программа «Болотные земли»

Кумрун Вафа | Программа «Болотные земли»

«Трофи»: как работает лучшая активная защита бронетехники

«Трофи»: как работает лучшая активная защита бронетехники

Понимание GD&T

Понимание GD&T

Но что такое нейронная сеть? | Глава 1. Глубокое обучение

Но что такое нейронная сеть? | Глава 1. Глубокое обучение

Основы машинного обучения: Кросс-валидация.

Основы машинного обучения: Кросс-валидация.

Ронг Ма | Современные нелинейные методы встраивания: подробное описание

Ронг Ма | Современные нелинейные методы встраивания: подробное описание

Causal Mechanistic Interpretability (Stanford lecture 1) - Atticus Geiger

Causal Mechanistic Interpretability (Stanford lecture 1) - Atticus Geiger

Как LLM могут хранить факты | Глава 7, Глубокое обучение

Как LLM могут хранить факты | Глава 7, Глубокое обучение

LLM fine-tuning или ОБУЧЕНИЕ малой модели? Мы проверили!

LLM fine-tuning или ОБУЧЕНИЕ малой модели? Мы проверили!

© 2025 ycliper. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]