ycliper

Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
Скачать

Prof. Surya Ganguli - From statistical physics theory to machine learning algorithms: how to beat...

Автор: Center for Intelligent Systems CIS EPFL

Загружено: 2022-10-05

Просмотров: 1641

Описание: Prof. Surya Ganguli, Stanford Meta AI

From statistical physics theory to machine learning algorithms: how to beat neural scaling laws through data pruning

Abstract
Statistical mechanics theory and neural network experiments have long enjoyed fruitful interactions spanning the fields of neuroscience and machine learning alike. These interactions have provided both conceptual insights into neural network function as well as engineering insights into how to improve network performance. We will review some of our recent work in this area and then focus on one recent story involving neural scaling laws and how to beat them. Neural scaling experiments reveal that the error of many neural networks falls off as a power law with network size, dataset size or compute. Such power laws have motivated significant societal investments in large scale model training and data collection efforts. Inspired by statistical mechanics calculations, we show both in theory and in practice how we can beat neural power law scaling with respect to dataset size, sometimes achieving much better exponential scaling instead, by collecting small carefully curated datasets rather than large random ones. This suggests a promising path forward to more resource efficient machine learning may lie in the creation of carefully selected foundation datasets capable of training many different models.


Bio
Surya Ganguli triple majored in physics, mathematics, and EECS at MIT, completed a PhD in string theory at Berkeley, and a postdoc in theoretical neuroscience at UCSF. He is now an associate professor of Applied physics at Stanford where he leads the Neural Dynamics and Computation Lab and is a Research Scientist at Meta AI.

His research spans the fields of neuroscience, machine learning and physics, focusing on understanding and improving how both biological and artificial neural networks learn striking emergent computations. He has been awarded a Swartz-Fellowship in computational neuroscience, a Burroughs-Wellcome Career Award, a Terman Award, a NeurIPS Outstanding Paper Award, a Sloan fellowship, a James S. McDonnell Foundation scholar award in human cognition, a McKnight Scholar award in Neuroscience, a Simons Investigator Award in the mathematical modeling of living systems, and an NSF career award.

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Prof. Surya Ganguli - From statistical physics theory to machine learning algorithms: how to beat...

Поделиться в:

Доступные форматы для скачивания:

Скачать видео

  • Информация по загрузке:

Скачать аудио

Похожие видео

CIS Colloquium: Chris Wiggins   HD 1080p

CIS Colloquium: Chris Wiggins HD 1080p

Surya Ganguli | Statistical mechanics of neural networks

Surya Ganguli | Statistical mechanics of neural networks

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

CIS COLLOQUIUM : Prof. Jean-Philippe Vert - Differentiable Ranking and Sorting

CIS COLLOQUIUM : Prof. Jean-Philippe Vert - Differentiable Ranking and Sorting

Conversation with Elon Musk | World Economic Forum Annual Meeting 2026

Conversation with Elon Musk | World Economic Forum Annual Meeting 2026

System Design Concepts Course and Interview Prep

System Design Concepts Course and Interview Prep

ЛЕКЦИЯ ПРО НАДЁЖНЫЕ ШИФРЫ НА КОНФЕРЕНЦИИ БАЗОВЫХ ШКОЛ РАН В ТРОИЦКЕ

ЛЕКЦИЯ ПРО НАДЁЖНЫЕ ШИФРЫ НА КОНФЕРЕНЦИИ БАЗОВЫХ ШКОЛ РАН В ТРОИЦКЕ

Цепи Маркова — математика предсказаний [Veritasium]

Цепи Маркова — математика предсказаний [Veritasium]

Но что такое нейронная сеть? | Глава 1. Глубокое обучение

Но что такое нейронная сеть? | Глава 1. Глубокое обучение

IMS Medallion Lecture:

IMS Medallion Lecture: "Statistical Optimal Transport”, Philippe Rigollet

Может ли у ИИ появиться сознание? — Семихатов, Анохин

Может ли у ИИ появиться сознание? — Семихатов, Анохин

CIS Colloquium: Prof. Meisam Razaviyayn, University of Southern California

CIS Colloquium: Prof. Meisam Razaviyayn, University of Southern California

AMLD 2023 AI workshop,

AMLD 2023 AI workshop, "A Super Simple Introduction to AI and Generative AI", Prof. P. Vandergheynst

ДНК создал Бог? Самые свежие научные данные о строении. Как работает информация для жизни организмов

ДНК создал Бог? Самые свежие научные данные о строении. Как работает информация для жизни организмов

Stanford CS230 | Autumn 2025 | Lecture 1: Introduction to Deep Learning

Stanford CS230 | Autumn 2025 | Lecture 1: Introduction to Deep Learning

Как LLM могут хранить факты | Глава 7, Глубокое обучение

Как LLM могут хранить факты | Глава 7, Глубокое обучение

Statistical Mechanics Lecture 1

Statistical Mechanics Lecture 1

Как происходит модернизация остаточных соединений [mHC]

Как происходит модернизация остаточных соединений [mHC]

ЗАЧЕМ ТРАМПУ ГРЕНЛАНДИЯ? / Уроки истории @MINAEVLIVE

ЗАЧЕМ ТРАМПУ ГРЕНЛАНДИЯ? / Уроки истории @MINAEVLIVE

BREAKING NEWS: Elon Musk Holds Surprise Talk At The World Economic Forum In Davos

BREAKING NEWS: Elon Musk Holds Surprise Talk At The World Economic Forum In Davos

© 2025 ycliper. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]