ycliper

Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
Скачать

Deconstructing Lottery Tickets: Zeros, Signs, and the Supermask (Paper Explained)

Автор: Yannic Kilcher

Загружено: 2020-04-29

Просмотров: 14161

Описание: This paper dives into the intrinsics of the Lottery Ticket Hypothesis and attempts to shine some light on what's important and what isn't.

https://arxiv.org/abs/1905.01067

Abstract:
The recent "Lottery Ticket Hypothesis" paper by Frankle & Carbin showed that a simple approach to creating sparse networks (keeping the large weights) results in models that are trainable from scratch, but only when starting from the same initial weights. The performance of these networks often exceeds the performance of the non-sparse base model, but for reasons that were not well understood. In this paper we study the three critical components of the Lottery Ticket (LT) algorithm, showing that each may be varied significantly without impacting the overall results. Ablating these factors leads to new insights for why LT networks perform as well as they do. We show why setting weights to zero is important, how signs are all you need to make the reinitialized network train, and why masking behaves like training. Finally, we discover the existence of Supermasks, masks that can be applied to an untrained, randomly initialized network to produce a model with performance far better than chance (86% on MNIST, 41% on CIFAR-10).

Authors: Hattie Zhou, Janice Lan, Rosanne Liu, Jason Yosinski

Links:
YouTube:    / yannickilcher  
Twitter:   / ykilcher  
BitChute: https://www.bitchute.com/channel/yann...
Minds: https://www.minds.com/ykilcher

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Deconstructing Lottery Tickets: Zeros, Signs, and the Supermask (Paper Explained)

Поделиться в:

Доступные форматы для скачивания:

Скачать видео

  • Информация по загрузке:

Скачать аудио

Похожие видео

[Classic] Deep Residual Learning for Image Recognition (Paper Explained)

[Classic] Deep Residual Learning for Image Recognition (Paper Explained)

Гипотеза лотерейного билета: поиск разреженных, обучаемых нейронных сетей.

Гипотеза лотерейного билета: поиск разреженных, обучаемых нейронных сетей.

Linformer: Self-Attention with Linear Complexity (Paper Explained)

Linformer: Self-Attention with Linear Complexity (Paper Explained)

Как LLM могут хранить факты | Глава 7, Глубокое обучение

Как LLM могут хранить факты | Глава 7, Глубокое обучение

SynFlow: Pruning neural networks without any data by iteratively conserving synaptic flow

SynFlow: Pruning neural networks without any data by iteratively conserving synaptic flow

Тоннель под Ла-Маншем | Потрясающие инженерные решения, лежащие в его основе

Тоннель под Ла-Маншем | Потрясающие инженерные решения, лежащие в его основе

Selects: How Charles Darwin Worked | STUFF YOU SHOULD KNOW

Selects: How Charles Darwin Worked | STUFF YOU SHOULD KNOW

Экспресс-курс RAG для начинающих

Экспресс-курс RAG для начинающих

J. Frankle & M. Carbin: The Lottery Ticket Hypothesis: Finding Sparse, Trainable Neural Networks

J. Frankle & M. Carbin: The Lottery Ticket Hypothesis: Finding Sparse, Trainable Neural Networks

[Classic] Generative Adversarial Networks (Paper Explained)

[Classic] Generative Adversarial Networks (Paper Explained)

Лучший документальный фильм про создание ИИ

Лучший документальный фильм про создание ИИ

SupSup: Supermasks in Superposition (Paper Explained)

SupSup: Supermasks in Superposition (Paper Explained)

Поиск нейронной архитектуры без обучения (с пояснениями)

Поиск нейронной архитектуры без обучения (с пояснениями)

Метод анализа главных компонентов (PCA) объяснен простыми словами.

Метод анализа главных компонентов (PCA) объяснен простыми словами.

FORMATION DEEP LEARNING COMPLETE (2021)

FORMATION DEEP LEARNING COMPLETE (2021)

Визуализация внимания, сердце трансформера | Глава 6, Глубокое обучение

Визуализация внимания, сердце трансформера | Глава 6, Глубокое обучение

Genialny fizyk: „Prawa fizyki dowodzą, że AI jest z natury zła”!

Genialny fizyk: „Prawa fizyki dowodzą, że AI jest z natury zła”!

Rethinking Attention with Performers (Paper Explained)

Rethinking Attention with Performers (Paper Explained)

Лекция от легенды ИИ в Стэнфорде

Лекция от легенды ИИ в Стэнфорде

Big Self-Supervised Models are Strong Semi-Supervised Learners (Paper Explained)

Big Self-Supervised Models are Strong Semi-Supervised Learners (Paper Explained)

© 2025 ycliper. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]