ycliper

Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
Скачать

Lecture 03 - Pruning and Sparsity (Part I) | MIT 6.S965

Автор: MIT HAN Lab

Загружено: 2022-09-16

Просмотров: 14808

Описание: Lecture 3 gives an introduction to the basics of neural network pruning which can reduce the parameter counts of neural networks by more than 90%, decreasing the storage requirements and improving the computation efficiency of neural networks. In this lecture, we go through all steps of pruning and introduce different granularities and criteria of neural network pruning.

Keywords: Neural Network Pruning, Pruning, Magnitude-based Pruning, Channel Pruning, Fine-grained Pruning

Slides: https://efficientml.ai/schedule/

--------------------------------------------------------------------------------------

TinyML and Efficient Deep Learning Computing

Instructors:
Song Han: https://songhan.mit.edu

Have you found it difficult to deploy neural networks on mobile devices and IoT devices? Have you ever found it too slow to train neural networks? This course is a deep dive into efficient machine learning techniques that enable powerful deep learning applications on resource-constrained devices. Topics cover efficient inference techniques, including model compression, pruning, quantization, neural architecture search, and distillation; and efficient training techniques, including gradient compression and on-device transfer learning; followed by application-specific model optimization techniques for videos, point cloud, and NLP; and efficient quantum machine learning. Students will get hands-on experience implementing deep learning applications on microcontrollers, mobile phones, and quantum machines with an open-ended design project related to mobile AI.

Website:
http://efficientml.ai/

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Lecture 03 - Pruning and Sparsity (Part I) | MIT 6.S965

Поделиться в:

Доступные форматы для скачивания:

Скачать видео

  • Информация по загрузке:

Скачать аудио

Похожие видео

Lecture 05 - Quantization (Part I) | MIT 6.S965

Lecture 05 - Quantization (Part I) | MIT 6.S965

Lecture 04 - Pruning and Sparsity (Part II) | MIT 6.S965

Lecture 04 - Pruning and Sparsity (Part II) | MIT 6.S965

Sources of Finance

Sources of Finance

Квантование против обрезки против дистилляции: оптимизация нейронных сетей для вывода

Квантование против обрезки против дистилляции: оптимизация нейронных сетей для вывода

J. Frankle & M. Carbin: The Lottery Ticket Hypothesis: Finding Sparse, Trainable Neural Networks

J. Frankle & M. Carbin: The Lottery Ticket Hypothesis: Finding Sparse, Trainable Neural Networks

EfficientML.ai Lecture 3 - Pruning and Sparsity (Part I) (MIT 6.5940, Fall 2023)

EfficientML.ai Lecture 3 - Pruning and Sparsity (Part I) (MIT 6.5940, Fall 2023)

Гипотеза лотерейного билета: поиск разреженных, обучаемых нейронных сетей.

Гипотеза лотерейного билета: поиск разреженных, обучаемых нейронных сетей.

Лекция от легенды ИИ в Стэнфорде

Лекция от легенды ИИ в Стэнфорде

EfficientML.ai Lecture 5 - Quantization (Part I) (MIT 6.5940, Fall 2023)

EfficientML.ai Lecture 5 - Quantization (Part I) (MIT 6.5940, Fall 2023)

MIT 6.S191: Convolutional Neural Networks

MIT 6.S191: Convolutional Neural Networks

Pruning Deep Learning Models for Success in Production

Pruning Deep Learning Models for Success in Production

Зачем нужна топология?

Зачем нужна топология?

Lec 01. Introduction to Deep Learning

Lec 01. Introduction to Deep Learning

MIT 6.S184: Модели согласования потоков и диффузии — Лекция 06 — Диффузия для генерации белков

MIT 6.S184: Модели согласования потоков и диффузии — Лекция 06 — Диффузия для генерации белков

Как заговорить на любом языке? Главная ошибка 99% людей в изучении. Полиглот Дмитрий Петров.

Как заговорить на любом языке? Главная ошибка 99% людей в изучении. Полиглот Дмитрий Петров.

EfficientML.ai Lecture 4 - Pruning and Sparsity (Part II) (MIT 6.5940, Fall 2023)

EfficientML.ai Lecture 4 - Pruning and Sparsity (Part II) (MIT 6.5940, Fall 2023)

Лучший документальный фильм про создание ИИ

Лучший документальный фильм про создание ИИ

tinyML Talks: A Practical Guide to Neural Network Quantization

tinyML Talks: A Practical Guide to Neural Network Quantization

2026 MIT Integration Bee - Finals

2026 MIT Integration Bee - Finals

MIT 6.S191: Reinforcement Learning

MIT 6.S191: Reinforcement Learning

© 2025 ycliper. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]