ycliper

Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
Скачать

Big Self-Supervised Models are Strong Semi-Supervised Learners (Paper Explained)

Автор: Yannic Kilcher

Загружено: 2020-06-20

Просмотров: 36058

Описание: This paper proposes SimCLRv2 and shows that semi-supervised learning benefits a lot from self-supervised pre-training. And stunningly, that effect gets larger the fewer labels are available and the more parameters the model has.

OUTLINE:
0:00 - Intro & Overview
1:40 - Semi-Supervised Learning
3:50 - Pre-Training via Self-Supervision
5:45 - Contrastive Loss
10:50 - Retaining Projection Heads
13:10 - Supervised Fine-Tuning
13:45 - Unsupervised Distillation & Self-Training
18:45 - Architecture Recap
22:25 - Experiments
34:15 - Broader Impact

Paper: https://arxiv.org/abs/2006.10029
Code: https://github.com/google-research/si...

Abstract:
One paradigm for learning from few labeled examples while making best use of a large amount of unlabeled data is unsupervised pretraining followed by supervised fine-tuning. Although this paradigm uses unlabeled data in a task-agnostic way, in contrast to most previous approaches to semi-supervised learning for computer vision, we show that it is surprisingly effective for semi-supervised learning on ImageNet. A key ingredient of our approach is the use of a big (deep and wide) network during pretraining and fine-tuning. We find that, the fewer the labels, the more this approach (task-agnostic use of unlabeled data) benefits from a bigger network. After fine-tuning, the big network can be further improved and distilled into a much smaller one with little loss in classification accuracy by using the unlabeled examples for a second time, but in a task-specific way. The proposed semi-supervised learning algorithm can be summarized in three steps: unsupervised pretraining of a big ResNet model using SimCLRv2 (a modification of SimCLR), supervised fine-tuning on a few labeled examples, and distillation with unlabeled examples for refining and transferring the task-specific knowledge. This procedure achieves 73.9\% ImageNet top-1 accuracy with just 1\% of the labels (≤13 labeled images per class) using ResNet-50, a 10× improvement in label efficiency over the previous state-of-the-art. With 10\% of labels, ResNet-50 trained with our method achieves 77.5\% top-1 accuracy, outperforming standard supervised training with all of the labels.

Authors: Ting Chen, Simon Kornblith, Kevin Swersky, Mohammad Norouzi, Geoffrey Hinton

Links:
YouTube:    / yannickilcher  
Twitter:   / ykilcher  
Discord:   / discord  
BitChute: https://www.bitchute.com/channel/yann...
Minds: https://www.minds.com/ykilcher

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Big Self-Supervised Models are Strong Semi-Supervised Learners (Paper Explained)

Поделиться в:

Доступные форматы для скачивания:

Скачать видео

  • Информация по загрузке:

Скачать аудио

Похожие видео

Deep Networks Are Kernel Machines (Paper Explained)

Deep Networks Are Kernel Machines (Paper Explained)

BYOL: Bootstrap Your Own Latent: A New Approach to Self-Supervised Learning (Paper Explained)

BYOL: Bootstrap Your Own Latent: A New Approach to Self-Supervised Learning (Paper Explained)

[Classic] Deep Residual Learning for Image Recognition (Paper Explained)

[Classic] Deep Residual Learning for Image Recognition (Paper Explained)

Tak PiS i Karol Nawrocki igrają z naszym bezpieczeństwem | Gazeta wyborcza

Tak PiS i Karol Nawrocki igrają z naszym bezpieczeństwem | Gazeta wyborcza

Phillip Isola -- When and Why Does Contrastive Learing Work?

Phillip Isola -- When and Why Does Contrastive Learing Work?

Странный предел, после которого свет начинает вышибать частицы из космической пустоты

Странный предел, после которого свет начинает вышибать частицы из космической пустоты

Yann LeCun - Self-Supervised Learning: The Dark Matter of Intelligence (FAIR Blog Post Explained)

Yann LeCun - Self-Supervised Learning: The Dark Matter of Intelligence (FAIR Blog Post Explained)

Изображение стоит 16x16 слов: Трансформеры для масштабного распознавания изображений (с пояснения...

Изображение стоит 16x16 слов: Трансформеры для масштабного распознавания изображений (с пояснения...

Group Normalization (Paper Explained)

Group Normalization (Paper Explained)

GLOM: How to represent part-whole hierarchies in a neural network (Geoff Hinton's Paper Explained)

GLOM: How to represent part-whole hierarchies in a neural network (Geoff Hinton's Paper Explained)

Но что такое нейронная сеть? | Глава 1. Глубокое обучение

Но что такое нейронная сеть? | Глава 1. Глубокое обучение

Boosting vs. semi-supervised learning

Boosting vs. semi-supervised learning

SimCLR: A Simple Framework for Contrastive Learning of Visual Representations

SimCLR: A Simple Framework for Contrastive Learning of Visual Representations

Одно изображение стоит NxN слов | Диффузионные трансформаторы (ViT, DiT, MMDiT)

Одно изображение стоит NxN слов | Диффузионные трансформаторы (ViT, DiT, MMDiT)

Визуализация внимания, сердце трансформера | Глава 6, Глубокое обучение

Визуализация внимания, сердце трансформера | Глава 6, Глубокое обучение

Как LLM могут хранить факты | Глава 7, Глубокое обучение

Как LLM могут хранить факты | Глава 7, Глубокое обучение

Image GPT: Generative Pretraining from Pixels (Paper Explained)

Image GPT: Generative Pretraining from Pixels (Paper Explained)

DETR: End-to-End Object Detection with Transformers (Paper Explained)

DETR: End-to-End Object Detection with Transformers (Paper Explained)

Лекция от легенды ИИ в Стэнфорде

Лекция от легенды ИИ в Стэнфорде

Yann LeCun: Self-Supervised Learning Explained | Lex Fridman Podcast Clips

Yann LeCun: Self-Supervised Learning Explained | Lex Fridman Podcast Clips

© 2025 ycliper. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]