ycliper

Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
Скачать

Вся история компьютерного зрения объясняла одну основную концепцию за раз.

Автор: Neural Breakdown with AVB

Загружено: 2024-06-26

Просмотров: 5552

Описание: В этом видео мы рассмотрим историю применения сверточных нейронных сетей (СНС) специально для задач классификации изображений — начиная с первых лет исследований и до золотой эры середины 2010-х годов, когда были созданы многие из самых гениальных архитектур глубокого обучения, и, наконец, обсудим последние тенденции в исследованиях СНС, конкурирующие с технологиями, преобразующими внимание и зрение.

Подписчики теперь могут получить доступ к полному тексту, всем анимациям, слайдам PowerPoint и другим дополнительным материалам из этого видео!

Перейдите по ссылке на Patreon, чтобы узнать о доступных материалах:

  / neuralbreakdownwithavb  

Статья на Medium:   / the-history-of-convolutional-neural-networ...  

Угостите меня кофе на https://ko-fi.com/neuralavb!

#ИИ #машинноеобучение #глубокоеобучение

Посмотрите полное видео об истории НЛП здесь:    • 10 years of NLP history explained in 50 co...  

Похожие видео:
Серия «Внимание»:    • Neural Attention - This simple example wil...  

Латентное пространство:    • Visualizing the Latent Space: This video w...  

Сверточные нейронные сети:    • But what does a trained Convolution Neural...  

Ссылки на статьи:
Сверточные нейронные сети с обратным распространением (1989): http://yann.lecun.com/exdb/publis/pdf...
LeNet-5: http://vision.stanford.edu/cs598_spri...
AlexNet: https://proceedings.neurips.cc/paper_...

GoogleNet: https://arxiv.org/abs/1409.4842.
ВГГ: https://arxiv.org/abs/1409.1556
Норма партии: https://arxiv.org/pdf/1502.03167
Реснет: https://arxiv.org/abs/1512.03385
DenseNet: https://arxiv.org/abs/1608.06993
МобилНет: https://arxiv.org/abs/1704.04861
MobileNet-V2: https://arxiv.org/abs/1801.04381
Vision Transformers: https://arxiv.org/abs/2010.11929
ConvNext: https://arxiv.org/abs/2201.03545

Другие интересные статьи, не затронутые в видео:
EfficientNet: https://arxiv.org/abs/1905.11946
Squeeze-and-Excitation Network: https://arxiv.org/abs/1709.01507
Swin Transformers: https://arxiv.org/abs/2103.14030

Временные метки:
0:00 — Вступление
1:17 — Визуализация сверточных нейронных сетей
3:12 — 1989
5:00 - 1998 - LeNet 5
6:07 - 2000-е
7:37 - 2012 - AlexNet
9:45 - 2014 - GoogLeNet и модуль Inception
11:49 - 2014 - VGG
12:30 - 2015 - Пакетная нормализация
13:04 - 2015 - Остаточная сеть
14:46 - 2016 - DenseNet
15:22 - 2017 - MobileNet
16:19 - 2018 - MobileNet V2
17:31 - 2020 - Vision Transformer
19:15 - 2022 - ConvNext
20:50 - Заключение

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Вся история компьютерного зрения объясняла одну основную концепцию за раз.

Поделиться в:

Доступные форматы для скачивания:

Скачать видео

  • Информация по загрузке:

Скачать аудио

Похожие видео

How Neural Nets estimate depth from 2D images? Monocular Depth Estimation Explained!

How Neural Nets estimate depth from 2D images? Monocular Depth Estimation Explained!

Conversation with Elon Musk | World Economic Forum Annual Meeting 2026

Conversation with Elon Musk | World Economic Forum Annual Meeting 2026

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

Как происходит модернизация остаточных соединений [mHC]

Как происходит модернизация остаточных соединений [mHC]

Цепи Маркова — математика предсказаний [Veritasium]

Цепи Маркова — математика предсказаний [Veritasium]

Vision AI in 2025 — Peter Robicheaux, Roboflow

Vision AI in 2025 — Peter Robicheaux, Roboflow

10 лет истории НЛП в 50 концепциях | От Word2Vec, RNN до GPT

10 лет истории НЛП в 50 концепциях | От Word2Vec, RNN до GPT

Что ошибочно пишут в книгах об ИИ [Двойной спуск]

Что ошибочно пишут в книгах об ИИ [Двойной спуск]

Как ИИ научился думать

Как ИИ научился думать

AI can't cross this line and we don't know why.

AI can't cross this line and we don't know why.

[Classic] Deep Residual Learning for Image Recognition (Paper Explained)

[Classic] Deep Residual Learning for Image Recognition (Paper Explained)

ConvNeXt: A ConvNet for the 2020s – Paper Explained (with animations)

ConvNeXt: A ConvNet for the 2020s – Paper Explained (with animations)

Технология DeepSeek Manifold Constrained Hyper Connections (mHC) и эволюция ResNets

Технология DeepSeek Manifold Constrained Hyper Connections (mHC) и эволюция ResNets

Свёрточные нейронные сети с нуля | Подробно

Свёрточные нейронные сети с нуля | Подробно

Градиентный спуск, как обучаются нейросети | Глава 2, Глубинное обучение

Градиентный спуск, как обучаются нейросети | Глава 2, Глубинное обучение

Visualizing transformers and attention | Talk for TNG Big Tech Day '24

Visualizing transformers and attention | Talk for TNG Big Tech Day '24

Let me explain PyTorch in 7 Concepts

Let me explain PyTorch in 7 Concepts

Момент, когда мы перестали понимать ИИ [AlexNet]

Момент, когда мы перестали понимать ИИ [AlexNet]

Как LLM могут хранить факты | Глава 7, Глубокое обучение

Как LLM могут хранить факты | Глава 7, Глубокое обучение

Residual Networks and Skip Connections (DL 15)

Residual Networks and Skip Connections (DL 15)

© 2025 ycliper. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]