ycliper

Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
Скачать

Введение в Vision Transformer. Лекция 11. Глубокое обучение

Автор: Евгений Разинков

Загружено: 2022-05-18

Просмотров: 4949

Описание: В рамках лекции мы рассматриваем важную архитектуру – Vision Transformer (ViT).
ViT показал выдающиеся результаты на многих датасетах, при этом сама архитектура почти без изменений заимствована из NLP. Трансформер не использует ни свертки, ни рекуррентность, а полностью полагается на механизм внимания,

Это первая из двух лекций на эту тему. В рамках лекции рассмотрены основные строительные блоки ViT:
Layer Normalization;
Scaled Dot-Product Attention (SDPA);
Multi-Head Attention (MHA);
Feed-Forward Layer.

На следующей лекции мы их этих блоков соберём архитектуру ViT :)


Евгений Разинков -- к.ф.-м.н., директор по науке компании Pr3vision Technologies, основатель парфюмерного AI-проекта http://scented.ai, руководитель отдела машинного обучения и компьютерного зрения Группы компаний FIX.

Tailor-made AI solutions for unique challenges:
https://pr3vision.com

Информация о лекциях:
https://razinkov.ai

Телеграм-канал с анонсами лекций и материалами по машинному обучению:
https://t.me/razinkov_ai

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Введение в Vision Transformer. Лекция 11. Глубокое обучение

Поделиться в:

Доступные форматы для скачивания:

Скачать видео

  • Информация по загрузке:

Скачать аудио

Похожие видео

Архитектура ViT. Лекция 12. Глубокое обучение

Архитектура ViT. Лекция 12. Глубокое обучение

Визуализация внимания, сердце трансформера | Глава 6, Глубокое обучение

Визуализация внимания, сердце трансформера | Глава 6, Глубокое обучение

022 Классификация изображений. Часть 15. ViT (Vision Transformer) (2020)

022 Классификация изображений. Часть 15. ViT (Vision Transformer) (2020)

Transformer, explained in detail | Igor Kotenkov | NLP Lecture (in Russian)

Transformer, explained in detail | Igor Kotenkov | NLP Lecture (in Russian)

Трансформер, часть 1. Лекция 4 по NLP

Трансформер, часть 1. Лекция 4 по NLP

Лекция. Архитектура Transformer. Введение, Transformer Encoder

Лекция. Архитектура Transformer. Введение, Transformer Encoder

Основы глубинного обучения, лекция 11 — механизм внимания и трансформеры

Основы глубинного обучения, лекция 11 — механизм внимания и трансформеры

Но что такое нейронная сеть? | Глава 1. Глубокое обучение

Но что такое нейронная сеть? | Глава 1. Глубокое обучение

Лучший документальный фильм про создание ИИ

Лучший документальный фильм про создание ИИ

Семинар razinkov.ai: Self-Supervised Learning.

Семинар razinkov.ai: Self-Supervised Learning.

Лекция. Внимание (Attention)

Лекция. Внимание (Attention)

Vision Transformer Basics

Vision Transformer Basics

Чем ОПАСЕН МАХ? Разбор приложения специалистом по кибер безопасности

Чем ОПАСЕН МАХ? Разбор приложения специалистом по кибер безопасности

Основы глубинного обучения, лекция 1 — введение в глубинное обучение

Основы глубинного обучения, лекция 1 — введение в глубинное обучение

Заморозки на фронте, приостановка ударов по энергетике и каждому - по Starlink

Заморозки на фронте, приостановка ударов по энергетике и каждому - по Starlink

РЕАЛЬНОСТЬ НЕ СУЩЕСТВУЕТ | Пока вы на неё не посмотрите

РЕАЛЬНОСТЬ НЕ СУЩЕСТВУЕТ | Пока вы на неё не посмотрите

Внимание — это всё, что вам нужно (Transformer) — объяснение модели (включая математику), вывод и...

Внимание — это всё, что вам нужно (Transformer) — объяснение модели (включая математику), вывод и...

ЛЕКЦИЯ ПРО НАДЁЖНЫЕ ШИФРЫ НА КОНФЕРЕНЦИИ БАЗОВЫХ ШКОЛ РАН В ТРОИЦКЕ

ЛЕКЦИЯ ПРО НАДЁЖНЫЕ ШИФРЫ НА КОНФЕРЕНЦИИ БАЗОВЫХ ШКОЛ РАН В ТРОИЦКЕ

Нейронные сети: Attention: Vision Transformer (ViT) | CLIP, Swin, CoAtNet, MLP Mixer | Transformer

Нейронные сети: Attention: Vision Transformer (ViT) | CLIP, Swin, CoAtNet, MLP Mixer | Transformer

Vision Transformers (ViT) — объяснение + тонкая настройка на Python

Vision Transformers (ViT) — объяснение + тонкая настройка на Python

© 2025 ycliper. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]