ycliper

Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
Скачать

Por que quase ninguém entende Transformers (Guia definitivo de Attention)

Автор: LuisChary

Загружено: 2026-02-11

Просмотров: 229

Описание: Transformers parecem complicados… mas quase toda explicação de Attention começa do jeito errado: pela fórmula.

Neste vídeo eu inverto o caminho: primeiro a intuição (atenção como busca), depois a lógica (Query/Key/Value) e só no final a matemática — incluindo Multi-Head Attention e os 3 tipos de atenção no Transformer.

Se você quer entender Attention sem decorar equação, esse é o guia.

✅ Próximo vídeo (do conceito ao código): vou implementar Attention do zero em Python/PyTorch. Se inscreve pra não perder.

⏱️ Capítulos

00:00 Introdução — dá pra explicar Attention sem fórmula?
00:31 O problema original (Seq2Seq e o gargalo do vetor de contexto)
02:35 A solução proposta (olhar para trás + foco)
03:47 Os 3 papéis: Query, Key e Value (atenção como busca)
07:51 A intuição matemática (produto interno → softmax → pesos)
11:31 Visualizando as matrizes (notação “hardcore”)
13:42 Uma cabeça só é muito pouco
15:34 Multi-Head Attention (notação “hardcore”)
18:22 Os tipos de atenção: Self / Masked Self / Cross
25:08 Conclusão — por que isso virou base da IA generativa

🎯 Se esse vídeo “clicou” pra você…

Comenta “Agora faz sentido” (e me conta onde você travava antes: fórmula, QKV, softmax, matrizes, multi-head…).

📌 Termos que você vai dominar aqui

Attention, Transformer, Self-Attention, Cross-Attention, Masked Self-Attention, Query Key Value (QKV), Softmax, Matriz de atenção, Multi-Head Attention.

#DeepLearning #Transformers #Attention #NLP #PyTorch

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Por que quase ninguém entende Transformers (Guia definitivo de Attention)

Поделиться в:

Доступные форматы для скачивания:

Скачать видео

  • Информация по загрузке:

Скачать аудио

Похожие видео

O mecanismo principal dos LLMs: Self, Masked e Cross attention implementados

O mecanismo principal dos LLMs: Self, Masked e Cross attention implementados

Por que uma cabeça não basta Multi Head Attention do Zero

Por que uma cabeça não basta Multi Head Attention do Zero

Leetcode| 3857  Minimum Cost to Split into Ones | Java | Weekly Contest 491

Leetcode| 3857 Minimum Cost to Split into Ones | Java | Weekly Contest 491

Визуализация внимания, сердце трансформера | Глава 6, Глубокое обучение

Визуализация внимания, сердце трансформера | Глава 6, Глубокое обучение

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

NotebookLM на максималках. Как изучать всё быстрее чем 99% пользователей

NotebookLM на максималках. Как изучать всё быстрее чем 99% пользователей

Destruir para Construir: Como criei o Dataset do meu Corretor Neural

Destruir para Construir: Como criei o Dataset do meu Corretor Neural

История C# и TypeScript с Андерсом Хейлсбергом | GitHub

История C# и TypeScript с Андерсом Хейлсбергом | GitHub

Блокировка Telegram: ТОП-5 защищенных мессенджеров на замену

Блокировка Telegram: ТОП-5 защищенных мессенджеров на замену

400 часов вайб-кодинга: всё, что нужно знать | Claude, GPT, агенты

400 часов вайб-кодинга: всё, что нужно знать | Claude, GPT, агенты

Алгоритмы и структуры данных ФУНДАМЕНТАЛЬНЫЙ КУРС от А до Я. Графы, деревья, хеш таблицы и тд

Алгоритмы и структуры данных ФУНДАМЕНТАЛЬНЫЙ КУРС от А до Я. Графы, деревья, хеш таблицы и тд

Фильм Алексея Семихатова «ГРАВИТАЦИЯ»

Фильм Алексея Семихатова «ГРАВИТАЦИЯ»

Внимание — это всё, что вам нужно (Transformer) — объяснение модели (включая математику), вывод и...

Внимание — это всё, что вам нужно (Transformer) — объяснение модели (включая математику), вывод и...

Лучший документальный фильм про создание ИИ

Лучший документальный фильм про создание ИИ

Введение в MCP | Протокол MCP - 01

Введение в MCP | Протокол MCP - 01

У этого AI-агента уже 235 000 звёзд на GitHub. Показываю, как запустить за 10 минут

У этого AI-агента уже 235 000 звёзд на GitHub. Показываю, как запустить за 10 минут

Глава страны убит / Экстренное заявление

Глава страны убит / Экстренное заявление

NotebookLM: большой разбор инструмента (12 сценариев применения)

NotebookLM: большой разбор инструмента (12 сценариев применения)

Как запоминать ВСЕ с помощью Obsidian.md и Zettelkasten

Как запоминать ВСЕ с помощью Obsidian.md и Zettelkasten

Как Сделать Настольный ЭЛЕКТРОЭРОЗИОННЫЙ Станок?

Как Сделать Настольный ЭЛЕКТРОЭРОЗИОННЫЙ Станок?

© 2025 ycliper. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]