Por que quase ninguém entende Transformers (Guia definitivo de Attention)
Автор: LuisChary
Загружено: 2026-02-11
Просмотров: 229
Описание:
Transformers parecem complicados… mas quase toda explicação de Attention começa do jeito errado: pela fórmula.
Neste vídeo eu inverto o caminho: primeiro a intuição (atenção como busca), depois a lógica (Query/Key/Value) e só no final a matemática — incluindo Multi-Head Attention e os 3 tipos de atenção no Transformer.
Se você quer entender Attention sem decorar equação, esse é o guia.
✅ Próximo vídeo (do conceito ao código): vou implementar Attention do zero em Python/PyTorch. Se inscreve pra não perder.
⏱️ Capítulos
00:00 Introdução — dá pra explicar Attention sem fórmula?
00:31 O problema original (Seq2Seq e o gargalo do vetor de contexto)
02:35 A solução proposta (olhar para trás + foco)
03:47 Os 3 papéis: Query, Key e Value (atenção como busca)
07:51 A intuição matemática (produto interno → softmax → pesos)
11:31 Visualizando as matrizes (notação “hardcore”)
13:42 Uma cabeça só é muito pouco
15:34 Multi-Head Attention (notação “hardcore”)
18:22 Os tipos de atenção: Self / Masked Self / Cross
25:08 Conclusão — por que isso virou base da IA generativa
🎯 Se esse vídeo “clicou” pra você…
Comenta “Agora faz sentido” (e me conta onde você travava antes: fórmula, QKV, softmax, matrizes, multi-head…).
📌 Termos que você vai dominar aqui
Attention, Transformer, Self-Attention, Cross-Attention, Masked Self-Attention, Query Key Value (QKV), Softmax, Matriz de atenção, Multi-Head Attention.
#DeepLearning #Transformers #Attention #NLP #PyTorch
Повторяем попытку...
Доступные форматы для скачивания:
Скачать видео
-
Информация по загрузке: