Contexto INFINITO? O truque do GTA que revolucionou a IA (RLM)
Автор: Sandeco
Загружено: 2026-01-30
Просмотров: 2930
Описание:
O segredo para a janela de contexto infinita nas LLMs veio de onde você menos esperava: dos Games. 🎮🤖
Você já percebeu que, por maior que seja a janela de contexto do GPT-4 ou do Claude, a qualidade da resposta cai drasticamente quando você insere textos gigantes? Isso se chama degradação de contexto.
Github do projeto: https://github.com/alexzhang13/rlm
Links do grupo de whatsapp: https://linktr.ee/sandeco.macedo
Neste vídeo, o Prof. Sandeco revela a técnica RLM (Recursive Language Model), desenvolvida por pesquisadores do MIT. Inspirada em como jogos como Minecraft, GTA e Cyberpunk carregam mundos imensos sem travar o PC, essa técnica permite que a IA manipule contextos virtualmente infinitos de forma recursiva.
🔹 O que você vai aprender:
A analogia dos Games: Por que o carregamento "sob demanda" é a chave para a IA.
Degradação de Contexto: Por que enfiar 100k tokens na IA nem sempre funciona.
Mecânica RLM: Como a LLM escreve o próprio código Python para navegar no texto.
Mão na Massa: Execução prática de um código que encontra segredos escondidos em 18.000 linhas da Odisseia de Homero.
🚀 Mentoria RAG - Gerência de Contexto
Quer dominar 10 técnicas avançadas de RAG e gerência de contexto como esta? No meu livro e mentoria, você terá aulas em vídeo, acesso a um grupo exclusivo com +400 alunos e todos os códigos fontes. 👉 Acesse aqui: https://physia.com.br
Повторяем попытку...
Доступные форматы для скачивания:
Скачать видео
-
Информация по загрузке: