ycliper

Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
Скачать

Leave No Context Behind: Efficient Infinite Context Transformers with Infini-attention

Автор: Yannic Kilcher

Загружено: 2024-04-24

Просмотров: 59882

Описание: Google researchers achieve supposedly infinite context attention via compressive memory.

Paper: https://arxiv.org/abs/2404.07143

Abstract:
This work introduces an efficient method to scale Transformer-based Large Language Models (LLMs) to infinitely long inputs with bounded memory and computation. A key component in our proposed approach is a new attention technique dubbed Infini-attention. The Infini-attention incorporates a compressive memory into the vanilla attention mechanism and builds in both masked local attention and long-term linear attention mechanisms in a single Transformer block. We demonstrate the effectiveness of our approach on long-context language modeling benchmarks, 1M sequence length passkey context block retrieval and 500K length book summarization tasks with 1B and 8B LLMs. Our approach introduces minimal bounded memory parameters and enables fast streaming inference for LLMs.

Authors: Tsendsuren Munkhdalai, Manaal Faruqui, Siddharth Gopal

Links:
Homepage: https://ykilcher.com
Merch: https://ykilcher.com/merch
YouTube:    / yannickilcher  
Twitter:   / ykilcher  
Discord: https://ykilcher.com/discord
LinkedIn:   / ykilcher  

If you want to support me, the best thing to do is to share out the content :)

If you want to support me financially (completely optional and voluntary, but a lot of people have asked for this):
SubscribeStar: https://www.subscribestar.com/yannick...
Patreon:   / yannickilcher  
Bitcoin (BTC): bc1q49lsw3q325tr58ygf8sudx2dqfguclvngvy2cq
Ethereum (ETH): 0x7ad3513E3B8f66799f507Aa7874b1B0eBC7F85e2
Litecoin (LTC): LQW2TRyKYetVC8WjFkhpPhtpbDM4Vw7r9m
Monero (XMR): 4ACL8AGrEo5hAir8A9CeVrW8pEauWvnp1WnSDZxW7tziCDLhZAGsgzhRQABDnFy8yuM9fWJDviJPHKRjV4FWt19CJZN9D4n

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Leave No Context Behind: Efficient Infinite Context Transformers with Infini-attention

Поделиться в:

Доступные форматы для скачивания:

Скачать видео

  • Информация по загрузке:

Скачать аудио

Похожие видео

Titans: Learning to Memorize at Test Time (Paper Analysis)

Titans: Learning to Memorize at Test Time (Paper Analysis)

Context Rot: How Increasing Input Tokens Impacts LLM Performance (Paper Analysis)

Context Rot: How Increasing Input Tokens Impacts LLM Performance (Paper Analysis)

Визуализация внимания, сердце трансформера | Глава 6, Глубокое обучение

Визуализация внимания, сердце трансформера | Глава 6, Глубокое обучение

Intro to Attention and Its Forms

Intro to Attention and Its Forms

TransformerFAM: Feedback attention is working memory

TransformerFAM: Feedback attention is working memory

Дарио Амодеи — «Мы близки к концу экспоненты»

Дарио Амодеи — «Мы близки к концу экспоненты»

RWKV: Reinventing RNNs for the Transformer Era (Paper Explained)

RWKV: Reinventing RNNs for the Transformer Era (Paper Explained)

Одно изображение стоит NxN слов | Диффузионные трансформаторы (ViT, DiT, MMDiT)

Одно изображение стоит NxN слов | Диффузионные трансформаторы (ViT, DiT, MMDiT)

State of LLMs 2026: RLVR, GRPO, Inference Scaling — Sebastian Raschka

State of LLMs 2026: RLVR, GRPO, Inference Scaling — Sebastian Raschka

Как работает Search Engine под капотом: ранжирование и релевантность

Как работает Search Engine под капотом: ранжирование и релевантность

Но что такое нейронная сеть? | Глава 1. Глубокое обучение

Но что такое нейронная сеть? | Глава 1. Глубокое обучение

Visualizing transformers and attention | Talk for TNG Big Tech Day '24

Visualizing transformers and attention | Talk for TNG Big Tech Day '24

Почему «Трансформеры» заменяют CNN?

Почему «Трансформеры» заменяют CNN?

Самый важный алгоритм в машинном обучении

Самый важный алгоритм в машинном обучении

GraphRAG: графы знаний, полученные с помощью LLM, для RAG

GraphRAG: графы знаний, полученные с помощью LLM, для RAG

Retentive Network: A Successor to Transformer for Large Language Models (Paper Explained)

Retentive Network: A Successor to Transformer for Large Language Models (Paper Explained)

V-JEPA: Revisiting Feature Prediction for Learning Visual Representations from Video (Explained)

V-JEPA: Revisiting Feature Prediction for Learning Visual Representations from Video (Explained)

Stanford CS25: V3 I Retrieval Augmented Language Models

Stanford CS25: V3 I Retrieval Augmented Language Models

Нейронные сети Transformer, созданные с нуля

Нейронные сети Transformer, созданные с нуля

Лучший документальный фильм про создание ИИ

Лучший документальный фильм про создание ИИ

© 2025 ycliper. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]