ycliper

Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
Скачать

Lightning Talk: Large-Scale Distributed Training with Dynamo and... - Yeounoh Chung & Jiewen Tan

Автор: PyTorch

Загружено: 2023-10-24

Просмотров: 937

Описание: Lightning Talk: Large-Scale Distributed Training with Dynamo and PyTorch/XLA SPMD - Yeounoh Chung & Jiewen Tan, Google

In this talk we cover PyTorch/XLA distributed API in relation with Torch.Dynamo. Specifically, we discuss the new PyTorch/XLA SPMD API for automatic parallelization and our latest LLaMA2 training results. PyTorch/XLA SPMD makes it simple for PyTorch developers to distribute their ML workloads (e.g., training & inference with Dynamo) with easy-to-use API, and uses XLA GSPMD, high-performance automatic parallelization system. Under the hood, it transforms the user single-device program into a partitioned one. We will share how we enabled advanced 2D sharding strategies for LLaMA2 using PyTorch/XLA SPMD.

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Lightning Talk: Large-Scale Distributed Training with Dynamo and... - Yeounoh Chung & Jiewen Tan

Поделиться в:

Доступные форматы для скачивания:

Скачать видео

  • Информация по загрузке:

Скачать аудио

Похожие видео

2-D Parallelism using DistributedTensor and PyTorch DistributedTensor

2-D Parallelism using DistributedTensor and PyTorch DistributedTensor

Accelerate PyTorch workloads with PyTorch/XLA

Accelerate PyTorch workloads with PyTorch/XLA

Lightning Talk: Streamlining Model Export with the New ONNX Exporter - Maanav Dalal & Aaron Bockover

Lightning Talk: Streamlining Model Export with the New ONNX Exporter - Maanav Dalal & Aaron Bockover

PyTorch 2.0 Ask the Engineers Q&A Series: Deep Dive into TorchInductor and PT2 Backend Integration

PyTorch 2.0 Ask the Engineers Q&A Series: Deep Dive into TorchInductor and PT2 Backend Integration

Как MCP улучшает Cursor AI в 10x раз? И что вообще это такое?

Как MCP улучшает Cursor AI в 10x раз? И что вообще это такое?

Заявление Путина о завершении войны / Последнее условие

Заявление Путина о завершении войны / Последнее условие

AI-помощники СЛИВАЮТ ваши данные! Доказываю на примере Claude

AI-помощники СЛИВАЮТ ваши данные! Доказываю на примере Claude

Alpa: Automated Model-Parallel Deep Learning - Zhuohan Li | Stanford MLSys #59

Alpa: Automated Model-Parallel Deep Learning - Zhuohan Li | Stanford MLSys #59

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

КАК УСТРОЕН TCP/IP?

КАК УСТРОЕН TCP/IP?

© 2025 ycliper. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]