ycliper

Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
Скачать

Sebastian Borgeaud - Efficient Training of Large Language Models @ UCL DARK

Автор: UCL DARK

Загружено: 2022-10-31

Просмотров: 1960

Описание: (there is a lag in sound until 2:15)

Invited talk by Sebastian Borgeaud on September 1, 2022 at UCL DARK.

Abstract: Large language models have become ubiquitous in many areas of deep learning research, however little is known today about how to train these models efficiently. In this talk, I’ll cover some recent advances in large language model pre-training, focusing on how these advancements decrease the compute requirement of training these large models. In particular, I’ll focus on our work revisiting the “neural scaling laws” which showed that previous large language models were too large for their compute budget, and our work on RETRO, where we enhance auto-regressive large language models with retrieval over a large database of text.

Bio: Sebastian Borgeaud is a Research Engineer at DeepMind where he co-leads the large scale language modeling team. Sebastian’s research focuses on large language models (Gopher, Chinchilla, Perceiver, Flamingo and RETRO) and more generally large scale deep learning. Before joining DeepMind in 2018, Sebastian completed his undergraduate and master's degrees at the University of Cambridge, with a focus on theoretical computer science and NLP.

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Sebastian Borgeaud - Efficient Training of Large Language Models @ UCL DARK

Поделиться в:

Доступные форматы для скачивания:

Скачать видео

  • Информация по загрузке:

Скачать аудио

Похожие видео

Matthew Fontaine - Quality Diversity Scenario Generation for Robust Autonomy @ UCL DARK

Matthew Fontaine - Quality Diversity Scenario Generation for Robust Autonomy @ UCL DARK

Kenneth O. Stanley - Novel Opportunities in Open-Endedness @ UCL DARK

Kenneth O. Stanley - Novel Opportunities in Open-Endedness @ UCL DARK

GraphRAG: союз графов знаний и RAG: Эмиль Эйфрем

GraphRAG: союз графов знаний и RAG: Эмиль Эйфрем

Как LLM могут хранить факты | Глава 7, Глубокое обучение

Как LLM могут хранить факты | Глава 7, Глубокое обучение

Structured Output: маст-хев для систем с LLM под капотом

Structured Output: маст-хев для систем с LLM под капотом

AI Models Explained

AI Models Explained

Andrew Lampinen -  Comparing Language Models to Humans: Reasoning & Grammer @ UCL DARK

Andrew Lampinen - Comparing Language Models to Humans: Reasoning & Grammer @ UCL DARK

Stefano V. Albrecht - From Deep Reinforcement Learning to LLM-based Agents

Stefano V. Albrecht - From Deep Reinforcement Learning to LLM-based Agents

Почему дизайнеры и 3д-шники беднеют | Кто растет в ИИ-кризис

Почему дизайнеры и 3д-шники беднеют | Кто растет в ИИ-кризис

Лучший документальный фильм про создание ИИ

Лучший документальный фильм про создание ИИ

DeepMind Open-Endedness Team - Genie: Generative Interactive Environments

DeepMind Open-Endedness Team - Genie: Generative Interactive Environments

What is PyTorch? (Machine/Deep Learning)

What is PyTorch? (Machine/Deep Learning)

Визуализация внимания, сердце трансформера | Глава 6, Глубокое обучение

Визуализация внимания, сердце трансформера | Глава 6, Глубокое обучение

Как так быстро развились диффузионные LLM-технологии?

Как так быстро развились диффузионные LLM-технологии?

Что такое встраивание слов?

Что такое встраивание слов?

Thomas Kipf - Learning Structured Models of the World @ UCL DARK

Thomas Kipf - Learning Structured Models of the World @ UCL DARK

NotebookLM на максималках. Как изучать всё быстрее чем 99% пользователей

NotebookLM на максималках. Как изучать всё быстрее чем 99% пользователей

Sergey Levine - Understanding the World Through Action @ UCL DARK

Sergey Levine - Understanding the World Through Action @ UCL DARK

The Fastest Way to AGI: LLMs + Tree Search – Demis Hassabis (Google DeepMind CEO)

The Fastest Way to AGI: LLMs + Tree Search – Demis Hassabis (Google DeepMind CEO)

АЛЬТМАН: Я Отдал Агенту Полный Контроль На 2 Часа  — И Не Пожалел

АЛЬТМАН: Я Отдал Агенту Полный Контроль На 2 Часа — И Не Пожалел

© 2025 ycliper. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]