ycliper

Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
Скачать

LLM Lecture: A Deep Dive into Transformers, Prompts, and Human Feedback

Автор: AI Coffee Break with Letitia

Загружено: 2025-01-19

Просмотров: 14459

Описание: The first 500 people to use my link will receive a one month free trial of Skillshare! Get started today! 👉 https://skl.sh/aicoffeebreakwithletit...
📺📺This video is an educational and historical deep dive into LLM research, where we would like to show you and convince you that while ChatGPT seemingly emerged overnight, it’s built on years of foundational work and innovation on LLM technology.

AI Coffee Break Merch! 🛍️ https://aicoffeebreak.creator-spring....

Thanks to our Patrons who support us in Tier 2, 3, 4: 🙏
Dres. Trost GbR, Siltax, Vignesh Valliappan, Michael, Sunny Dhiana, Andy Ma

Outline:
00:00 Lecture contents
01:30 Skillshare (Sponsor)
02:54 The Transformer
05:49 Tokenization
10:11 The Transformer layer
14:04 Attention
22:31 Position embeddings
27:42 Residual connections
29:55 How transformers learn language
34:40 Training Decoders (e.g., GPT)
40:46 Decoder inference / test time
43:55 Encoders (e.g., BERT)
47:45 Encoder-Decoders (e.g., T5).
53:24 Why LLMs need prompting
57:00 Vanilla prompting
01:01:35 Prompt tuning
01:03:03 In context (few-shot) learning
01:07:50 Chain-of-Thought
01:10:25 Retrieval Augmented Generation (RAG).
01:12:14 Beyond pre-training: Post-training techniques
01:13:50 Instruction Tuning
01:16:00 Preference Tuning with Human Feedback via DPO
01:19:20 RLHF key idea
01:21:14 Benchmarking LLMs: Emergent capabilities and how (not) to measure them
01:24:50 Multimodal extensions of LLMs
01:28:04 Gopnik’s Parable of Stone Soup AI

📑Allison Gopnik's Stone Soup AI: https://simons.berkeley.edu/news/ston...
📑Alexei Efros’s talk at the ‪@LaureateForum‬ :    • Lecture: Efros | September 23  

▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀
🔥 Optionally, pay us a coffee to help with our Coffee Bean production! ☕
Patreon:   / aicoffeebreak  
Ko-fi: https://ko-fi.com/aicoffeebreak
Join this channel as a Bean Member to get access to perks:
   / @aicoffeebreak  
▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀

🔗 Links:
AICoffeeBreakQuiz:    / aicoffeebreak  
Twitter / X:   / aicoffeebreak  
LinkedIn:   / letitia-parcalabescu  
Threads: https://www.threads.net/@ai.coffee.break
Bluesky: https://bsky.app/profile/aicoffeebrea...
Reddit:   / aicoffeebreak  
YouTube:    / aicoffeebreak  
Substack: https://aicoffeebreakwl.substack.com/
Web: https://explanationmark.de/letitia
https://aicoffeebreak.com

#AICoffeeBreak #MsCoffeeBean #MachineLearning #AI #research​

Video editing: Nils Trost

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
LLM Lecture: A Deep Dive into Transformers, Prompts, and Human Feedback

Поделиться в:

Доступные форматы для скачивания:

Скачать видео

  • Информация по загрузке:

Скачать аудио

Похожие видео

A brief history of the Transformer architecture in NLP

A brief history of the Transformer architecture in NLP

[1hr Talk] Intro to Large Language Models

[1hr Talk] Intro to Large Language Models

Почему диффузия работает лучше, чем авторегрессия?

Почему диффузия работает лучше, чем авторегрессия?

Visualizing transformers and attention | Talk for TNG Big Tech Day '24

Visualizing transformers and attention | Talk for TNG Big Tech Day '24

Deep Dive into LLMs like ChatGPT

Deep Dive into LLMs like ChatGPT

Flow-Matching vs Diffusion Models explained side by side

Flow-Matching vs Diffusion Models explained side by side

Нейронные сети Transformer, созданные с нуля

Нейронные сети Transformer, созданные с нуля

500 часов провёл в Claude Code. Вот 6 функций о которых никто не говорит

500 часов провёл в Claude Code. Вот 6 функций о которых никто не говорит

Andrej Karpathy: Software Is Changing (Again)

Andrej Karpathy: Software Is Changing (Again)

GROK Показал AGI! Илон Маск ВЗОРВАЛ Индустрию ИИ! Grok СамоОбучается! Новый Уровень ИИ! В 100 РАЗ

GROK Показал AGI! Илон Маск ВЗОРВАЛ Индустрию ИИ! Grok СамоОбучается! Новый Уровень ИИ! В 100 РАЗ

Визуализация внимания, сердце трансформера | Глава 6, Глубокое обучение

Визуализация внимания, сердце трансформера | Глава 6, Глубокое обучение

Глубокое погружение: оптимизация вывода LLM

Глубокое погружение: оптимизация вывода LLM

4-Bit Training for Billion-Parameter LLMs? Yes, Really.

4-Bit Training for Billion-Parameter LLMs? Yes, Really.

MAMBA and State Space Models explained | SSM explained

MAMBA and State Space Models explained | SSM explained

Energy-Based Transformers explained | How EBTs and EBMs work

Energy-Based Transformers explained | How EBTs and EBMs work

Иран зажег и мир горит все жестче

Иран зажег и мир горит все жестче

Stanford CS229 I Machine Learning I Building Large Language Models (LLMs)

Stanford CS229 I Machine Learning I Building Large Language Models (LLMs)

Transformers explained | The architecture behind LLMs

Transformers explained | The architecture behind LLMs

Extracting Knowledge Graphs From Text With GPT4o

Extracting Knowledge Graphs From Text With GPT4o

Fine-tuning LLMs on Human Feedback (RLHF + DPO)

Fine-tuning LLMs on Human Feedback (RLHF + DPO)

© 2025 ycliper. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]