ycliper

Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
Скачать

Basics of Large Language Models

Автор: Nathan Rigoni

Загружено: 2026-01-28

Просмотров: 0

Описание: Large Language Models: Building Blocks & Challenges Hosted by Nathan Rigoni


In this episode we dive into the heart of today’s AI—large language models (LLMs). What makes these gigantic text‑predictors tick, and why do they sometimes hallucinate or run into bias? We’ll explore how LLMs are trained, what “next‑token prediction” really means, and the tricks (chain‑of‑thought prompting, reinforcement learning) that turn a raw predictor into a problem‑solving assistant. Can a model that has never seen a question truly reason to an answer, or is it just clever memorization?


What you will learn

• The core components of an LLM: tokenizer, encoder, transformer blocks, and the softmax decoder.
• Why training at terabyte‑scale data and quintillion‑level token iterations is required for emergent abilities.
• How chain‑of‑thought prompting and the REACT framework give models a “scratch‑pad” for better reasoning.
• The role of fine‑tuning and reinforcement learning from human feedback in shaping model behavior.
• Key pitfalls: lack of byte‑level tokenization, spatial reasoning limits, Western‑biased training data, and context‑window constraints (from ~128 k tokens to ~2 M tokens).

Resources mentioned

• Tokenization basics (see the dedicated “NLP – Tokenization” episode).
• Auto‑encoder fundamentals (see the “NLP – Auto Encoders” episode).
• Papers on chain‑of‑thought prompting and REACT agents (discussed in the episode).
• Information on context‑window sizes and scaling trends (e.g., 128 k → 2 M tokens).

Why this episode matters
Understanding LLM architecture demystifies why these models can generate coherent prose, write code, or answer complex queries—yet also why they can hallucinate, misinterpret spatial concepts, or inherit cultural bias. Grasping these strengths and limits is essential for anyone building AI products, evaluating model outputs, or simply wanting to use LLMs responsibly.


Subscribe for more AI deep dives, visit www.phronesis‑analytics.com (http://www.phronesis‑analytics.com) , or email nathan.rigoni@phronesis‑analytics.com.


Keywords: large language models, next‑token prediction, tokenizer, transformer, chain of thought, REACT framework, reinforcement learning, context window, AI hallucination, model bias.

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Basics of Large Language Models

Поделиться в:

Доступные форматы для скачивания:

Скачать видео

  • Информация по загрузке:

Скачать аудио

Похожие видео

ИИ - ЭТО ИЛЛЮЗИЯ ИНТЕЛЛЕКТА. Но что он такое и почему совершил революцию?

ИИ - ЭТО ИЛЛЮЗИЯ ИНТЕЛЛЕКТА. Но что он такое и почему совершил революцию?

Самая сложная модель из тех, что мы реально понимаем

Самая сложная модель из тех, что мы реально понимаем

OpenAI Is Slowing Hiring. Anthropic's Engineers Stopped Writing Code. Here's Why You Should Care.

OpenAI Is Slowing Hiring. Anthropic's Engineers Stopped Writing Code. Here's Why You Should Care.

AI in Manufacturing

AI in Manufacturing

We still don't understand magnetism

We still don't understand magnetism

21 неожиданный способ использовать Gemini в повседневной жизни

21 неожиданный способ использовать Gemini в повседневной жизни

Глава AI Meta о крахе хайпа вокруг ChatGPT и тупике нейросетей

Глава AI Meta о крахе хайпа вокруг ChatGPT и тупике нейросетей

LLM fine-tuning или ОБУЧЕНИЕ малой модели? Мы проверили!

LLM fine-tuning или ОБУЧЕНИЕ малой модели? Мы проверили!

Why Cold Drinks Were Lethal before 1914

Why Cold Drinks Were Lethal before 1914

Basics of Image Processing

Basics of Image Processing

Тренды в ИИ 2026. К чему готовиться каждому.

Тренды в ИИ 2026. К чему готовиться каждому.

Лучший документальный фильм про создание ИИ

Лучший документальный фильм про создание ИИ

Вы (пока) не отстаёте: как освоить ИИ за 17 минут

Вы (пока) не отстаёте: как освоить ИИ за 17 минут

Даулет Жангузин, NVIDIA, Groq, Cohere, Lyft, Google - Как пишут код лучшие кодеры Кремниевой Долины?

Даулет Жангузин, NVIDIA, Groq, Cohere, Lyft, Google - Как пишут код лучшие кодеры Кремниевой Долины?

Scientists Trapped 1000 AIs in Minecraft. They Created A Civilization.

Scientists Trapped 1000 AIs in Minecraft. They Created A Civilization.

Winter Energy ❄️ Happy Day Playlist 2026 ☀️ Positive Chill House Music

Winter Energy ❄️ Happy Day Playlist 2026 ☀️ Positive Chill House Music

Вариационные автоэнкодеры | Генеративный ИИ-анимированный

Вариационные автоэнкодеры | Генеративный ИИ-анимированный

Учебник по GoHighLevel для Начинающих - шаг за шагом

Учебник по GoHighLevel для Начинающих - шаг за шагом

ChatGPT in a kids robot does exactly what experts warned.

ChatGPT in a kids robot does exactly what experts warned.

Google's Quantum Chip Ran for 5 Minutes and Found Something It Wasn't Supposed To

Google's Quantum Chip Ran for 5 Minutes and Found Something It Wasn't Supposed To

© 2025 ycliper. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]