ycliper

Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
Скачать

WTH is Continual Learning ?

Автор: Puru Kathuria

Загружено: 2026-02-19

Просмотров: 26

Описание: In this episode of Deep Learning Talks, we explore one of the most important and unresolved problems on the path to Artificial General Intelligence: continual learning. We have heard about deep learning, representation learning, and reinforcement learning, but continual learning introduces a fundamentally different paradigm. Traditional deep learning operates in two distinct phases: an intensive training phase where model parameters are optimized and a frozen inference phase where the model simply performs forward passes without updating its weights. Once trained, the weights remain static. Humans, however, do not operate this way. Biological intelligence continuously updates, adapts, forgets, and evolves while interacting with the world.

This video breaks down the contrast between classical training and lifelong learning. We examine why large neural networks freeze their weights after training, why updating billions or trillions of parameters in real time is computationally infeasible, and why current systems cannot truly learn from every interaction. We discuss core challenges such as catastrophic forgetting, where new learning overwrites previously acquired knowledge, and the stability-plasticity dilemma, which highlights the tension between preserving past knowledge and acquiring new information. We also explore engineering approaches that attempt to approximate continual learning, including Elastic Weight Consolidation, replay-based memory methods, architectural expansion strategies, and online learning techniques.

We then analyze how modern large language models simulate continual learning without actually updating their parameters. Retrieval-Augmented Generation, vector databases, and the separation between parametric memory and non-parametric memory allow systems to appear adaptive while keeping core weights frozen. This represents a paradigm shift in how we think about intelligence: decoupling the “brain” from external memory. We also touch on promising research directions such as parameter-efficient fine-tuning methods like LoRA, meta-learning approaches that rethink how models learn to learn, and the role of world models in evolving latent representations beyond static training.

Continual learning remains one of the most critical unsolved problems in AI. If we achieve a true breakthrough in this domain, it may bring us significantly closer to AGI. Until then, most modern systems rely on clever engineering hacks rather than genuine lifelong adaptation. In upcoming episodes, we will explore how frontier AI labs are tackling this challenge and what it means for the future of intelligence.

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
WTH is Continual Learning ?

Поделиться в:

Доступные форматы для скачивания:

Скачать видео

  • Информация по загрузке:

Скачать аудио

Похожие видео

The 5-Layer AI War: US vs China Breakdown

The 5-Layer AI War: US vs China Breakdown

Inside ChatGPT: Decoder-Only Transformer Explained

Inside ChatGPT: Decoder-Only Transformer Explained

Introduction to Generative AI Studio | FREE Google Powered Generative AI Studio Course | Simplilearn

Introduction to Generative AI Studio | FREE Google Powered Generative AI Studio Course | Simplilearn

From Deep Learning to World Models The Road to AGI Explained

From Deep Learning to World Models The Road to AGI Explained

Breakdown “Language Models Are Few Shot Learners” | Weekend White Paper Series

Breakdown “Language Models Are Few Shot Learners” | Weekend White Paper Series

Свет никогда не «летит»: открытие, которое разрушает всё, что вы думали о реальности

Свет никогда не «летит»: открытие, которое разрушает всё, что вы думали о реальности

The BERT Era Explained | Before GPT-3 changed Everything

The BERT Era Explained | Before GPT-3 changed Everything

4 типа задач, которые нужно немедленно передать ИИ

4 типа задач, которые нужно немедленно передать ИИ

Чем ОПАСЕН МАХ? Разбор приложения специалистом по кибер безопасности

Чем ОПАСЕН МАХ? Разбор приложения специалистом по кибер безопасности

Что такое ИИ-АГЕНТЫ и как они работают?

Что такое ИИ-АГЕНТЫ и как они работают?

Кто такой Сергей Брин? Гений, который сбежал от системы и подчинил себе весь интернет.

Кто такой Сергей Брин? Гений, который сбежал от системы и подчинил себе весь интернет.

GPT 5.4 ОЧЕНЬ Умен. Но умнее ли чем Opus 4.6? ВСЕ ИИ НОВОСТИ НЕДЕЛИ

GPT 5.4 ОЧЕНЬ Умен. Но умнее ли чем Opus 4.6? ВСЕ ИИ НОВОСТИ НЕДЕЛИ

OpenClaw: ИИ-агент на твоём компьютере — что он делает и где риск утечки данных

OpenClaw: ИИ-агент на твоём компьютере — что он делает и где риск утечки данных

9 Скрытых Фишек ChatGPT о которых никто не говорит

9 Скрытых Фишек ChatGPT о которых никто не говорит

Открытия Уэбба | Январь 2026 | Самая далекая галактика

Открытия Уэбба | Январь 2026 | Самая далекая галактика

Лучший документальный фильм про создание ИИ

Лучший документальный фильм про создание ИИ

Я разобрал всю ИИ-экосистему Google — 7 ключевых инструментов

Я разобрал всю ИИ-экосистему Google — 7 ключевых инструментов

Кто пишет код лучше всех? Сравнил GPT‑5.2, Opus 4.5, Sonnet 4.5, Gemini 3, Qwen 3 Max, Kimi, GLM

Кто пишет код лучше всех? Сравнил GPT‑5.2, Opus 4.5, Sonnet 4.5, Gemini 3, Qwen 3 Max, Kimi, GLM

КОНЕЦ ЭРЫ ДИЗАЙНЕРОВ! GPT-5.4 делает ВСЁ идеально. ТОП-1 в мире

КОНЕЦ ЭРЫ ДИЗАЙНЕРОВ! GPT-5.4 делает ВСЁ идеально. ТОП-1 в мире

GLM-5 УНИЧТОЖИЛА DeepSeek! Бесплатная нейросеть БЕЗ ограничений. Полный тест 2026

GLM-5 УНИЧТОЖИЛА DeepSeek! Бесплатная нейросеть БЕЗ ограничений. Полный тест 2026

© 2025 ycliper. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]