ycliper

Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
Скачать

Introduction to Neural Networks (Lecture 21)

Автор: Gautam Goel

Загружено: 2026-02-15

Просмотров: 25

Описание: #AI #Python #DeepLearning #NeuralNetworks #GradientAccumulation #Micrograd #BugFix

Welcome to the twenty-first lecture of my Deep Learning series! 🧠🐛

In the previous lecture, we successfully implemented the topological sort and automated the backward pass. Our engine seemed complete—but there was a subtle "base case" we missed. Today, we identify a critical flaw in our logic regarding variable reuse and implement the fix: **Gradient Accumulation**.

This lecture focuses on debugging and the Multivariate Chain Rule. What happens when a single node in our graph sends its output to multiple other nodes? Currently, our engine creates a "Gradient Overwriting" problem.

In this video, we cover:
✅ *The "Bug" Observation:* We construct a specific computational graph where an input variable (e.g., `a`) is used in two different operations (multiplication and addition) simultaneously.
✅ *The Overwriting Problem:* We analyze the trace to see that our current `.backward()` implementation calculates the gradient for one path, but then overwrites it with the gradient from the second path, losing information.
✅ *The Mathematical Solution:* We revisit the chain rule for multivariate calculus. If a variable influences the loss through multiple paths, its total gradient must be the *sum* of the local gradients from all those paths.
✅ *Implementing the Fix:* We modify our `Value` class methods (`__add__`, `__mul__`, `tanh`, `relu`, etc.). Instead of setting gradients (`self.grad = ...`), we change them to accumulate (`self.grad += ...`).
✅ *Verification:* We dry run the corrected code against our manual calculations to prove that the gradients (e.g., -3 and -8) are now mathematically accurate.

By the end of this lecture, our Autograd Engine is completely bug-free and robust! We can now handle complex graphs where nodes are reused multiple times, which is essential for modern neural network architectures.

*Resources:*

🔗 GitHub Repository (Code & Notes):
🔗 Follow me on Instagram:   / gautamgoel978  

Subscribe and hit the bell icon! 🔔
Now that the engine is solid, we are ready to level up. In the next lecture, we will compare our custom engine against *PyTorch* to see the similarities, and then we will start building our Neuron and Layer classes (`nn.py`). Let's keep building! 📉🔥

#deeplearning #Python #Micrograd #Calculus #Debugging #DataScience #MachineLearning #Hindi #AI #NeuralNetworks #Backpropagation #Coding #Pytorch

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Introduction to Neural Networks (Lecture 21)

Поделиться в:

Доступные форматы для скачивания:

Скачать видео

  • Информация по загрузке:

Скачать аудио

Похожие видео

Introduction to Neural Networks (Leture 22)

Introduction to Neural Networks (Leture 22)

Jeff Ullman - An Old Guy thinks about AI

Jeff Ullman - An Old Guy thinks about AI

chicken 65 ❌ Leetcode 65 ✅ (Hard problem but i will make it easy)

chicken 65 ❌ Leetcode 65 ✅ (Hard problem but i will make it easy)

Музыка для работы за компьютером | Фоновая музыка для концентрации и продуктивности

Музыка для работы за компьютером | Фоновая музыка для концентрации и продуктивности

Как ответить на вопросы про Kafka на интервью? Полный разбор

Как ответить на вопросы про Kafka на интервью? Полный разбор

Introduction to Neural Networks (Lecture 8)

Introduction to Neural Networks (Lecture 8)

NotebookLM в Изучении Иностранных Языков: Обзор Функций

NotebookLM в Изучении Иностранных Языков: Обзор Функций

Tusk i miłość jego wyznawców. Chłopaczek Pawlaczek robi karierę. Kodym czyta wiersze

Tusk i miłość jego wyznawców. Chłopaczek Pawlaczek robi karierę. Kodym czyta wiersze

The Internet Was Weeks Away From Disaster and No One Knew

The Internet Was Weeks Away From Disaster and No One Knew

Владимир Сурдин об эволюции космонавтики. Неделя Дарвина-2026

Владимир Сурдин об эволюции космонавтики. Неделя Дарвина-2026

Кто пишет код лучше всех? Сравнил GPT‑5.2, Opus 4.5, Sonnet 4.5, Gemini 3, Qwen 3 Max, Kimi, GLM

Кто пишет код лучше всех? Сравнил GPT‑5.2, Opus 4.5, Sonnet 4.5, Gemini 3, Qwen 3 Max, Kimi, GLM

«Ответ очень мрачный и циничный». Почему переговоры не могут остановить войну, и она продолжится

«Ответ очень мрачный и циничный». Почему переговоры не могут остановить войну, и она продолжится

Hack Pack – Введение в Arduino

Hack Pack – Введение в Arduino

Introduction to Neural Networks (Lecture 24)

Introduction to Neural Networks (Lecture 24)

Claude Code создал мне команду AI-агентов (Claude Code + Skills + MCP)

Claude Code создал мне команду AI-агентов (Claude Code + Skills + MCP)

Генеративный ИИ в разработке ПО: Введение

Генеративный ИИ в разработке ПО: Введение

"Robią ludzi w konia”. Szara strefa rośnie, bezrobocie już 6%

Почему большинство разработчиков неправильно используют код Клода (вот что вы упускаете)!

Почему большинство разработчиков неправильно используют код Клода (вот что вы упускаете)!

Ядерная провокация: кто и зачем играет в опасную игру | Ростислав Ищенко

Ядерная провокация: кто и зачем играет в опасную игру | Ростислав Ищенко

Создание сайта с помощью нейросети — ПОЛНЫЙ УРОК за 20 минут (2026)

Создание сайта с помощью нейросети — ПОЛНЫЙ УРОК за 20 минут (2026)

© 2025 ycliper. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]