ycliper

Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
Скачать

Introduction to Neural Networks (Lecture 24)

Автор: Gautam Goel

Загружено: 2026-02-17

Просмотров: 42

Описание: Welcome to the twenty-fourth lecture of my Deep Learning series! 🧠📉

In the previous 23 lectures, we painstakingly built our own deep learning library (Micrograd) from scratch, creating the Engine (backpropagation) and the Neural Network modules. Today, all that hard work pays off. In this video, we train our very first Neural Network!

This lecture is the bridge between building the architecture and making it intelligent. We will take the MLP class we built last time and implement the fundamental "Training Loop"—the iterative process that allows a network to learn from data.

We are solving a simple regression problem, treating the network as a binary classifier to predict target values of 1.0 or -1.0.

In this video, we cover:
✅ The Dataset: We define a tiny dataset of 3-dimensional inputs (xs) and their corresponding desired targets (ys). This simple setup allows us to trace every number in the network.
✅ The Forward Pass: We feed our data into the MLP to get the initial (random) predictions.
✅ The Loss Function (MSE): We implement Mean Squared Error manually. We calculate the difference between what the network predicted and what we wanted, square it (to handle negatives and penalize large errors), and sum it up. This single number represents how "bad" our network currently is.
✅ Zeroing Gradients: A critical step! We explain why gradients accumulate in Micrograd (and PyTorch) and why we must reset them to zero (zero_grad()) before every backward pass.
✅ The Backward Pass: We call loss.backward() to calculate the gradients for every single weight and bias in the network with respect to the loss.
✅ Gradient Descent (The Update): This is the heart of learning. We iterate through all parameters and slightly nudge them in the opposite direction of the gradient (data -= learning_rate * grad) to minimize the loss.
✅ The Training Loop: We wrap all these steps into a loop, running for 1,000 "epochs." We watch the loss dramatically drop from ~2.9 to nearly 0.0 as the network "learns" the data.
✅ Saving the Model: Finally, we show how to use Python's pickle/dill library to save our trained model weights to a file and reload them later for inference.

By the end of this lecture, you will have witnessed the complete lifecycle of a deep learning model: Data → Model → Loss → Backprop → Update. We have successfully overfitted a small dataset, proving our library works!

Resources:
🔗 GitHub Repository (Code & Notes):
🔗 Follow me on Instagram:   / gautamgoel978  

Subscribe and hit the bell icon! 🔔
Now that we've trained a network in our own library, in the next few lectures, we will compare this side-by-side with PyTorch to see how professional production code looks, and dive deeper into binary classification and decision boundaries. Let's keep building! 📉🚀

#ArtificialIntelligence #DeepLearning #MachineLearning #SGD #Python #NeuralNetworks #Backpropagation #Micrograd #Coding #DataScience #Optimization #MLP #LossFunction #Programmers #100DaysOfCode #MathForML #HindiTutorial #Technology #GenerativeAI #SoftwareEngineering

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Introduction to Neural Networks (Lecture 24)

Поделиться в:

Доступные форматы для скачивания:

Скачать видео

  • Информация по загрузке:

Скачать аудио

Похожие видео

Introduction to Neural Networks (Lecture 25)

Introduction to Neural Networks (Lecture 25)

The Internet Was Weeks Away From Disaster and No One Knew

The Internet Was Weeks Away From Disaster and No One Knew

Introduction to Neural Networks (Lecture 8)

Introduction to Neural Networks (Lecture 8)

Миллиарды для Алины. Царский подарок Владимира Путина

Миллиарды для Алины. Царский подарок Владимира Путина

NotebookLM в Изучении Иностранных Языков: Обзор Функций

NotebookLM в Изучении Иностранных Языков: Обзор Функций

Лучший документальный фильм про создание ИИ

Лучший документальный фильм про создание ИИ

Делягин и Хазин: ждать ли обрушения доллара, нового дефолта и взрывного роста цен

Делягин и Хазин: ждать ли обрушения доллара, нового дефолта и взрывного роста цен

Невероятная биография Алексея Маресьева | От неминуемой гибели до Героя СССР (English subtitles)

Невероятная биография Алексея Маресьева | От неминуемой гибели до Героя СССР (English subtitles)

Автоматизация взлома оборудования с помощью кода Клода

Автоматизация взлома оборудования с помощью кода Клода

🔴 EXPRESS BIEDRZYCKIEJ | PROF. MAREK MIGALSKI, PŁK KRZYSZTOF PRZEPIÓRKA [NA ŻYWO]

🔴 EXPRESS BIEDRZYCKIEJ | PROF. MAREK MIGALSKI, PŁK KRZYSZTOF PRZEPIÓRKA [NA ŻYWO]

Лекция от легенды ИИ в Стэнфорде

Лекция от легенды ИИ в Стэнфорде

Генеративный ИИ в разработке ПО: Введение

Генеративный ИИ в разработке ПО: Введение

К чему готовится Путин? | Новая война, мобилизация или протесты (English subtitles)

К чему готовится Путин? | Новая война, мобилизация или протесты (English subtitles)

Introduction to Neural Networks (Lecture 15)

Introduction to Neural Networks (Lecture 15)

Виктор Шендерович и Максим Курников | Интервью BILD

Виктор Шендерович и Максим Курников | Интервью BILD

400 часов вайб-кодинга: всё, что нужно знать | Claude, GPT, агенты

400 часов вайб-кодинга: всё, что нужно знать | Claude, GPT, агенты

Интернет-мошенничество сегодня: схемы, взломы, дипфейки. Катя Тьюринг

Интернет-мошенничество сегодня: схемы, взломы, дипфейки. Катя Тьюринг

🔴 NOCNA ZMIANA | KAMILA BIEDRZYCKA & DR MIROSŁAW OCZKOŚ

🔴 NOCNA ZMIANA | KAMILA BIEDRZYCKA & DR MIROSŁAW OCZKOŚ

Обращение к нации, с которого началась война (English subtitles) @Максим Кац

Обращение к нации, с которого началась война (English subtitles) @Максим Кац

Как ответить на вопросы про Kafka на интервью? Полный разбор

Как ответить на вопросы про Kafka на интервью? Полный разбор

© 2025 ycliper. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]