ycliper

Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
Скачать

Introduction to Neural Networks (Lecture 15)

Автор: Gautam Goel

Загружено: 2026-01-02

Просмотров: 28

Описание: #AI #Python #DeepLearning #Micrograd #Coding #NeuralNetworks

Welcome to the fifteenth lecture of my Deep Learning series! 🧠💻

We have studied the math, visualized the curves, and understood the "why" behind activation functions. Now, it’s time to get our hands dirty. In this video, we open up our code editor and implement Sigmoid, Tanh, and ReLU directly into our Value class in the Micrograd library.

This isn't just a copy-paste coding session. We encounter a critical engineering decision: Design Choices.

Should we build Tanh using the primitive operations we already made (addition, division, powers)? Or should we implement it as its own atomic operation? In this lecture, we compare both approaches and discover why one is significantly better for the efficiency of our future Backpropagation engine.

In this video, we cover:
✅ Python's Math Library: We introduce the math module to handle exponential calculations (e^x) required for our S-curves.
✅ Implementing Sigmoid: We code the formula. We analyze two ways to do this: building a long chain of operations vs. creating a single function, and why the latter simplifies our derivative calculation later.
✅ The Tanh "Design Choice": We attempt to build Tanh using its raw formula involving exponentials and division. We realize this creates a massive computational graph with 7-8 intermediate gradients to calculate.
✅ Optimization & Efficiency: We discuss why defining Tanh and Sigmoid as "atomic" operations is a "Good Design Choice." This reduces the computational overhead during the backward pass by using the clean analytical derivatives we derived in previous lectures (e.g.,
✅ Implementing ReLU: We code the Rectified Linear Unit. We look at how to handle the logic: if the value is greater than 0, pass it through; otherwise, return 0. We verify that our implementation correctly handles the "dead neuron" state.

Resources:

🔗 GitHub Repository (Code & Notes): https://github.com/gautamgoel962/Yout...
🔗 Follow me on Instagram:   / gautamgoel978  

Subscribe and code along! We have now built the forward pass for our neurons. In the next video, we tackle the most magical part of Neural Networks: Backpropagation. We will manually implement the backward pass to teach our network how to learn! 📉🔥

#deeplearning #Python #Micrograd #ReLU #Sigmoid #Tanh #SoftwareEngineering #DataScience #MachineLearning #Hindi #AI #Backpropagation #ComputationalGraph

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Introduction to Neural Networks (Lecture 15)

Поделиться в:

Доступные форматы для скачивания:

Скачать видео

  • Информация по загрузке:

Скачать аудио

Похожие видео

Introduction to Neural Networks (Lecture 16)

Introduction to Neural Networks (Lecture 16)

Фильм Алексея Семихатова «ГРАВИТАЦИЯ»

Фильм Алексея Семихатова «ГРАВИТАЦИЯ»

Как LLM могут хранить факты | Глава 7, Глубокое обучение

Как LLM могут хранить факты | Глава 7, Глубокое обучение

История C# и TypeScript с Андерсом Хейлсбергом | GitHub

История C# и TypeScript с Андерсом Хейлсбергом | GitHub

Полное руководство по протоколу APB 2026 | Теория APB + RTL-проектирование + тестовый стенд UVM (...

Полное руководство по протоколу APB 2026 | Теория APB + RTL-проектирование + тестовый стенд UVM (...

Биология поведения человека. Лекция #1. Введение [Роберт Сапольски, 2010. Стэнфорд]

Биология поведения человека. Лекция #1. Введение [Роберт Сапольски, 2010. Стэнфорд]

Игорь Липсиц*. Без посредников / 27.02.26

Игорь Липсиц*. Без посредников / 27.02.26

Промова Трампа у Конгресі: які заяви зробив президент США | Ефір ВВС

Промова Трампа у Конгресі: які заяви зробив президент США | Ефір ВВС

Преломление и «замедление» света | По мотивам лекции Ричарда Фейнмана

Преломление и «замедление» света | По мотивам лекции Ричарда Фейнмана

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

ЛЕКЦИЯ ДЛЯ СНА 🌙 Из чего мы состоим: Правда ли, что каждый атом в вас был рожден в звезде? | Засыпай

ЛЕКЦИЯ ДЛЯ СНА 🌙 Из чего мы состоим: Правда ли, что каждый атом в вас был рожден в звезде? | Засыпай

Кеннеди в Сенате США: Соглашение по Чагосским островам предоставляет Китаю доступ к совместной ам...

Кеннеди в Сенате США: Соглашение по Чагосским островам предоставляет Китаю доступ к совместной ам...

Виталий Ванчурин — Самообучающаяся Вселенная: от Большого взрыва до нейронных компьютеров

Виталий Ванчурин — Самообучающаяся Вселенная: от Большого взрыва до нейронных компьютеров

Градиентный спуск, как обучаются нейросети | Глава 2, Глубинное обучение

Градиентный спуск, как обучаются нейросети | Глава 2, Глубинное обучение

Introduction to Neural Networks (Lecture 25)

Introduction to Neural Networks (Lecture 25)

ЭТО СТРОИЛ НЕ ПЁТР! Математический расчет, который разрушил официальную историю.

ЭТО СТРОИЛ НЕ ПЁТР! Математический расчет, который разрушил официальную историю.

Вся IT-база в ОДНОМ видео: Память, Процессор, Код

Вся IT-база в ОДНОМ видео: Память, Процессор, Код

«Идеальный шторм»: инфляция, закрытие роддомов, блокировки, налоги — всё ведёт к развалу как в 91-м!

«Идеальный шторм»: инфляция, закрытие роддомов, блокировки, налоги — всё ведёт к развалу как в 91-м!

Nvidia’s Blowout Can’t Calm AI Anxiety | Prof G Markets

Nvidia’s Blowout Can’t Calm AI Anxiety | Prof G Markets

БИТВА ТИТАНОВ! Claude Opus 4.6 vs Gemini 3.1 Pro. ФАНТАСТИЧЕСКИЕ нейросети! ШОК

БИТВА ТИТАНОВ! Claude Opus 4.6 vs Gemini 3.1 Pro. ФАНТАСТИЧЕСКИЕ нейросети! ШОК

© 2025 ycliper. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]