ycliper

Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
Скачать

Neural Network learns sine function in NumPy/Python with backprop from scratch

Автор: Machine Learning & Simulation

Загружено: 2023-05-30

Просмотров: 2947

Описание: Backpropagation is a method to obtain a gradient estimate for the weights and biases in a neural network. As a special case of reverse-mode automatic differentiation, it is a function transformation of the forward pass. Let's implement it in NumPy. Here is the code: https://github.com/Ceyron/machine-lea...

-------

👉 This educational series is supported by the world-leaders in integrating machine learning and artificial intelligence with simulation and scientific computing, Pasteur Labs and Institute for Simulation Intelligence. Check out https://simulation.science/ for more on their pursuit of 'Nobel-Turing' technologies (https://arxiv.org/abs/2112.03235 ), and for partnership or career opportunities.

-------

📝 : Check out the GitHub Repository of the channel, where I upload all the handwritten notes and source-code files (contributions are very welcome): https://github.com/Ceyron/machine-lea...

📢 : Follow me on LinkedIn or Twitter for updates on the channel and other cool Machine Learning & Simulation stuff:   / felix-koehler   and   / felix_m_koehler  

💸 : If you want to support my work on the channel, you can become a Patreon here:   / mlsim  

🪙: Or you can make a one-time donation via PayPal: https://www.paypal.com/paypalme/Felix...

-------

Timestamps:
00:00 Intro
02:00 The dataset
02:25 MLP architecture with sigmoid activation function
03:26 Forward/Primal pass
06:40 Xavier Glorot weight initialization
08:06 Backward/Reverse pass
14:15 "Learning": approximately solving an optimization problem
15:10 More details on the backward pass and pullback operations
16:52 Imports
17:07 Setting random seed
17:24 Constants/Hyperparameters
18:08 Toy dataset generation
19:56 Defining nonlinear activation functions
20:39 Implementing Parameter initialization
24:45 Implementing Forward pass
27:20 Implementing loss function
29:06 backward function of the loss
30:36 Backward pass of the network
45:29 Training loop
48:15 Plot loss history
48:36 Plot trained network prediction
49:20 Summary
50:59 Outro

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Neural Network learns sine function in NumPy/Python with backprop from scratch

Поделиться в:

Доступные форматы для скачивания:

Скачать видео

  • Информация по загрузке:

Скачать аудио

Похожие видео

Neural Networks in pure JAX (with automatic differentiation)

Neural Networks in pure JAX (with automatic differentiation)

Слой Softmax с нуля | Математика и код Python

Слой Softmax с нуля | Математика и код Python

AI at the Edge, Methods, Challenges, Implementation and Security

AI at the Edge, Methods, Challenges, Implementation and Security

How to Create a Neural Network (and Train it to Identify Doodles)

How to Create a Neural Network (and Train it to Identify Doodles)

Deep Learning

Deep Learning

Как происходит модернизация остаточных соединений [mHC]

Как происходит модернизация остаточных соединений [mHC]

Neural Networks using Lux.jl and Zygote.jl Autodiff in Julia

Neural Networks using Lux.jl and Zygote.jl Autodiff in Julia

Самая сложная модель из тех, что мы реально понимаем

Самая сложная модель из тех, что мы реально понимаем

Neural Network From Scratch (NNFS): A 140-minute lecture | Intuition + Mathematical foundation

Neural Network From Scratch (NNFS): A 140-minute lecture | Intuition + Mathematical foundation

Neural Networks Matrix Math and NumPy

Neural Networks Matrix Math and NumPy

Simple reverse-mode Autodiff in Python

Simple reverse-mode Autodiff in Python

Создание нейронной сети С НУЛЯ (без Tensorflow/Pytorch, только NumPy и математика)

Создание нейронной сети С НУЛЯ (без Tensorflow/Pytorch, только NumPy и математика)

Neural Network from scratch using Only NUMPY

Neural Network from scratch using Only NUMPY

Свёрточная нейронная сеть с нуля | Математика и код на Python

Свёрточная нейронная сеть с нуля | Математика и код на Python

Физически-информированные нейронные сети (PINN) [Машинное обучение с учетом физики]

Физически-информированные нейронные сети (PINN) [Машинное обучение с учетом физики]

Backpropagation Algorithm | Neural Networks

Backpropagation Algorithm | Neural Networks

DeepONet Tutorial in JAX

DeepONet Tutorial in JAX

Визуализация внимания, сердце трансформера | Глава 6, Глубокое обучение

Визуализация внимания, сердце трансформера | Глава 6, Глубокое обучение

Декораторы Python — наглядное объяснение

Декораторы Python — наглядное объяснение

LBM Fluid Simulation in Python with JAX | van Karman Vortex Street

LBM Fluid Simulation in Python with JAX | van Karman Vortex Street

© 2025 ycliper. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]