ycliper

Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
Скачать

This Algorithm Could Make a GPT-4 Toaster Possible

Автор: Edan Meyer

Загружено: 2023-01-27

Просмотров: 117755

Описание: The Forward-Forward algorithm from Geoffry Hinton is a backpropagation alternative inspired by learning in the cortex. It tackles several issues with backprop that would allow it to be run much more efficiently. Hopefully research like this continues to pave the way toward full-hardware integrated AI chips in the future.

Outline
0:00 - Intro
1:13 - ClearML
2:17 - Motivation
5:40 - Forward-Forward Explained
13:54 - MNIST Example
18:54 - Top-Down Interactions
26:00 - More Examples / Results
27:41 - Sleep & Phased Learning
29:36 - Related Ideas
30:38 - Learning Fast & Slow
32:35 - Mortal Computation

ClearML - https://bit.ly/3GtCsj5

Social Media:
YouTube -    / edanmeyer  
Twitter -   / ejmejm1  

Sources:
Paper - https://www.cs.toronto.edu/~hinton/FF...

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
This Algorithm Could Make a GPT-4 Toaster Possible

Поделиться в:

Доступные форматы для скачивания:

Скачать видео

  • Информация по загрузке:

Скачать аудио

Похожие видео

Самый важный алгоритм в машинном обучении

Самый важный алгоритм в машинном обучении

Geoffrey Hinton Unpacks The Forward-Forward Algorithm

Geoffrey Hinton Unpacks The Forward-Forward Algorithm

Что ошибочно пишут в книгах об ИИ [Двойной спуск]

Что ошибочно пишут в книгах об ИИ [Двойной спуск]

How to Create a Neural Network (and Train it to Identify Doodles)

How to Create a Neural Network (and Train it to Identify Doodles)

Демис Хассабис: Будущее ИИ, симуляция реальности, физика, игры | Лекс Фридман Подкаст #475

Демис Хассабис: Будущее ИИ, симуляция реальности, физика, игры | Лекс Фридман Подкаст #475

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

Модели RL Foundation уже здесь!

Модели RL Foundation уже здесь!

I Talked with Rich Sutton

I Talked with Rich Sutton

CS480/680 Lecture 19: Attention and Transformer Networks

CS480/680 Lecture 19: Attention and Transformer Networks

Магия транзисторов: как мы научили компьютеры думать с помощью кусочков кремния?

Магия транзисторов: как мы научили компьютеры думать с помощью кусочков кремния?

What's New In Machine Learning?

What's New In Machine Learning?

Инженерные решения, управляющие цифровым миром 🛠️⚙️💻 Как работают процессоры?

Инженерные решения, управляющие цифровым миром 🛠️⚙️💻 Как работают процессоры?

Вся IT-база в ОДНОМ видео: Память, Процессор, Код

Вся IT-база в ОДНОМ видео: Память, Процессор, Код

Но что такое нейронная сеть? | Глава 1. Глубокое обучение

Но что такое нейронная сеть? | Глава 1. Глубокое обучение

GPT-4: What, Why, How?

GPT-4: What, Why, How?

Как ваш мозг организует информацию

Как ваш мозг организует информацию

Управление поведением LLM без тонкой настройки

Управление поведением LLM без тонкой настройки

[1hr Talk] Intro to Large Language Models

[1hr Talk] Intro to Large Language Models

What is Group Theory? — Group Theory Ep. 1

What is Group Theory? — Group Theory Ep. 1

The weirdest paradox in statistics (and machine learning)

The weirdest paradox in statistics (and machine learning)

© 2025 ycliper. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]