ycliper

Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
Скачать

Почему глубокие нейронные сети (DNN) уступают моделям на основе деревьев на табличных данных

Автор: DataMListic

Загружено: 2023-01-22

Просмотров: 7791

Описание: В этом видео мы рассказываем о том, почему глубокие нейронные сети (DNN) не могут превзойти модели на основе деревьев, такие как случайный лес или xgboost, на табличных данных. Мы подробно анализируем аргументы, приведенные в статье «Почему модели на основе деревьев всё ещё превосходят глубокое обучение на табличных данных?».

Похожие видео
▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬
Почему нейронные сети могут обучиться любой функции:    • Why Neural Networks Can Learn Any Function  
Почему нейронные сети глубокие:    • Deep by Design: Why Depth Matters in Neura...  
Почему работают остаточные связи:    • Why Residual Connections (ResNet) Work  
Зачем нужны активации в нейронных сетях:    • Why We Need Activation Functions In Neural...  

Ссылки
▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬
Почему древовидные модели всё ещё превосходят глубокое обучение на табличных данных?: https://arxiv.org/abs/2207.08815

Содержание
▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬
00:00 — Введение
01:00 — Аргумент 1 — Решение Границы и нерегулярные паттерны
02:37 - Аргумент 2 - Неинформативные признаки
03:49 - Аргумент 3 - Инвариантность вращения
04:46 - Резюме
05:23 - Заключение

Подписывайтесь
▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬
🐦 Twitter: @datamlistic   / datamlistic  
📸 Instagram: @datamlistic   / datamlistic  
📱 TikTok: @datamlistic   / datamlistic  

Канал Поддержите
▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬
Лучший способ поддержать канал — поделиться контентом. ;)

Если вы хотите поддержать канал финансово, мы будем рады пожертвованию в размере стоимости чашки кофе! (полностью добровольное и необязательное)
► Patreon:   / datamlistic  
► Bitcoin (BTC): 3C6Pkzyb5CjAUYrJxmpCaaNPVRgRVxxyTq
► Ethereum (ETH): 0x9Ac4eB94386C3e02b96599C05B7a8C71773c9281
► Cardano (ADA): addr1v95rfxlslfzkvd8sr3exkh7st4qmgj4ywf5zcaxgqgdyunsj5juw5
► Tether (USDT): 0xeC261d9b2EE4B6997a6a424067af165BAA4afE1a

#neuralnetworks #tabulardata #структурированныеданные

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Почему глубокие нейронные сети (DNN) уступают моделям на основе деревьев на табличных данных

Поделиться в:

Доступные форматы для скачивания:

Скачать видео

  • Информация по загрузке:

Скачать аудио

Похожие видео

AMSGrad - Why Adam FAILS to Converge

AMSGrad - Why Adam FAILS to Converge

AI can't cross this line and we don't know why.

AI can't cross this line and we don't know why.

Prawda o programie SAFE. Dr Artur Bartoszewicz

Prawda o programie SAFE. Dr Artur Bartoszewicz

Визуализация скрытого пространства: PCA, t-SNE, UMAP | Глубокое обучение с анимацией

Визуализация скрытого пространства: PCA, t-SNE, UMAP | Глубокое обучение с анимацией

Но что такое нейронная сеть? | Глава 1. Глубокое обучение

Но что такое нейронная сеть? | Глава 1. Глубокое обучение

Почему «Трансформеры» заменяют CNN?

Почему «Трансформеры» заменяют CNN?

Почему диффузия работает лучше, чем авторегрессия?

Почему диффузия работает лучше, чем авторегрессия?

863: TabPFN: Deep Learning for Tabular Data (That Actually Works!) — with Prof. Frank Hutter

863: TabPFN: Deep Learning for Tabular Data (That Actually Works!) — with Prof. Frank Hutter

Вложенное обучение: иллюзия архитектур глубокого обучения

Вложенное обучение: иллюзия архитектур глубокого обучения

«Мамба» — замена «Трансформерам»?

«Мамба» — замена «Трансформерам»?

Numerai Quant Club / Why do tree-based models still outperform deep learning on tabular data?

Numerai Quant Club / Why do tree-based models still outperform deep learning on tabular data?

Сеть Хопфилда: как хранятся воспоминания в нейронных сетях? [Нобелевская премия по физике 2024 го...

Сеть Хопфилда: как хранятся воспоминания в нейронных сетях? [Нобелевская премия по физике 2024 го...

Why Do Neural Networks Love the Softmax?

Why Do Neural Networks Love the Softmax?

Зачем нужна топология?

Зачем нужна топология?

КОЛМАНОВСКИЙ:

КОЛМАНОВСКИЙ: "Это просто чудо". Где "проваливается" ИИ, что не так с ядом из кожи лягушки, азарт

Вероятность, что вы видите реальность — 0%

Вероятность, что вы видите реальность — 0%

All Machine Learning algorithms explained in 17 min

All Machine Learning algorithms explained in 17 min

Самый важный алгоритм в машинном обучении

Самый важный алгоритм в машинном обучении

Why Neural Networks Can Learn Any Function

Why Neural Networks Can Learn Any Function

Почему работают остаточные соединения (ResNet)

Почему работают остаточные соединения (ResNet)

© 2025 ycliper. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]