ycliper

Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
Скачать

Can one do better than XGBoost? - Mateusz Susik

Автор: PyData

Загружено: 2017-11-13

Просмотров: 53734

Описание: Can one do better than XGBoost? Presenting 2 new gradient boosting libraries - LightGBM and Catboost
Mateusz Susik

Description
We will present two recent contestants to the XGBoost library: LightGBM (released October 2016) and CatBoost (open-sourced July 2017). The participant will learn the theoretical and practical differences between these libraries. Finally, we will describe how we use gradient boosting libraries at McKinsey & Company.

Abstract
Gradient boosting proved to be a very effective method for classification and regression in the last years. A lot of successful business applications and data science contest solutions were developed around the XGBoost library. It seemed that XGBoost will dominate the field for many years.

Recently, two major players have released their own implementation of the algorithm. The first - LightGBM - comes from Microsoft. Its major advantages are lower memory usage and faster training speed.

The second - Catboost - was implemented by Yandex. Here, the approach was different. The aim of the library was to improve on top of the state-of-the-art gradient boosting algorithm performance in terms of accuracy.

During the talk, the participants will learn about the differences in the algorithm designs, APIs and performances.

www.pydata.org

PyData is an educational program of NumFOCUS, a 501(c)3 non-profit organization in the United States. PyData provides a forum for the international community of users and developers of data analysis tools to share ideas and learn from each other. The global PyData network promotes discussion of best practices, new approaches, and emerging technologies for data management, processing, analytics, and visualization. PyData communities approach data science using many languages, including (but not limited to) Python, Julia, and R.

PyData conferences aim to be accessible and community-driven, with novice to advanced level presentations. PyData tutorials and talks bring attendees the latest project features along with cutting-edge use cases. 00:00 Welcome!
00:10 Help us add time stamps or captions to this video! See the description for details.

Want to help add timestamps to our YouTube videos to help with discoverability? Find out more here: https://github.com/numfocus/YouTubeVi...

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Can one do better than XGBoost? - Mateusz Susik

Поделиться в:

Доступные форматы для скачивания:

Скачать видео

  • Информация по загрузке:

Скачать аудио

Похожие видео

Лекция 22. XGBoost. Пример применения. Информативность  переменных. Обзор параметров модели.

Лекция 22. XGBoost. Пример применения. Информативность переменных. Обзор параметров модели.

Pedro Tabacof - Unlocking the Power of Gradient-Boosted Trees (using LightGBM) | PyData London 2022

Pedro Tabacof - Unlocking the Power of Gradient-Boosted Trees (using LightGBM) | PyData London 2022

Градиентный бустинг без формул.Часть 2.  Какой бустинг лучше? XgBoost vs LightGBM vs CatBoost

Градиентный бустинг без формул.Часть 2. Какой бустинг лучше? XgBoost vs LightGBM vs CatBoost

Градиентное усиление: серебряная пуля науки о данных

Градиентное усиление: серебряная пуля науки о данных

Gabby Shklovsky - Random Forests Best Practices for the Business World

Gabby Shklovsky - Random Forests Best Practices for the Business World

3 Methods for Hyperparameter Tuning with XGBoost

3 Methods for Hyperparameter Tuning with XGBoost

Master CatBoost Classifier: пошаговое руководство по машинному обучению на Python для начинающих

Master CatBoost Classifier: пошаговое руководство по машинному обучению на Python для начинающих

196 - Что такое Light GBM и чем он отличается от XGBoost?

196 - Что такое Light GBM и чем он отличается от XGBoost?

Автоматизированное извлечение и отбор признаков для сложных задач прогнозирования временных рядов.

Автоматизированное извлечение и отбор признаков для сложных задач прогнозирования временных рядов.

Жириновский: остатки Ирана и Турции войдут в состав России! Воскресный вечер с Соловьевым. 13.05.18

Жириновский: остатки Ирана и Турции войдут в состав России! Воскресный вечер с Соловьевым. 13.05.18

Jaroslaw Szymczak - Gradient Boosting in Practice: a deep dive into xgboost

Jaroslaw Szymczak - Gradient Boosting in Practice: a deep dive into xgboost

Mastering Hyperparameter Tuning with Optuna: Boost Your Machine Learning Models!

Mastering Hyperparameter Tuning with Optuna: Boost Your Machine Learning Models!

XGBoost ❌ LightGBM ❌ CatBoost ❌ Scikit-Learn GRADIENT BOOSTING Performance Compared

XGBoost ❌ LightGBM ❌ CatBoost ❌ Scikit-Learn GRADIENT BOOSTING Performance Compared

CatBoost Vs XGBoost Vs LightGBM | Catboost Vs XGBoost | Lightgbm vs XGBoost vs CatBoost

CatBoost Vs XGBoost Vs LightGBM | Catboost Vs XGBoost | Lightgbm vs XGBoost vs CatBoost

Лекция от легенды ИИ в Стэнфорде

Лекция от легенды ИИ в Стэнфорде

Gradient Boosting and XGBoost in Machine Learning: Easy Explanation for Data Science Interviews

Gradient Boosting and XGBoost in Machine Learning: Easy Explanation for Data Science Interviews

681: XGBoost: The Ultimate Classifier — with Matt Harrison

681: XGBoost: The Ultimate Classifier — with Matt Harrison

Кремль готовится к штурму / Переброска элитных подразделений

Кремль готовится к штурму / Переброска элитных подразделений

Kishan Manani - Feature Engineering for Time Series Forecasting | PyData London 2022

Kishan Manani - Feature Engineering for Time Series Forecasting | PyData London 2022

Жириновский: Большой куш и распад США

Жириновский: Большой куш и распад США

© 2025 ycliper. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]