ycliper

Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
Скачать

Управляйте конвейерами данных с помощью Dagster | Программно-определяемые активы | Менеджеры ввод...

Автор: BI Insights Inc

Загружено: 2023-05-24

Просмотров: 7688

Описание: В этом видео мы снова рассмотрим dagster. Мы обсудим изменения в этой системе оркестровки рабочих процессов в связи с недавними обновлениями (обновление с версии 0.15 до 1.3.1).
Dagster — это оркестратор, предназначенный для разработки и поддержки ресурсов данных, таких как таблицы, наборы данных, модели машинного обучения и отчёты.
Мы рассмотрим программно-определяемые активы (SDA), поскольку dagster продвигается к этой технологии. По умолчанию выходные данные нашего конвейера хранятся в виде файла pickle в домашней папке dagster. Что делать, если мы хотим сохранить выходные данные в таблице базы данных или в читаемом файле, таком как CSV или Parquet? Dagster предоставляет менеджеры ввода-вывода (IO-менеджеры), которые позволяют читать и записывать данные в системы хранения. С помощью менеджеров ввода-вывода Store мы можем сохранять выходные данные в файловой системе или хранить данные в виде таблиц в базе данных. Мы определим менеджеры ввода-вывода для файлов CSV/Parquet и менеджеры ввода-вывода для базы данных.

Ссылка на предыдущее видео:    • Getting started with Dagster | Create Pyth...  
Ссылка на репозиторий GitHub: https://github.com/hnawaz007/pythonda...

Начните работу с Dagster всего за три быстрых шага:
Установите Dagster, определите ресурсы и материализуйте ресурсы.

Создайте виртуальную среду: python -m venv env
Активируйте виртуальную среду: env\Scripts\activate

Чтобы установить Dagster в существующую среду Python, выполните:
pip install dagster dagit

Команда для создания нового проекта:
dagster project scaffold --name my-dagster-project

Требуются дополнительные библиотеки: Pandas, psycopg2

Чтобы запустить dagster, выполните следующую команду:
dagit
dagster-daemon run

Доступ к интерфейсу Dagit через порт 3000: http://127.0.0.1:3000

💥Подпишитесь на наш канал:
   / haqnawaz  

📌 Ссылки
-----------------------------------------
#️⃣ Подписывайтесь на меня в социальных сетях! #️⃣

🔗 GitHub: https://github.com/hnawaz007
📸 Instagram:   / bi_insights_inc  
📝 LinkedIn:   / haq-nawaz  
🔗   / hnawaz100  

-----------------------------------------

#Python #ETL #Dagster

Темы, затронутые в этом видео:
===================================
0:00 - Введение в Dagster
2:11 - Создание нового проекта в Dagster
3:03 - Структура проекта в Dagster
4:18 - Программно-определяемые ресурсы (SPA)
5:35 - Установка необходимых библиотек
5:58 - Исходная база данных Подключение
6:27 — Исходный ресурс
10:05 — Менеджер ввода-вывода файлов
14:16 — Второй ресурс
16:19 — Менеджер ввода-вывода Parquet
16:26 — Менеджер ввода-вывода базы данных
19:05 — Материализованные ресурсы

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Управляйте конвейерами данных с помощью Dagster | Программно-определяемые активы | Менеджеры ввод...

Поделиться в:

Доступные форматы для скачивания:

Скачать видео

  • Информация по загрузке:

Скачать аудио

Похожие видео

How to build on-premise Data Lake? | Build your own Data Lake | Open Source Tools | On-Premise

How to build on-premise Data Lake? | Build your own Data Lake | Open Source Tools | On-Premise

SH: Let's build a data pipeline with Prefect!

SH: Let's build a data pipeline with Prefect!

Dagster 101 — Основные понятия (за 4 минуты)

Dagster 101 — Основные понятия (за 4 минуты)

Build an end to end data lake etl pipeline | Airflow | Iceberg | dbt | Trino | Postgres

Build an end to end data lake etl pipeline | Airflow | Iceberg | dbt | Trino | Postgres

Building an Open Data Lake House Using Trino and Apache Iceberg

Building an Open Data Lake House Using Trino and Apache Iceberg

What is Dagster? Asset Based Orchestration [2hr full course]

What is Dagster? Asset Based Orchestration [2hr full course]

Разделенные конвейеры данных в инженерии данных

Разделенные конвейеры данных в инженерии данных

Kubernetes — Простым Языком на Понятном Примере

Kubernetes — Простым Языком на Понятном Примере

Качество данных как часть конвейера данных

Качество данных как часть конвейера данных

Apache Iceberg: что это такое и почему все о нем говорят.

Apache Iceberg: что это такое и почему все о нем говорят.

Build an End-to-End ETL Pipeline Using open source stack; MinIO, Airbyte, dbt, and Postgres

Build an End-to-End ETL Pipeline Using open source stack; MinIO, Airbyte, dbt, and Postgres

Лучший Гайд по Kafka для Начинающих За 1 Час

Лучший Гайд по Kafka для Начинающих За 1 Час

Создайте локальный Data Lakehouse с помощью Apache Iceberg | Nessie | MinIO | Lakehouse

Создайте локальный Data Lakehouse с помощью Apache Iceberg | Nessie | MinIO | Lakehouse

How to test your Python ETL pipelines | Data pipeline | Pytest

How to test your Python ETL pipelines | Data pipeline | Pytest

Introducing External Assets and Dagster Pipes -- Dagster Launch Week - Fall 2023

Introducing External Assets and Dagster Pipes -- Dagster Launch Week - Fall 2023

How to use PySpark DataFrame API? | DataFrame Operations on Spark

How to use PySpark DataFrame API? | DataFrame Operations on Spark

Converting an ETL script to Software-Defined Assets

Converting an ETL script to Software-Defined Assets

Soda's Bi-Directional Integration with Collibra | Webinar

Soda's Bi-Directional Integration with Collibra | Webinar

Rethinking Orchestration as Reconciliation: Software-Defined Assets in Dagster

Rethinking Orchestration as Reconciliation: Software-Defined Assets in Dagster

How to Create Databricks Workflows (new features explained)

How to Create Databricks Workflows (new features explained)

© 2025 ycliper. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]