ym88659208ym87991671
Хранение и запуск сценариев ETL (DAGs Airflow) | Документация для разработчиков

Хранение и запуск сценариев ETL (DAGs Airflow)

Обновлено 09 марта 2023

Созданный сценарий (DAG) перемещается в хранилище S3, которое синхронизируется с компонентами Airflow.

Взаимодействие с хранилищем S3 происходит через утилиту s3cmd.

Файл в бакет s3 кладется с помощью команды s3cmd put:

s3cmd put test_join.py s3://sdpan-airflow-dags-test/test_join.py

Проверить файл в бакете s3 можно с помощью команды s3cmd ls:

s3cmd ls s3://sdpan-airflow-dags-test

После синхронизации DAG появляется в интерфейсе Airflow

DAG запускается непосредственно из Airflow нажатием на кнопку в веб-интерфейсе, по настроенному расписанию или по наступлению определенного события.

В интерфейсе Airflow возможно представить DAG непосредственно в виде ациклического графа, либо в виде цепочки связанных тасков. См. → Работа с дагами Airflow

ПАО Сбербанк использует cookie для персонализации сервисов и удобства пользователей.
Вы можете запретить сохранение cookie в настройках своего браузера.