🔔 با توجه به بهبود نسبی اینترنت، آمادهسازی دورهها آغاز شده است. به دلیل تداوم برخی اختلالات، بارگذاری دورهها ممکن است با کمی تأخیر انجام شود. مدت اشتراکهای تهیهشده محفوظ است.
لطفا جهت اطلاع از آخرین دوره ها و اخبار سایت در
کانال تلگرام
عضو شوید.
Apache Airflow با استفاده از Google Cloud Composer: مقدمه
- آخرین آپدیت
Apache Airflow using Google Cloud Composer: Introduction
نکته:
ممکن هست محتوای این صفحه بروز نباشد ولی دانلود دوره آخرین آپدیت می باشد.
نمونه ویدیوها:
توضیحات دوره:
با Google Cloud composer Apache Airflow را بدون نصب محلی یاد بگیرید. اطمینان حاصل می کند که تمرکز روی موضوعات جریان هوا است. درک اتوماسیون گردش کار Task از طریق Airflow Architecture - On Premise (نصب محلی)، Cloud، تک نود، چندین گره نحوه استفاده از عملکرد اتصال برای اتصال به سیستم های مختلف برای خودکارسازی خطوط لوله داده Google cloud چیست. جستجوی بزرگ و به طور خلاصه چگونه می تواند باشد مورد استفاده در محفظه Dataware و همچنین در Airflow عملکردهای اصلی DAG Master مانند DAGs، Operators، Tasks through hands on demonstration درک عملکردهای پیشرفته مانند XCOM، Branching، Subdags از طریق نمایش های دستی دریافت یک درک کلی از SLA ها، عملکرد مجری Kubernetes در Apache Airflow فایلهای منبع برنامههای Python DAG (9 فایل .py) مورد استفاده در نمایش، برای دانلود برای تمرین برای دانشآموزان در دسترس هستند. اسکریپت پوسته کمک خواهد کرد.
Apache Airflow یک پلت فرم منبع باز است که به صورت برنامهنویسی، برنامهریزی و نظارت بر گردشهای کاری را انجام میدهد.
Cloud Composer یک سرویس هماهنگسازی گردش کار کاملاً مدیریتشده است که به شما امکان میدهد تا خطوط لوله را که در ابرها و مراکز داده داخلی قرار دارند، بنویسید، زمانبندی و نظارت کنید. Cloud Composer که بر اساس پروژه منبع باز محبوب Apache Airflow ساخته شده و با استفاده از زبان برنامه نویسی Python کار می کند، بدون قفل و آسان برای استفاده است.
با میزبانی Apache Airflow در فضای ابری ("Google" Cloud composer) و از این رو، این به یادگیرنده کمک می کند تا روی عملکرد محصول Apache Airflow تمرکز کند و در نتیجه به سرعت یاد بگیرد، بدون اینکه Apache Airflow به صورت محلی روی دستگاه نصب شود.
خطوط لوله Cloud Composer با استفاده از Python بهصورت نمودارهای غیر چرخهای جهتدار (DAG) پیکربندی شدهاند، که نوشتن و برنامهریزی گردش کار را برای کاربران با هر سطح تجربه آسان میکند. استقرار با یک کلیک دسترسی فوری به یک کتابخانه غنی از کانکتورها و چندین نمایش گرافیکی از گردش کار شما را در عمل به همراه میآورد و با آسانکردن عیبیابی، قابلیت اطمینان خط لوله را افزایش میدهد.
این دوره با در نظر گرفتن مبتدیان طراحی شده است، یعنی اولین کاربرانی که از cloud composer/Apache airflow استفاده می کنند. ساختار دوره به گونهای است که در ابتدا ارائهای برای بحث در مورد مفاهیم دارد و سپس به صورت دستی برای درک بهتر ارائه میشود.
برنامههای پایتون DAG مورد استفاده در فایل منبع نمایشی (۹ فایل پایتون) برای تمرین بیشتر توسط دانشآموزان برای دانلود در دسترس هستند.
یادگیری مبارک!!!
سرفصل ها و درس ها
بررسی اجمالی دوره
Course Overview
بررسی اجمالی دوره - موضوعات پوشش
Course Overview - Topics of coverage
مقدمه
Introduction
خطوط لوله داده و موارد استفاده برای جریان هوای آپاچی
Data pipe lines & Uses cases for Apache Airflow
Task چیست و چرا به ارکستراسیون نیاز است؟
What is Task and why Orchestration needed?
آپاچی جریان هوا و گزینه های محیطی چیست؟
What is Apache Airflow & environment options?
Airflow - Directed Acyclic Graph (DAG) و اپراتورها چیست؟
What is Airflow - Directed Acyclic Graph (DAG) & operators?
جریان هوا چیست - گراف غیر چرخشی جهت دار
What is Airflow - Directed Acyclic Graph
معماری Apache Airflow
Apache Airflow architecture
معماری Apache Airflow
Apache Airflow architecture
Apache Airflow - Single Node در مقابل Multinode
Apache Airflow - Single Node vs Multinode
Google Cloud Platform: آهنگساز ابری که به عنوان Apache Airflow استفاده میشود
Google Cloud Platform: Cloud composer used as Apache Airflow
تهیه Google Composer - محیط Apache Airflow - قسمت 1
Provisioning Google Composer - Apache Airflow environment - Part 1
ارائه Google Composer - محیط Apache Airflow - قسمت 2
Provisoning Google Composer - Apache Airflow environment - Part 2
درک ساختار برنامه Apache Airflow
Understanding Apache Airflow program structure
درک ساختار برنامه Apache Airflow
Understanding Apache Airflow program structure
فعالیت 1: برنامه Apache airflow DAG را ایجاد و ارسال کنید
Activity 1 : Create and submit Apache airflow DAG program
فعالیت 1: برنامه Apache airflow DAG را ایجاد و ارسال کنید
Activity 1 : Create and submit Apache airflow DAG program
زمان امتحان 2
Quiz time 2
فعالیت 2: استفاده از قابلیت Template در برنامه Apache Airflow
Activity 2: Using Template functionality in Apache Airflow program
فعالیت 2: استفاده از قابلیت Templating در برنامه Apache Airflow
Activity 2: Using Templating functionality in Apache Airflow program
فعالیت 2: استفاده از قابلیت Templating در برنامه Apache Airflow - قسمت 2
Activity 2: Using Templating functionality in Apache Airflow program - Part 2
استفاده از متغیرها در جریان هوای آپاچی
Using Variables in Apache Airflow
متغیر در Apache Airflow چیست و چه زمانی باید از آنها استفاده کرد؟
What is variable in Apache Airflow and when to use them?
فعالیت 3: استفاده از متغیرها در برنامه پایتون DAG
Activity 3: Variables usage in DAG python program
فعالیت 4: فراخوانی اسکریپت Bash در پوشه های مختلف/ماشین های مختلف.
Activity 4: Calling Bash script in different folder / different machine.
فعالیت 4: فراخوانی اسکریپت Bash در پوشه های مختلف/ماشین های مختلف - قسمت 1
Activity 4: Calling Bash script in different folder / different machine - Part1
فعالیت 4: فراخوانی اسکریپت Bash در پوشه های مختلف/ماشین های مختلف - قسمت 2
Activity 4: Calling Bash script in different folder / different machine - Part 2
ایجاد اتصالات در Apache Airflow
Creating connections in Apache Airflow
چرا اتصالات در Apache Airflow مورد نیاز است؟
Why connections are required in Apache Airflow
مسیریابی و ایجاد مراحل اتصال در Apache Airflow
Navigation and creating connection steps in Apache Airflow
فعالیت 5: ایجاد و آزمایش اتصال در Apache Airflow - قسمت 1
Activity 5: Creating and testing connection in Apache Airflow - Part 1
فعالیت 5: ایجاد و آزمایش اتصال در Apache Airflow - قسمت 2
Activity 5: Creating and testing connection in Apache Airflow - Part 2
زمان امتحان 3
Quiz time 3
استفاده از Bigquery ابری گوگل با Apache Airflow Datapipelines
Using Google's cloud Bigquery with Apache Airflow Datapipelines
Google Cloud BigQuery چیست؟
What is Google Cloud BigQuery?
ایجاد جدول سفارشی Bigquery
Creation of custom Bigquery table
آپلود داده BigQuery از برگه اکسل (فایل CSV)
BigQuery data upload from Excel sheet (CSV file)
فعالیت 6: خط لوله داده Apache Airflow DAG برای BigQuery
Activity 6 : Apache Airflow DAG Data pipeline for BigQuery
ارتباط متقابل بین وظایف - XCOM
Cross communication between tasks - XCOM
xcom چیست؟
What is xcom?
فعالیت 7: خط لوله نمایش xcom
Activity 7: xcom demonstration pipeline
انشعاب بر اساس شرایط
Branching based on conditions
مروری بر عملکرد انشعاب
Overview about Branching Functionality
فعالیت 8: نمایش انشعاب وظایف
Activity 8: Tasks Branching demonstration
SUBDAGS
SUBDAGS
Subdag چیست؟
What is a Subdag?
فعالیت 9: نمایش SubDAGs
Activity 9: SubDAGs demonstration
آزمون 4
Quiz 4
سایر قابلیت ها
Other functionalities
توافقنامه سطح خدمات با جریان هوا
Service Level Agreement with Airflow
Airflow اکنون از Kubernetes پشتیبانی می کند
Airflow now support Kubernetes
حسگرها
Sensors
تست تمرین، سوالات متداول مصاحبه - برای آزمایش دانش خود
Practice test , common interview questions - To test your knowledge
تست تمرین، سوالات فنی مصاحبه رایج - برای آزمایش دانش خود
Practice test , common interview technical questions - To test your knowledge
Apache Airflow در مقابل Apache Beam and Spark - مقایسه سریع
Apache Airflow Vs Apache Beam and Spark - Quick comparison
Apache Airflow در مقابل Apache Beam and Spark - مقایسه سریع
Apache Airflow Vs Apache Beam and Spark - Quick comparison
نمایش نظرات