نکته:
آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
نمونه ویدیویی برای نمایش وجود ندارد.
توضیحات دوره:
گردش اطلاعات نشان دهنده یک رویکرد کاملاً متفاوت نسبت به موتورهای محاسباتی مانند Spark در پردازش داده های بزرگ است. گردش اطلاعات بدون سرور و کاملاً مدیریت شده است و از خطوط لوله در حال اجرا که با استفاده از API Beache Apache طراحی شده اند پشتیبانی می کند. Dataflow به توسعه دهندگان امکان پردازش و تبدیل داده ها با استفاده از API های آسان و بصری را می دهد. گردش اطلاعات بر اساس معماری Apache Beam ساخته شده و دسته ای و همچنین پردازش جریان داده ها را متحد می کند. در این دوره ، با تصور کردن مدل پردازش برای سرویس جریان داده GCP ، در معرض پتانسیل کامل Cloud Dataflow و مدل برنامه نویسی ابتکاری آن قرار خواهید گرفت. ابتدا با یک نمونه از خطوط لوله Apache Beam که عملیات پردازش جریان را انجام می دهید کار خواهید کرد و خواهید دید که چگونه می توان آن را با استفاده از Runner Cloud Dataflow اجرا کرد. در مرحله بعدی ، شما بهینه سازی های اساسی را که Dataflow در نمودار اجرای شما اعمال می کند مانند همجوشی و بهینه سازی های ترکیبی ، درک خواهید کرد. سرانجام ، شما خطوط خط انتقال داده را بدون نوشتن هیچ گونه کدی با استفاده از الگوهای داخلی کشف خواهید کرد. همچنین خواهید دید که چگونه می توانید برای اجرای مشاغل پردازش خود یک الگوی سفارشی ایجاد کنید. پس از پایان این دوره ، مهارت و دانش لازم برای طراحی خطوط لوله Dataflow با استفاده از SDK های Apache Beam ، ادغام این خطوط لوله با سایر سرویس های Google و اجرای این خطوط لوله در Google Cloud Platform را خواهید داشت.
سرفصل ها و درس ها
بررسی اجمالی دوره
Course Overview
-
بررسی اجمالی دوره
Course Overview
شروع با Cloud Dataflow
Getting Started with Cloud Dataflow
-
پیش نیازها و طرح کلی دوره
Prerequisites and Course Outline
-
بررسی اجمالی پرتو آپاچی
Overview of Apache Beam
-
معرفی Cloud Dataflow
Introducing Cloud Dataflow
-
اجرای خطوط لوله در گردش اطلاعات
Executing Pipelines on Dataflow
-
نسخه ی نمایشی: فعال کردن API ها
Demo: Enabling APIs
-
نسخه ی نمایشی: راه اندازی یک حساب سرویس
Demo: Setting up a Service Account
-
نسخه ی نمایشی: نمونه برنامه شمارش کلمات
Demo: Sample Word Count Application
-
نسخه ی نمایشی: اجرای برنامه شمارش کلمات در Beam Runner
Demo: Executing the Word Count Application on the Beam Runner
-
نسخه ی نمایشی: ایجاد سطل ذخیره سازی Cloud
Demo: Creating Cloud Storage Buckets
-
نسخه ی نمایشی: پیاده سازی خط لوله Beam برای اجرای گردش اطلاعات
Demo: Implementing a Beam Pipeline to Run on Dataflow
-
نسخه ی نمایشی: اجرای خط لوله پرتو در Cloud Dataflow
Demo: Running a Beam Pipeline on Cloud Dataflow
-
نسخه ی نمایشی: گزینه های خط لوله سفارشی
Demo: Custom Pipeline Options
-
قیمت گذاری جریان داده
Dataflow Pricing
نظارت بر مشاغل در Cloud Dataflow
Monitoring Jobs in Cloud Dataflow
-
نظارت بر مشاغل
Monitoring Jobs
-
نسخه ی نمایشی: پیاده سازی خط لوله با ورودی جانبی
Demo: Implementing a Pipeline with a Side Input
-
نسخه ی نمایشی: اجرای کد و کاوش در نمودار شغلی
Demo: Running the Code and Exploring the Job Graph
-
نسخه ی نمایشی: کاوش در معیارهای شغلی
Demo: Exploring Job Metrics
-
نسخه ی نمایشی: مقیاس خودکار
Demo: Autoscaling
-
نسخه ی نمایشی: فعال کردن موتور جریان
Demo: Enabling the Streaming Engine
-
نسخه ی نمایشی: استفاده از رابط خط فرمان برای نظارت بر مشاغل
Demo: Using the Command-line Interface to Monitor Jobs
-
نسخه ی نمایشی: ورود پیام ها در گردش داده
Demo: Logging Messages in Dataflow
-
نسخه ی نمایشی: ردیابی معیارهای جریان داده با Metrics Explorer
Demo: Tracking Dataflow Metrics with the Metrics Explorer
-
نسخه ی نمایشی: پیکربندی هشدارها
Demo: Configuring Alerts
بهینه سازی خطوط لوله جریان داده Cloud
Optimizing Cloud Dataflow Pipelines
-
ساختار کد کاربر
Structuring User Code
-
نسخه ی نمایشی: نوشتن نتایج خط لوله در Pub/Sub
Demo: Writing Pipeline Results to Pub/Sub
-
نسخه ی نمایشی: مشاهده نتایج خط لوله در Pub/Sub
Demo: Viewing Pipeline Results in Pub/Sub
-
نسخه ی نمایشی: نوشتن نتایج خط لوله در BigQuery
Demo: Writing Pipeline Results to BigQuery
-
نسخه ی نمایشی: مشاهده نتایج خط لوله در BigQuery
Demo: Viewing Pipeline Results in BigQuery
-
نسخه ی نمایشی: انجام عملیات پیوستن
Demo: Performing Join Operations
-
نسخه ی نمایشی: خطاها و تلاش های مجدد در گردش داده
Demo: Errors and Retries in Dataflow
-
Fusion و Combine Optimizations
Fusion and Combine Optimizations
-
تعادل خودکار و تعادل کار پویا
Autoscaling and Dynamic Work Rebalancing
-
نسخه ی نمایشی: خواندن جریان اطلاعات از Pub/Sub
Demo: Reading Streaming Data from Pub/Sub
-
نسخه ی نمایشی: نوشتن جریان داده ها در BigQuery
Demo: Writing Streaming Data to BigQuery
اجرای خطوط لوله انتقال داده Cloud با استفاده از الگوها
Running Cloud Dataflow Pipelines Using Templates
-
معرفی الگوها در گردش اطلاعات
Introducing Templates in Dataflow
-
نسخه ی نمایشی: الگوهای داخلی در گردش داده
Demo: Built-in Templates in Dataflow
-
نسخه ی نمایشی: در حال اجرا الگوهای داخلی
Demo: Running Built-in Templates
-
نسخه ی نمایشی: ایجاد الگوهای سفارشی گردش داده
Demo: Creating Custom Dataflow Templates
-
نسخه ی نمایشی: اجرای الگوهای سفارشی در گردش داده
Demo: Executing Custom Templates in Dataflow
-
خلاصه و مطالعه بیشتر
Summary and Further Study
نمایش نظرات