آموزش تصور مدل پردازش برای سرویس جریان داده GCP

Conceptualizing the Processing Model for the GCP Dataflow Service

نکته: آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
نمونه ویدیویی برای نمایش وجود ندارد.
توضیحات دوره: گردش اطلاعات نشان دهنده یک رویکرد کاملاً متفاوت نسبت به موتورهای محاسباتی مانند Spark در پردازش داده های بزرگ است. گردش اطلاعات بدون سرور و کاملاً مدیریت شده است و از خطوط لوله در حال اجرا که با استفاده از API Beache Apache طراحی شده اند پشتیبانی می کند. Dataflow به توسعه دهندگان امکان پردازش و تبدیل داده ها با استفاده از API های آسان و بصری را می دهد. گردش اطلاعات بر اساس معماری Apache Beam ساخته شده و دسته ای و همچنین پردازش جریان داده ها را متحد می کند. در این دوره ، با تصور کردن مدل پردازش برای سرویس جریان داده GCP ، در معرض پتانسیل کامل Cloud Dataflow و مدل برنامه نویسی ابتکاری آن قرار خواهید گرفت. ابتدا با یک نمونه از خطوط لوله Apache Beam که عملیات پردازش جریان را انجام می دهید کار خواهید کرد و خواهید دید که چگونه می توان آن را با استفاده از Runner Cloud Dataflow اجرا کرد. در مرحله بعدی ، شما بهینه سازی های اساسی را که Dataflow در نمودار اجرای شما اعمال می کند مانند همجوشی و بهینه سازی های ترکیبی ، درک خواهید کرد. سرانجام ، شما خطوط خط انتقال داده را بدون نوشتن هیچ گونه کدی با استفاده از الگوهای داخلی کشف خواهید کرد. همچنین خواهید دید که چگونه می توانید برای اجرای مشاغل پردازش خود یک الگوی سفارشی ایجاد کنید. پس از پایان این دوره ، مهارت و دانش لازم برای طراحی خطوط لوله Dataflow با استفاده از SDK های Apache Beam ، ادغام این خطوط لوله با سایر سرویس های Google و اجرای این خطوط لوله در Google Cloud Platform را خواهید داشت.

سرفصل ها و درس ها

بررسی اجمالی دوره Course Overview

  • بررسی اجمالی دوره Course Overview

شروع با Cloud Dataflow Getting Started with Cloud Dataflow

  • پیش نیازها و طرح کلی دوره Prerequisites and Course Outline

  • بررسی اجمالی پرتو آپاچی Overview of Apache Beam

  • معرفی Cloud Dataflow Introducing Cloud Dataflow

  • اجرای خطوط لوله در گردش اطلاعات Executing Pipelines on Dataflow

  • نسخه ی نمایشی: فعال کردن API ها Demo: Enabling APIs

  • نسخه ی نمایشی: راه اندازی یک حساب سرویس Demo: Setting up a Service Account

  • نسخه ی نمایشی: نمونه برنامه شمارش کلمات Demo: Sample Word Count Application

  • نسخه ی نمایشی: اجرای برنامه شمارش کلمات در Beam Runner Demo: Executing the Word Count Application on the Beam Runner

  • نسخه ی نمایشی: ایجاد سطل ذخیره سازی Cloud Demo: Creating Cloud Storage Buckets

  • نسخه ی نمایشی: پیاده سازی خط لوله Beam برای اجرای گردش اطلاعات Demo: Implementing a Beam Pipeline to Run on Dataflow

  • نسخه ی نمایشی: اجرای خط لوله پرتو در Cloud Dataflow Demo: Running a Beam Pipeline on Cloud Dataflow

  • نسخه ی نمایشی: گزینه های خط لوله سفارشی Demo: Custom Pipeline Options

  • قیمت گذاری جریان داده Dataflow Pricing

نظارت بر مشاغل در Cloud Dataflow Monitoring Jobs in Cloud Dataflow

  • نظارت بر مشاغل Monitoring Jobs

  • نسخه ی نمایشی: پیاده سازی خط لوله با ورودی جانبی Demo: Implementing a Pipeline with a Side Input

  • نسخه ی نمایشی: اجرای کد و کاوش در نمودار شغلی Demo: Running the Code and Exploring the Job Graph

  • نسخه ی نمایشی: کاوش در معیارهای شغلی Demo: Exploring Job Metrics

  • نسخه ی نمایشی: مقیاس خودکار Demo: Autoscaling

  • نسخه ی نمایشی: فعال کردن موتور جریان Demo: Enabling the Streaming Engine

  • نسخه ی نمایشی: استفاده از رابط خط فرمان برای نظارت بر مشاغل Demo: Using the Command-line Interface to Monitor Jobs

  • نسخه ی نمایشی: ورود پیام ها در گردش داده Demo: Logging Messages in Dataflow

  • نسخه ی نمایشی: ردیابی معیارهای جریان داده با Metrics Explorer Demo: Tracking Dataflow Metrics with the Metrics Explorer

  • نسخه ی نمایشی: پیکربندی هشدارها Demo: Configuring Alerts

بهینه سازی خطوط لوله جریان داده Cloud Optimizing Cloud Dataflow Pipelines

  • ساختار کد کاربر Structuring User Code

  • نسخه ی نمایشی: نوشتن نتایج خط لوله در Pub/Sub Demo: Writing Pipeline Results to Pub/Sub

  • نسخه ی نمایشی: مشاهده نتایج خط لوله در Pub/Sub Demo: Viewing Pipeline Results in Pub/Sub

  • نسخه ی نمایشی: نوشتن نتایج خط لوله در BigQuery Demo: Writing Pipeline Results to BigQuery

  • نسخه ی نمایشی: مشاهده نتایج خط لوله در BigQuery Demo: Viewing Pipeline Results in BigQuery

  • نسخه ی نمایشی: انجام عملیات پیوستن Demo: Performing Join Operations

  • نسخه ی نمایشی: خطاها و تلاش های مجدد در گردش داده Demo: Errors and Retries in Dataflow

  • Fusion و Combine Optimizations Fusion and Combine Optimizations

  • تعادل خودکار و تعادل کار پویا Autoscaling and Dynamic Work Rebalancing

  • نسخه ی نمایشی: خواندن جریان اطلاعات از Pub/Sub Demo: Reading Streaming Data from Pub/Sub

  • نسخه ی نمایشی: نوشتن جریان داده ها در BigQuery Demo: Writing Streaming Data to BigQuery

اجرای خطوط لوله انتقال داده Cloud با استفاده از الگوها Running Cloud Dataflow Pipelines Using Templates

  • معرفی الگوها در گردش اطلاعات Introducing Templates in Dataflow

  • نسخه ی نمایشی: الگوهای داخلی در گردش داده Demo: Built-in Templates in Dataflow

  • نسخه ی نمایشی: در حال اجرا الگوهای داخلی Demo: Running Built-in Templates

  • نسخه ی نمایشی: ایجاد الگوهای سفارشی گردش داده Demo: Creating Custom Dataflow Templates

  • نسخه ی نمایشی: اجرای الگوهای سفارشی در گردش داده Demo: Executing Custom Templates in Dataflow

  • خلاصه و مطالعه بیشتر Summary and Further Study

نمایش نظرات

آموزش تصور مدل پردازش برای سرویس جریان داده GCP
جزییات دوره
3h 1m
41
Pluralsight (پلورال سایت) Pluralsight (پلورال سایت)
(آخرین آپدیت)
-
از 5
دارد
دارد
دارد
Janani Ravi
جهت دریافت آخرین اخبار و آپدیت ها در کانال تلگرام عضو شوید.

Google Chrome Browser

Internet Download Manager

Pot Player

Winrar

Janani Ravi Janani Ravi

معمار و مهندس داده خبره Google Cloud

Janani Ravi یک معمار و مهندس داده خبره Google cloud است.

جنانی مدرک کارشناسی ارشد خود را در رشته مهندسی برق از دانشگاه استنفورد دریافت کرد و برای مایکروسافت، گوگل و فلیپ کارت کار کرده است. او یکی از بنیانگذاران Loonycorn است، یک استودیوی محتوا که بر ارائه محتوای با کیفیت بالا برای توسعه مهارت های فنی متمرکز است، جایی که او عشق خود را به فناوری با اشتیاق خود به تدریس ترکیب می کند.