آموزش مفهوم سازی مدل پردازش برای سرویس گردش داده GCP

دانلود Conceptualizing the Processing Model for the GCP Dataflow Service

در حال بارگزاری نمونه ویدیو، لطفا صبر کنید...
Video Player is loading.
Current Time 0:00
Duration 0:00
Loaded: 0%
Stream Type LIVE
Remaining Time 0:00
 
1x
    • Chapters
    • descriptions off, selected
    • subtitles off, selected
      نکته: آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
      نمونه ویدیوها:
      • در حال بارگزاری، لطفا صبر کنید...
      توضیحات دوره: DataFlow به توسعه دهندگان اجازه می دهد تا داده ها را با استفاده از API های آسان و بصری پردازش و تبدیل کنند. DataFlow بر روی معماری پرتوی Apache ساخته شده و دسته ای و همچنین پردازش جریان داده ها را متحد می کند. در این دوره ، مفهوم سازی مدل پردازش برای سرویس GCP DataFlow ، شما در معرض پتانسیل کامل Cloud DataFlow و مدل برنامه نویسی نوآورانه آن قرار خواهید گرفت. ابتدا با یک مثال خط لوله Apache Beam Pipeline که عملیات پردازش جریان را انجام می دهد کار خواهید کرد و می بینید که چگونه می توان با استفاده از Cloud DataFlow Runner اجرا کرد. در مرحله بعد ، بهینه سازی های اساسی را که DataFlow برای نمودار اجرای شما مانند همجوشی و ترکیب بهینه سازی ها اعمال می کند ، خواهید فهمید. سرانجام ، شما خطوط لوله DataFlow را بدون نوشتن هیچ کد با استفاده از الگوهای داخلی ، کشف خواهید کرد. همچنین خواهید دید که چگونه می توانید یک الگوی سفارشی برای اجرای مشاغل پردازش خود ایجاد کنید. پس از اتمام این دوره ، مهارت و دانش برای طراحی خطوط لوله Dataflow با استفاده از SDK های Apache Beam ، ادغام این خطوط لوله با سایر خدمات Google و اجرای این خطوط لوله را بر روی پلت فرم Google Cloud خواهید داشت.

      سرفصل ها و درس ها

      بررسی اجمالی دوره Course Overview

      • بررسی اجمالی دوره Course Overview

      شروع با Cloud Dataflow Getting Started with Cloud Dataflow

      • پیش نیازها و طرح کلی دوره Prerequisites and Course Outline

      • بررسی نسخه Version Check

      • بررسی اجمالی پرتو آپاچی Overview of Apache Beam

      • پیش نیازها و رئوس مطالب دوره Prerequisites and Course Outline

      • معرفی Cloud Dataflow Introducing Cloud Dataflow

      • نمای کلی از Apache Beam Overview of Apache Beam

      • اجرای خطوط لوله در گردش اطلاعات Executing Pipelines on Dataflow

      • معرفی DataFlow Cloud Introducing Cloud Dataflow

      • نسخه ی نمایشی: فعال کردن API ها Demo: Enabling APIs

      • اجرای خطوط لوله در جریان داده Executing Pipelines on Dataflow

      • نسخه ی نمایشی: راه اندازی یک حساب سرویس Demo: Setting up a Service Account

      • نسخه ی نمایشی: فعال کردن API Demo: Enabling APIs

      • نسخه ی نمایشی: تنظیم حساب خدمات Demo: Setting up a Service Account

      • نسخه ی نمایشی: نمونه برنامه شمارش کلمات Demo: Sample Word Count Application

      • نسخه ی نمایشی: نمونه کاربرد تعداد کلمات Demo: Sample Word Count Application

      • نسخه ی نمایشی: اجرای برنامه شمارش کلمات در Beam Runner Demo: Executing the Word Count Application on the Beam Runner

      • نسخه ی نمایشی: اجرای برنامه Word Count بر روی دونده پرتو Demo: Executing the Word Count Application on the Beam Runner

      • نسخه ی نمایشی: ایجاد سطل ذخیره سازی Cloud Demo: Creating Cloud Storage Buckets

      • نسخه ی نمایشی: پیاده سازی خط لوله Beam برای اجرای گردش اطلاعات Demo: Implementing a Beam Pipeline to Run on Dataflow

      • نسخه ی نمایشی: ایجاد سطل های ذخیره سازی ابری Demo: Creating Cloud Storage Buckets

      • نسخه ی نمایشی: اجرای یک خط لوله پرتو برای اجرای Dataflow Demo: Implementing a Beam Pipeline to Run on Dataflow

      • نسخه ی نمایشی: اجرای خط لوله پرتو در Cloud Dataflow Demo: Running a Beam Pipeline on Cloud Dataflow

      • نسخه ی نمایشی: گزینه های خط لوله سفارشی Demo: Custom Pipeline Options

      • نسخه ی نمایشی: اجرای یک خط لوله پرتوی در جریان ابر ابر Demo: Running a Beam Pipeline on Cloud Dataflow

      • قیمت گذاری جریان داده Dataflow Pricing

      • نسخه ی نمایشی: گزینه های خط لوله سفارشی Demo: Custom Pipeline Options

      • قیمت گذاری داده ها Dataflow Pricing

      نظارت بر مشاغل در Cloud Dataflow Monitoring Jobs in Cloud Dataflow

      • نظارت بر مشاغل Monitoring Jobs

      • نسخه ی نمایشی: اجرای خط لوله با ورودی جانبی Demo: Implementing a Pipeline with a Side Input

      • نسخه ی نمایشی: اجرای کد و کاوش در نمودار کار Demo: Running the Code and Exploring the Job Graph

      • نسخه ی نمایشی: کاوش در معیارهای شغلی Demo: Exploring Job Metrics

      • نسخه ی نمایشی: خودکار سازی Demo: Autoscaling

      • نسخه ی نمایشی: فعال کردن موتور جریان Demo: Enabling the Streaming Engine

      • نسخه ی نمایشی: با استفاده از رابط خط فرمان برای نظارت بر مشاغل Demo: Using the Command-line Interface to Monitor Jobs

      • نسخه ی نمایشی: ورود به سیستم در Dataflow Demo: Logging Messages in Dataflow

      • نسخه ی نمایشی: ردیابی معیارهای Dataflow با Metrics Explorer Demo: Tracking Dataflow Metrics with the Metrics Explorer

      • نسخه ی نمایشی: پیکربندی هشدارها Demo: Configuring Alerts

      بهینه سازی خطوط لوله جریان داده Cloud Optimizing Cloud Dataflow Pipelines

      • ساختار کد کاربر Structuring User Code

      • نسخه ی نمایشی: نوشتن نتایج خط لوله به میخانه/فرعی Demo: Writing Pipeline Results to Pub/Sub

      • نسخه ی نمایشی: مشاهده نتایج خط لوله در میخانه/زیر Demo: Viewing Pipeline Results in Pub/Sub

      • نسخه ی نمایشی: نوشتن نتایج خط لوله به BigQuery Demo: Writing Pipeline Results to BigQuery

      • نسخه ی نمایشی: مشاهده خط لوله در BigQuery Demo: Viewing Pipeline Results in BigQuery

      • نسخه ی نمایشی: انجام عملیات پیوستن Demo: Performing Join Operations

      • نسخه ی نمایشی: خطاها و احیا در Dataflow Demo: Errors and Retries in Dataflow

      • همجوشی و بهینه سازی ها Fusion and Combine Optimizations

      • کار خودکار و تغییر مجدد کار Autoscaling and Dynamic Work Rebalancing

      • نسخه ی نمایشی: خواندن داده های جریان از میخانه/فرعی Demo: Reading Streaming Data from Pub/Sub

      • نسخه ی نمایشی: نوشتن داده های جریان به BigQuery Demo: Writing Streaming Data to BigQuery

      اجرای خطوط لوله انتقال داده Cloud با استفاده از الگوها Running Cloud Dataflow Pipelines Using Templates

      • معرفی الگوها در Dataflow Introducing Templates in Dataflow

      • نسخه ی نمایشی: الگوهای داخلی در Dataflow Demo: Built-in Templates in Dataflow

      • نسخه ی نمایشی: اجرای الگوهای داخلی Demo: Running Built-in Templates

      • نسخه ی نمایشی: ایجاد الگوهای داده های سفارشی Demo: Creating Custom Dataflow Templates

      • نسخه ی نمایشی: اجرای الگوهای سفارشی در Dataflow Demo: Executing Custom Templates in Dataflow

      • خلاصه و مطالعه بیشتر Summary and Further Study

      نمایش نظرات

      آموزش مفهوم سازی مدل پردازش برای سرویس گردش داده GCP
      جزییات دوره
      3h 1m
      55
      Pluralsight (پلورال سایت) Pluralsight (پلورال سایت)
      (آخرین آپدیت)
      4
      از 5
      دارد
      دارد
      دارد
      Janani Ravi
      جهت دریافت آخرین اخبار و آپدیت ها در کانال تلگرام عضو شوید.

      Google Chrome Browser

      Internet Download Manager

      Pot Player

      Winrar

      Janani Ravi Janani Ravi

      معمار و مهندس داده خبره Google Cloud

      Janani Ravi یک معمار و مهندس داده خبره Google cloud است.

      جنانی مدرک کارشناسی ارشد خود را در رشته مهندسی برق از دانشگاه استنفورد دریافت کرد و برای مایکروسافت، گوگل و فلیپ کارت کار کرده است. او یکی از بنیانگذاران Loonycorn است، یک استودیوی محتوا که بر ارائه محتوای با کیفیت بالا برای توسعه مهارت های فنی متمرکز است، جایی که او عشق خود را به فناوری با اشتیاق خود به تدریس ترکیب می کند.