آموزش معماری راه حل های کلان داده بدون سرور با استفاده از Google Dataflow

Architecting Serverless Big Data Solutions Using Google Dataflow

نکته: آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
نمونه ویدیوها:
توضیحات دوره: Dataflow رویکردی اساساً متفاوت برای پردازش Big Data نسبت به موتورهای محاسباتی مانند Spark دارد. Dataflow بدون سرور و کاملاً مدیریت شده است، به این معنی که تامین منابع و مقیاس‌بندی می‌تواند برای معمار داده شفاف باشد. Dataflow بر اساس معماری Apache Beam ساخته شده است و پردازش دسته ای و جریانی داده ها را یکپارچه می کند. در این دوره آموزشی، معماری راه حل های بیگ داده بدون سرور با استفاده از Google Dataflow، با پتانسیل کامل Cloud Dataflow و مدل برنامه نویسی کاملاً نوآورانه آن آشنا خواهید شد. شما این دوره را با درک اولیه نحوه عملکرد Dataflow برای محاسبات بدون سرور آغاز خواهید کرد. شما Apache Beam API مورد استفاده برای ساخت خطوط لوله را مطالعه خواهید کرد و متوجه خواهید شد که منابع داده، سینک ها و تبدیل ها چیست. شما مراحل یک خط لوله داده را مطالعه می کنید و آن را به عنوان یک گراف جهت دار- غیر چرخه ای تجسم می کنید. در مرحله بعد، شما از Apache Beam APIها برای ایجاد خطوط لوله برای تبدیل داده ها در جاوا و پایتون استفاده می کنید و این خطوط لوله را به صورت محلی و در فضای ابری اجرا می کنید. شما خطوط لوله خود را با سایر خدمات GCP مانند BigQuery ادغام خواهید کرد و خواهید دید که چگونه می توانید مراحل کند خط لوله را نظارت و اشکال زدایی کنید. علاوه بر این، معماری های مختلف خطوط لوله مانند انشعاب و خطوط لوله را با استفاده از ورودی های جانبی مطالعه خواهید کرد. همچنین خواهید دید که چگونه می توانید عملیات پنجره سازی را برای انجام تجمیع در داده های ما اعمال کنید. در نهایت، بدون نوشتن هیچ کدی با استفاده از الگوهای از پیش ساخته شده Dataflow که Google برای عملیات رایج ارائه می دهد، با Dataflow کار خواهید کرد. در پایان این دوره، شما باید با استفاده از خطوط لوله Dataflow برای تبدیل و پردازش داده های خود و ادغام خطوط لوله خود با سایر سرویس های Google راحت باشید.

سرفصل ها و درس ها

بررسی اجمالی دوره Course Overview

  • بررسی اجمالی دوره Course Overview

معرفی Dataflow Introducing Dataflow

  • نمای کلی ماژول Module Overview

  • پیش نیازها و رئوس مطالب دوره Prerequisites and Course Outline

  • معرفی Dataflow Introducing Dataflow

  • فعال کردن API ها و نصب کتابخانه های مشتری Enabling APIs and Installing Client Libraries

  • با استفاده از Dataflow Using Dataflow

  • معرفی آپاچی بیم Introducing Apache Beam

  • کاوش در مجموعه داده کارخانه های شراب سازی Exploring the Wineries Dataset

  • اجرای یک کار جریان داده به صورت محلی Running a Dataflow Job Locally

  • اجرای یک کار جریان داده در فضای ابری Running a Dataflow Job on the Cloud

  • مرحله بندی و خروجی در فضای ذخیره سازی ابری Staging and Output on Cloud Storage

  • قیمت گذاری جریان داده Dataflow Pricing

  • با استفاده از Stackdriver بر کارهای جریان داده نظارت کنید Monitor Dataflow Jobs Using Stackdriver

درک و استفاده از Apache Beam APIs Understanding and Using the Apache Beam APIs

  • نمای کلی ماژول Module Overview

  • با استفاده از Maven یک پروژه جاوا ایجاد کنید Create a Java Project Using Maven

  • نوشتن یک کار جریان داده در جاوا Writing a Dataflow Job in Java

  • بررسی فایل های خروجی در فضای ذخیره سازی ابری Examining Output Files on Cloud Storage

  • محصولات پرفروش را بیابید Find the Top Selling Products

  • اجرای یک خط لوله جاوا در Cloud Dataflow Executing a Java Pipeline on Cloud Dataflow

  • کارها را اجرا کنید و لاگ های نظارتی را مشاهده کنید Execute Jobs and Monitor Logs

  • مقیاس بندی تعداد کارگران Scaling Number of Workers

  • شناسایی مراحل کند خط لوله Identifying Slow Pipeline Stages

  • یکپارچه سازی Dataflow با BigQuery Integrating Dataflow with BigQuery

  • نوشتن نتایج در BigQuery Writing Results to BigQuery

ایجاد و استفاده از PCCollection ها و ورودی های جانبی Creating and Using PCollections and Side Inputs

  • نمای کلی ماژول Module Overview

  • عملیات پنجره و انواع ویندوز Window Operations and Types of Windows

  • عملیات پنجره Windowing Operations

  • اجرا و نظارت بر خطوط لوله پنجره دار Executing and Monitoring Windowed Pipelines

  • عملیات شعبه Branching Operations

  • ورودی های جانبی Side Inputs

  • اجرا و نظارت بر خطوط لوله با ورودی های جانبی Executing and Monitoring Pipelines with Side Inputs

ایجاد خطوط لوله از Google Templates Creating Pipelines from Google Templates

  • نمای کلی ماژول Module Overview

  • معرفی الگوهای جریان داده Introducing Dataflow Templates

  • معرفی Pub/Sub Introducing Pub/Sub

  • با استفاده از الگوهای جریان داده، یک کار Pub/Sub به BigQuery را اجرا کنید Execute a Pub/Sub to BigQuery Job Using Dataflow Templates

  • انتشار پیام ها و خواندن از BigQuery Publishing Messages and Reading from BigQuery

  • خلاصه و مطالعه بیشتر Summary and Further Study

نمایش نظرات

آموزش معماری راه حل های کلان داده بدون سرور با استفاده از Google Dataflow
جزییات دوره
2h 15m
37
Pluralsight (پلورال سایت) Pluralsight (پلورال سایت)
(آخرین آپدیت)
19
4.2 از 5
دارد
دارد
دارد
Janani Ravi
جهت دریافت آخرین اخبار و آپدیت ها در کانال تلگرام عضو شوید.

Google Chrome Browser

Internet Download Manager

Pot Player

Winrar

Janani Ravi Janani Ravi

معمار و مهندس داده خبره Google Cloud

Janani Ravi یک معمار و مهندس داده خبره Google cloud است.

جنانی مدرک کارشناسی ارشد خود را در رشته مهندسی برق از دانشگاه استنفورد دریافت کرد و برای مایکروسافت، گوگل و فلیپ کارت کار کرده است. او یکی از بنیانگذاران Loonycorn است، یک استودیوی محتوا که بر ارائه محتوای با کیفیت بالا برای توسعه مهارت های فنی متمرکز است، جایی که او عشق خود را به فناوری با اشتیاق خود به تدریس ترکیب می کند.