آموزش بررسی SDK پرتو Apache برای مدل سازی جریان داده ها برای پردازش

Exploring the Apache Beam SDK for Modeling Streaming Data for Processing

نکته: آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
نمونه ویدیویی برای نمایش وجود ندارد.
توضیحات دوره: Apache Beam یک مدل واحد منبع باز برای پردازش داده های دسته ای و جریانی به روشی موازی است. خطوط لوله Beam که برای پشتیبانی از Backend Cloud Dataflow Google ساخته شده اند ، می توانند بر روی هر پردازش پردازش شده توزیع شده پشتیبانی شوند. SDK های Apache Beam می توانند مجموعه داده های متناهی و نامحدود را با استفاده از همان مدل برنامه نویسی نشان دهند و پردازش کنند. تمام وظایف پردازش داده با استفاده از خط لوله Beam تعریف می شوند و به صورت نمودارهای چرخشی هدایت شده نشان داده می شوند. این خطوط لوله پس از آن می توانند بر روی چندین عملیات اجرایی مانند Google Cloud Dataflow ، Apache Flink و Apache Spark اجرا شوند. در این دوره ، با کاوش در Apache Beach SDK برای مدل سازی جریان داده ها برای پردازش ، API های Beam را برای تعریف خطوط لوله ، اجرای تبدیل ها و انجام پنجره سازی و پیوستن به عملیات بررسی خواهیم کرد. ابتدا ، شما اجزای اساسی خط لوله Beam ، PCollections و PTransforms را درک کرده و با آنها کار خواهید کرد. شما با PCollections که انواع مختلفی از عناصر را در اختیار دارد کار خواهید کرد و خواهید دید که چگونه می توانید طرح واره برای عناصر PCollection را تعیین کنید. سپس می توانید این خطوط لوله را با استفاده از گزینه های سفارشی پیکربندی کرده و در قسمت هایی مانند Apache Flink و Apache Spark اجرا کنید. در مرحله بعدی ، انواع مختلف تبدیل اصلی را که می توانید برای پردازش داده های جریان داده اعمال کنید ، کشف خواهید کرد. این شامل ParDo و DoFns ، GroupByKey ، CoGroupByKey برای عملیات پیوستن و تبدیل های Flatten و Partition است. سپس خواهید دید که چگونه می توانید عملیات پنجره سازی را در جریان های ورودی انجام دهید و پنجره های ثابت ، پنجره های کشویی ، پنجره های جلسه و پنجره های جهانی را روی داده های جریان خود اعمال کنید. برای انجام پیوندهای داخلی و خارجی در مجموعه داده ها ، از کتابخانه پسوند join استفاده خواهید کرد. سرانجام ، معیارهایی را که می خواهید در طول اجرای خط لوله ردیابی شوند ، از جمله معیارهای شمارنده ، معیارهای توزیع و اندازه گیری ، پیکربندی می کنید و سپس با اجرای س Sالات SQL روی داده های ورودی ، این دوره را دور می زنید. پس از اتمام این دوره ، مهارت و دانش لازم برای انجام طیف گسترده ای از پردازش داده ها با استفاده از تبدیل هسته Beam را خواهید داشت و قادر به ردیابی معیارها و اجرای نمایش داده های SQL در جریان های ورودی خواهید بود.

سرفصل ها و درس ها

بررسی اجمالی دوره Course Overview

  • بررسی اجمالی دوره Course Overview

درک خطوط لوله ، PCollections و PTransforms Understanding Pipelines, PCollections, and PTransforms

  • پیش نیازها و طرح کلی دوره Prerequisites and Course Outline

  • معرفی پرتو آپاچی Introducing Apache Beam

  • خطوط لوله و گزینه های خط لوله Pipelines and Pipeline Options

  • PCollections و PTransforms PCollections and PTransforms

  • ویژگی های PCLlections Characteristics of PCollections

  • نسخه ی نمایشی: تنظیمات محیط و خصوصیات خط لوله Demo: Environment Setup and Pipeline Properties

  • رانندگان و دونده ها Drivers and Runners

اجرای خطوط لوله برای پردازش جریان داده ها Executing Pipelines to Process Streaming Data

  • نسخه ی نمایشی: ایجاد و اجرای خط لوله پرتو Demo: Creating and Executing a Beam Pipeline

  • نسخه ی نمایشی: مشخصات خط لوله با استفاده از عناصر نقشه و عناصر نقشه مسطح Demo: Pipeline Specification Using Map Elements and Flat Map Elements

  • نسخه ی نمایشی: منبع پرونده و پرونده ها غرق می شوند Demo: File Source and Files Sink

  • نسخه ی نمایشی: گزینه های خط لوله سفارشی Demo: Custom Pipeline Options

  • نسخه ی نمایشی: Flink Runner و Spark Runner Demo: Flink Runner and Spark Runner

  • نسخه ی نمایشی: مشخصات و استنباط طرح Demo: Schema Specification and Inference

  • نسخه ی نمایشی: خواندن داده ها با طرحواره از Files Demo: Reading Data with Schemas from Files

اعمال تحولات در جریان اطلاعات Applying Transformations to Streaming Data

  • تبدیل می شود Transforms

  • تبدیل پرتو هسته Core Beam Transforms

  • نسخه ی نمایشی: عملیات فیلتر کردن ParDo و DoFn Demo: ParDo and DoFn Filtering Operations

  • نسخه ی نمایشی: عملیات استخراج و قالب بندی ParDo و DoFn Demo: ParDo and DoFn Extracting and Formatting Operations

  • نسخه ی نمایشی: عملیات محاسباتی ParDo و DoFn Demo: ParDo and DoFn Computation Operations

  • نسخه ی نمایشی: GroupByKey و Aggregations Demo: GroupByKey and Aggregations

  • نسخه ی نمایشی: CoGroupByKey برای پیوستن به مجموعه داده ها Demo: CoGroupByKey for Joining Datasets

  • نسخه ی نمایشی: ترکیب کنید Demo: Combine

  • نسخه ی نمایشی: Flatten Demo: Flatten

  • نسخه ی نمایشی: پارتیشن بندی Demo: Partition

  • نسخه ی نمایشی: تحولات مرکب Demo: Composite Transforms

  • الزامات کد تبدیل کاربر User Transform Code Requirements

کار با Windowing و پیوستن به عملیات Working with Windowing and Join Operations

  • تحولات بدون دولت و دولت Stateless and Stateful Transformations

  • انواع ویندوز Types of Windows

  • زمان رویداد ، زمان بلع و زمان پردازش Event Time, Ingestion Time, and Processing Time

  • علامت های آبی و داده های بعدی Watermarks and Late Data

  • نسخه ی نمایشی: ویندوز ثابت Demo: Fixed Windows

  • نسخه ی نمایشی: ویندوزهای کشویی Demo: Sliding Windows

  • نسخه ی نمایشی: ویندوز جلسه Demo: Session Windows

  • نسخه ی نمایشی: ویندوزهای جهانی Demo: Global Windows

  • نسخه ی نمایشی: ورودی های جانبی Demo: Side Inputs

  • نسخه ی نمایشی: Inner Join Demo: Inner Join

  • نسخه ی نمایشی: Outer Joins Demo: Outer Joins

  • نسخه ی نمایشی: با استفاده از ورودی های جانبی بپیوندید Demo: Join Using Side Inputs

  • نسخه ی نمایشی: انجام پیوستن ها با استفاده از CoGroupByKey - 1 Demo: Performing Joins Using CoGroupByKey - 1

  • نسخه ی نمایشی: اجرا با استفاده از CoGroupByKey - 2 Demo: Performing Joins Using CoGroupByKey - 2

  • Apache Flink و Apache Spark 2: سازگاری با Apache Beam Apache Flink and Apache Spark 2: Compatibility with Apache Beam

SQL Query را روی Streaming Data انجام دهید Perform SQL Queries on Streaming Data

  • معیارها در Beam Metrics in Beam

  • نسخه ی نمایشی: معیارهای شمارنده Demo: Counter Metrics

  • نسخه ی نمایشی: معیارهای توزیع Demo: Distribution Metrics

  • نسخه ی نمایشی: معیارهای سنج Demo: Gauge Metrics

  • نسخه ی نمایشی: پروجکشن و تجمیع انتخاب با استفاده از SQL query Demo: Selection Projection and Aggregation Using SQL Queries

  • نسخه ی نمایشی: طرحواره هایی با ساختارهای تو در تو Demo: Schemas with Nested Structures

  • نسخه ی نمایشی: با استفاده از SQL Query می پیوندد Demo: Joins Using SQL Queries

  • خلاصه و مطالعه بیشتر Summary and Further Study

نمایش نظرات

آموزش بررسی SDK پرتو Apache برای مدل سازی جریان داده ها برای پردازش
جزییات دوره
3h 29m
50
Pluralsight (پلورال سایت) Pluralsight (پلورال سایت)
(آخرین آپدیت)
-
از 5
دارد
دارد
دارد
Janani Ravi
جهت دریافت آخرین اخبار و آپدیت ها در کانال تلگرام عضو شوید.

Google Chrome Browser

Internet Download Manager

Pot Player

Winrar

Janani Ravi Janani Ravi

معمار و مهندس داده خبره Google Cloud

Janani Ravi یک معمار و مهندس داده خبره Google cloud است.

جنانی مدرک کارشناسی ارشد خود را در رشته مهندسی برق از دانشگاه استنفورد دریافت کرد و برای مایکروسافت، گوگل و فلیپ کارت کار کرده است. او یکی از بنیانگذاران Loonycorn است، یک استودیوی محتوا که بر ارائه محتوای با کیفیت بالا برای توسعه مهارت های فنی متمرکز است، جایی که او عشق خود را به فناوری با اشتیاق خود به تدریس ترکیب می کند.