Beginning of dialog window. Escape will cancel and close the window.
End of dialog window.
نکته:
آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
نمونه ویدیویی برای نمایش وجود ندارد.
توضیحات دوره:
Apache Beam یک مدل واحد منبع باز برای پردازش داده های دسته ای و جریانی به روشی موازی است. خطوط لوله Beam که برای پشتیبانی از Backend Cloud Dataflow Google ساخته شده اند ، می توانند بر روی هر پردازش پردازش شده توزیع شده پشتیبانی شوند. SDK های Apache Beam می توانند مجموعه داده های متناهی و نامحدود را با استفاده از همان مدل برنامه نویسی نشان دهند و پردازش کنند. تمام وظایف پردازش داده با استفاده از خط لوله Beam تعریف می شوند و به صورت نمودارهای چرخشی هدایت شده نشان داده می شوند. این خطوط لوله پس از آن می توانند بر روی چندین عملیات اجرایی مانند Google Cloud Dataflow ، Apache Flink و Apache Spark اجرا شوند. در این دوره ، با کاوش در Apache Beach SDK برای مدل سازی جریان داده ها برای پردازش ، API های Beam را برای تعریف خطوط لوله ، اجرای تبدیل ها و انجام پنجره سازی و پیوستن به عملیات بررسی خواهیم کرد. ابتدا ، شما اجزای اساسی خط لوله Beam ، PCollections و PTransforms را درک کرده و با آنها کار خواهید کرد. شما با PCollections که انواع مختلفی از عناصر را در اختیار دارد کار خواهید کرد و خواهید دید که چگونه می توانید طرح واره برای عناصر PCollection را تعیین کنید. سپس می توانید این خطوط لوله را با استفاده از گزینه های سفارشی پیکربندی کرده و در قسمت هایی مانند Apache Flink و Apache Spark اجرا کنید. در مرحله بعدی ، انواع مختلف تبدیل اصلی را که می توانید برای پردازش داده های جریان داده اعمال کنید ، کشف خواهید کرد. این شامل ParDo و DoFns ، GroupByKey ، CoGroupByKey برای عملیات پیوستن و تبدیل های Flatten و Partition است. سپس خواهید دید که چگونه می توانید عملیات پنجره سازی را در جریان های ورودی انجام دهید و پنجره های ثابت ، پنجره های کشویی ، پنجره های جلسه و پنجره های جهانی را روی داده های جریان خود اعمال کنید. برای انجام پیوندهای داخلی و خارجی در مجموعه داده ها ، از کتابخانه پسوند join استفاده خواهید کرد. سرانجام ، معیارهایی را که می خواهید در طول اجرای خط لوله ردیابی شوند ، از جمله معیارهای شمارنده ، معیارهای توزیع و اندازه گیری ، پیکربندی می کنید و سپس با اجرای س Sالات SQL روی داده های ورودی ، این دوره را دور می زنید. پس از اتمام این دوره ، مهارت و دانش لازم برای انجام طیف گسترده ای از پردازش داده ها با استفاده از تبدیل هسته Beam را خواهید داشت و قادر به ردیابی معیارها و اجرای نمایش داده های SQL در جریان های ورودی خواهید بود.
سرفصل ها و درس ها
بررسی اجمالی دوره
Course Overview
بررسی اجمالی دوره
Course Overview
درک خطوط لوله ، PCollections و PTransforms
Understanding Pipelines, PCollections, and PTransforms
پیش نیازها و طرح کلی دوره
Prerequisites and Course Outline
معرفی پرتو آپاچی
Introducing Apache Beam
خطوط لوله و گزینه های خط لوله
Pipelines and Pipeline Options
PCollections و PTransforms
PCollections and PTransforms
ویژگی های PCLlections
Characteristics of PCollections
نسخه ی نمایشی: تنظیمات محیط و خصوصیات خط لوله
Demo: Environment Setup and Pipeline Properties
رانندگان و دونده ها
Drivers and Runners
اجرای خطوط لوله برای پردازش جریان داده ها
Executing Pipelines to Process Streaming Data
نسخه ی نمایشی: ایجاد و اجرای خط لوله پرتو
Demo: Creating and Executing a Beam Pipeline
نسخه ی نمایشی: مشخصات خط لوله با استفاده از عناصر نقشه و عناصر نقشه مسطح
Demo: Pipeline Specification Using Map Elements and Flat Map Elements
نسخه ی نمایشی: منبع پرونده و پرونده ها غرق می شوند
Demo: File Source and Files Sink
Janani Ravi یک معمار و مهندس داده خبره Google cloud است.
جنانی مدرک کارشناسی ارشد خود را در رشته مهندسی برق از دانشگاه استنفورد دریافت کرد و برای مایکروسافت، گوگل و فلیپ کارت کار کرده است. او یکی از بنیانگذاران Loonycorn است، یک استودیوی محتوا که بر ارائه محتوای با کیفیت بالا برای توسعه مهارت های فنی متمرکز است، جایی که او عشق خود را به فناوری با اشتیاق خود به تدریس ترکیب می کند.
نمایش نظرات