لطفا جهت اطلاع از آخرین دوره ها و اخبار سایت در
کانال تلگرام
عضو شوید.
آموزش معماری راه حل های کلان داده بدون سرور با استفاده از Google Dataflow
Architecting Serverless Big Data Solutions Using Google Dataflow
نکته:
آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
نمونه ویدیوها:
توضیحات دوره:
Dataflow رویکردی اساساً متفاوت برای پردازش Big Data نسبت به موتورهای محاسباتی مانند Spark دارد. Dataflow بدون سرور و کاملاً مدیریت شده است، به این معنی که تامین منابع و مقیاسبندی میتواند برای معمار داده شفاف باشد. Dataflow بر اساس معماری Apache Beam ساخته شده است و پردازش دسته ای و جریانی داده ها را یکپارچه می کند. در این دوره آموزشی، معماری راه حل های بیگ داده بدون سرور با استفاده از Google Dataflow، با پتانسیل کامل Cloud Dataflow و مدل برنامه نویسی کاملاً نوآورانه آن آشنا خواهید شد. شما این دوره را با درک اولیه نحوه عملکرد Dataflow برای محاسبات بدون سرور آغاز خواهید کرد. شما Apache Beam API مورد استفاده برای ساخت خطوط لوله را مطالعه خواهید کرد و متوجه خواهید شد که منابع داده، سینک ها و تبدیل ها چیست. شما مراحل یک خط لوله داده را مطالعه می کنید و آن را به عنوان یک گراف جهت دار- غیر چرخه ای تجسم می کنید. در مرحله بعد، شما از Apache Beam APIها برای ایجاد خطوط لوله برای تبدیل داده ها در جاوا و پایتون استفاده می کنید و این خطوط لوله را به صورت محلی و در فضای ابری اجرا می کنید. شما خطوط لوله خود را با سایر خدمات GCP مانند BigQuery ادغام خواهید کرد و خواهید دید که چگونه می توانید مراحل کند خط لوله را نظارت و اشکال زدایی کنید. علاوه بر این، معماری های مختلف خطوط لوله مانند انشعاب و خطوط لوله را با استفاده از ورودی های جانبی مطالعه خواهید کرد. همچنین خواهید دید که چگونه می توانید عملیات پنجره سازی را برای انجام تجمیع در داده های ما اعمال کنید. در نهایت، بدون نوشتن هیچ کدی با استفاده از الگوهای از پیش ساخته شده Dataflow که Google برای عملیات رایج ارائه می دهد، با Dataflow کار خواهید کرد. در پایان این دوره، شما باید با استفاده از خطوط لوله Dataflow برای تبدیل و پردازش داده های خود و ادغام خطوط لوله خود با سایر سرویس های Google راحت باشید.
سرفصل ها و درس ها
بررسی اجمالی دوره
Course Overview
بررسی اجمالی دوره
Course Overview
معرفی Dataflow
Introducing Dataflow
نمای کلی ماژول
Module Overview
پیش نیازها و رئوس مطالب دوره
Prerequisites and Course Outline
معرفی Dataflow
Introducing Dataflow
فعال کردن API ها و نصب کتابخانه های مشتری
Enabling APIs and Installing Client Libraries
با استفاده از Dataflow
Using Dataflow
معرفی آپاچی بیم
Introducing Apache Beam
کاوش در مجموعه داده کارخانه های شراب سازی
Exploring the Wineries Dataset
اجرای یک کار جریان داده به صورت محلی
Running a Dataflow Job Locally
اجرای یک کار جریان داده در فضای ابری
Running a Dataflow Job on the Cloud
مرحله بندی و خروجی در فضای ذخیره سازی ابری
Staging and Output on Cloud Storage
قیمت گذاری جریان داده
Dataflow Pricing
با استفاده از Stackdriver بر کارهای جریان داده نظارت کنید
Monitor Dataflow Jobs Using Stackdriver
درک و استفاده از Apache Beam APIs
Understanding and Using the Apache Beam APIs
نمای کلی ماژول
Module Overview
با استفاده از Maven یک پروژه جاوا ایجاد کنید
Create a Java Project Using Maven
نوشتن یک کار جریان داده در جاوا
Writing a Dataflow Job in Java
بررسی فایل های خروجی در فضای ذخیره سازی ابری
Examining Output Files on Cloud Storage
محصولات پرفروش را بیابید
Find the Top Selling Products
اجرای یک خط لوله جاوا در Cloud Dataflow
Executing a Java Pipeline on Cloud Dataflow
کارها را اجرا کنید و لاگ های نظارتی را مشاهده کنید
Execute Jobs and Monitor Logs
مقیاس بندی تعداد کارگران
Scaling Number of Workers
شناسایی مراحل کند خط لوله
Identifying Slow Pipeline Stages
یکپارچه سازی Dataflow با BigQuery
Integrating Dataflow with BigQuery
نوشتن نتایج در BigQuery
Writing Results to BigQuery
ایجاد و استفاده از PCCollection ها و ورودی های جانبی
Creating and Using PCollections and Side Inputs
نمای کلی ماژول
Module Overview
عملیات پنجره و انواع ویندوز
Window Operations and Types of Windows
عملیات پنجره
Windowing Operations
اجرا و نظارت بر خطوط لوله پنجره دار
Executing and Monitoring Windowed Pipelines
عملیات شعبه
Branching Operations
ورودی های جانبی
Side Inputs
اجرا و نظارت بر خطوط لوله با ورودی های جانبی
Executing and Monitoring Pipelines with Side Inputs
ایجاد خطوط لوله از Google Templates
Creating Pipelines from Google Templates
نمای کلی ماژول
Module Overview
معرفی الگوهای جریان داده
Introducing Dataflow Templates
معرفی Pub/Sub
Introducing Pub/Sub
با استفاده از الگوهای جریان داده، یک کار Pub/Sub به BigQuery را اجرا کنید
Execute a Pub/Sub to BigQuery Job Using Dataflow Templates
انتشار پیام ها و خواندن از BigQuery
Publishing Messages and Reading from BigQuery
Janani Ravi یک معمار و مهندس داده خبره Google cloud است.
جنانی مدرک کارشناسی ارشد خود را در رشته مهندسی برق از دانشگاه استنفورد دریافت کرد و برای مایکروسافت، گوگل و فلیپ کارت کار کرده است. او یکی از بنیانگذاران Loonycorn است، یک استودیوی محتوا که بر ارائه محتوای با کیفیت بالا برای توسعه مهارت های فنی متمرکز است، جایی که او عشق خود را به فناوری با اشتیاق خود به تدریس ترکیب می کند.
نمایش نظرات