آموزش بررسی Apache Flink API برای پردازش جریان داده ها

Exploring the Apache Flink API for Processing Streaming Data

Flink یک سیستم متغیر ، قابل تحمل و در مقیاس بزرگ است که با مجموعه داده های محدود و غیرمحدود با استفاده از همان معماری زمینه ای جریان اول کار می کند.


آموزش پردازش جریان داده ها با استفاده از Apache Flink

Processing Streaming Data Using Apache Flink

Apache Flink بر اساس مفهوم معماری جریان اول ساخته شده است که جریان منبع حقیقت است.


آموزش مدیریت داده های جریان داده با Azure Databricks با استفاده از Spark Streamed Streaming

Handling Streaming Data with Azure Databricks Using Spark Structured Streaming

در این دوره ، شما به جریانی Spark Structured Streaming فرو می روید ، ویژگی های آن را در عمل مشاهده می کنید و از آن برای ساخت خطوط لوله جریان به پایان ، پیچیده و قابل اعتماد با استفاده از PySpark استفاده می کنید. و شما از پلت فرم Azure Databricks برای ساخت و اجرای آنها استفاده خواهید کرد.


آموزش پردازش داده های جریان با استفاده از Apache Spark Streamed Streaming

Processing Streaming Data Using Apache Spark Structured Streaming

جریان ساختاری موتور پردازش جریان مقیاس پذیر و متحمل خطا در Apache Spark 2 است که می تواند برای پردازش جریان های با سرعت بالا مورد استفاده قرار گیرد.


آموزش تصور مدل پردازش برای سرویس جریان داده GCP

Conceptualizing the Processing Model for the GCP Dataflow Service

گردش اطلاعات نشان دهنده یک رویکرد کاملاً متفاوت نسبت به موتورهای محاسباتی مانند Spark در پردازش داده های بزرگ است. گردش اطلاعات بدون سرور و کاملاً مدیریت شده است و از خطوط لوله در حال اجرا که با استفاده از API های Apache Beam طراحی شده اند پشتیبانی می کند.


آموزش مقدمه ای بر جریان داده

Introduction to Data Streaming

در این گفتگو، زمینه‌ای را که در آن مدل پردازش دسته‌ای قدیمی متولد شد، دلایلی که در پس مدل پردازش جریانی جدید وجود دارد، نحوه مقایسه آن‌ها، کشف مزایا و معایب، و فهرستی از فناوری‌های موجود که دومی را پیاده‌سازی می‌کنند، تعریف خواهیم کرد.


آموزش Apache Kafka و KSQLDb در عمل: بیایید خط لوله جریان داده ای بسازیم

Apache Kafka and KSQLDb in Action: Let's Build a Streaming Data Pipeline

در این گفتار ، ما خط تولید داده های جریانی را با استفاده از چیزی غیر از دستان خالی ، Kafka Connect و ksqlDB خواهیم ساخت.


آموزش بررسی API جریان ساختاری Apache Spark برای پردازش داده های جریان

Exploring the Apache Spark Structured Streaming API for Processing Streaming Data

جریان ساختاری موتور پردازش جریان مقیاس پذیر و متحمل خطا در Apache Spark 2 است. فریم داده ها در Spark 2.x از داده های بی نهایت پشتیبانی می کنند ، بنابراین به طور موثر برنامه های دسته ای و جریان را متحد می کند.


آموزش مدلسازی داده های جریان برای پردازش با جریان ساختاری جرقه ای Apache

Modeling Streaming Data for Processing with Apache Spark Structured Streaming

اجرای تجزیه و تحلیل جریان می تواند دشوار باشد. این دوره به شما می آموزد که با استفاده از Spark Strukted Streaming پردازش داده در زمان واقعی را مدلسازی کنید.


آموزش مدل سازی داده های جریان برای پردازش با پرتو Apache

Modeling Streaming Data for Processing with Apache Beam

مدل واحد Apache Beam به ما امکان پردازش دسته ای و همچنین پخش جریانی داده را با استفاده از همان API می دهد. چندین مورد اجرا مانند Google Cloud Dataflow ، Apache Spark و Apache Flink با Beam سازگار هستند.


آموزش بررسی SDK پرتو Apache برای مدل سازی جریان داده ها برای پردازش

Exploring the Apache Beam SDK for Modeling Streaming Data for Processing

Apache Beam یک مدل واحد منبع باز برای پردازش داده های دسته ای و جریانی به روشی موازی است. خطوط لوله Beam که برای پشتیبانی از Backend Cloud Dataflow Google ساخته شده اند ، می توانند بر روی هرگونه پردازش باطله پشتیبانی شده اجرا شوند.


آموزش مدیریت داده های جریانی با Apache Pulsar

Handling Streaming Data with Apache Pulsar

Apache Pulsar سیستمی بسیار مقیاس پذیر ، با توان عملیاتی بالا است که هم با صف و هم با پخش جریانی داده ها با سهولت باور نکردنی کار می کند. این دوره تمام مفاهیم و ابزارهای لازم برای استفاده از Apache Pulsar را در پروژه های شما آموزش می دهد.


1 2 3 4 5 صفحه ی 3 از 5 صفحه