لطفا جهت اطلاع از آخرین دوره ها و اخبار سایت در
کانال تلگرام
عضو شوید.
آپاچی کافکا A-Z با آموزش عملی [ویدئو]
Apache Kafka A-Z with Hands-On Learning [Video]
نکته:
آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
نمونه ویدیوها:
توضیحات دوره:
آیا میخواهید آپاچی کافکا را یاد بگیرید تا چندین جریان اطلاعات را سریعتر ذخیره و پردازش کند؟ یا می خواهید برای آزمون گواهینامه آپاچی کافکا آماده شوید؟ این دوره یک منبع ایده آل برای یادگیری آپاچی کافکا و رسیدن به اهدافتان است.
دوره با مقدمه ای بر داده های بزرگ و آپاچی کافکا شروع می شود. در مرحله بعد، به جزئیات تولید کننده و مصرف کننده کافکا خواهید رسید و تکنیک های تنظیم عملکرد عملیات کافکا را درک خواهید کرد. با حرکت، معماری کافکا را کشف خواهید کرد و یاد خواهید گرفت که چگونه کافکا را به طور مؤثر اداره کنید. در مرحله بعد، نظارت بر سرور، زیرساخت و برنامه را یاد خواهید گرفت و نحوه عملکرد Schema Registry در کافکا را یاد خواهید گرفت. بعداً با Kafka Streams و Connectors آشنا خواهید شد و فرآیند ادغام کافکا با Apache Storm، Spark و Flume را یاد خواهید گرفت. در پایان، یاد خواهید گرفت که چگونه وظایف مدیریتی مختلف را با استفاده از مشتریان مدیریت انجام دهید و نکات مفیدی را برای ایمن کردن کافکا کشف کنید.
در پایان این دوره، شما مهارت های کافکا مورد نیاز برای مدیریت داده های بلادرنگ و قبولی در آزمون گواهینامه آپاچی کافکا را خواهید داشت. یک تولید کننده کافکا و یک مصرف کننده کافکا ایجاد کنید
روش های قابلیت اطمینان کافکا را کشف کنید
با استقرار و تنظیم MirrorMaker آشنا شوید
با استفاده از Kafka و Storm یک اپلیکیشن مستقل و ساده بسازید
یک عامل Flume برای ارسال داده ها از کافکا به HDFS ایجاد کنید
پیکربندی گواهینامه SSL در کافکا اگر اهل تجزیه و تحلیل یا تحقیق هستید یا یک توسعه دهنده نرم افزار، مهندس تست یا مدیر پروژه هستید و به دنبال یادگیری آپاچی کافکا و کسب گواهینامه آپاچی کافکا هستید، این دوره برای شما مناسب است. برای شروع این دوره به درک اولیه داده های بزرگ نیاز است. با طراحی کافکا و موارد استفاده آن آشنا شوید * طراحی و معرفی گروه کافکا در ترتیبات تک هاب و چند هاب * اجرای مصرف کننده کافکا و تولید کننده کافکا با استفاده از اطلاعات پخش لحظه ای
سرفصل ها و درس ها
معرفی دوره
Course Introduction
معرفی
Introduction
شروع کار با داده های بزرگ و آپاچی کافکا
Getting Started with Big data and Apache Kafka
اهداف یادگیری
Learning Objectives
تکامل داده ها در طول زمان
Data Evolution over Time
نمای کلی داده های بزرگ
Big Data Overview
تجزیه و تحلیل داده های بزرگ
Big Data Analytics
سیستم پیام رسانی
Messaging System
معرفی و ویژگی های کافکا
Introduction and Features of Kafka
شنوندگان را مجدداً متعادل کنید
Rebalance Listeners
مصرف سوابق با افست خاص
Consuming Records with Specific Offset
Deserializers
Deserializers
نسخه ی نمایشی - ایجاد و استفاده از Deserializer سفارشی
Demo - Creating and Using Custom Deserializer
خوراکی های کلیدی
Key Takeaways
عملیات کافکا و تنظیم عملکرد
Kafka Operations and Performance Tuning
هدف یادگیری
Learning Objective
بررسی اجمالی کافکا داخلی
Kafka Internals Overview
Replication و Replica انواع
Replication and Replica Types
نردبان ترجیحی، درخواست، و پردازش درخواست
Preferred Ladder, Request, and Request Processing
انواع درخواست ها
Types of Requests
تخصیص پارتیشن، مدیریت فایل و بخش ها
Partition Allocation, File Management, and Segments
فرمت فایل، فهرست، و فشرده سازی
File Format, Index, and Compaction
قابلیت اطمینان کافکا و روش های پایایی
Kafka Reliability and Reliability Methods
پیکربندی کارگزار برای تکرار
Broker Configuration for Replication
تولید کننده در یک سیستم قابل اعتماد
Producer in a Reliable System
مصرف کننده در یک سیستم قابل اعتماد
Consumer in a Reliable System
خوراکی های کلیدی
Key Takeaways
معماری خوشه کافکا و مدیریت کافکا
Kafka Cluster Architectures and Administering Kafka
هدف یادگیری
Learning Objective
آینه سازی خوشه ای
Cluster Mirroring
معماری چند خوشه ای - هاب، اسپک ها و معماری فعال - قسمت 1
Multi-cluster Architecture - Hub, Spokes, and Active Architecture – Part 1
معماری چند خوشه ای – معماری فعال/استند بای و خوشه های کششی قسمت – 2
Multi-cluster Architecture – Active/Stand-by Architecture and Stretch Clusters Part – 2
پیکربندی MirrorMaker - قسمت 1
Configuring MirrorMaker – Part 1
پیکربندی MirrorMaker - قسمت 2
Configuring MirrorMaker – Part 2
نسخه ی نمایشی - راه اندازی MirrorMaker
Demo - Setting up MirrorMaker
نظارت بر کافکا و ثبت طرحواره
Monitoring Kafka and Schema Registry
هدف یادگیری
Learning Objective
نظارت و اهمیت آن
Monitoring and Its Importance
مانیتورینگ سرور یا زیرساخت و نظارت بر برنامه
Server or Infrastructure Monitoring and Application Monitoring
نظارت بر کافکا
Monitoring Kafka
متریک بروکر کافکا – پارتیشنهای کمتکرار – قسمت ۱
Kafka Broker Metrics – Under-replicated Partitions – Part 1
معیارهای کافکا بروکر – دیگران – قسمت 2
Kafka Broker Metrics – Others– Part 2
معیارهای خاص موضوع و پارتیشن
Topic and Partition Specific Metrics
ورود به سیستم و نظارت بر مشتری
Logging and Client Monitoring
معیارهای تولید کننده و مصرف کننده
Producer and Consumer Metrics
نظارت بر سهمیه ها و تاخیر
Quotas and Lag Monitoring
داشبورد مانیتورینگ
Monitoring Dashboard
نسخه ی نمایشی - راه اندازی یک مانیتور سلامت منبع باز
Demo - Setting up an Open Source Health Monitor
رجیستری طرحواره کافکا
Kafka Schema Registry
اجزای کافکا و معماری آن
Kafka Components and Its Architecture
ثبت طرحواره کافکا - موارد داخلی کار و استفاده
Kafka Schema Registry - Internal working and Use cases
کار ثبت طرحواره کافکا
Working of the Kafka Schema Registry
نسخه ی نمایشی – استفاده از رجیستری طرحواره کافکا با کافکا
Demo – Using the Kafka Schema Registry with Kafka
غذای آماده کلیدی
Key Takeaway
کافکا استریمز و کانکتورهای کافکا
Kafka Streams and Kafka Connectors
هدف یادگیری
Learning Objective
مروری بر جریان های کافکا
Kafka Streams Overview
جریان های کافکا
Kafka Streams
معماری و کار کافکا استریمز
Kafka Streams Architecture and Working
اجزای جریان کافکا
Kafka Streams Components
وظایف معماری Kafka Streams، مدل Threading و Local State Store
Kafka Streams Architecture Tasks, Threading Model and Local State Store
معماری جریان های کافکا - بافر رکورد
Kafka Streams Architecture - Record Buffer
مدیریت حافظه و خط لوله داده های جریانی
Memory Management and Streaming Data Pipeline
کافکا استریمز زبان خاص دامنه (DSL)
Kafka Streams Domain Specific Language (DSL)
عملیات KStream
KStream Operations
عملیات KTable
KTable Operations
عملیات KTable
KTable Operations
تجمع و پنجره
Aggregation and Windowing
توپولوژی پردازنده و پردازشگر جریان
Processor Topology and Stream Processor
رابط های برنامه نویسی برنامه های کاربردی جریان و پردازنده (API)
Stream and Processor Application Programming Interfaces (APIs)
رابط های برنامه نویسی برنامه کاربردی پردازنده (API) و ایجاد توپولوژی
Processor Application Programming Interfaces (APIs) and Creating Topology
اتصال دهنده های کافکا
Kafka Connectors
پیکربندی کانکتور مستقل و سینک
Stand-alone and Sink Connector Configuration
اجرای Kafka Connect
Running Kafka Connect
حالت توزیع شده رابط کافکا
Kafka Connector Distributed Mode
رابط انتقال حالت نمایشی (REST) پروتکل انتقال ابرمتن (HTTP)
Hypertext Transfer Protocol (HTTP) Representational State Transfer (REST) Interface
نسخه ی نمایشی - رابط کافکا
Demo - Kafka Connector
نسخه ی نمایشی - ایجاد یک برنامه با استفاده از Kafka Streams
Demo - Creating an Application Using Kafka Streams
غذای آماده کلیدی
Key Takeaway
ادغام کافکا با طوفان
Integration of Kafka with Storm
هدف یادگیری
Learning Objective
طوفان آپاچی
Apache Storm
تجزیه و تحلیل زمان واقعی
Real-time Analytics
معماری طوفان آپاچی
Apache Storm Architecture
اجزای طوفان آپاچی
Apache Storm Components
توپولوژی طوفان آپاچی - قسمت 1
Apache Storm Topology Part - 1
توپولوژی طوفان آپاچی - قسمت 2
Apache Storm Topology Part - 2
دهانه کافکا
Kafka Spout
ادغام طوفان آپاچی و کافکا
Integration of Apache Storm and Kafka
نسخه ی نمایشی - برنامه مستقل ساده با استفاده از کافکا و طوفان
Demo - Simple Stand-alone Application Using Kafka and Storm
غذای آماده کلیدی
Key Takeaway
ادغام کافکا با اسپارک و فلوم
Kafka Integration with Spark and Flume
هدف یادگیری
Learning Objective
مقدمه ای بر اسپارک
Introduction to Spark
اجزای جرقه
Spark Components
مجموعه داده های توزیع شده انعطاف پذیر
Resilient Distributed Dataset
عملیات مجموعه داده های توزیع شده انعطاف پذیر (RDD) - تبدیل - نقشه، نقشه مسطح، و فیلتر
Resilient Distributed Dataset (RDD) Operations - Transformation - Map, FlatMap, and Filter
عملیات RDD - تبدیل - پیوستن، متمایز، اول، و گرفتن
RDD Operations - Transformation - Join, Distinct, First, and Take
عملیات مجموعه داده های توزیع شده انعطاف پذیر (RDD) - اقدامات
Resilient Distributed Dataset (RDD) Operations - Actions
مجموعه داده ها و SparkSession
Data Sets and SparkSession
مجموعه داده ها و عملیات جلسه جرقه
Data Sets and Spark Session Operations
جرقه جرقه
Spark Stream
ادغام اسپارک با کافکا
Integrating Spark with Kafka
نسخه ی نمایشی - اجرای یک برنامه مستقل کوچک در Spark با کافکا
Demo - Running a Small Stand-alone Application in Spark with Kafka
قنات، مجرا
Flume
اتصالات فلوم
Flume Connectors
پیکربندی Flume Kafka به سیستم فایل توزیع شده Hadoop (HDFS)
Configuring Flume Kafka to Hadoop Distributed File System (HDFS)
نسخه ی نمایشی - ایجاد یک Flume Agent و ارسال داده از کافکا به سیستم فایل توزیع شده هادوپ (HDFS)
Demo - Creating a Flume Agent and Sending Data from Kafka to Hadoop Distributed File System (HDFS)
خوراکی های کلیدی
Key Takeaways
مشتری ادمین و ایمن کردن کافکا
Admin Client and Securing Kafka
هدف یادگیری
Learning Objective
AdminClient
AdminClient
نسخه ی نمایشی - انجام وظایف مدیریت مختلف با استفاده از AdminClient
Demo - Performing Various Admin Tasks Using AdminClient
امنیت کافکا
Kafka Security
اجزای امنیتی کافکا
Kafka Security Components
احراز هویت ساده و لایه امنیتی (SASL)
Simple Authentication and Security Layer (SASL)
پیکربندی ساده احراز هویت و لایه امنیتی (SASL) در کافکا
Configuring Simple Authentication and Security Layer (SASL) in Kafka
ایمن سازی با استفاده از لیست های کنترل دسترسی (ACL)
Securing Using Access Control Lists (ACLs)
غذای آماده کلیدی
Key Takeaway
نمایش نظرات
Packtpub یک ناشر دیجیتالی کتابها و منابع آموزشی در زمینه فناوری اطلاعات و توسعه نرمافزار است. این شرکت از سال 2004 فعالیت خود را آغاز کرده و به تولید و انتشار کتابها، ویدیوها و دورههای آموزشی میپردازد که به توسعهدهندگان و متخصصان فناوری اطلاعات کمک میکند تا مهارتهای خود را ارتقا دهند. منابع آموزشی Packtpub موضوعات متنوعی از جمله برنامهنویسی، توسعه وب، دادهکاوی، امنیت سایبری و هوش مصنوعی را پوشش میدهد. محتوای این منابع به صورت کاربردی و بهروز ارائه میشود تا کاربران بتوانند دانش و تواناییهای لازم برای موفقیت در پروژههای عملی و حرفهای خود را کسب کنند.
Learnkart اهمیت ارتقاء مهارت و تأثیر آن بر شما را درک می کند. آنها به ایجاد دوره های تخصصی آموزش الکترونیکی افتخار می کنند که نه تنها شما را برای امتحانات گواهینامه آماده می کند، بلکه به شما کمک می کند تا دانش عملی را برای برنامه های کاربردی در دنیای واقعی به دست آورید. هزاران دانشآموز مهارتهای خود را با Learnkart از طریق دورههای مختلف، مانند PgMP، مدیریت ریسک حرفهای (RMP)، تشخیص گفتار، پایتون، خدمات وب آمازون (AWS) و غیره توسعه دادهاند. Learnkart به طور منظم دوره هایی را به مجموعه خود اضافه می کند تا به تجربه یادگیری شما ارزش بیشتری بدهد.
نمایش نظرات