Kafka Streams API یک API پیشرفته است که بخشی از اکوسیستم کافکا است.
با استفاده از Kafka Streams API، می توانیم:
تغییر داده ها را اعمال کنید،
غنی سازی داده،
شاخه کردن داده ها به چند جریان داده.
جمع آوری داده ها یا پیوستن به داده ها از چندین موضوع کافکا.
دادهها را در سطلهای پنجره و موارد دیگر جمع کنید.
برنامه برنامهنویسی Kafka Streams For Developers using Java/SpringBoot به گونهای طراحی شده است که تجربه تئوری و کدنویسی توسعه برنامههای Kafka Streams با استفاده از Streams API را به شما ارائه دهد و همچنین تکنیکهای استفاده از برنامه استاندارد Enterprise Kafka Streams با استفاده از SpringBoot و Streams API را پوشش میدهد. .
این یک دوره آموزشی کاملاً عملی است که در آن شما مفاهیم را از طریق کد یاد خواهید گرفت. شما تا پایان این دوره یک برنامه بیدرنگ Kafka Streams خواهید ساخت.
در پایان این دوره، درک کاملی از این مفاهیم خواهید داشت:
ساخت برنامه های Kafka Streams با استفاده از Streams API
ساخت برنامه های Kafka Streams با استفاده از SpringBoot Streams API
برای بازیابی دادههای جمعآوریشده از یک فروشگاه حالت و نمایش آنها از طریق RESTFUL API، عبارتهای تعاملی بنویسید.
تست واحد و یکپارچه سازی برنامه های Kafka Streams با استفاده از JUnit5
شروع به کار با جریان های کافکا
در این بخش، من به همه شما معرفی میکنم که جریانهای کافکا و اصطلاحات مختلفی را که در ساختن یک برنامه Kafka Streams دخیل هستند، ارائه میکنم.
مقدمه ای بر جریان های کافکا
اصطلاحات Kafka Streams - پردازنده توپولوژی
معرفی KStreams API
برنامه سلام Kafka Streams با استفاده از KStreams API
در این بخش، ما یک برنامه ساده Kafka Streams میسازیم و آن را در محلی خود آزمایش میکنیم.
ساخت توپولوژی برنامه Greetings را بیاموزید
برنامه راهانداز Kafka Streams را بسازید که با استفاده از آن میتوانیم برنامه را شروع و متوقف کنیم.
اپراتورها در Kafka Streams با استفاده از KStream API
در این بخش، برخی از اپراتورهای موجود در بخش Kafka Streams API را بررسی خواهیم کرد.
FilterNot FilterNot
Map/MapValues
FlatMapValues/FlatMap
نگاه کردن
ادغام
سریالسازی و سریالزدایی در جریانهای کافکا
در این بخش، سریالسازی و سریالزدایی در Kafka Streams را کدنویسی و بررسی میکنیم.
سریالسازی کلید/ارزش و سریالزدایی در کافکا استریم چگونه کار میکند؟
ارائه سریالایزر/دسریالایزر پیش فرض با استفاده از پیکربندی برنامه
یک Serdes سفارشی برای پیام های خوشامدگویی پیشرفته بسازید
سريال ساز عمومي قابل استفاده مجدد (رويکرد توصيه شده)
در این بخش، بهترین روش برای ساخت سریالساز و Deserializer عمومی را به شما نشان میدهم که میتواند برای هر نوع پیامی استفاده شود.
یک سریالساز/سریالزدای عمومی بسازید
برنامه مدیریت سفارش Kafka Streams - یک مورد استفاده در زمان واقعی
در این بخش، با پیادهسازی یک سیستم مدیریت سفارش برای یک شرکت خردهفروشی، یک برنامه جریانهای کافکا میسازیم.
توپولوژی، جریان و وظایف - زیر سرپوش
در این بخش، موارد داخلی برنامه Kafka Streams را بررسی خواهیم کرد.
موارد داخلی توپولوژی، جریان و وظایف
مدیریت خطا/استثنا در جریان های کافکا
در این بخش، کنترلکنندههای مختلف خطا را در Kafka Streams بررسی میکنیم.
شکستها در جریانهای کافکا
رفتار خطای پیش فرض Deserialization
کنترل کننده خطای Deserialization سفارشی
پیشفرض کنترلکننده خطای پردازشگر سفارشی
کنترل کننده خطای تولید سفارشی
KTable جهانی KTable
در این بخش، KTable و GlobalKTable را در KafkaStreams بررسی خواهیم کرد.
معرفی KTable API
یک توپولوژی برای KTable بسازید
KTable - Under the Hood
GlobalKTable
عملیات StateFul در کافکا استریم - رویدادها جمع آوری، پیوستن و پنجره
در این بخش، اپراتورهای حالت دار در Kafka Streams را معرفی می کنم و اپراتورهای مرتبط با تجمع در جریان های کافکا را بررسی می کنم.
عملیات دولتی در جریان های کافکا
تجمیع چگونه کار می کند؟ تجمع با استفاده از عملگر "count"
سوابق گروهی را با استفاده از عملگر groupBy
انجام دهیدتجمیع با استفاده از اپراتور "کاهش"
تجمیع با استفاده از عملگر "جمع"
استفاده از نماهای متریال شده برای عملگر کاهش تعداد
نتایج عملیات StateFul - چگونه به آنها دسترسی داشته باشیم؟
در این بخش، در مورد گزینه های بازیابی نتایج تجمیع توضیح خواهم داد.
کلید زدن مجدد سوابق کافکا برای عملیات دولتی
در این بخش، تأثیر عملگر تهی و نیاز به کلیدگذاری مجدد رکوردها در طول عملیات حالت دار را کدنویسی و بررسی می کنیم.
StateFul Operations در Kafka Streams - به
بپیوندیددر این بخش، انواع مختلف Join ها را در برنامه Kafka Streams کدنویسی و بررسی می کنیم.
به برنامه مدیریت سفارش بپیوندید - مورد استفاده در زمان واقعی
در این بخش، join را در برنامه مدیریت سفارش که تاکنون روی آن کار کرده ایم، پیاده سازی می کنیم.
آشنایی با انواع اتصالات در کافکا استریم
InnerJoin را با استفاده از عملگر "join" کاوش کنید - پیوستن به KStream و KTable
InnerJoin را با استفاده از عملگر "join" کاوش کنید - پیوستن به KStream و GlobalKTable
InnerJoin را با استفاده از عملگر "join" کاوش کنید - پیوستن به KTable و KTable
InnerJoin را با استفاده از عملگر "join" کاوش کنید - پیوستن به KStream و KStream
پیوستن به Kafka Streams با استفاده از عملگر "leftJoin"
پیوستن به Kafka Streams با استفاده از عملگر "outerJoin"
پیوستن - زیر سرپوش
شرایط پارتیشن بندی مشترک در Join Joins Under the Hood
عملیات StateFul در کافکا استریم - پنجره
در این بخش، مفاهیم پنجرهسازی در Kafka Streams را بررسی میکنیم.
مقدمه ای بر پنجره سازی و مفاهیم زمان
پنجره کردن در کافکا استریم - ویندوز در حال چرخش
انتشار نتایج پنجرهدار را با استفاده از اپراتور "supress" کنترل کنید
Windowing در Kafka Streams - Hopping Windows
پنجره در Kafka Streams - Windows Sliding
بیوه شدن در برنامه مدیریت سفارش - مورد استفاده در زمان واقعی
در این بخش، نیازمندیهای جدید برای پیادهسازی پنجرهسازی در برنامه جریان سفارشها را کدنویسی و بررسی میکنیم.
رفتار رکوردها با مهر زمانی قدیمیتر آینده در پنجره
در این بخش، ما رفتار رکوردها را با مهر زمانی قدیمیتر و آینده در یک برنامه Kafka Streams بررسی میکنیم.
برنامه Kafka Streams را با استفاده از SpringBoot بسازید
در این بخش، ما با استفاده از SpringBoot، یک برنامه ساده جریانهای کافکا میسازیم.
معرفی SpringBoot و Kafka Streams
برنامه Project - Greeting Streams را با استفاده از Spring Kafka Streams راه اندازی کنید
پیکربندی جریان کافکا با استفاده از application.yml
توپولوژی تبریک بسازید
برنامه تبریک را به صورت محلی آزمایش کنید
پیکربندی خودکار SpringBoot کافکا استریم
در این بخش، من به شما نشان میدهم که چگونه خودکار راهاندازی فنری برنامه Kafka Streams را پیکربندی میکند.
JSON Serialization/Deserialization در Spring Kafka Streams
در این بخش، Serialization/Deserialization JSON را در Kafka Streams با استفاده از SpringBoot پیاده سازی می کنیم.
رسیدگی به خطا در جریان های کافکا بهار
در این بخش، مدیریت خطا در Kafka Streams را با استفاده از SpringBoot به شما نشان خواهم داد.
بررسی خطای سریال زدایی - رویکرد 1
بررسی خطای سریال زدایی با استفاده از کنترل کننده خطای سفارشی - رویکرد 2
بررسی خطای Deserialization - رویکرد 3 ( رویکرد خاص بهار)
Exceptions Uncaught را در توپولوژی مدیریت کنید
بررسی خطاهای تولید
با استفاده از SpringBoot
، برنامه Kafka Streams Orders را بسازیددر این بخش، پروژه راهاندازی بهار را برای جریانهای سفارشات راهاندازی میکنیم.
پرسشهای تعاملی - جستجو در فروشگاههای حالت با استفاده از RESTFUL API
برای بازیابی OrderCount بر اساس OrderType یک GET Endpoint بسازید - قسمت 1
برای بازیابی OrderCount بر اساس OrderType یک GET Endpoint بسازید - قسمت 2
تعداد تعداد سفارش را بر اساس OrderType LocationId
بازیابی کنیدبرای بازیابی تعداد سفارش برای همه انواع سفارش، یک نقطه پایانی GET بسازید
یک نقطه پایانی GET برای بازیابی درآمد براساس نوع سفارش ایجاد کنید
مدیریت خطای جهانی برای پیامهای خطای مفید مشتری
پرس و جوهای تعاملی - وضعیت پنجره پرس و جو با استفاده از API های RESTFUL
یک نقطه پایانی GET برای بازیابی تعداد سفارش براساس نوع سفارش ایجاد کنید
یک نقطه پایانی GET برای بازیابی تعداد سفارش پنجرهدار برای همه انواع سفارش بسازید
یک نقطه پایانی GET برای بازیابی تعداد سفارش پنجرهدار در محدوده زمانی ایجاد کنید
یک نقطه پایانی GET برای بازیابی درآمد براساس نوع سفارش ایجاد کنید
تست استریم های کافکا با استفاده از TopologyTestDriver JUnit5
در این بخش، کدنویسی می کنیم و با نحوه نوشتن تست های خودکار برای برنامه Kafka Streams آشنا می شویم.
آزمایش جریانهای کافکا با استفاده از TopologyTestDriver
برنامه تبریک واحد تست - نوشتن داده در یک موضوع خروجی
برنامه تبریک واحد تست - آزمایش چند پیام
برنامه تبریک تست واحد - سناریوی خطا
تعداد سفارشات تست واحد - نوشتن داده در فروشگاه دولتی
درآمد سفارشهای تست واحد - نوشتن دادهها در فروشگاه دولتی
دستورالعملهای تست واحد درآمد توسط Windows - نوشتن دادهها در فروشگاه دولتی
محدودیت های TopologyTestDriver
تست استریم های کافکا در SpringBoot با استفاده از TopologyTestDriver JUnit5
در این بخش، ما کدنویسی می کنیم و نحوه نوشتن تست های واحد را در برنامه Kafka Streams خود که با استفاده از SpringBoot ساخته می شود، یاد می گیریم.
تست یکپارچه سازی برنامه Spring KafkaStreams با استفاده از @EmbeddedKafka
در این بخش، با استفاده از EmbeddedKafka کدنویسی می کنیم و در مورد نوشتن تست های یکپارچه سازی برای برنامه Kafka Streams با استفاده از EmbeddedKafka آشنا می شویم.
آزمون یکپارچه سازی راه اندازی مقدمه
تست یکپارچه سازی تعداد سفارشات
تست یکپارچه سازی برای درآمد سفارشات
تست یکپارچه سازی برای درآمد سفارشات توسط ویندوز
دوره مهلت در جریان های کافکا
در این بخش مفهوم دوره مهلت و نحوه استفاده از آن در برنامه جریان های کافکا را توضیح خواهم داد.
برنامه SpringBoot را به عنوان یک فایل اجرایی بسازید و بسته بندی کنید
در این بخش، برنامه جریانهای کافکا را به عنوان یک فایل اجرایی بستهبندی میکنیم و برنامه را راهاندازی میکنیم.
در پایان این دوره، درک کاملی از Kafka Streams API و انواع مختلف برنامههایی که میتوان با استفاده از Kafka Streams API ایجاد کرد، خواهید داشت.
علاقه مندان به فناوری، مدرس آنلاین
نمایش نظرات