آموزش Apache Kafka و Crash Cloud Course برای مبتدیان

Apache Kafka & Confluent Cloud Crash Course for Beginners

نکته: آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
نمونه ویدیوها:
توضیحات دوره:

به دوره مقدماتی Confluent Cloud خوش آمدید. Confluent از آپاچی کافکا برای پخش جریانی رویدادها در زمان واقعی استفاده می کند که برای اکثر شرکت های Fortune 500 به یک ضرورت تبدیل شده است. جریان رویداد در زمان واقعی وسیله ای است که از طریق آن بسیاری از شرکت ها در زمان های مناسب تصمیم می گیرند و از ضررهای مالی قابل توجه جلوگیری می کنند. ما بخش مقدماتی را برای هر یک از آنها با مفاهیم اساسی پوشش می دهیم که با مثال های مورد استفاده پوشش داده شده است. این دوره برای دانش آموزانی طراحی شده است که در مرحله اولیه یادگیری رایانش ابری و جریان رویداد هستند و برای کسانی که می خواهند کار خود را در این زمینه شروع کنند مناسب است.

این دوره روی Confluent چیست و چگونه می توان از آن برای پخش جریانی رویدادها و داده ها در زمان واقعی استفاده کرد. همچنین شامل تمرین‌های عملی آزمایشگاهی می‌شود که بخش عمده‌ای را در استقرار و تنظیم برنامه‌ها پوشش می‌دهد.

ما از ترکیبی از خط CMD/رابط ترمینال و برنامه‌نویسی برای راه‌اندازی هر برنامه‌ای که انتخاب می‌کنید به عنوان معماری میکروسرویس استفاده می‌کنیم. بخش برنامه نویسی عمدتاً شامل نوشتن اسکریپت های پوسته و سپس استفاده از دستورات خط فرمان برای اجرای آنها و دریافت نتایج مورد نظر می باشد.

حتی اگر تجربه قبلی استفاده از هیچ یک از این فناوری‌ها را نداشته باشید، همچنان می‌توانید 100% از مزایای این دوره را دریافت کنید.

1: مقدمه

این پروژه دانش آموزان را در کل گردش کار آپاچی کافکا و Confluent Cloud راهنمایی می کند. این مبانی آموخته شده توسط دانش آموزان در بخش های قبلی را نشان می دهد. توصیه می شود دانش آموز ابتدا سعی کند به تنهایی مشکل را حل کند و سپس به سراغ نکات ارائه شده برود. در زیر شرح پروژه آمده است:

  1. پروژه ایجاد یک جریان داده از اطلاعات بیمار است. دانش‌آموزان موظفند از فایل‌های موجود برای پروژه 1 استفاده کنند و آن‌ها را به گونه‌ای اصلاح کنند که مطابق با معیارهای تعیین‌شده باشد. دانشجو باید نحوه تعریف جریان داده را درک کند و الزامات دانشی را که از دوره به دست آورده است برآورده کند. پس از این، از دانش آموزان خواسته می شود که داده ها را به یک جریان و جدول تبدیل کنند و در آخر، داده ها را به عنوان مصرف کننده مستقیم مصرف کنند.

2: دانش‌آموز برای تکمیل پروژه چه اقدامی باید انجام دهد

دانش‌آموزان باید تمام بخش‌های دوره را به ترتیب طراحی دوره تماشا کنند. دانش آموزان باید یک حساب Confluent ایجاد کنند و ابزارهای مورد نیاز را دانلود کنند و باید تمام وظایف را برای تکمیل پروژه انجام دهند.

3: چه مهارت هایی را برای تکمیل پروژه نیاز دارند .

دانش آموزان باید بتوانند مفاهیم توضیح داده شده در دوره را بیاموزند. برای اینکه دانش‌آموز بتواند به طور کامل مسائل پروژه را حل کند، باید دانش کافی کافکا و همچنین پایگاه‌های اطلاعاتی پایه را داشته باشد. این مفاهیم در بخش های مربوطه به خوبی توضیح داده شده است.

4: چگونه دانش‌آموزان می‌توانند پروژه را با دانش‌آموزان دیگر در پلتفرم به اشتراک بگذارند تا بازخورد دریافت کنند.

دانش‌آموزان می‌توانند پروژه‌های Confluent خود را با اشتراک‌گذاری نسخه‌های اصلاح‌شده کد در مخازن github شخصی‌شان و اشتراک‌گذاری پیوندها، با دانشجویان دیگر به اشتراک بگذارند. دانش‌آموزان همچنین می‌توانند تصاویر نمای کلی داشبورد خود را به اشتراک بگذارند تا به سایر دانش‌آموزان درک سطح بالایی بدهند.

5: منابع: 


سرفصل ها و درس ها

درس ها Lessons

  • مروری بر جریان های کافکا Overview of Kafka Streams

  • معماری کافکا Architecture of Kafka

  • با استفاده از KSQLDB Using KSQLDB

  • مقدمه دوره Introduction to Course

  • Project2 PacMan: بررسی اجمالی Project2 PacMan: Overview

  • کاتالوگ کتاب Project1: تولید پیام Project1 Book Catalog: Produce Messages

  • Project2 PacMan: داده های پروژه و سینک را اجرا کنید Project2 PacMan: Run Project and Sink Data

  • کاتالوگ کتاب Project1: ایجاد موضوع Project1 Book Catalog: Create Topic

  • کاتالوگ کتاب Project1: نمای کلی Project1 Book Catalog: Overview

  • Project2 PacMan: راه اندازی KSQLDB Project2 PacMan: Setting up KSQLDB

  • تحلیل جریانی چیست؟ What is Streaming Analytics

  • شروع سریع با Confluent Cloud Quick Starting with Confluent Cloud

  • کاتالوگ کتاب Project1: ایجاد سازنده Project1 Book Catalog: Create Producer

  • Project2 PacMan: تنظیم پیش نیازها Project2 PacMan: Setting up Pre Requisites

  • Project2 PacMan: پیکربندی و اجرا Project2 PacMan: Configure and Run

  • کاتالوگ کتاب Project1: Create Consumer Project1 Book Catalog: Create Consumer

  • راه حل مدیریت شده کافکا Managed Solution Kafka

  • مقدمه ای بر کافکا کانکت Introduction to Kafka Connect

  • آپاچی کافکا چیست؟ What is Apache Kafka

  • مقدمه ای بر KSQLDB Introduction to KSQLDB

  • کاتالوگ کتاب Project1: Consume Messages Project1 Book Catalog: Consume Messages

نمایش نظرات

Skillshare (اسکیل شیر)

اسکیل‌شر یک پلتفرم آموزشی آنلاین است که به میلیون‌ها افراد در سراسر جهان امکان یادگیری مهارت‌های جدید را فراهم می‌کند. این پلتفرم با ارائه دوره‌های متنوع در زمینه‌هایی از جمله هنر و طراحی، فناوری، کسب و کار، و زندگی موفق، به کاربران خود این امکان را می‌دهد تا به صورت آنلاین به یادگیری بپردازند.

یکی از ویژگی‌های منحصر به فرد سکیل‌شر، ارائه دوره‌های تدریس شده توسط صاحبان مهارت‌ها و افراد موفق در زمینه‌های مختلف است. این امر باعث می‌شود که کاربران از تجربیات و دانش عملی افرادی که در حوزه‌های مورد نظرشان موفق عمل کرده‌اند، بهره‌مند شوند و بهترین اطلاعات را برای بهبود مهارت‌های خود دریافت کنند. به این ترتیب، سکیل‌شر نه تنها یک پلتفرم آموزشی است، بلکه یک جامعه آموزشی است که افراد را به اشتراک گذاری دانش و تجربیات تشویق می‌کند و به آنها کمک می‌کند تا در مسیر پیشرفت و موفقیت خود ادامه دهند.

آموزش Apache Kafka و Crash Cloud Course برای مبتدیان
جزییات دوره
1h 45m
21
Skillshare (اسکیل شیر) Skillshare (اسکیل شیر)
(آخرین آپدیت)
25
از 5
دارد
دارد
دارد
AMG Inc
جهت دریافت آخرین اخبار و آپدیت ها در کانال تلگرام عضو شوید.

Google Chrome Browser

Internet Download Manager

Pot Player

Winrar

AMG Inc AMG Inc

فناور

هدف شرکت ما تولید بهترین دوره های آنلاین در علم داده و فناوری های رایانش ابری است. در زیر تیم ما از مربیان مجرب است.

مربی 1

عدنان شیخ در 18 سال گذشته در صنعت فناوری اطلاعات بوده و برای 500 شرکت ثروتمند در آمریکای شمالی کار کرده است. او نقش هایی از تحلیلگر داده، تحلیلگر سیستم، مدل ساز داده، مدیر داده تا معمار داده با شرکت های مختلف فناوری داشته است.

او در طول زندگی حرفه ای خود با Oracle، SQL Server، DB2، MySql و بسیاری از پایگاه داده های رابطه ای و غیر رابطه ای دیگر کار کرده است. او چندین برنامه کاربردی دسترسی به داده ها را با استفاده از پرس و جوهای پیچیده SQL و رویه های ذخیره شده برای سیستم های تولید حیاتی نوشته است.

او دارای مدرک کارشناسی ارشد از دانشگاه نورث وسترن شیکاگو در فناوری اطلاعات و لیسانس تجارت و علوم کامپیوتر از دانشگاه مدیسون ویسکانسین است

او گواهینامه‌های صنعتی متعددی در پایگاه‌های داده (Oracle، SQL Server، DB2)، تجسم داده، مدیریت کیفیت داده، مدل‌سازی داده (3NF StarSchema)، معمار راه‌حل‌های AWS و راه‌حل‌های ذخیره‌سازی داده داشته است

مربی 2

شعیب صدیق در پلتفرم های برنامه نویسی مختلف پایتون، C++، R و فناوری های ابری تدریس کرده است. او دارای مدرک کارشناسی ارشد در رشته مهندسی برق

است

Instructor3

سامیه بشیر به مدت 5 سال به تدریس علم داده و یادگیری ماشین پرداخته است. او دارای مدرک کارشناسی ارشد در یادگیری عمیق است.

مربی 4

حسین عباس گوکال روی پروژه های متعددی کار کرده است که در آنها از فناوری های جاوا، پایتون، SQL و Rust استفاده کرده است. او دارای مدرک دیپلم در Cloud Native Computing است.

مربی 5:

رویدا عارف بیش از 3 سال است که یک طراح گرافیک بوده و در حرفه حرفه ای خود با نرم افزارهایی مانند Tableau و looker کار کرده است. او دارای مدرک لیسانس در مهندسی الکترونیک است.

مربی 6:

شهذب نصیر بیش از 8 سال است که مهندس داده است. او دارای مدرک لیسانس در علوم کامپیوتر است.