آموزش مهندسی داده در دنیای واقعی با ADF و یکپارچه‌سازی DevOps - آخرین آپدیت

دانلود Real-World Data Engineering with ADF And DevOps Integration

نکته: ممکن هست محتوای این صفحه بروز نباشد ولی دانلود دوره آخرین آپدیت می باشد.
نمونه ویدیوها:
توضیحات دوره:

آموزش جامع Azure Data Factory، Azure Data Lake و Azure SQL DB با پروژه واقعی و DevOps

یادگیری عملی استقرار: تسلط بر Azure Data Factory، Azure Data Lake و Azure SQL DB با پروژه واقعی و DevOps

  • ادغام مداوم (CI) برای پایپ‌لاین‌های داده
  • کنترل نسخه برای پروژه‌های داده
  • مقدمه‌ای بر Azure DevOps
  • ایجاد اولین پروژه Azure Data Factory
  • آشنایی با اجزای Azure Data Factory
  • تهیه Azure Data Lake Storage برای مدیریت مؤثر داده
  • عیب‌یابی و رفع اشکال پایپ‌لاین‌های داده Azure Data Factory
  • اتصال و استخراج داده از APIها با استفاده از ADF
  • پاکسازی و تبدیل داده با استفاده از PySpark در Databricks
  • خودکارسازی گردش‌های کاری داده با Azure Data Factory
  • بارگذاری داده در Azure Synapse برای تجزیه و تحلیل

پیش‌نیازها:

  • اتصال به اینترنت
  • کامپیوتر شخصی / لپ‌تاپ / تلفن همراه
  • هدفون
  • حساب Azure (در صورت تمایل دانشجویان به تمرین)
  • تمایل به یادگیری ابزارها و چارچوب‌های جدید
  • درک اولیه از رایانش ابری و پردازش داده
  • آشنایی با Azure (مفید است، اما الزامی نیست)

آیا آماده‌اید تا مهارت‌های استقرار Azure Data Factory خود را متحول کنید؟ امروز ثبت‌نام کنید و با رویکرد DevOps، به یک متخصص مهندسی داده تبدیل شوید!

چه کسانی باید ثبت‌نام کنند:

مهندسان داده، تحلیلگران و متخصصانی که به دنبال درک جامع از استقرار Azure Data Factory با استفاده از روش‌های DevOps هستند. چه مبتدی باشید و چه کاربر باتجربه، این دوره برای همه سطوح مناسب است و بینش‌های عملی و مهارت‌های کاربردی برای استقرار موفقیت‌آمیز پروژه‌های داده ارائه می‌دهد.

با دوره ترکیبی ما، "تسلط بر مهندسی داده Azure: یک ماجراجویی DevOps و پایپ‌لاین"، به دنیای جامع Azure Data Factory و Azure Data Engineering شیرجه بزنید.

در این تجربه فشرده، ما هر مهارت حیاتی را برای طراحی، استقرار و مدیریت پایپ‌لاین‌های داده انتها به انتها و ادغام DevOps در اکوسیستم Azure پوشش می‌دهیم. این دوره برای مهندسان داده، علاقه‌مندان به ابر و هر کسی که مشتاق توسعه راه‌حل‌های داده مقیاس‌پذیر و خودکار است، ایده‌آل است و شما را قادر می‌سازد تا کل چرخه عمر داده را - از دریافت تا تبدیل و تجسم - مدیریت کنید.

تسلط بر استقرار Azure Data Factory: یک ماجراجویی DevOps

با جدیدترین دوره من - "تسلط بر استقرار Azure Data Factory: یک رویکرد DevOps" - سفری تحول‌آفرین را در قلب استقرار Azure Data Factory آغاز کنید. این تجربه پویا و 6+ ساعته برای مهندسان داده، علاقه‌مندان به ابر و هر کسی که مشتاق تسلط بر پیچیدگی‌های استقرار راه‌حل‌های داده در اکوسیستم Azure است، طراحی شده است.

مروری بر دوره:

  1. راه‌اندازی زیرساخت توسعه: با راه‌اندازی زیرساخت توسعه خود، مستقیماً وارد دنیای Azure Data Factory شوید. اصول اولیه ایجاد یک محیط قوی را بیاموزید که زمینه را برای تلاش‌های مهندسی داده شما فراهم می‌کند.

  2. مبانی Azure Data Factory: با یک بررسی جامع از مبانی Azure Data Factory، یک پایه محکم ایجاد کنید. اجزای اصلی، از جمله پایپ‌لاین‌ها، مجموعه‌های داده، سرویس‌های پیوندی و تریگرها را درک کنید و زمینه را برای تخصص ارکستراسیون داده خود فراهم کنید.

  3. مقدمه‌ای بر Azure DevOps: قدرت Azure DevOps و نقش محوری آن در دنیای داده را باز کنید. بینشی در مورد مزایای DevOps در ادغام داده به دست آورید و زمینه را برای یک سفر ادغام یکپارچه فراهم کنید.

  4. ادغام مداوم - ادغام Azure Data Factory-Azure DevOps: یک شیرجه عمیق در دنیای ادغام مداوم برای Azure Data Factory داشته باشید. ادغام یکپارچه Azure Data Factory با Azure DevOps را کاوش کنید و ساخت و آزمایش‌ها را برای یک فرآیند توسعه ساده خودکار کنید.

  5. Azure Key Vault: ایمن کردن اتصالات: با کاوش در Azure Key Vault، بازی امنیتی خود را ارتقا دهید. کشف کنید که چگونه داده‌های حساس خود را به طور ایمن مدیریت و محافظت کنید و اتصالات قوی را در پایپ‌لاین‌های داده خود تضمین کنید.

  6. راه‌اندازی زیرساخت UAT + تکلیف: دانش جدید خود را در یک محیط عملی با راه‌اندازی زیرساخت آزمایش پذیرش کاربر (UAT) اعمال کنید. پیچیدگی‌ها را از طریق تکالیف عملی که سناریوهای دنیای واقعی را شبیه‌سازی می‌کنند، درک کنید.

  7. راه‌اندازی زیرساخت تولید (راه‌حل‌های تکلیف): به مرحله حیاتی استقرار راه‌حل‌ها در تولید بروید. چالش‌ها را در راه‌اندازی زیرساخت تولید خود حل کنید و راه‌حل‌ها را برای تکالیفی که پیچیدگی‌های دنیای واقعی را تقلید می‌کنند، اعمال کنید.

  8. استقرار مداوم - استقرار Azure Data Factory-Azure DevOps: سفر خود را با تسلط بر استقرار مداوم برای Azure Data Factory به پایان برسانید. سناریوهای استقرار پیشرفته را کاوش کنید و خط لوله استقرار را با Azure DevOps خودکار کنید و از انتقال هموار از توسعه به تولید اطمینان حاصل کنید.

پروژه پایپ‌لاین داده Azure در زمان واقعی

  • مقدمه‌ای بر پروژه مهندسی داده انتها به انتها: معماری و ادغام سرویس‌های Azure (ADF، ADLS، Azure Databricks، Synapse Analytics، Power BI) را برای راه‌حل‌های داده در زمان واقعی درک کنید.

  • دریافت داده با ADF: با دریافت داده با استفاده از Azure Data Factory برای خودکارسازی استخراج داده از APIها و سایر منابع شروع کنید و آن را در Azure Data Lake Storage ذخیره کنید.

  • ذخیره‌سازی داده در Azure Data Lake Storage: پارتیشن‌بندی داده، مدیریت فرمت و بهترین شیوه‌ها را برای ذخیره‌سازی داده‌های خام در ADLS بیاموزید و آن را برای تبدیل‌های مقیاس‌پذیر آماده کنید.

  • پاکسازی داده در Azure Databricks (PySpark): از PySpark برای پاکسازی داده و تبدیل‌های اولیه، مدیریت موارد تکراری، مقادیر گمشده و اعتبارسنجی‌ها استفاده کنید.

  • تبدیل داده و ETL با PySpark: تکنیک‌های تبدیل (فیلتر کردن، جمع‌آوری، پیوستن) را برای تبدیل داده‌ها از طریق لایه‌های برنزی، نقره‌ای و طلایی اعمال کنید و یک مجموعه داده آماده تجزیه و تحلیل ایجاد کنید.

  • بارگذاری داده در Azure Synapse Analytics: داده‌های پاک شده را به Synapse منتقل کنید، جداول را بهینه کنید و آن را برای پرس و جو و تجزیه و تحلیل سریع آماده کنید.

چرا ثبت‌نام کنیم؟

  • یادگیری عملی: خود را در یک تجربه یادگیری عملی با دموها و آزمایشگاه‌های گسترده غوطه‌ور کنید.

  • راهنمایی متخصص: از شش سال تجربه Azure Cloud و گواهینامه در حرفه‌ای بودن ابری من بهره‌مند شوید.

  • ضمانت بازگشت وجه: بدون ریسک با ضمانت بازگشت وجه 30 روزه ثبت‌نام کنید (سیاست بازپرداخت Udemy اعمال می‌شود).

  • گواهی پایان دوره: یک گواهی پایان دوره معتبر را برای نشان دادن دستاورد خود در LinkedIn و سایر پلتفرم‌ها دانلود کنید.

چه کسانی باید ثبت‌نام کنند

این دوره برای مهندسان داده، تحلیلگران و متخصصانی که هدفشان ایجاد مهارت‌های عملی در Azure Data Factory، DevOps و پروژه‌های پایپ‌لاین داده مبتنی بر ابر است، ایده‌آل است. چه مبتدی باشید و چه باتجربه، این دوره یک تجربه یادگیری غوطه‌ور را برای توسعه و استقرار پروژه‌های مهندسی داده به طور مؤثر ارائه می‌دهد.

امروز به ما بپیوندید

پتانسیل مهندسی داده Azure خود را باز کنید - اکنون ثبت‌نام کنید تا در استقرار داده، مدیریت پایپ‌لاین و اتوماسیون DevOps متخصص شوید!

پروژه‌های مهندسی داده Azure - پروژه داده Azure در زمان واقعی:

در دنیای داده‌محور امروزی، کسب‌وکارها به شدت به پایپ‌لاین‌های داده قوی و مقیاس‌پذیر برای مدیریت حجم و پیچیدگی رو به رشد داده‌های خود متکی هستند. توانایی طراحی و پیاده‌سازی این پایپ‌لاین‌ها یک مهارت ارزشمند برای متخصصان داده است. "پروژه‌های مهندسی داده Azure - پروژه داده Azure در زمان واقعی" برای ارائه تجربه عملی در ساخت پایپ‌لاین‌های داده انتها به انتها با استفاده از اکوسیستم قدرتمند Azure طراحی شده است. این دوره شما را از طریق فرآیند استخراج، پاکسازی، تبدیل و تجسم داده‌ها با استفاده از ابزارهایی مانند Azure Data Factory (ADF)، Azure Data Lake Storage (ADLS)، Azure Databricks و Azure Synapse Analytics راهنمایی می‌کند و خروجی نهایی از طریق داشبوردهای Power BI ارائه می‌شود.

این دوره برای هر کسی که به دنبال ارتقای مهارت‌های خود در مهندسی داده مبتنی بر ابر است، عالی است، چه در این زمینه تازه کار باشید و چه به دنبال تثبیت تخصص خود در فناوری‌های Azure هستید. در پایان این دوره، نه تنها تئوری پشت پایپ‌لاین‌های داده را درک خواهید کرد، بلکه دانش عملی طراحی، توسعه و استقرار یک پایپ‌لاین داده کاملاً کاربردی برای داده‌های دنیای واقعی را نیز خواهید داشت.

ما با درک معماری و اجزای یک پایپ‌لاین داده انتها به انتها شروع خواهیم کرد. شما یاد خواهید گرفت که چگونه به عنوان منابع داده به APIها متصل شوید، داده‌های خام را در Azure Data Lake Storage (ADLS) بارگیری کنید و از Azure Data Factory برای ارکستراسیون گردش‌های کاری داده استفاده کنید. با تمرینات عملی، پاکسازی اولیه داده را در Azure Databricks با استفاده از PySpark انجام خواهید داد و سپس به اعمال تبدیل‌های پیچیده‌تری می‌پردازید که داده‌های خام را به بینش‌های ارزشمند تبدیل می‌کنند. از آنجا، داده‌های پردازش شده خود را در Azure Synapse Analytics ذخیره خواهید کرد، که برای تجزیه و تحلیل و تجسم در Power BI آماده است.

ما شما را در هر مرحله راهنمایی خواهیم کرد و اطمینان حاصل خواهیم کرد که هدف از هر ابزار و نحوه کار آنها با هم در محیط Azure برای مدیریت کل چرخه عمر داده را درک می‌کنید. چه با داده‌های ساختاریافته، نیمه ساختاریافته یا بدون ساختار کار کنید، این دوره ابزارها و تکنیک‌های لازم برای مدیریت هر نوع داده را به طور کارآمد پوشش می‌دهد.

مروری بر ساختار دوره:

این دوره به شش بخش جامع تقسیم شده است که هر کدام بر یک مرحله حیاتی از ساخت پایپ‌لاین‌های داده تمرکز دارند:

  1. مقدمه‌ای بر پایپ‌لاین‌های داده و ابزارهای Azure
    ما با مقدمه‌ای بر پایپ‌لاین‌های داده شروع می‌کنیم و بر اهمیت و استفاده آنها در معماری داده مدرن تمرکز می‌کنیم. شما در مورد ابزارهایی که در طول دوره استفاده خواهیم کرد، یاد خواهید گرفت: Azure Data Factory، Azure Data Lake Storage، Azure Databricks، Azure Synapse و Power BI. ما همچنین نحوه کار این ابزارها را با هم برای ساخت یک پایپ‌لاین داده کارآمد، مقیاس‌پذیر و قابل اعتماد در Azure پوشش خواهیم داد. در پایان این بخش، درک روشنی از نحوه تسهیل پردازش داده در مقیاس بزرگ توسط Azure خواهید داشت.

  2. دریافت داده با استفاده از Azure Data Factory (ADF)
    در این بخش، ما بر استخراج داده از منابع خارجی، به ویژه APIها تمرکز خواهیم کرد. شما یاد خواهید گرفت که چگونه یک پایپ‌لاین در Azure Data Factory برای خودکارسازی استخراج و بارگیری داده در Azure Data Lake Storage (ADLS) ایجاد کنید. ما از طریق فرآیند پیکربندی مجموعه‌های داده، سرویس‌های پیوندی و فعالیت‌ها در ADF برای کشیدن داده در فرمت‌های مختلف (JSON، CSV، XML و غیره) راهنمایی خواهیم کرد. این اولین گام حیاتی در پایپ‌لاین ما است و به عنوان پایه و اساس تمام مراحل بعدی عمل می‌کند.

  3. ذخیره‌سازی و مدیریت داده در Azure Data Lake Storage (ADLS)
    پس از اینکه داده را دریافت کردیم، گام بعدی ذخیره‌سازی کارآمد آن در Azure Data Lake Storage (ADLS) است. این بخش به شما یاد می‌دهد که چگونه داده‌ها را در ADLS ساختار و سازماندهی کنید و دسترسی سریع و آسان را برای پردازش بیشتر فعال کنید. ما بهترین شیوه‌ها را برای پارتیشن‌بندی داده‌ها، مدیریت فرمت‌های مختلف فایل و مدیریت کنترل‌های دسترسی برای اطمینان از اینکه داده‌های شما به طور ایمن ذخیره می‌شوند و برای پردازش آماده هستند، بررسی خواهیم کرد.

  4. پاکسازی و پردازش داده با Azure Databricks (PySpark)
    داده‌های خام اغلب قبل از استفاده برای تجزیه و تحلیل نیاز به پاکسازی دارند. در این بخش، ما یک شیرجه عمیق در Azure Databricks، با استفاده از PySpark برای پاکسازی و تبدیل اولیه داده خواهیم داشت. شما یاد خواهید گرفت که چگونه موارد تکراری را حذف کنید، مقادیر گمشده را مدیریت کنید، داده‌ها را استاندارد کنید و اعتبارسنجی داده را انجام دهید. با کار کردن با Databricks، تجربه عملی ارزشمندی با محاسبات توزیع شده به دست خواهید آورد که به شما امکان می‌دهد تبدیل‌های داده خود را برای مجموعه‌های داده بزرگ مقیاس کنید.

    این بخش همچنین شما را با قابلیت‌های قدرتمند PySpark برای پردازش داده آشنا می‌کند، جایی که تبدیل‌هایی مانند فیلتر کردن، جمع‌آوری و پیوستن چندین مجموعه داده ایجاد خواهید کرد. ما همچنین لایه‌های برنزی، نقره‌ای و طلایی تبدیل داده را پوشش خواهیم داد، جایی که داده‌های خام (برنزی) را از طریق پردازش متوسط (نقره‌ای) و به یک مجموعه داده پاک و آماده تجزیه و تحلیل (طلایی) خواهید برد.

  5. تبدیل داده و بارگذاری در Azure Synapse Analytics
    پس از اینکه داده‌ها در Databricks پاک و تبدیل شدند، گام بعدی بارگذاری آن در Azure Synapse Analytics برای تجزیه و تحلیل و پرس و جو بیشتر است. شما یاد خواهید گرفت که چگونه Databricks را با Azure Synapse متصل کنید و فرآیند انتقال داده از ADLS به Synapse را خودکار کنید. این بخش همچنین تکنیک‌های بهینه‌سازی برای ذخیره‌سازی داده در Synapse را برای اطمینان از اجرای کارآمد پرس و جوهای شما پوشش می‌دهد. ما شما را از طریق فرآیند پارتیشن‌بندی، فهرست‌بندی و تنظیم جداول Synapse خود برای مدیریت مؤثر مجموعه‌های داده در مقیاس بزرگ راهنمایی خواهیم کرد.

ویژگی‌های دوره:

این دوره به گونه‌ای طراحی شده است که عملی باشد، با تمرینات عملی و نمونه‌های دنیای واقعی. شما:

  • با یک مجموعه داده واقعی کار خواهید کرد که از یک API استخراج شده، پاکسازی شده، تبدیل شده و در ابر ذخیره شده است.

  • عملیات پاکسازی داده را با استفاده از PySpark و Azure Databricks انجام خواهید داد.

  • یاد خواهید گرفت که چگونه از ADF برای ایجاد پایپ‌لاین داده خودکار استفاده کنید.

  • تبدیل داده به فرمت‌های آماده کسب و کار را تمرین خواهید کرد.

  • تجربه در بهینه‌سازی ذخیره‌سازی داده و پرس و جو در Azure Synapse کسب خواهید کرد.

  • گزارش‌ها و داشبوردهای تعاملی را در Power BI توسعه خواهید داد.

مزایای شرکت در این دوره:

با شرکت در این دوره، مهارت‌های عملی و مورد تقاضا در مهندسی داده مبتنی بر ابر را کسب خواهید کرد. شما با دانش و تجربه لازم برای طراحی و پیاده‌سازی پایپ‌لاین‌های داده مقیاس‌پذیر در Azure دور خواهید شد. چه یک مهندس داده، تحلیلگر داده یا یک توسعه‌دهنده باشید که به دنبال ساخت گردش‌های کاری داده مدرن است، این دوره مهارت‌های فنی و استراتژیک را برای موفقیت در این نقش در اختیار شما قرار می‌دهد.

علاوه بر تخصص فنی، بینشی در مورد موارد استفاده واقعی برای این ابزارها نیز به دست خواهید آورد. Azure Data Factory، Databricks و Synapse به طور گسترده در صنایع مختلف برای مدیریت گردش‌های کاری داده، از استارت‌آپ‌ها تا سازمان‌های سطح سازمانی استفاده می‌شوند. پس از اتمام این دوره، برای مقابله با چالش‌های داده با استفاده از راه‌حل‌های بومی ابری قوی Azure مجهز خواهید شد.

این دوره شما را برای یک شغل در مهندسی داده با ارائه تجربه عملی در طراحی و پیاده‌سازی پایپ‌لاین‌های داده آماده می‌کند. شما می‌توانید از مهارت‌های جدید خود برای ساخت سیستم‌های کارآمد و مقیاس‌پذیر استفاده کنید که می‌توانند مقادیر زیادی از داده را، از دریافت تا تجسم، مدیریت کنند.

پس از اتمام این دوره، یک گواهی پایان دوره دریافت خواهید کرد که می‌توانید آن را دانلود کرده و در رزومه خود به نمایش بگذارید. اگر در طول دوره با مشکلی فنی مواجه شدید، تیم پشتیبانی Udemy در دسترس است تا به شما کمک کند. اگر پیشنهادی، تردید یا نیاز به دوره جدیدی دارید، با خیال راحت مستقیماً به من پیام دهید یا از بخش پرسش و پاسخ استفاده کنید.

بیایید سفر خود را برای تسلط بر پایپ‌لاین‌های داده در ابر آغاز کنیم!


سرفصل ها و درس ها

مقدمه Introduction

  • مقدمه Introduction

  • ایجاد حساب کاربری Azure Create Azure Account

راه اندازی زیرساخت توسعه شما Setting Up Your Dev Infrastructure

  • تعریف قرارداد نامگذاری شما - اجزای نامگذاری توصیه شده Define your naming convention-Recommended Naming Components

  • ایجاد Azure SQL DB Create Azure SQL DB

  • ایجاد Azure Data Factory و Azure Data Lake G2 Create Azure Data Factory And Azure Data Lake G2

  • پیکربندی پایگاه داده منبع ما Configure Our Source Data Base

اصول اولیه Azure Data Factory Azure Data Factory Basics

  • مروری بر Azure Data Factory Overview Of Azure Data Factory

  • اجزای مختلف Azure Data Factory و نحوه کارکرد آن Different Components Of Azure Data Factory And Its Workings

  • نحوه ایجاد سرویس های لینک شده How To Create Linked Services

  • نحوه ایجاد مجموعه داده ها How To Create Data Sets

  • ایجاد خط لوله جدید و اجرای اولین پروژه ADF خود Create New Pipeline And Execute Your First ADF Project

معرفی Azure DevOps Introductions To Azure DevOps

  • Azure DevOps چیست What is Azure DevOps

  • نحوه ایجاد حساب کاربری Azure DevOps How To Create Azure DevOps Account

  • نحوه ایجاد سازمان های جدید در Azure DevOps How To Create New Organizations In Azure DevOps

  • نحوه ایجاد و پیکربندی پروژه های جدید در Azure DevOps How To Create And Configure New Projects In Azure DevOps

ادغام مداوم - Azure Data Factory - ادغام Azure DevOps Continues Integration - Azure Data Factory-Azure DevOps Integrations

  • ادغام Azure Data Factory با Azure DevOps Azure Data Factory Azure DevOps integrations

  • ایجاد یک کاربر جدید Create A New User

  • اعطای دسترسی به کاربر جدید Grant Access To New User

  • رفع خطا Fix Error

  • ایجاد درخواست Pull و ادغام تمام تغییرات در نسخه زنده Create Pull Request And Integrate All the changes to live

Azure Key Vault: ایمن سازی اتصالات ما Azure Key Vault: Secure Our Connections

  • ایجاد Azure Key Vault Create Azure Key Vault

  • ایجاد Secrets در Azure Key Vault و ذخیره جزئیات اتصالات Create Secrets In Azure Key Vault & Store Connections Details

  • پیکربندی Azure Data Factory برای استفاده از Azure Key Vault Configure Azure Data Factory To Use Azure Key Vault

راه اندازی زیرساخت UAT شما Setting Up Your UAT Infrastructure

  • ایجاد منابع UAT Create UAT Resources

  • پیکربندی Secrets های Azure Key Vault UAT Configure UAT Azure Key Vault Secrets

  • اضافه کردن نسخه های جدید در Secrets های Azure Key Vault Add New Versions In Azure Key Vault Secrets

  • پیکربندی Azure SQL DB - پایگاه داده های Northwind Configure Azure SQL DB -Northwind Data bases

راه اندازی زیرساخت Prod شما Setting Up Your Prod Infrastructure

  • ایجاد منابع Prod Create Prod Resources

  • پیکربندی Secrets های Azure Key Vault PROD Configure PROD Azure Key Vault Secrets

استقرار مداوم - استقرار Azure Data Factory - Azure DevOps Continues Deployment- Azure Data Factory-Azure DevOps Deployment

  • اعطای دسترسی Azure Data Factory (UAT و Prod) به Key Vault و ایجاد ARM templat Grant Azure Data Factory (UAT & Prod) To Access Key Vault And Create ARM templat

  • ایجاد خط لوله انتشار در Azure DevOps Create Release Pipeline In Azure DevOps

  • پیکربندی Artifacts های Azure DevOps Configure Azure DevOps Artifacts

  • ایجاد و پیکربندی Stage - UAT Create And Configure Stage -UAT

  • ایجاد و پیکربندی Stage - Prod Create And Configure Stage -Prod

  • ایجاد Release - و رفع خطای No hosted parallelism has been purchased or granted Create Release-And Fix No hosted parallelism has been purchased or granted Error

  • ایجاد Releases Create Releases

  • پیکربندی Prod Stage و ایجاد Release جدید Configure Prod Stage And Create New Release

  • اجرای خط لوله های Prod و اعتبارسنجی عملکرد آنها Execute Prod Pipelines And Validates its Workings

معرفی یک پروژه مهندسی داده Azure End To End Introduction To An End To End Azure Data Engineering Project

  • بررسی اجمالی پروژه Project Overview

راه اندازی محیط در Azure Setting Up the Environment in Azure

  • ایجاد منابع برای دریافت داده Creating Resources for Data Ingestion

  • راه اندازی منابع برای تبدیل داده Setting Up Resources for Data Transformation

دریافت داده با Azure Data Factory Data Ingestion with Azure Data Factory

  • ذخیره داده های خام در سیستم منبع Saving Raw Data into the Source System

  • ایجاد سرویس های لینک شده برای دسترسی به فضای ذخیره سازی Creating Linked Services for Storage Access

  • استفاده از خط لوله های ADF برای کپی کردن یک فایل واحد Using ADF Pipelines to Copy a Single File

  • مدیریت چندین فایل با مجموعه داده های پویا و حلقه ها Managing Multiple Files with Dynamic Datasets and Loops

  • ایمن سازی دسترسی ADLS با استفاده از Azure Key Vault Securing ADLS Access Using Azure Key Vault

تبدیل داده با Azure Databricks Data Transformation with Azure Databricks

  • معرفی Azure Databricks Introduction to Azure Databricks

  • ایجاد و راه اندازی Notebook ها Creating and Setting Up Notebooks

  • ملزومات پیکربندی کلاستر Cluster Configuration Essentials

  • دسترسی به ADLS در Databricks با یک Service Principal (بدون Key Vault) Accessing ADLS in Databricks with a Service Principal (No Key Vault)

  • دسترسی به ADLS با ادغام Key Vault Accessing ADLS with Key Vault Integration

  • اتصال چندین حساب ADLS با پیکربندی ها Connecting Multiple ADLS Accounts with Configurations

  • نمایش تبدیل داده - قسمت 1 Data Transformation Demo - Part 1

  • نمایش تبدیل داده - قسمت 2 Data Transformation Demo - Part 2

  • نمایش تبدیل داده - قسمت 3 Data Transformation Demo - Part 3

  • نمایش تبدیل داده - قسمت 4 Data Transformation Demo - Part 4

  • پاکسازی داده: پردازش جزئیات محصول Data Cleaning: Processing Product Details

  • پاکسازی داده: پردازش داده های مشتری Data Cleaning: Processing Customer Data

  • پردازش چندین فایل در یک Notebook واحد Processing Multiple Files in a Single Notebook

  • ایجاد جداول Fact و Dimension Creating Fact and Dimension Tables

هماهنگ سازی Databricks با Azure Data Factory Orchestrating Databricks with Azure Data Factory

  • پیکربندی ADF برای دسترسی به Notebook های Databricks Configuring ADF to Access Databricks Notebooks

  • اجرای Notebook های Databricks از طریق خط لوله های ADF Executing Databricks Notebooks through ADF Pipelines

بارگیری و اعتبارسنجی داده در Azure Synapse Data Loading and Validation in Azure Synapse

  • ایجاد یک Workspace Synapse برای ذخیره سازی داده Creating a Synapse Workspace for Data Storage

  • دسترسی به داده های تبدیل شده در Synapse Accessing Transformed Data in Synapse

  • ساخت و اعتبارسنجی خط لوله ها در Synapse Building and Validating Pipelines in Synapse

آماده سازی گواهینامه DP-203 برای مهندسان داده Azure DP-203 Certification Prep for Azure Data Engineers

  • سوالات و توضیحات تمرینی Azure Data Factory Azure Data Factory Practice Questions and Explanations

  • پرسش و پاسخ سطوح حساب Azure Storage Azure Storage Account Tiers Practice Q&A

  • پرسش و پاسخ در مورد ویژگی های Soft Delete و Point-in-Time Restore Q&A on Soft Delete and Point-in-Time Restore Features

سوالات مصاحبه واقعی Azure Data Factory Azure Data Factory Real Time Interview Questions

  • سوالات 1 Questions 1

  • راه حل ها برای سوالات 1 Solutions For Questions 1

  • سوالات 2 Questions 2

  • راه حل ها برای سوالات 2 Solutions For Question 2

نمایش نظرات

آموزش مهندسی داده در دنیای واقعی با ADF و یکپارچه‌سازی DevOps
جزییات دوره
6.5 hours
72
Udemy (یودمی) Udemy (یودمی)
(آخرین آپدیت)
201
4.3 از 5
دارد
دارد
دارد
جهت دریافت آخرین اخبار و آپدیت ها در کانال تلگرام عضو شوید.

Google Chrome Browser

Internet Download Manager

Pot Player

Winrar

Step2c Education Step2c Education

AWS Certified Solutions Architect این حساب توسط Step2c Education مدیریت می شود. ما اینجا هستیم تا به شما کمک کنیم Sarafudheen PM رئیس تیم مربی فعلی ما است. نام من شبینا k است: من اساساً اهل کرالا هستم. در حال حاضر من در Bangalore برای Step2c کار می کنم. من و تیم من بخشی از یک شرکت آموزشی آنلاین به نام Step2c هستیم که از سال 2011 آغاز شده است و ما متعهد به ارائه آموزشهای ویدیویی IT با کیفیت بالا به مالایالام و به زبان انگلیسی هستیم. ما یک تیم داریم که شامل توسعه دهنده وب ، توسعه دهنده پایگاه داده ، معماری پایگاه داده ، دانشمند داده ، کارشناس تجسم داده است. مهندسین نرم افزار ، توسعه دهندگان پایتون.