آمادهسازی برای موفقیت: بیش از 410 نمونه سوال DP-700 (همراه با پاسخ تشریحی) برای کسب مدرک Fabric Data Engineer Associate
با استفاده از بیش از 410 نمونه سوال بهروز شده DP-700 و پاسخهای تشریحی، خود را برای کسب مدرک Fabric Data Engineer Associate آماده کنید. این مجموعه جامع، شما را برای موفقیت در آزمون و تسلط بر مفاهیم کلیدی این نقش، یاری میرساند.
با این مجموعه، شما خواهید آموخت:
- مدلسازی دادهها برای مقیاسپذیری و عملکرد بالا، شامل استراتژیهای پارتیشنبندی و طراحی شمای داده.
- نحوه پیکربندی توزیع جهانی، مدیریت سطوح سازگاری و طراحی برای دسترسی در مناطق مختلف.
- توسعه کوئریهای کارآمد با استفاده از SQL API و پیکربندی سیاستهای ایندکسگذاری برای بهبود عملکرد کوئری.
- پیادهسازی ویژگیهای امنیتی مانند کنترل دسترسی مبتنی بر نقش (RBAC)، رمزنگاری و نظارت بر عملکرد با استفاده از ابزارهایی مانند Azure Monitor و Diagnostic.
پیشنیازها:
دانشجویان باید درک اولیهای از Azure، JSON و مفاهیم برنامهنویسی داشته باشند و داشتن تجربه کار با پایگاههای داده توصیه میشود.
مهارتها در یک نگاه
- پیادهسازی و مدیریت یک راهکار تحلیلی (30-35%)
- دریافت و تبدیل دادهها (30-35%)
- نظارت و بهینهسازی یک راهکار تحلیلی (30-35%)
پیادهسازی و مدیریت یک راهکار تحلیلی (30-35%)
پیکربندی تنظیمات فضای کاری Microsoft Fabric
- پیکربندی تنظیمات فضای کاری Spark
- پیکربندی تنظیمات فضای کاری دامنه
- پیکربندی تنظیمات فضای کاری OneLake
- پیکربندی تنظیمات فضای کاری گردش کار داده
پیادهسازی مدیریت چرخه حیات در Fabric
- پیکربندی کنترل نسخه
- پیادهسازی پروژههای پایگاه داده
- ایجاد و پیکربندی خطوط لوله استقرار
پیکربندی امنیت و حکمرانی
- پیادهسازی کنترلهای دسترسی سطح فضای کاری
- پیادهسازی کنترلهای دسترسی سطح آیتم
- پیادهسازی کنترلهای دسترسی سطح سطر، ستون، شی و پوشه/فایل
- پیادهسازی ماسکگذاری دادههای پویا
- اعمال برچسبهای حساسیت به آیتمها
- تأیید آیتمها
- پیادهسازی و استفاده از ثبت وقایع فضای کاری
سازماندهی فرآیندها
- انتخاب بین یک خط لوله و یک نوتبوک
- طراحی و پیادهسازی زمانبندیها و تریگرهای مبتنی بر رویداد
- پیادهسازی الگوهای ارکستراسیون با نوتبوکها و خطوط لوله، شامل پارامترها و عبارات پویا
دریافت و تبدیل دادهها (30-35%)
طراحی و پیادهسازی الگوهای بارگذاری
- طراحی و پیادهسازی بارگذاری کامل و افزایشی دادهها
- آمادهسازی دادهها برای بارگذاری در یک مدل ابعادی
- طراحی و پیادهسازی یک الگوی بارگذاری برای دادههای جریانی
دریافت و تبدیل دادههای دستهای
- انتخاب یک مخزن داده مناسب
- انتخاب بین Dataflows، Notebooks، KQL و T-SQL برای تبدیل دادهها
- ایجاد و مدیریت میانبرها به دادهها
- پیادهسازی Mirroring
- دریافت دادهها با استفاده از خطوط لوله
- تبدیل دادهها با استفاده از PySpark، SQL و KQL
- غیرنرمالسازی دادهها
- گروهبندی و تجمیع دادهها
- مدیریت دادههای تکراری، از دست رفته و دیررسیده
دریافت و تبدیل دادههای جریانی
- انتخاب یک موتور جریانی مناسب
- انتخاب بین حافظه بومی، حافظه دنبالشده یا میانبرها در Real-Time Intelligence
- پردازش دادهها با استفاده از Eventstreams
- پردازش دادهها با استفاده از Spark Structured Streaming
- پردازش دادهها با استفاده از KQL
- ایجاد توابع پنجرهای
نظارت و بهینهسازی یک راهکار تحلیلی (30-35%)
نظارت بر آیتمهای Fabric
- نظارت بر دریافت داده
- نظارت بر تبدیل داده
- نظارت بر بهروزرسانی مدل معنایی
- پیکربندی هشدارها
شناسایی و رفع خطاها
- شناسایی و رفع خطاهای خط لوله
- شناسایی و رفع خطاهای Dataflow
- شناسایی و رفع خطاهای Notebook
- شناسایی و رفع خطاهای Eventhouse
- شناسایی و رفع خطاهای Eventstream
- شناسایی و رفع خطاهای T-SQL
بهینهسازی عملکرد
- بهینهسازی جدول Lakehouse
- بهینهسازی یک خط لوله
- بهینهسازی یک Data Warehouse
- بهینهسازی Eventstreams و Eventhouses
- بهینهسازی عملکرد Spark
- بهینهسازی عملکرد Query
Z Ahmadi
نمایش نظرات