نکته:
ممکن هست محتوای این صفحه بروز نباشد ولی دانلود دوره آخرین آپدیت می باشد.
این دوره صرفا آزمون یا تمرین می باشد و ویدیو ندارد.
نمونه ویدیویی برای نمایش وجود ندارد.
توضیحات دوره:
آمادهسازی برای آزمون DP-700: بیش از 420 سوال تمرینی با پاسخ تشریحی برای کسب مدرک Microsoft Fabric Data Engineer
با این مجموعه جامع سوالات تمرینی، آمادگی خود را برای آزمون DP-700 افزایش دهید و مدرک مهندسی داده Microsoft Fabric را با موفقیت کسب کنید.
مهارتهای مورد سنجش در آزمون DP-700:
- وارد کردن و تبدیل دادهها
- امنیت و مدیریت راهکار تحلیلی
- نظارت و بهینهسازی راهکار تحلیلی
- پیادهسازی و مدیریت یک راهکار تحلیلی
پیشنیازها: تسلط به دستکاری و تبدیل دادهها با استفاده از SQL، PySpark و Kusto Query Language (KQL) ضروری است.
مهارتها در یک نگاه:
- پیادهسازی و مدیریت یک راهکار تحلیلی (30-35%)
- وارد کردن و تبدیل دادهها (30-35%)
- نظارت و بهینهسازی راهکار تحلیلی (30-35%)
پیادهسازی و مدیریت یک راهکار تحلیلی (30-35%)
پیکربندی تنظیمات فضای کاری Microsoft Fabric
- پیکربندی تنظیمات فضای کاری Spark
- پیکربندی تنظیمات فضای کاری دامنه
- پیکربندی تنظیمات فضای کاری OneLake
- پیکربندی تنظیمات فضای کاری گردش کار داده
پیادهسازی مدیریت چرخه حیات در Fabric
- پیکربندی کنترل نسخه
- پیادهسازی پروژههای پایگاه داده
- ایجاد و پیکربندی خطوط لوله استقرار
پیکربندی امنیت و حکمرانی
- پیادهسازی کنترلهای دسترسی در سطح فضای کاری
- پیادهسازی کنترلهای دسترسی در سطح آیتم
- پیادهسازی کنترلهای دسترسی در سطح سطر، ستون، شیء و پوشه/فایل
- پیادهسازی پنهانسازی پویای داده
- اعمال برچسبهای حساسیت به آیتمها
- تایید آیتمها
- پیادهسازی و استفاده از گزارشگیری فضای کاری
سازماندهی فرایندها
- انتخاب بین خط لوله و نوتبوک
- طراحی و پیادهسازی زمانبندیها و محرکهای مبتنی بر رویداد
- پیادهسازی الگوهای سازماندهی با نوتبوکها و خطوط لوله، از جمله پارامترها و عبارات پویا
وارد کردن و تبدیل دادهها (30-35%)
طراحی و پیادهسازی الگوهای بارگذاری
- طراحی و پیادهسازی بارگذاری کامل و افزایشی دادهها
- آمادهسازی دادهها برای بارگذاری در یک مدل ابعادی
- طراحی و پیادهسازی یک الگوی بارگذاری برای دادههای جریانی
وارد کردن و تبدیل دادههای دستهای
- انتخاب یک مخزن داده مناسب
- انتخاب بین جریان دادهها، نوتبوکها، KQL و T-SQL برای تبدیل داده
- ایجاد و مدیریت میانبرها به دادهها
- پیادهسازی آینهسازی
- وارد کردن دادهها با استفاده از خطوط لوله
- تبدیل دادهها با استفاده از PySpark، SQL و KQL
- غیرنرمالسازی دادهها
- گروهبندی و تجمیع دادهها
- مدیریت دادههای تکراری، گمشده و دیررسیده
وارد کردن و تبدیل دادههای جریانی
- انتخاب یک موتور جریانی مناسب
- انتخاب بین فضای ذخیرهسازی بومی، فضای ذخیرهسازی دنبال شده یا میانبرها در Real-Time Intelligence
- پردازش دادهها با استفاده از جریان رویدادها
- پردازش دادهها با استفاده از Spark structured streaming
- پردازش دادهها با استفاده از KQL
- ایجاد توابع پنجرهای
نظارت و بهینهسازی یک راهکار تحلیلی (30-35%)
نظارت بر آیتمهای Fabric
- نظارت بر ورود دادهها
- نظارت بر تبدیل دادهها
- نظارت بر بازخوانی مدل معنایی
- پیکربندی هشدارها
شناسایی و رفع خطاها
- شناسایی و رفع خطاهای خط لوله
- شناسایی و رفع خطاهای جریان داده
- شناسایی و رفع خطاهای نوتبوک
- شناسایی و رفع خطاهای Eventhouse
- شناسایی و رفع خطاهای Eventstream
- شناسایی و رفع خطاهای T-SQL
بهینهسازی عملکرد
- بهینهسازی جدول lakehouse
- بهینهسازی یک خط لوله
- بهینهسازی یک انبار داده
- بهینهسازی eventstream ها و eventhouse ها
- بهینهسازی عملکرد Spark
- بهینهسازی عملکرد پرس و جو
تمرین ها و آزمونها
آزمونهای تمرینی
Practice Tests
-
آزمون تمرینی 1
Practice Test 1
-
آزمون تمرینی 2
Practice Test 2
-
آزمون تمرینی 3
Practice Test 3
-
آزمون تمرینی 4
Practice Test 4
-
آزمون تمرینی 5
Practice Test 5
-
آزمون تمرینی 6
Practice Test 6
نمایش نظرات