آموزش DP-600: راه حل های تجزیه و تحلیل را با استفاده از فابریک مایکروسافت پیاده سازی کنید

DP-600: Implement Analytics Solutions using Microsoft Fabric

نکته: آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
نمونه ویدیوها:
توضیحات دوره: مهارت های موجود PL-300 خود را بسازید، مهارت های پیشرفته DAX را بیاموزید و از دریاچه ها، انبارها، نوت بوک ها و خطوط لوله استفاده کنید راه حلی برای تجزیه و تحلیل داده ها برنامه ریزی، اجرا و مدیریت کنید. تهیه و ارائه داده ها پیاده سازی و مدیریت مدل های معنایی کاوش و تحلیل داده ها پیش نیازها: شما باید از قبل با تمام الزامات آزمون PL-300 مایکروسافت آشنا باشید. این شامل دانش خوبی از تجسم، Power Query (Get and Transform) و سرویس Power BI می‌شود. این شامل دانش بسیار خوبی از داده‌های مدل‌سازی، از جمله فرمول‌های DAX است. دانش کدنویسی در SQL با استفاده از دستور SELECT خوب است، اما لازم نیست.

این دوره محتوای اضافی مورد نیاز برای آزمون گواهینامه DP-600 را پوشش می‌دهد که بر اساس دانش موجود شما که برای آزمون PL-300 به دست آورده‌اید، می‌پردازد.

این در دو بخش ارائه می‌شود - دانش اضافی Power BI و Fabric.

در قسمت 1 این دوره، با Power BI شروع می کنیم. ما به این موارد نگاه خواهیم کرد:

  • در حال توسعه طراحی مدل‌های معنایی، از جمله گروه‌ها/موارد محاسبه و پارامترهای فیلد.

  • گسترش دانش DAX خود با متغیرهای DAX و توابع پنجره.

  • استفاده از برنامه‌های خارجی، مانند Tableau Editor 2 و DAX Studio،

  • پیاده‌سازی روابط چند به چند، اجرای رشته‌های پویا و استفاده از منوی Optimize.

  • چرخه عمر توسعه تجزیه و تحلیل، با تمرکز بر کنترل نسخه و راه حل های استقرار،

  • موضوعات دیگر Analytics، مانند ایجاد جداول تجمیع و استفاده از نقطه پایانی XMLA.

در قسمت 2 این دوره، ما به سایر برنامه های Fabric که می توانند توسط تجزیه و تحلیل داده ها در ارتباط با Fabric استفاده شوند، نگاه خواهیم کرد.

  • پس از نگاهی کوتاه به Fabric، با استفاده از خطوط لوله داده و جریان‌های داده، داده‌ها را دریافت می‌کنیم.

  • سپس یک Lakehouse ایجاد می‌کنیم و از نوت‌بوک‌ها برای بارگیری داده‌ها، دستکاری آن در SQL و PySpark و ذخیره داده‌های حاصل در PySpark استفاده می‌کنیم. سپس از دانش SQL خود در انبار داده استفاده خواهیم کرد.

  • در نهایت، ما اشیاء اضافی مانند میان‌برها و پارتیشن‌ها ایجاد می‌کنیم و عملکرد را بهینه می‌کنیم، تغییرات آهسته ابعاد را پیاده‌سازی می‌کنیم و ظرفیت Fabric خود را مدیریت می‌کنیم.

دانش قبلی از همه موضوعات در آزمون PL-300، به ویژه در مورد توابع DAX فرض شده است. این محتوا در "گواهینامه PL-300: Microsoft Power BI Data Analyst" موجود است که در Udemy موجود است.

دانش قبلی SQL Server مفید خواهد بود، اما ضروری نیست.

پس از اتمام دوره، دانش خوبی در مورد پیاده سازی راه حلی برای تجزیه و تحلیل داده ها، تهیه و ارائه داده ها، پیاده سازی و مدیریت مدل های معنایی، و کاوش و تجزیه و تحلیل داده ها خواهید داشت. و با کمی تمرین، حتی می توانید گواهینامه رسمی مایکروسافت DP-600 را دریافت کنید - آیا این در CV یا رزومه شما خوب به نظر نمی رسد؟

امیدوارم شما را در این دوره ببینم - چرا نگاهی به آنچه که می توانید بیاموزید نداشته باشید؟


سرفصل ها و درس ها

معرفی Introduction

  • معرفی Introduction

  • به Udemy خوش آمدید Welcome to Udemy

  • رابط Udemy The Udemy Interface

  • آیا می خواهید زیرنویس به زبان های بیشتری به صورت خودکار ترجمه شود؟ Do you want auto-translated subtitles in more languages?

  • قراره چی یاد بگیریم؟ What are we going to learn?

  • منابع Resources

قسمت 1 سطح 1: طراحی و ساخت مدل های معنایی Part 1 Level 1: Design and build semantic models

  • ایجاد مدل معنایی Creating semantic model

  • 29. 1 فرم عادی 29. 1st Normal form

  • 29. 2 و 3 فرم عادی 29. 2nd and 3rd Normal form

  • 27، 40. اجرای طرحواره ستاره ای برای مدل معنایی 27, 40. Implementing a star schema for a semantic model

  • تمرین فعالیت شماره 1 Practice Activity Number 1

  • طراحی و ساخت مدل های معنایی Design and build semantic models

قسمت 1 سطح 2: گروه ها/موارد محاسبه، پارامترهای فیلد، و موضوع سفارشی Part 1 Level 2: Calculation groups/items, field parameters, and custom theme

  • 43a. فعال کردن ویژگی پیش نمایش گروه های محاسباتی 43a. Enabling the calculation groups preview feature

  • 43a. ایجاد اولین گروه و آیتم محاسباتی ما 43a. Creating our first calculation group and item

  • 43a. افزودن آیتم های محاسباتی اضافی 43a. Adding additional calculation items

  • 43a, 43b. با استفاده از گروه محاسبه ما، از جمله رشته های پویا 43a, 43b. Using our calculation group, including dynamic strings

  • 43c. پیاده سازی پارامترهای فیلد 43c. Implement field parameters

  • 4. یک موضوع گزارش Power BI سفارشی ایجاد کنید 4. Create a custom Power BI report theme

  • تمرین فعالیت شماره 2 Practice Activity Number 2

  • گروه های محاسباتی Calculation groups

قسمت 1 سطح 3: توابع DAX Part 1 Level 3: DAX functions

  • 42 الف. استفاده از متغیرهای DAX 42a. Using DAX variables

  • 42 روز توابع پنجره DAX: ROWNUMBER 42d. DAX Windowing functions: ROWNUMBER

  • 42 روز توابع پنجره DAX: RANK 42d. DAX Windowing functions: RANK

  • 42 روز توابع پنجره DAX: INDEX 42d. DAX Windowing functions: INDEX

  • 42 روز توابع پنجره DAX: OFFSET 42d. DAX Windowing functions: OFFSET

  • 42 روز توابع پنجره DAX: WINDOW 42d. DAX Windowing functions: WINDOW

  • توابع DAX 2 DAX functions 2

قسمت 1 سطح 4: ویرایشگر تابلو 2 و DAX Studio Part 1 Level 4: Tableau Editor 2 and DAX Studio

  • 39. موارد استفاده را برای DAX Studio و Tabular Editor 2 (TE2) با نصب TE2 شناسایی کنید. 39. Identify use cases for DAX Studio and Tabular Editor 2 (TE2), installing TE2

  • 50. یک مدل معنایی را با استفاده از ویرایشگر جدول 2 (BPA) بهینه کنید. 50. Optimize a semantic model by using Tabular Editor 2 (BPA)

  • 46. ​​پیاده سازی امنیت در سطح شی (OLS) 46. Implement object-level security (OLS)

  • 49. بهبود عملکرد DAX با استفاده از DAX Studio 49. Improve DAX performance by using DAX Studio

  • 49. استفاده از آنالایزر VertiPaq 49. Using the VertiPaq Analyzer

  • ALM Toolkit ALM Toolkit

  • ترجمه ابرداده Translating metadata

  • Tableau Editor 2 و DAX Studio Tableau Editor 2 and DAX Studio

قسمت 1 سطح 5: روابط و بهبود عملکرد Part 1 Level 5: Relationships and performance improvements

  • 41. روابط چند به چند را حل کنید - حساب های بانکی مشترک 41. Resolve many-to-many relationships - Joint Bank Accounts

  • 43 ب. اجرای رشته های پویا 43b. Implement dynamic strings

  • 41. روابط چند به چند را حل کنید - ایجاد یک جدول پل 41. Resolve many-to-many relationships - creating a Bridge Table

  • 48. منوی Optimize 48. The Optimize menu

  • روابط و بهبود عملکرد Relationships and performance improvements

قسمت 1 سطح 6: چرخه عمر توسعه تجزیه و تحلیل را مدیریت کنید Part 1 Level 6: Manage the analytics development lifecycle

  • 10. ایجاد یک فضای کاری ممتاز برای هر کاربر (PPU) و مخازن Azure DevOps 10. Creating a Premium Per User (PPU) workspace and Azure DevOps repos

  • 10. اجرای کنترل نسخه برای یک فضای کاری 10. Implement version control for a workspace

  • 11. ایجاد و مدیریت یک پروژه Power BI Desktop (pbip.) 11. Create and manage a Power BI Desktop project (.pbip)

  • 12. برنامه ریزی و اجرای راه حل های استقرار 12. Plan and implement deployment solutions

  • 12. مدیریت راه حل های استقرار 12. Managing deployment solutions

  • چرخه عمر توسعه تجزیه و تحلیل را مدیریت کنید Manage the analytics development lifecycle

قسمت 1 سطح 7: سایر موضوعات Power BI Analytics Part 1 Level 7: Other Power BI Analytics topics

  • 44. طراحی و ساخت مدل های معنایی با فرمت بزرگ 44. Design and build a large format semantic models

  • 13. تجزیه و تحلیل تاثیر وابستگی های پایین دستی را انجام دهید 13. Perform impact analysis of downstream dependencies

  • 14. استقرار و مدیریت مدل های معنایی با استفاده از نقطه پایانی XMLA 14. Deploy and manage semantic models by using the XMLA endpoint

  • 15a. ایجاد و به‌روزرسانی فایل‌های قالب Power BI (pbit.). 15a. Creating and updating Power BI template (.pbit) files

  • 15b. ایجاد و به‌روزرسانی فایل‌های منبع داده Power BI (pbids.). 15b. Creating and updating Power BI data source (.pbids) files

  • 15c. ایجاد و به روز رسانی مدل های معنایی مشترک 15c. Creating and updating shared semantic models

  • 45. یک پایگاه داده Azure SQL ایجاد کنید و یک مدل ترکیبی طراحی و بسازید 45. Create an Azure SQL Database, and Design and build a composite model

  • 45. افزودن تجمعات 45. Adding aggregations

  • سایر موضوعات Power BI Analytics Other Power BI Analytics topics

بخش 1 - تست تمرینی برای مدل های معنایی پیشرفته Power BI Part 1 - Practice Test for advanced Power BI semantic models

  • تست تمرینی پیشرفته Power BI Advanced Power BI practice test

قسمت 2 بخش 1 - نگاهی به پارچه Part 2 Section 1 - A look around Fabric

  • 8. ایجاد ظرفیت Fabric و پیکربندی تنظیمات فضای کاری Fabric-enabled 8. Creating a Fabric capacity and configure Fabric-enabled workspace settings

  • 1، 9. الزامات یک راه حل Fabric را شناسایی کنید و ظرفیت Fabric را مدیریت کنید 1, 9. Identify requirements for a Fabric solution and manage Fabric capacity

  • تور سریع پارچه A quick tour of Fabric

  • نگاهی به اطراف پارچه A look around Fabric

قسمت 2 بخش 2 - استفاده از خطوط لوله داده و جریان داده Part 2 Section 2 - Using data pipelines and dataflows

  • 16b، 22b. با استفاده از جریان داده، داده ها را دریافت کنید 16b, 22b. Ingest data by using a dataflow

  • 16b، 22b. یک مقصد را به جریان داده اضافه کنید 16b, 22b. Add a destination to a dataflow

  • 25 a. ذخیره به عنوان یک الگو و زمان بندی یک جریان داده 25a. Saving as a template and scheduling a dataflow

  • 16a، 23. داده ها را با استفاده از خط لوله داده و افزودن سایر فعالیت ها دریافت کنید 16a, 23. Ingest data by using a data pipeline, and adding other activities

  • 22a. با استفاده از خط لوله داده ها را کپی کنید 22a. Copy data by using a data pipeline

  • 24. خطوط لوله داده را برنامه ریزی کنید و بر اجرای خط لوله داده نظارت کنید 24. Schedule data pipelines and monitor data pipeline runs

  • کاوش نمونه داده ها (از جمله دستیار داده کپی) + الگوهای خط لوله داده Exploring sample data (including copy data assistant) + data pipeline templates

  • استفاده از خطوط لوله داده و جریان داده Using data pipelines and dataflows

قسمت 2 بخش 3 - بارگیری و ذخیره داده ها با استفاده از نوت بوک Part 2 Section 3 - Loading and saving data using notebooks

  • 21. مصرف داده ها در یک خانه دریاچه با استفاده از آپلود محلی 21. Ingesting data into a lakehouse using a local upload

  • 21. روش مناسبی را برای کپی کردن در Lakehouse یا Warehouse انتخاب کنید 21. Choose an appropriate method for copying to a Lakehouse or Warehouse

  • 16c، 22c. بلع داده ها با استفاده از نوت بوک و کپی کردن در جدول 16c, 22c. Ingesting data using a notebook, and copying to a table

  • 16c، 22c. ذخیره داده ها در یک فایل یا جدول Lakehouse 16c, 22c. Saving data to a file or Lakehouse table

  • بارگیری داده ها از یک جدول در PySpark و SQL و دستکاری نتایج Loading data from a table in PySpark and SQL, and manipulating the results

  • بارگیری و ذخیره داده ها با استفاده از نوت بوک Loading and saving data using notebooks

بخش 2 بخش 4 - دستکاری قاب های داده - انتخاب ستون ها و ردیف ها Part 2 Section 4 - Manipulating dataframes - choosing columns and rows

  • کاهش تعداد ستون های نشان داده شده Reducing the number of columns shown

  • اولین عبارت SELECT خود را در SQL ایجاد کنید Create your first SELECT statement in SQL

  • 34. فیلتر کردن داده ها با: Where، limit و tail 34. Filtering data with: where, limit and tail

  • کاهش تعداد ستون ها و ردیف ها در SQL Reducing the number of columns and rows in SQL

  • 20. غنی سازی داده ها با افزودن ستون های جدید 20. Enriching data by adding new columns

  • 20. استفاده از توابع 20. Using Functions

  • 34. فیلتر پیشرفته تر 34. More advanced filtering

  • دستکاری فریم های داده - انتخاب ستون ها و ردیف ها Manipulating dataframes - choosing columns and rows

بخش 2 بخش 5 - تبدیل انواع داده ها، جمع آوری و مرتب سازی فریم های داده Part 2 Section 5 - converting data types, aggregating and sorting dataframes

  • 33. تبدیل انواع داده ها 33. Converting data types

  • 16c، 33. وارد کردن داده ها با استفاده از ساختار داده صریح 16c, 33. Importing data using an explicit data structure

  • 33. قالب بندی تاریخ ها به صورت رشته ای 33. Formatting dates as strings

  • 30، 34. جمع آوری و فیلتر مجدد داده ها 30, 34. Aggregating and re-filtering data

  • جمع آوری داده ها در SQL Aggregating data in SQL

  • مرتب سازی نتایج Sorting the results

  • تنظیم مجدد نتایج در SQL Rearranging the results in SQL

  • استفاده از تمام 6 بند SQL Using all 6 SQL Clauses

  • تبدیل انواع داده ها، جمع آوری و مرتب سازی فریم های داده Converting data types, aggregating and sorting dataframes

بخش 2 بخش 6 - تبدیل داده ها در یک خانه دریاچه Part 2 Section 6 - Transform data in a lakehouse

  • 31a. ادغام داده ها 31a. Merging data

  • 32 الف. شناسایی و حل و فصل داده های تکراری 32a. Identifying and resolving duplicate data

  • 31b. اتصال داده ها با استفاده از اتصال داخلی 31b. Joining data using an Inner join

  • 31b. پیوستن به داده ها با استفاده از اتصالات دیگر 31b. Joining data using other joins

  • 32b، 32c. شناسایی داده های از دست رفته یا مقادیر تهی 32b, 32c. Identifying missing data or null values

  • فعالیت تمرینی - اجرای جداول پل برای خانه دریاچه Practice Activity - Implementing bridge tables for a lakehouse

  • 28 a. راه حل فعالیت تمرین - پیاده سازی جداول پل برای یک خانه دریاچه 28a. Practice Activity Solution - Implementing bridge tables for a lakehouse

  • 25b. نوت بوک ها را برنامه ریزی کنید 25b. Schedule notebooks

  • تبدیل داده ها در یک خانه دریاچه Transform data in a lakehouse

بخش 2 بخش 7 - پروفایل کردن داده ها Part 2 Section 7 - Profiling data

  • 54. پروفایل کردن داده ها - ایجاد نمودار میله ای 54. Profiling data - Creating a bar chart

  • 54. پروفایل سازی داده ها - ایجاد نمودار دایره ای 54. Profiling data - Creating a pie chart

  • 54. پروفایل کردن داده ها - ایجاد نمودار خطی 54. Profiling data - Creating a line chart

  • پروفایل کردن داده ها Profiling data

قسمت 2 بخش 8 - تبدیل داده ها در انبار داده Part 2 Section 8 - Transform data in a data warehouse

  • 20، 33. ایجاد جداول در انبار داده 20, 33. Creating tables in a data warehouse

  • 56. درج داده ها در جداول و تبدیل داده ها 56. Inserting data into tables and transforming data

  • فعالیت تمرینی - پیاده سازی جداول پل برای یک انبار Practice Activity - Implementing bridge tables for a warehouse

  • 28b. راه حل فعالیت تمرین - پیاده سازی جدول پل برای انبار 28b. Practice Activity Solution - Implementing a bridge table for a warehouse

  • 56، 57. ایجاد یک کل در حال اجرا در SQL 56, 57. Creating a running total in SQL

  • 55، 56. با استفاده از ویرایشگر پرس و جوی بصری، از یک lakehouse/warehouse در Fabric پرس و جو کنید. 55, 56. Query a lakehouse/warehouse in Fabric by using the visual query editor

  • 27 ب. ابعاد نوع 1 و نوع 2 را به آرامی در حال تغییر - تئوری اجرا کنید 27b. Implement Type 1 and Type 2 slowly changing dimensions - Theory

  • 27 ب. تغییر ابعاد آهسته نوع 0 - مثال تمرین 27b. Implement Type 0 slowly changing dimensions - Practice Example

  • 27 ب. ابعاد 1 و نوع 2 را به آرامی در حال تغییر پیاده کنید - مثال عملی 27b. Implement Type 1 and Type 2 slowly changing dimensions - Practical Example

  • تبدیل داده ها در انبار داده Transform data in a data warehouse

قسمت 2 بخش 9 - ایجاد اشیاء Part 2 Section 9 - Create objects

  • 17. میانبرها را ایجاد و مدیریت کنید 17. Create and manage shortcuts

  • 18. اجرای پارتیشن بندی فایل برای بارهای کاری تجزیه و تحلیل با استفاده از خط لوله 18. Implement file partitioning for analytics workloads using a pipeline

  • 18. اجرای پارتیشن بندی فایل برای بارهای کاری تجزیه و تحلیل - داده ها در یک Lakehouse هستند 18. Implement file partitioning for analytics workloads - data is in a lakehouse

  • 19. نماها، توابع و رویه های ذخیره شده را ایجاد کنید 19. Create views, functions and stored procedures

  • 26. فرآیند پاکسازی داده ها را اجرا کنید 26. Implement a data cleansing process

  • 38. یک حالت ذخیره سازی برای یک مدل معنایی، از جمله دریاچه مستقیم انتخاب کنید 38. Choose a storage mode for a semantic model, including Direct Lake

  • اشیاء ایجاد کنید Create objects

بخش 2 بخش 10 - بهینه سازی عملکرد Part 2 Section 10 - Optimize performance

  • 35a. گلوگاه های عملکرد بارگذاری داده ها در جریان داده را شناسایی و حل کنید 35a. Identify and resolve data loading performance bottlenecks in dataflows

  • 36a. بهبود عملکرد را در جریان داده اعمال کنید 36a. Implement performance improvements in dataflows

  • 35b. گلوگاه های عملکرد بارگذاری داده ها را در نوت بوک ها شناسایی و حل کنید 35b. Identify and resolve data loading performance bottlenecks in notebooks

  • 36b. بهبود عملکرد را در نوت بوک ها اعمال کنید 36b. Implement performance improvements in notebooks

  • 35c. تنگناهای بارگذاری داده ها را در پرس و جوهای SQL شناسایی و حل کنید 35c. Identify and resolve data loading bottlenecks in SQL queries

  • 36c. پیاده سازی بهبود عملکرد در پرس و جوهای SQL 36c. Implement performance improvements in SQL queries

  • 37. مشکلات مربوط به اندازه فایل جدول دلتا را شناسایی و حل کنید 37. Identify and resolve issues with Delta table file sizes

  • بهینه سازی عملکرد Optimize performance

قسمت 2 بخش 11 - سایر موضوعات پارچه Part 2 Section 11 - Other Fabric topics

  • 2. تنظیمات را در پورتال مدیریت Fabric توصیه کنید 2. Recommend settings in the Fabric admin portal

  • 5، 6. فضای کاری و کنترل های دسترسی سطح مورد را برای اقلام Fabric پیاده سازی کنید 5, 6. Implement workspace and item-level access controls for Fabric items

  • 9. نصب اپلیکیشن مایکروسافت Fabric Capacity Metrics 9. Installing the Microsoft Fabric Capacity Metrics app

  • 9. استفاده از برنامه مایکروسافت Fabric Capacity Metrics - مدیریت ظرفیت پارچه 9. Using the Microsoft Fabric Capacity Metrics app - Manage Fabric capacity

  • سایر موضوعات پارچه Other Fabric topics

بابت اتمام دوره به شما تبریک می گویم Congratulations for completing the course

  • تست تمرین پارچه Fabric Practice Test

  • بعد چه می شود؟ What's Next?

  • بابت اتمام دوره به شما تبریک می گویم Congratulations for completing the course

نمایش نظرات

آموزش DP-600: راه حل های تجزیه و تحلیل را با استفاده از فابریک مایکروسافت پیاده سازی کنید
جزییات دوره
10 hours
113
Udemy (یودمی) Udemy (یودمی)
(آخرین آپدیت)
378
4.8 از 5
دارد
دارد
دارد
جهت دریافت آخرین اخبار و آپدیت ها در کانال تلگرام عضو شوید.

Google Chrome Browser

Internet Download Manager

Pot Player

Winrar

Phillip Burton Phillip Burton

Phillip یک مشاور محاسباتی است که خدمات تخصصی در توسعه سیستم های کامپیوتری و تجزیه و تحلیل داده ها ارائه می دهد. او یک متخصص فناوری گواهی مایکروسافت است. او همچنین به عنوان کارشناس راه حل های تایید شده مایکروسافت برای هوش تجاری، مایکروسافت آفیس 2010 استاد، و به عنوان متخصص پروژه مایکروسافت 2013 گواهینامه دریافت کرده است.

او از بررسی داده ها لذت می برد، که به من امکان می دهد سیستم های به روز و فعال را برای کمک به کنترل و نظارت بر فعالیت های روزانه حفظ کنم. به عنوان بخشی از موارد فوق، او همچنین یک پایگاه داده مکاتباتی را در Microsoft Access و SQL Server برای مشاهده مکاتبات مربوط به شغل (110000 پی دی اف در یک شغل) توسط چندین مشاور و وکیل ایجاد و نگهداری می کند.

او همچنین تخصص و برنامه‌هایی را برای فهرست‌نویسی و پردازش و کنترل داده‌های الکترونیکی، مقادیر زیادی کاغذ یا داده‌های الکترونیکی برای تجزیه و تحلیل ساختاریافته و بررسی ایجاد کرده است.

او یکی از 9 برنده جایزه Experts for Experts Exchange's Annual Expert Awards است و یکی از 10 کارشناس برتر Expert Exchange برای سه ماهه اول سال 2015 بود.

علائق او کار با داده‌ها، از جمله Microsoft Excel، Access و SQL Server است.