آموزش گواهی DP-203 مایکروسافت: Azure Data Engineer Associate

دانلود Microsoft DP-203 Certified: Azure Data Engineer Associate

نکته: آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
نمونه ویدیوها:
توضیحات دوره: آمادگی برای گواهینامه Azure Azure Engineer: DP-203 Data Engineering در آزمون Microsoft Azure این دوره برای دانشجویانی که مشتاق دریافت گواهینامه "Microsoft Certified: Azure Data Engineer Associate" Dp-203 هستند ایده آل است. این شامل محتوای جامع تراز شده برای قبولی در آزمون DP-203 است. دانش آموزان تجربه عملی در پیاده سازی و مدیریت بارهای کاری مهندسی داده با استفاده از Microsoft Azure کسب خواهند کرد. این دوره خدمات کلیدی Azure، از جمله Azure Synapse Analytics، ADF، Azure Data Lake Storage Gen2، Azure Stream Analytics و Azure Databricks را پوشش می دهد. مقالات گذشته و تمرین: دسترسی به 500 سوال امتحانی برای تقویت دانش و آماده شدن برای صدور گواهینامه. پیش نیازها: پیش نیازها: آشنایی با هر سیستم پایگاه داده و تسلط اولیه به SQL خوب است. دانش اساسی از فرمت های داده انتظار می رود. به عنوان مثال csv و غیره

این دوره برای دانش‌آموزانی ایده‌آل است که می‌خواهند به گواهینامه "Microsoft Certified: Azure Data Engineer Associate" دست یابند.

این شامل محتوای جامعی است که با آزمون DP-203 هماهنگ شده است.

اهداف دوره بر حوزه های زیر تمرکز دارد:

  • طراحی و پیاده سازی ذخیره سازی داده (15 تا 20%)

  • پردازش داده را توسعه دهید (40-45٪)

  • ایمن سازی، نظارت و بهینه سازی ذخیره سازی و پردازش داده ها (30 تا 35%)

این ساختار دوره، دوره را در یک پیشرفت منطقی سازماندهی می کند و در عین حال یک تفکیک واضح از موضوعات تحت پوشش ارائه می دهد. در اینجا طرح کلی ساختار یافته بخش های دوره آمده است:
1. مقدمه و راه اندازی

  • نمای کلی دوره و تنظیم اولیه.

2. طراحی و پیاده سازی ذخیره سازی داده

  • Azure Data Lake : درک و پیاده سازی ذخیره سازی داده ها با Azure Data Lake.

  • Azure SQL Server : طراحی راه حل های ذخیره سازی با استفاده از Azure SQL Server.

  • Cosmos DB: کاوش قابلیت‌های ذخیره‌سازی با Cosmos DB.

  • Azure Synapse Analytics : ایجاد و مدیریت فضای ذخیره سازی در Azure Synapse Analytics.

3. پردازش داده

را توسعه دهید
  • Azure Synapse Spark Pool : استفاده از استخرهای Spark در Azure Synapse برای پردازش داده.

  • Azure Data Factory: در حال توسعه خطوط لوله ETL و جریان داده در Azure Data Factory.

  • Azure Databricks : پیاده سازی گردش کار پردازش داده با Azure Databricks.

  • Azure Event Hubs: پخش جریانی و پردازش داده های بلادرنگ با استفاده از هاب رویداد Azure.

  • Azure Stream Analytics : پردازش جریان داده در زمان واقعی با پرس و جوهای مبتنی بر SQL.

4. داده های خود را ایمن کنید

  • Azure Data Lake Security : اجرای بهترین شیوه های امنیتی برای Azure Data Lake.

  • امنیت تجزیه و تحلیل Azure Synapse: ایمن سازی داده ها در Azure Synapse Analytics.

  • امنیت Azure Data Factory و Databricks : تضمین گردش کار امن داده در Azure Data Factory و Databricks.

4. نظارت و بهینه سازی

  • Azure Data Lake Storage: نظارت و بهینه سازی عملکرد ذخیره سازی.

  • Azure Data Factory: تضمین عملکرد کارآمد با ابزارهای نظارت.

  • Azure Synapse Analytics: تنظیم عملکرد و نظارت بر حجم کاری تجزیه و تحلیل.

  • Azure Stream Analytics و Cosmos DB : کارآمد کردن جریان های داده و عملیات پایگاه داده.

  • مدیریت داده با Microsoft Purview: مدیریت و اداره داده ها با استفاده از Microsoft Purview.

5. آمادگی امتحان

  • مقالات گذشته و تمرین: دسترسی به 500 سؤال امتحانی برای تقویت دانش و آماده شدن برای صدور گواهینامه.


سرفصل ها و درس ها

بخش 1 - مقدمه و راه اندازی Segment1-Introduction and Setup

  • 1.1.Overview-Cloud Computing 1.1.Overview-Cloud Computing

  • 1.2. مفاهیم-مقدمه ای بر رایانش ابری.mp4 1.2.Concepts-Introduction to Cloud Computing.mp4

  • 1.3.Overview-Microsoft Azure.mp4 1.3.Overview-Microsoft Azure.mp4

  • 1.4.Overview-چگونه به امتحان نزدیک می شویم.mp4 1.4.Overview-How we are going to approach the Exam.mp4

  • 1.5. HandsOn-Create Azure Account.mp4 1.5.HandsOn-Create Azure Account.mp4

  • 1.6. مروری بر پورتال HandsOn-Azure.mp4 1.6.HandsOn-Azure Portal Overview.mp4

  • 1.7. نمای کلی-مهم-نحوه تکمیل دوره 1.7.Overview-IMPORTANT-How to Complete the Course

  • فایل های دوره کامل Complete Course Files

Segment2-طراحی و پیاده سازی ذخیره سازی داده ها-DataLake Segment2-Design and implement data storage-DataLake

  • 2.0. Overview-مفاهیم پایه مهندسی داده 2.0.Overview-Data Engineering Basics Concepts

  • 2.1. مروری بر انواع حساب ذخیره سازی لاجوردی 2.1.Overview of Types of azure Storage Account

  • 2.2. HandsOn-Create Azure Storage Account 2.2.HandsOn-Create Azure Storage Account

  • 2.3. مروری بر حساب ذخیره سازی DataLake Gen2 2.3.Overview of DataLake Gen2 Storage Account

  • 2.4. HandsOn-Create DataLake Gen2 Storage Account 2.4.HandsOn-Create DataLake Gen2 Storage Account

  • 2.5. انواع فرمت های مختلف + آپلود HandsOn فایل ها در Azure Storage 2.5.Different Format Types + HandsOn Uploading Files to Azure Storage

  • بابت تکمیل یک بخش تبریک می گویم Congrats on Completing a Section

Segment3-طراحی و پیاده سازی ذخیره سازی داده ها-Azure SQL Server Segment3-Design and implement data storage-Azure SQL Server

  • 3.1.1. Overview-Azure SQL Database 3.1.1.Overview-Azure SQL Database

  • 3.1.2. بررسی اجمالی ردیف قیمت گذاری و انواع پیکربندی Azure SQL 3.1.2.Overview Azure SQL Pricing Tier and Configuration Types

  • 3.2. نمای کلی ایجاد SQL Server در Azure 3.2.Overview SQL Server Creation on Azure

  • 3.3. ایجاد سرور SQL HandsOn 3.3.HandsOn SQL Server Creation

  • 3.4.HandsOn-اتصال با SQL Server با استفاده از SSMS 3.4.HandsOn-connecting with SQL Server Using SSMS

  • 3.5 نصب Azure Data Studio 3.5.Installing Azure Data Studio

  • 3.6.1. HandsON - T-SQL Basics بیانیه را انتخاب کنید 3.6.1.HandsON - T-SQL Select Statement Basics

  • 3.6.2.HandsOn T-SQL Multiple Conditioning با استفاده از بند Where 3.6.2.HandsOn T-SQL Multiple Conditioning using Where Clause

  • 3.6.3. HandsOn T-SQL Order By Clause 3.6.3.HandsOn T-SQL Order By Clause

  • 3.6.4. HandsOn T-SQL Aggregate Functions 3.6.4.HandsOn T-SQL Aggregate Functions

  • 3.6.5. HandsOn T-SQL Group By Clause 3.6.5.HandsOn T-SQL Group By Clause

  • 3.6.6. HandsOn T-SQL Partition By Statement 3.6.6.HandsOn T-SQL Partition By Statement

  • 3.6.7. HandsOn T-SQL LEAD و بیانیه LAG 3.6.7.HandsOn T-SQL LEAD and LAG Statement

  • 3.6.8. بیان جدول مشترک HandsOn T-SQL با استفاده از عبارت WITH 3.6.8.HandsOn T-SQL Common Table Expression using WITH Clause

  • بیانیه 3.6.9. HandsOn T-SQL CASE 3.6.9.HandsOn T-SQL CASE Statement

  • بابت تکمیل یک بخش تبریک می گویم Congrats on Completing a Section

Segment4-طراحی و پیاده سازی ذخیره سازی داده ها-CosmosDB Segment4-Design and implement data storage-CosmosDB

  • 4.1.1. Overview-Cosmos DB 4.1.1.Overview-Cosmos DB

  • 4.1.2. Concepts-CosmosDB Use Cases 4.1.2.Concepts-CosmosDB use Cases

  • 4.1.3. Concepts-CosmosDB به عنوان یک راه حل 4.1.3.Concepts-CosmosDB as a Solution

  • 4.2.1. Overview-Cosmos DB Pricing 4.2.1.Overview-Cosmos DB Pricing

  • 4.2.2. Concepts-Cosmos DB Models Throughput 4.2.2.Concepts-Cosmos DB Throughput Models

  • 4.3.1. Overview-Cosmos DB APIs 4.3.1.Overview-Cosmos DB APIs

  • 4.3.2. Concepts-Data Modeling و API های آنها 4.3.2.Concepts-Data Modelling and their APIs

  • 4.3.3. Concepts-APIs Use-cases for Cosmos DB 4.3.3.Concepts-APIs Use-cases for Cosmos DB

  • 4.4.1. ایجاد حساب DB HnadsOn-Cosmos 4.4.1.HnadsOn-Cosmos DB Account Creation

  • 4.5.1. مفاهیم - پایگاه های داده، ظروف و موارد در Cosmos DB 4.5.1.Concepts-Databases, containers, and items in Cosmos DB

  • 4.5.2. HandsOn-Create Database در داخل حساب Cosmos DB 4.5.2.HandsOn-Create Database inside Cosmos DB account

  • 4.5.3.HandsOn-یک ظرف داخل Cosmos DB ایجاد کنید 4.5.3.HandsOn-Create a Container inside Cosmos DB

  • 4.5.4. HandsOn-Create Items در داخل Cosmos DB 4.5.4.HandsOn-Create Items inside Cosmos DB

  • 4.6.1. مفاهیم-پارتیشن های فیزیکی در کیهان DB 4.6.1.Concepts-Physical Partitions in Cosmos DB

  • 4.6.2. مفاهیم-پارتیشن های منطقی در Cosmos DB 4.6.2.Concepts-Logical Partitions in Cosmos DB

  • 4.7.1. مفاهیم-سطوح سازگاری در Cosmos DB 4.7.1.Concepts-Consistency Levels in Cosmos DB

  • 4.7.2. سازگاری HandsOn-Set برای Cosmos DB 4.7.2.HandsOn-Set Consistency for Cosmos DB

  • 4.8.1. HandsOn-Scaling DB Cosmos در سراسر جهان 4.8.1.HandsOn-Scaling a Cosmos DB across the Globe

  • بابت تکمیل یک بخش تبریک می گویم Congrats on Completing a Section

Segment5-طراحی و پیاده سازی ذخیره سازی داده ها-Azure Synapse Analytics Segment5-Design and implement data storage-Azure Synapse Analytics

  • 5.1. Overview-Azure Synapse Analytics مفاهیم اساسی 5.1.Overview-Azure Synapse Analytics basic Concepts

  • 5.2. Overview-Azure Synapse Components 5.2.Overview-Azure Synapse Components

  • 5.3. Overview-Azure Synapse Compute Power 5.3.Overview-Azure Synapse Compute Power

  • 5.5. پایگاه داده مفهومی SQL در مقابل انبار داده SQL 5.5.Concept-SQL Database vs SQL Data Warehouse

  • 5.6. Overview-Serverless SQL Pools 5.6.Overview-Serverless SQL Pools

  • 5.7. Overview-Synapse SQL Underlying Architecture 5.7.Overview-Synapse SQL Underlying Architecture

  • 5.9. HandsOn-Create Synapse Workspace 5.9.HandsOn-Create Synapse Workspace

  • 5.10.1.HandsOn-Query Csv از Data Lake 5.10.1.HandsOn-Query Csv from Data Lake

  • 5.10.2. تعیین نقش HandsOn-Setting در داخل دریاچه داده برای خواندن داده ها 5.10.2.HandsOn-Setting Role Assignment inside Data lake for Reading Data

  • 5.11. Overview-Dadicated SQL Pool 5.11.Overview-Dadicated SQL Pool

  • 5.12. HandsOn-Creating and Pausing Dedicated SQL Pool 5.12.HandsOn-Creating and Pausing Dedicated SQL Pool

  • 5.13.0.Overview-Data Load Methods 5.13.0.Overview-Data Loading Methods

  • 5.13.1. HandsOn-External Table Serverless SQL CSV format-part1 5.13.1.HandsOn-External Table Serverless SQL CSV format-part1

  • 5.13.2. HandsOn- فرمت csv SQL بدون سرور میز خارجی-part2 5.13.2.HandsOn- External Table Serverless SQL csv format-part2

  • 5.13.3. HandsOn- میز خارجی اختصاص داده شده با فرمت SQL csv-part3 5.13.3.HandsOn- External Table Dedicated SQL csv format-part3

  • 5.13.4. HandsOn-External پارکت میز بدون سرور و اختصاص داده شده 5.13.4.HandsOn-External table parquet serverless&dedicated

  • 5.13.5. HandOn-Copying Data با استفاده از Polybase 5.13.5.HandOn-Copying Data using Polybase

  • 5.13.6.HandsOn-Copying داده ها با استفاده از Copy into Statement 5.13.6.HandsOn-Copying Data using Copy into Statement

  • 5.13.7. HandsOn-Copying داده ها با تشخیص خودکار طرحواره با استفاده از کپی در بیانیه 5.13.7.HandsOn-Copying Data with Auto Schema Detection using Copy into Statement

  • 5.13.8.HandsOn-Copying Data با استفاده از Pipelines 5.13.8.HandsOn-Copying Data using Pipelines

  • 5.14. Concepts-Transverse Files and Folders for Hadoop and Native file system 5.14.Concepts-Transverse Files and Folders for Hadoop and Native file system

  • 5.15.1.Overview-OLAP و سیستم های OLTP 5.15.1.Overview-OLAP and OLTP systems

  • 5.15.2. جداول نمای کلی-حقایق و ابعاد 5.15.2.Overview-Fact and Dimension Tables

  • 5.15.3.Overview-طراحی طرحواره ستاره و دانه برف 5.15.3.Overview-Star and Snow Flake Schema Design

  • 5.15.4.0.HandsOn-Transfer داده ها از SQL به استخر اختصاصی Synapse SQL 5.15.4.0.HandsOn-Transfer Data from SQL to Synapse SQL dedicated pool

  • 5.15.4.1. HandsOn-Transfer داده ها از SQL به استخر اختصاصی Synapse SQL 5.15.4.1.HandsOn-Transfer Data from SQL to Synapse SQL dedicated pool

  • 5.16.1. مفاهیم - جدول یا روش های توزیع داده ها 5.16.1.Concepts-Table or Data Distribution Methods

  • 5.16.2.مفاهیم-انتخاب توزیع 5.16.2.Concepts-Distribution Selection

  • 5.16.3. مفاهیم-هش و توزیع تکراری 5.16.3.Concepts-Hash and Replicated Distribution

  • 5.16.4. توزیع جدول HandsOn-Creating در استخر SQL اختصاصی 5.16.4.HandsOn-Creating Table Distribution in Dedicated SQL Pool

  • 5.16.5. HandsON-Query Performance and Monitor Tab در داخل Synapse 5.16.5.HandsON-Query Performance and Monitor Tab inside Synapse

  • 5.16.6. مفاهیم-انواع ابعاد به آرامی در حال تغییر 5.16.6.Concepts-Slowly Changing Dimension Types

  • کلید 5.16.7.0. HandsOn-Business برای ایجاد جداول ابعاد 5.16.7.0.HandsOn-Business Key for Creation for Dimension tables

  • 5.16.7.1. HandsON-Business Key برای ایجاد جداول ابعاد 5.16.7.1.HandsON-Business Key for Creation for Dimension tables

  • 5.17.1.Overview-استفاده از Index در جداول 5.17.1.Overview-Use of Index on tables

  • 5.17.2. مفاهیم-پارتیشن و تعویض پارتیشن 5.17.2.Concepts-Partition and Partition Switching

  • 5.18.0.HandsOn-ایجاد یک نقطه بازیابی و بازیابی یک استخر اختصاصی SQL 5.18.0.HandsOn-Create a Restore Point and Restoring a Dedicated SQL pool

  • 5.19.0.Overview-Database Templates for Synapse Analytics 5.19.0.Overview-Database Templates for Synapse Analytics

  • بابت تکمیل یک بخش تبریک می گویم Congrats on Completing a Section

Segment6-Develop data processing-Azure Synapse Spark Pool Segment6-Develop data processing-Azure Synapse Spark Pool

  • 6.1.0. نمای کلی-تاریخچه پردازش داده های بزرگ 6.1.0.Overview-History of Big Data Processing

  • 6.1.1. بررسی اجمالی - مزایای آپاچی اسپارک 6.1.1.Overview-Benifits of Apache Spark

  • 6.1.2. Overview-Spark Underlying Architecture 6.1.2.Overview-Spark Underlying Architecture

  • 6.2.1. Concepts-Spark Pools در داخل Azure Synapse 6.2.1.Concepts-Spark Pools inside Azure Synapse

  • 6.2.2. HandsOn-Creating Spark Pool در Synapse 6.2.2.HandsOn-Creating Spark Pool in Synapse

  • 6.3.1. HandsOn-Creating Dataframe با استفاده از Pyhton 6.3.1.HandsOn-Creating Dataframe Using Pyhton

  • 6.3.2.HandsON-خواندن داده از دریاچه داده با استفاده از پایتون 6.3.2.HandsON-Read Data From Data Lake Using Python

  • 6.3.3. HandOn-Working with Loading تابع با استفاده از pyspark 6.3.3.HandOn-Working with Loading function using pyspark

  • 6.3.4.HandsOn-Writing داده به SQL اختصاصی با استفاده از Sparkpools 6.3.4.HandsOn-Writing Data to Dedicated SQL Using Sparkpools

  • بابت تکمیل یک بخش تبریک می گویم Congrats on Completing a Section

Segment7-Develop data processing-Azure Data Factory Segment7-Develop data processing-Azure Data Factory

  • 7.1.Overview-Azure Data Factory 7.1.Overview-Azure Data Factory

  • 7.2.Overview-ETL Extract Transform and Load 7.2.Overview-ETL Extract Transform and Load

  • 7.3. HandsOn-Create Azure Data Factory در Azure 7.3.HandsOn-Create Azure Data Factory on Azure

  • 7.4.0.HnadsOn-کپی فعالیت داده از DataLake به Blob Storage 7.4.0.HnadsOn-Copy data activity from DataLake to Blob Storage

  • 7.4.1. فعالیت داده HandsOn-Copy برای تبدیل پارکت به json 7.4.1.HandsOn-Copy Data Activity for parquet to json conversion

  • 7.4.2. HandsOn-Csv Pipeline به json را ایجاد کنید 7.4.2.HandsOn-Create Pipeline csv to json

  • 7.5.0.Overview-Pipelines و نقشه برداری جریان داده ها در ADF 7.5.0.Overview-Pipelines and Mapping Data Flows in ADF

  • 7.5.1. HandOn-Mapping Flow Data- SQL to Synapse SQL Fact Table 7.5.1.HandOn-Mapping Data Flow- SQL to Synapse SQL Fact Table

  • 7.5.2. HandOn-Mapping Flow Data- SQL to Synapse SQL Dimension Table 7.5.2.HandOn-Mapping Data Flow- SQL to Synapse SQL Dimension Table

  • 7.5.3. HandOn-Mapping Flow Data- SQL to Synapse SQL Store Procedure Activity 7.5.3.HandOn-Mapping Data Flow- SQL to Synapse SQL Store Procedure Activity

  • 7.5.4. HandOn-Mapping جریان داده - فعالیت ستون مشتق شده SQL به Synapse 7.5.4.HandOn-Mapping Data Flow- SQL to Synapse SQL Derived Column Activity

  • 7.5.5. HandOn-Mapping Flow Data- SQL to Synapse SQL Business Key Activity 7.5.5.HandOn-Mapping Data Flow- SQL to Synapse SQL Business Key Activity

  • 7.5.6.Overview-Mapping Flow Data-ویژگی دیباگ 7.5.6.Overview-Mapping Data Flow- Data Debug Feature

  • 7.5.7. Overview-Mapping Flow Data- Sink Types موجود 7.5.7.Overview-Mapping Data Flow- Sink Types Available

  • 7.5.8. HandOn-Mapping Flow Data Json Data (Array and Object) 7.5.8.HandOn-Mapping Data Flow Json Data(Array and Object)

  • 7.6.0. Concepts-Integration Runtimes 7.6.0.Concepts-Integration Runtimes

  • 7.6.1. HandOn-Installing Self hosted IR 7.6.1.HandOn-Installing Self hosted IR

  • 7.6.2. HandOn-Self Hosted IR کپی داده ها از رایانه شخصی به DataLake 7.6.2.HandOn-Self Hosted IR Copy Data from PC to DataLake

  • 7.7.0. Pipeline fail senerio 7.7.0.Pipeline fail senerio

  • 7.8.0. Overview-Trigger Types در ADF 7.8.0.Overview-Trigger Types in ADF

  • 7.9.0. نمایش کد اجزای ADF در داخل GIT 7.9.0.Code Representation of ADF components inside GIT

  • 7.9.1. GIT چیست چگونه ADF را کنترل کنیم 7.9.1.What is GIT How to version Control ADF

  • 7.9.2.HandsOn-پیکربندی GIT با ADF 7.9.2.HandsOn-Configuring GIT with ADF

  • 7.9.3.HandOn-چگونه تغییرات را در Business ادغام کنیم و درخواست کشش را در ADF ایجاد کنیم 7.9.3.HandOn-How to merge changes in Business and create Pull request in ADF

  • بابت تکمیل یک بخش تبریک می گویم Congrats on Completing a Section

Segment8-Develop data processing-Azure DataBricks Segment8-Develop data processing-Azure DataBricks

  • 8.1.0.Overview-مقدمه ای بر Databricks 8.1.0.Overview-Introduction to Databricks

  • 8.1.1. بررسی اجمالی-مزایای DataBricks 8.1.1.Overview-Benefits of DataBricks

  • 8.1.2.Concepts-Azure Databricks 8.1.2.Concepts-Azure Databricks

  • 8.2.0. HandsOn-Create Databricks Workspace 8.2.0.HandsOn-Create Databricks Workspace

  • 8.2.1. مفاهیم - محاسبه انواع خوشه در Azure Databrisk 8.2.1.Concepts-Compute Cluster Types inside Azure Databricsk

  • 8.2.2. HandsOn-Create Compute در داخل DataBricks Workspace 8.2.2.HandsOn-Create Compute inside DataBricks Workspace

  • 8.2.3. داده های HandsOn-Read در داخل DBFS 8.2.3.HandsOn-Read data inside DBFS

  • 8.2.4. داده های HandsOn-Read از حساب ADLS 8.2.4.HandsOn-Read Data from ADLS Account

  • 8.2.5. HandsOn-Visulizations در داخل Notebook در DataBricks 8.2.5.HandsOn-Visulizations inside Notebook in DataBricks

  • 8.3.0. HandsOn-Processing Json Data 8.3.0.HandsOn-Processing Json Data

  • 8.3.1. HandsOn-Saving to Databricks به عنوان جدول 8.3.1.HandsOn-Saving to Databricks as Table

  • جدول 8.3.2. HandsOn-Saving در داخل DataLake 8.3.2.HandsOn-Saving Table inside DataLake

  • 8.4.0. HandsOn-Reading جریان در داخل Databricks 8.4.0.HandsOn-Reading Stream inside Databricks

  • 8.4.1.HnadsOn-Copying Stream در داخل جدول Databricks 8.4.1.HnadsOn-Copying Stream inside Databricks Table

  • 8.5.0.HandsOn-Writing Data به Synapse SQL 8.5.0.HandsOn-Writing Data to Synapse SQL

  • 8.5.1.HandsOn-Reading داده از استخر اختصاصی SQL Synapse 8.5.1.HandsOn-Reading data From Synapse Dedicated SQL pool

  • 8.6.0.HandsOn-تاریخچه جداول دلتا 8.6.0.HandsOn-History of Delta Tables

  • 8.7.0. HandsOn-Scheduling Job 8.7.0.HandsOn-Scheduling a Job

  • 8.8.0.HandsON-ایجاد منبع فضای نام EventHub 8.8.0.HandsON-Creation of EventHub namespace resource

  • 8.8.1. HandsON-ایجاد EventHub 8.8.1.HandsON-Creation of EventHub

  • 8.8.2. HandsON-نصب کتابخانه های مورد نیاز 8.8.2.HandsON-Installing Required Libraries

  • 8.8.3. HandsON-Starting EventHub جریان در داخل DataBricks 8.8.3.HandsON-Starting EventHub stream inside DataBricks

  • 8.8.4. HandsON-Transforming Event Stream در داخل DataBricks 8.8.4.HandsON-Transforming Event Stream inside DataBricks

  • 8.9.0. HandsON-Setup to Run Databricks Notebook از ADF 8.9.0.HandsON-Setup to Run Databricks Notebook from ADF

  • 8.9.1. HandsON-اجرای دفترچه یادداشت Databricks از خط لوله ADF 8.9.1.HandsON-Running a Databricks notebook from ADF Pipeline

  • 8.10.HandsOn-حذف منابع استفاده نشده 8.10.HandsOn-Delete Unused Resources

  • بابت تکمیل یک بخش تبریک می گویم Congrats on Completing a Section

بخش 9 - توسعه پردازش داده - هاب رویداد Azure Segment9-Develop data processing-Azure Event Hubs

  • 9.1 پردازش داده های دسته ای در Azure 9.1.Processing Batch Data in Azure

  • 9.2. پردازش داده های جریان در Azure 9.2.Processing Stream Data in Azure

  • 9.2.1. Overview-Azure Event Hubs 9.2.1.Overview-Azure Event Hubs

  • 9.2.2. مفاهیم-پارتیشن ها در رویداد هاب 9.2.2.Concepts-Partitions in Event Hubs

  • 9.3.1. HandsOn-Create EventHub NameSpace 9.3.1.HandsOn-Create EventHub NameSpace

  • 9.3.2. HandsOn-Create EventHub در فضای نام EventHub 9.3.2.HandsOn-Create EventHub inside EventHub namespace

  • 9.3.3.HandsOn-Ingesting داده ها به EventHub 9.3.3.HandsOn-Ingesting Data to EventHub

  • 9.3.4. ویژگی HandsOn-Capture Data در Event Hub 9.3.4.HandsOn-Capture Data Feature in Event Hub

بخش 10 - توسعه پردازش داده - تحلیل جریان Segment10-Develop data processing-Stream Analytics

  • 10.1.1. Overview-Azure Stream Analytics 10.1.1.Overview-Azure Stream Analytics

  • 10.1.2. Overview-Stream Analytics Costing 10.1.2.Overview-Stream Analytics Costing

  • 10.1.3. HandsOn-Create Stream Analytics Workspace 10.1.3.HandsOn-Create Stream Analytics Workspace

  • 10.2.1. ورودی HandsOn-Define در استریم آنالیز 10.2.1.HandsOn-Define Input in Stream Analytics

  • 10.2.2.1. HandsOn-Create Synapse SQL جدول 10.2.2.1.HandsOn-Create Synapse SQL table

  • 10.2.2.2. HandsOn-ایجاد یک جدول در داخل Synapse SQL 10.2.2.2.HandsOn-Create a Table inside Synapse SQL

  • 10.2.2.3. HandsOn-محل مرحله بندی را در داخل استریم آنالیتیکس تنظیم کنید 10.2.2.3.HandsOn-Set the Staging location inside Stream Analytics

  • 10.2.2.4. HandsOn-تعریف خروجی به عنوان استخر SQL Synapse در استریم آنالیتیکس 10.2.2.4.HandsOn-Define an Output as Synapse SQL pool in Stream Analytics

  • 10.2.2.5. HandsOn-یک پرس و جو ایجاد کنید و کار جریانی را شروع کنید 10.2.2.5.HandsOn-Create a Query and Start Streaming Job

  • 10.2.3. HandsOn-Fetch داده ها از ADSL به سیناپس SQL با استفاده از Stream Analytics 10.2.3.HandsOn-Fetch Data from ADSL to synapse SQL using Stream Analytics

  • 10.2.4.1. ارسال گزارش های HandsOn-On-Sending به EventHub 10.2.4.1.HandsOn-Sending Logs to EventHub

  • 10.2.4.2.HandsOn-Input را در داخل Stream Analytics تعریف کنید 10.2.4.2.HandsOn-Define an Input inside Stream Analytics

  • 10.2.4.3.HandsOn-تعریف خروجی برای تحلیل جریان 10.2.4.3.HandsOn-Definie an output for Stream Analytics

  • 10.2.4.4.HandsOn-فرمول پرس و جو بر اساس ساختار داده شما 10.2.4.4.HandsOn-Formulate a Query based on your DataStructure

  • 10.2.5. خطاهای مانیتورینگ HandsOn برای تحلیل جریان 10.2.5.HandsOn-Monitoring Errors for Stream Analytics

  • 10.2.6.1. عملکردهای پنجره اجمالی ساخته شده در استریم آنالیتیکس 10.2.6.1.Overview-Builtin Window functions in Stream Analytics

  • 10.2.6.2. Overview-Tumbling and Hopping Window در Stream Analytics 10.2.6.2.Overview-Tumbling and Hopping Window in Stream Analytics

  • عملکردهای پنجره 10.2.6.3. Overview-Sliding، Session و Snapshot 10.2.6.3.Overview-Sliding,Session and Snapshot Window functions

  • 10.2.6.4. HandsOn-Setup for Tumbling Window در Stream Analytics 10.2.6.4.HandsOn-Setup for Tumbling Window in Stream Analytics

  • 10.2.7. HandsOn-Using Reference Data به عنوان ورودی در Stream Analytics 10.2.7.HandsOn-Using Reference Data as Input in Stream Analytics

  • بابت تکمیل بخش 9 و 10 تبریک می گویم Congrats on Completing Section 9 and 10

جنبه های امنیت دریاچه داده های Segment11-Secure-Azure Segment11-Secure-Azure Data Lake Security Aspects

  • 11.1.0.HandsOn-Installing Azure Data Explorer Client tool 11.1.0.HandsOn-Installing Azure Data Explorer Client tool

  • 11.1.1. بررسی اجمالی - جنبه های امنیتی Azure Data Lake Gen2 11.1.1.Overview-Security Aspects of Azure Data Lake Gen2

  • 11.1.2. اتصال حساب ذخیره سازی HandsOn-On-Connecting به Data Explorer با استفاده از کلید حساب 11.1.2.HandsOn-Connecting Storage Account to Data Explorer using Account KEY

  • 11.1.3. اتصال حساب ذخیره سازی HandsOn-On-Connecting از طریق رمز SAS 11.1.3.HandsOn-Connecting Storage Account Through SAS token

  • 11.2.0.Overview-Authentication and Authorization process 11.2.0.Overview-Authentication and Authorization Process

  • 11.2.1.Overview-Microsoft Entra ID 11.2.1.Overview-Microsoft Entra ID

  • 11.2.2.HandsON- کاربر Microsoft Entra ID را ایجاد کنید 11.2.2.HandsON-Create Microsoft Entra ID User

  • 11.3.1. Overview-RBAC Roles 11.3.1.Overview-RBAC Roles

  • 11.3.2.HandsOn-Assigning RBAC به کاربر 11.3.2.HandsOn-Assigning RBAC to a User

  • 11.3.3. HandsOn-Login با استفاده از New Entra ID USER و اختصاص نقش های RBAC 11.3.3.HandsOn-Login Using New Entra ID USER and Assigning RBAC roles

  • 11.4.1. انواع مجوزهای فهرست کنترل دسترسی (ACL). 11.4.1.Overview-Access Control List (ACLs) Permission Types

  • 11.4.2.ACLهای HandsOn-Implement در داخل حساب‌های ذخیره‌سازی 11.4.2.HandsOn-Implement ACLs inside Storage Accounts

  • 11.5.0. مفاهیم-ایمن سازی فضای ذخیره سازی با استفاده از نقطه پایانی سرویس 11.5.0.Concepts-Securing your Storage Using Service Endpoint

  • 11.5.1. HandsOn-ایجاد ماشین مجازی برای شبکه مجازی 11.5.1.HandsOn-Creating a Virtual Machine for Virtual Network

  • 11.5.2. HandsOn-Running a Virtual Machine for Service EndPoint 11.5.2.HandsOn-Running a Virtual Machine for Service EndPoint

  • 11.5.3. HandsOn-Setup برای دسترسی به فضای ذخیره سازی با استفاده از نقطه پایانی سرویس 11.5.3.HandsOn-Setup to Access Storage Using Service Endpoint

جنبه های امنیتی Segment12-Azure Synapse Analytics Segment12-Azure Synapse Analytics Security Aspects

  • 12.1.0.Overview-انواع رمزگذاری امنیتی سیناپس Azure 12.1.0.Overview-Azure Synapse Security Encryption Types

  • 12.1.1. Overview-رمزگذاری داده شفاف برای استخرهای اختصاصی SQL Synapse 12.1.1.Overview-Transparent Data Encryption for Synapse Dedicated SQL Pools

  • 12.1.2. HandsOn-Creating a Key Vault 12.1.2.HandsOn-Creating a Key Vault

  • 12.1.3.HandsOn-پیکربندی خزانه کلید و ایجاد کلید 12.1.3.HandsOn-Configuring a Key Vault and Creating a Key

  • 12.1.4. HandsOn-فعال کردن رمزگذاری دوگانه برای فضای کاری Synapse 12.1.4.HandsOn-Enabling a Double Encryption for Synapse Workspace

  • 12.2.1. Overview-Microsoft Entra ID for Synapse Analytics 12.2.1.Overview-Microsoft Entra ID for Synapse Analytics

  • 12.2.2.HandsOn-Setting کاربر Entra ID به عنوان کاربر مدیر برای Synapse Analytics 12.2.2.HandsOn-Setting Entra ID user as Admin User for Synapse Analytics

  • 12.2.3. HandsOn-Given Microsoft Entra ID کاربر مجوز اختصاصی Sql Pool 12.2.3.HandsOn-Given Microsoft Entra ID user permission dedicated Sql pool

  • 12.3.1. مروری بر هویت های مدیریت شده در Azure 12.3.1.Overview-Managed Identities on Azure

  • 12.3.2. HandsOn-Creating External Table with Managed Identities Synapse 12.3.2.HandsOn-Creating External Table using Managed Identities Synapse

  • 12.3.3. HandsOn-Data Discovery and Classification Synapse pool SQL 12.3.3.HandsOn-Data Discovery and Classification Synapse SQL pool

  • 12.4.1. HandsOn-Column Level Security Synapse SQL 12.4.1.HandsOn-Column Level Security Synapse SQL

  • 12.4.2. پوشش داده HandsOn-Dynamic در داخل Synapse SQL 12.4.2.HandsOn-Dynamic Data Masking inside Synapse SQL

  • 12.4.3. HandsOn-Row Level Security Synapse SQL 12.4.3.HandsOn-Row Level Security Synapse SQL

جنبه های امنیتی Segment13-DataFactory و Databricks Segment13-DataFactory and Databricks Security Aspects

  • 13.1.1. HandsOn-Encrypting Azure Data Factory 13.1.1.HandsOn-Encrypting Azure Data Factory

  • 13.2.1.Overview-رمزگذاری با استفاده از حوزه ترشح در DataBricks 13.2.1.Overview-Encryption using secrete scope in DataBricks

  • 13.2.2. ثبت نام HandsOn-App در داخل مایکروسافت EntraID و ایجاد یک راز 13.2.2.HandsOn-App Registration inside Microsoft EntraID and Generating a Secret

  • 13.2.3. HandsOn-مشخص را در داخل یک Key Vault ذخیره کنید 13.2.3.HandsOn-Save the secrete inside a Key Vault

  • 13.2.4. HandsOn-Accessing Vault با استفاده از سیاست های دسترسی برای آجرهای داده 13.2.4.HandsOn-Accessing Vault Using Access Policies for Databricks

  • 13.2.5. HandsOn-Creating Secret Scope در داخل Databricks 13.2.5.HandsOn-Creating Secrete Scope inside Databricks

  • 13.2.6. HandsOn-Implementing Scoped Credentials در Notebook Databricks 13.2.6.HandsOn-Implementing Scoped Credentials inside Databricks Notebook

  • 13.2.7. HandsOn-Running a Code 13.2.7.HandsOn-Running a Code

  • بابت تکمیل بخش های امنیتی تبریک می گویم Congrats on Completing Security Sections

Segment14-Monitor and Optimize-Data Lake Storage Segment14-Monitor and Optimize-Data Lake Storage

  • 14.1.1. مفاهیم - شیوه‌های ذخیره‌سازی دریاچه داده‌ها 14.1.1.Concepts-Data Lake Storage Practices

  • 14.1.2. Concepts-Data Lake Access Tiers 14.1.2.Concepts-Data Lake Access Tiers

  • 14.1.3. HandsOn-Selecting Default Tier for Blobs 14.1.3.HandsOn-Selecting Default Tier for Blobs

  • 14.1.4. HandsOn-Changing Tier در سطح فایل برای حباب ها 14.1.4.HandsOn-Changing Tier at file level for blobs

  • 14.1.5. قوانین مدیریت چرخه HandsOn-Life برای حباب ها 14.1.5.HandsOn-Life Cycle Management Rules for blobs

Segment15-Monitor and Optimize-Azure Data Factory Segment15-Monitor and Optimize-Azure Data Factory

  • 15.1.1. Overview-Azure Data Factory IR and Debugging 15.1.1.Overview-Azure Data Factory IR and Debugging

  • 15.1.2.HandsOn-Anotations در ADF 15.1.2.HandsOn-Anotations in ADF

  • 15.1.3. سرویس HandsOn-Monitor در Azure 15.1.3.HandsOn-Monitor Service in Azure

  • 15.1.4.HandsOn-Creating Alert برای Data Factory 15.1.4.HandsOn-Creating Alert for Data Factory

  • 15.1.5. گزارش‌های کارخانه داده HandsOn-Monitor از طریق فضای کاری Log Analytics 15.1.5.HandsOn-Monitor Data Factory Logs through Log Analytics Workspace

Segment16-Monitor and Optimize-Synapse Analytics Segment16-Monitor and Optimize-Synapse Analytics

  • 16.1.1. Overview-DMV Commands 16.1.1.Overview-DMV Commands

  • 16.1.2.0.Overview-Work Load Management در Synapse 16.1.2.0.Overview-Work Load Management in Synapse

  • 16.1.2.1 مدیریت HandsOn-WorkLoad در استخر اختصاصی SQL 16.1.2.1.HandsOn-WorkLoad Management in dedicated SQL pool

  • 16.1.3.0. Concepts-Result Set Caching در Synapse SQL 16.1.3.0.Concepts-Result Set Caching in Synapse SQL

  • 16.1.3.1. HandsOn-Turning On Result Set Caching 16.1.3.1.HandsOn-Turning On Result Set Caching

  • 16.1.4. بررسی چولگی داده ها 16.1.4.HandsOn-Checking Data Skewness

  • 16.1.5. HandsOn-مانیتورینگ فضای کاری Synapse 16.1.5.HandsOn-Monitoring of Synapse Workspace

  • 16.1.6. HandsOn-Connecting Synapse با Log Analytics 16.1.6.HandsOn-Connecting Synapse with Log Analytics

  • 16.1.7.HandsOn-Deleting Diagnostic Settings 16.1.7.HandsOn-Deleting Diagnostic Settings

Segment17-Monitor and Optimize-Stream Analytics، Cosmos DB Segment17-Monitor and Optimize-Stream Analytics, Cosmos DB

  • 17.1.1. Overview-Streaming Units and Monitoring for Stream Analytics 17.1.1.Overview-Streaming Units and Monitoring for Stream Analytics

  • 17.1.2. پارتیشن بندی اجمالی-رویداد و پردازش موازی در تحلیل جریان 17.1.2.Overview-Event Partitioning and Parallel Processing in Stream Analytics

  • 17.1.3. مدیریت زمان مفاهیم در تحلیل جریانی Azure 17.1.3.Concepts-time handling in Azure Stream Analytics

  • 17.1.4. HandsOn-Monitor Stream Analytics Job 17.1.4.HandsOn-Monitor Stream Analytics Job

  • 17.2.1. HandsOn-Monitor Cosmos DB از طریق ماتریس 17.2.1.HandsOn-Monitor Cosmos DB through Matrices

  • 17.2.2.HandsOn-Setup Log Analytics با Cosmos DB 17.2.2.HandsOn-Setup Log Analytics with Cosmos DB

Segment18-Monitor and Optimize-Data Governance با Microsoft Purview Segment18-Monitor and Optimize-Data Governance with Microsoft Purview

  • 18.1.1. Concepts-Microsoft Purview حاکمیت و مدیریت داده 18.1.1.Concepts-Microsoft Purview Data Governance and Management

  • 18.1.2.HandsOn-Creating Microsoft Purview Account 18.1.2.HandsOn-Creating Microsoft Purview Account

  • 18.1.3. HandsOn-Scan Data Lake Assets with Purview 18.1.3.HandsOn-Scan Data Lake Assets with Purview

  • 18.1.4. HandsOn-Scanning Synapse SQL Pool با استفاده از Purview 18.1.4.HandsOn-Scanning Synapse SQL pool using Purview

  • 18.1.5.HandsOn-Browsing در داخل مایکروسافت Purview 18.1.5.HandsOn-Browsing inside Microsoft Purview

  • 18.1.6.HandsOn-Connecting DataFactory با Purview 18.1.6.HandsOn-Connecting DataFactory with Purview

  • 18.1.7.HandsOn-Removing Assets 18.1.7.HandsOn-Removing Assets

  • بابت تکمیل بخش های مانیتور و بهینه سازی تبریک می گوییم Congrats on Completing Monitor and Optimize Sections

بخش 19 - مقالات تمرینی - 500 سوال Segment19-Practice Papers-500 Questions

  • بررسی اجمالی-امتحان در مایکروسافت برای Dp-203 Overview-Exam on Microsoft for Dp-203

  • تمرین تست 1 Practice Test 1

  • تمرین تست 2 Practice Test 2

نمایش نظرات

آموزش گواهی DP-203 مایکروسافت: Azure Data Engineer Associate
جزییات دوره
20 hours
253
Udemy (یودمی) Udemy (یودمی)
(آخرین آپدیت)
1,737
4.2 از 5
دارد
ندارد
ندارد
Nasir Arslan
جهت دریافت آخرین اخبار و آپدیت ها در کانال تلگرام عضو شوید.

Google Chrome Browser

Internet Download Manager

Pot Player

Winrar

Nasir Arslan Nasir Arslan

مهندس داده گواهی مایکروسافت