آموزش کارشناسی ارشد مهندسی داده با استفاده از تجزیه و تحلیل داده های Azure

Master Data Engineering using Azure Data Analytics

نکته: آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
نمونه ویدیوها:
توضیحات دوره: یادگیری Azure Storage برای Data Lake، ADF برای ETL، BigQuery برای Data Warehouse، Databricks برای Big Data Pipeline، و غیره خدمات اهرم مهندسی داده تحت Azure Data Analytics مانند Azure Storage، Data Factory، Azure SQL، Synapse، Databricks و غیره. محیط با استفاده از کد ویژوال استودیو در Windows Building Data Lake با استفاده از Azure Storage (Blob و ADLS) ساخت انبار داده با استفاده از Azure Synapse پیاده سازی منطق ETL با استفاده از جریان داده ADF با ذخیره سازی Azure به عنوان منبع و پوشش عمقی هدف ارکستراسیون با استفاده از ADF Pipeure SQL. و ویژگی‌های بدون سرور و اختصاصی استخر Azure Synapse منطق ETL را با استفاده از جریان داده ADF با Azure SQL به عنوان منبع و Azure Synapse به عنوان هدف با استفاده از کپی داده برای کپی کردن داده‌ها بین منابع و اهداف مختلف پیاده‌سازی سناریوهای تنظیم عملکرد جریان داده ADF و ساخت خطوط لوله با استفاده از Big Data Azure Databricks بررسی اجمالی APIهای Spark SQL و Pyspark Data Frame ساخت خطوط لوله ELT با استفاده از Databricks Jobs and Workflows Orchestrate Databricks Notebooks with ADF Pipelines پیش نیازها: یک رایانه با حداقل 8 گیگابایت RAM تجربه برنامه نویسی با استفاده از Python بسیار مورد علاقه است زیرا برخی از موضوعات نشان داده شده است. استفاده از Python SQL Experience بسیار مورد علاقه است زیرا برخی از موضوعات با استفاده از SQL Nice نشان داده شده اند تا تجربه مهندسی داده با استفاده از پانداها یا Pyspark داشته باشند.

مهندسی داده همه چیز در مورد ایجاد خطوط لوله داده است تا داده ها را از منابع متعدد به دریاچه های داده یا انبارهای داده و سپس از دریاچه های داده یا انبارهای داده به سیستم های پایین دستی منتقل کند. به عنوان بخشی از این دوره، من شما را با نحوه ساخت خطوط لوله مهندسی داده با استفاده از Azure Data Analytics Stack آشنا خواهم کرد. این شامل خدماتی مانند Azure Storage (هر دو Blob و ADLS)، ADF Data Flow، ADF Pipeline، Azure SQL، Azure Synapse، Azure Databricks و بسیاری دیگر است.

  • به عنوان بخشی از این دوره، ابتدا محیطی را برای یادگیری استفاده از VS Code در ویندوز و مک تنظیم خواهید کرد.

  • هنگامی که محیط آماده شد، باید برای Azure Portal ثبت نام کنید. ما همه دستورالعمل‌ها را برای ثبت‌نام در حساب پورتال Azure ارائه می‌کنیم، از جمله بررسی صورت‌حساب و همچنین دریافت اعتبار ۲۰۰ دلاری که حداکثر تا یک ماه اعتبار دارد.

  • ما معمولاً از Azure Storage به عنوان Data Lake استفاده می کنیم. به عنوان بخشی از این دوره، نحوه استفاده از Azure Storage به عنوان Data Lake و نحوه مدیریت فایل ها در Azure Storage با استفاده از ابزارهایی مانند Azure Storage Explorer را خواهید آموخت.

  • ADF هم برای ETL و هم برای ارکستراسیون استفاده می شود. ابتدا، نحوه اجرای ETL را با استفاده از ADF Data Flow خواهید فهمید. منبع و هدف فایل‌های موجود در حساب ذخیره‌سازی Azure خواهد بود. به عنوان بخشی از این فرآیند، همچنین نحوه راه‌اندازی سرویس‌های پیوندی و مجموعه داده‌ها را در ADF خواهید آموخت.

  • هنگامی که ADF Data Flow آماده شد، با استفاده از ADF Pipeline، Pipeline for Orchestration را می سازید. همچنین نحوه پارامترسازی و همچنین نحوه مراقبت از بار پایه را خواهید آموخت.

  • همچنین تکنیک‌های تنظیم عملکرد کلیدی را با استفاده از خط لوله ADF مانند کنترل تعداد پارتیشن‌ها، زمان‌های اجرا یکپارچه سفارشی (IR) و غیره درک خواهید کرد.

  • Azure RDBMS را به‌عنوان سرویس‌های مختلف برای Postgres، SQL Server و غیره ارائه می‌کند. شما یاد خواهید گرفت که چگونه Azure SQL را راه‌اندازی کنید، پس از راه‌اندازی Azure SQL، همچنین نحوه ایجاد جداول مورد نیاز و اجرای پرس‌وجوها را در برابر آنها خواهید آموخت.

  • ADF کپی داده ADF را برای کپی کردن داده ها از منابع مختلف و اهداف مختلف فراهم می کند. پس از آماده شدن جداول پایگاه داده، از ADF Data Copy برای کپی کردن داده ها در جداول استفاده خواهید کرد.

  • Azure تجزیه و تحلیل Synapse را برای Data Warehouse ارائه می دهد. شما یک نمای کلی از هر دو استخر بدون سرور و همچنین اختصاصی دریافت خواهید کرد. در نهایت با استفاده از ADF، استخر اختصاصی را برای ETL راه اندازی خواهید کرد.

  • هنگامی که Azure SQL و Azure Synapse آماده شدند، ETL Pipeline را با استفاده از ADF Data Flow و Orchestrate با استفاده از ADF Pipeline می‌سازید.

  • Azure Databricks سرویسی برای پردازش داده های بزرگ با استفاده از Spark Engine است. نحوه راه اندازی Azure Databricks، ادغام با ADLS و همچنین مدیریت اسرار را خواهید آموخت.

  • همچنین یک نمای کلی از Spark SQL و Pyspark Data Frame API با استفاده از Azure Databricks دریافت خواهید کرد.

  • شما همچنین خط لوله ELT را با استفاده از Databricks Jobs و Workflow می‌سازید که در آن وظایف بر اساس Pyspark و همچنین Spark SQL تعریف می‌شوند.

  • همچنین خواهید فهمید که چگونه خطوط لوله ADF را برای هماهنگ کردن نوت بوک های Databricks بسازید.


سرفصل ها و درس ها

Udemy Introduction for Data Engineering با استفاده از Azure Udemy Introduction for Data Engineering using Azure

  • مقدمه ای بر مهندسی داده با استفاده از تجزیه و تحلیل داده های Azure Introduction to Data Engineering using Azure Data Analytics

  • مروری بر هزینه های اضافی مرتبط با Azure Overview of Additional Costs associated with Azure

  • مروری بر رابط Udemy برای دانشجویان جدید Overview of Udemy Interface for new students

راه اندازی محیط برای مهندسی داده با استفاده از Azure Setup Environment for Data Engineering using Azure

  • راه اندازی VS Code در ویندوز Setup VS Code on Windows

  • راه اندازی پایتون 3.9 در ویندوز Setup Python 3.9 on Windows

  • پیکربندی PATH متغیر محیطی برای پایتون در ویندوز Configure Environment Variable PATH for Python on Windows

  • VSCode را با پایتون در ویندوز ادغام کنید Integrate VSCode with Python on Windows

شروع با Azure برای مهندسی داده Getting Started with Azure for Data Engineering

  • برای Azure Portal ثبت نام کنید Sign up for Azure Portal

  • برای اشتراک Azure ثبت نام کنید Sign up for Azure Subscription

  • نمای کلی Azure CLI و Azure Cloud Shell Overview of Azure CLI and Azure Cloud Shell

  • Azure CLI را در ویندوز یا مک یا لینوکس راه اندازی کنید Setup Azure CLI on Windows or Mac or Linux

  • Azure CLI را در برابر حساب پورتال Azure پیکربندی کنید Configure Azure CLI against Azure Portal Account

  • مروری بر مدیریت هزینه و صورتحساب در پورتال Azure Overview of Cost Management and Billing in Azure Portal

  • بررسی منابع مورد استفاده توسط Azure Cloud Shell Review Resources used by Azure Cloud Shell

شروع کار با گروه های منابع Azure Getting Started with Azure Resource Groups

  • با استفاده از پورتال Azure Resource Group ایجاد کنید Create Azure Resource Group using Azure Portal

  • حساب ذخیره سازی را به عنوان منبع به Azure Resource Group اضافه کنید Add Storage Account as Resource to Azure Resource Group

  • بررسی اجمالی گروه ها و منابع Azure Resource Overview of Azure Resource Groups and Resources

مجموعه داده ها را برای مهندسی داده تنظیم کنید Setup Data Sets for Data Engineering

  • مجموعه داده ها برای مهندسی داده را از مخزن گیت دانلود کنید Download Data Sets for Data Engineering from Git Repository

  • ایجاد کانتینر با در حساب ذخیره سازی Azure Create Container with in Azure Storage Account

  • بررسی ویژگی آپلود حساب ذخیره سازی Azure با استفاده از پورتال Azure Review Upload Feature of Azure Storage Account using Azure Portal

  • Azure Storage Explorer را در ویندوز یا مک راه اندازی کنید Setup Azure Storage Explorer on Windows or Mac

  • با استفاده از Storage Explorer، پوشه محلی را در ظرف ذخیره سازی Azure آپلود کنید Upload Local Folder into Azure Storage Container using Storage Explorer

  • اعتبارسنجی مجموعه داده ها با استفاده از پورتال Azure Validate Data Sets using Azure Portal

  • یک حساب ذخیره سازی ADLS در Azure ایجاد کنید Create ADLS Storage Account in Azure

  • Azure Blob Storage را به ADLS Gen 2 ارتقا دهید Upgrade Azure Blob Storage to ADLS Gen 2

شروع به کار با Azure Data Factory Getting Started with Azure Data Factory

  • مقدمه ای بر شروع به کار با Azure Data Factory Introduction to Getting Started with Azure Data Factory

  • Azure Data Factory را راه اندازی کنید و ADF Studio را راه اندازی کنید Setup Azure Data Factory and Launch ADF Studio

  • مروری بر استودیوی Azure Data Factory Overview of Azure Data Factory Studio

  • سرویس مرتبط ADF به حساب ذخیره سازی ایجاد کنید Create ADF Linked Service to Storage Account

  • مجموعه داده ADF را با استفاده از ADF Studio ایجاد کنید Create ADF Dataset using ADF Studio

  • ویژگی های ADF Dataset CSV را مرور کنید Review ADF Dataset CSV Properties

  • با استفاده از پارکت، مجموعه داده Azure را برای سینک ایجاد کنید Create Azure Dataset for Sink using Parquet

  • طرح واره مجموعه داده را درک کنید Understand the Schema of Data Set

  • منبع جریان داده را با استفاده از Azure Dataset ایجاد کنید Create Data Flow Source using Azure Dataset

  • Cache Sink را برای جریان داده ADF تعریف کنید Define Cache Sink to ADF Data Flow

  • خط لوله ADF را برای مبدل فرمت فایل ایجاد کنید Create ADF Pipeline for File Format Converter

  • خطوط لوله داده ADF را اجرا و بررسی کنید Run and Review ADF Data Pipelines

  • جریان داده ADF را با مجموعه داده ADLS به عنوان سینک به روز کنید Update ADF Data Flow with ADLS Dataset as Sink

  • نتیجه گیری برای شروع به کار با Azure Data Factory Conclusion to Getting Started with Azure Data Factory

  • تمرین - جریان داده ADF ساده و خط لوله برای اقلام سفارش Exercise - Simple ADF Data Flow and Pipeline for Order Items

جریان داده ADF برای منطق ETL برای محاسبه درآمد روزانه محصول ADF Data Flow for ETL Logic to Compute Daily Product Revenue

  • مقدمه ای بر جریان داده ADF برای منطق ETL برای محاسبه درآمد روزانه محصول Introduction to ADF Data Flow for ETL Logic to Compute Daily Product Revenue

  • برای محاسبه درآمد روزانه محصول، جریان داده ایجاد کنید Create Data Flow to Compute Daily Product Revenue

  • تبدیل فیلتر در جریان داده ADF Filter Transformation in ADF Data Flow

  • خط لوله ADF را برای اعتبارسنجی جریان داده ایجاد کنید Create ADF Pipeline to Validate Data Flow

  • برای اجرای خطوط لوله ADF یکپارچه سازی ADF را ایجاد کنید Create ADF Integration Runtime to run ADF Pipelines

  • اعتبار سنجی زمان اجرا یکپارچه سازی ADF سفارشی با استفاده از خط لوله ADF Validate Custom ADF Integration Runtime using ADF Pipeline

  • تبدیل فیلتر جریان داده ADF با استفاده از in ADF Data Flow Filter Transformation using in

  • جریان داده ADF به تغییر شکل بین 2 مجموعه داده بپیوندید ADF Data Flow Join Trasformation between 2 Data Sets

  • با استفاده از خط لوله ADF، تبدیل اتصال جریان داده ADF را تأیید کنید Validate ADF Data Flow Join Transformation using ADF Pipeline

  • تبدیل مجموع جریان داده ADF برای محاسبه درآمد روزانه محصول ADF Data Flow Aggregate Transformation to Compute Daily Product Revenue

  • ADF Data Flow Sink برای ذخیره نتایج در Azure Storage با استفاده از پارکت ADF Data Flow Sink to Save Results to Azure Storage using Parquet

  • خط لوله ADF را با جریان داده ETL اجرا و بررسی کنید Run and Review ADF Pipeline with ETL Data Flow

  • به کد JSON جریان داده و خط لوله ADF دسترسی پیدا کنید Access JSON Code of ADF Data Flow and Pipeline

ADF Pipelines را به صورت پویا با استفاده از پارامترها اجرا کنید Run ADF Pipelines Dynamically using Parameters

  • مقدمه ای بر اجرای پویا خطوط لوله ADF با استفاده از پارامترها Introduction to Running ADF Pipelines Dynamically using Parameters

  • مجموعه داده ADF را با استفاده از Parameter for Dynamic Path ایجاد کنید Create ADF Data Set using Parameter for Dynamic Path

  • تعریف پارامتر و استفاده در تبدیل فیلتر جریان داده ADF Define Parameter and Use in Filter Transformation of ADF Data Flow

  • خط لوله ADF را با پارامتر ایجاد کنید Create ADF Pipeline with Parameter

  • خط لوله ADF را با پارامترها اجرا کنید Run ADF Pipeline with Parameters

بارهای پایه ETL را با استفاده از خط لوله ADF اجرا کنید Run Baseline ETL Loads using ADF Pipeline

  • مروری بر فعالیت های خط لوله متداول ADF Overview of Common ADF Pipeline Activities

  • نمای کلی ADF Pipeline ForEach Overview of ADF Pipeline ForEach

  • خط لوله ADF را برای بار پایه با استفاده از ForEach و Execute Pipeline ایجاد کنید Create ADF Pipeline for Baseline load using ForEach and Execute Pipeline

  • خط لوله ADF را برای بارگذاری پایه اجرا کنید Run ADF Pipeline for Baseline Load

تنظیم عملکرد جریان های داده و خطوط لوله ADF Performance Tuning of ADF Data Flows and Pipelines

  • مقدمه ای بر تنظیم پیش از عملکرد جریان داده ها و خطوط لوله ADF Introduction to Prerformance Tuning of ADF Data Flows and Pipelines

  • یکپارچه سازی Runtime را با اندازه محاسبه مناسب ایجاد کنید Create Integration Runtime with right Compute Size

  • عیب یابی گلوگاه عملکرد خط لوله پایه ADF Troubleshoot Performance Bottleneck of Baseline ADF Pipeline

  • با استفاده از زمان اجرا یکپارچه سازی سفارشی، زمان راه اندازی کلاستر را کاهش دهید Reduce Cluster Startup Time using Custom Integration Runtime

  • استفاده از Parallel در ADF Pipeline ForEach Activity Using Paralllel in ADF Pipeline ForEach Activity

  • عیب یابی مشکل درهم ریختن و تعداد زیاد فایل های کوچک Troubleshoot Shuffling and Too Many Small Files Issue

  • کاهش پارتیشن های مختلط در تبدیل جمعی جریان داده ADF Reduce Shuffle Partitions in ADF Data Flow Aggregate Transformation

  • نتیجه گیری تنظیم عملکرد خطوط لوله ADF و جریان داده ها Conclusion of Performance Tuning of ADF Pipelines and Data Flows

شروع کار با پایگاه داده Azure SQL Getting Started with Azure SQL Database

  • راه اندازی سرور پایگاه داده Azure SQL Setup Azure SQL Database Server

  • راه اندازی پایگاه داده در سرور پایگاه داده Azure SQL Setup Database in Azure SQL Database Server

  • مروری بر پایگاه های داده SQL Server در Azure Overview of SQL Server Databases in Azure

  • Azure Data Studio را در ویندوز یا مک یا لینوکس راه اندازی کنید Setup Azure Data Studio on Windows or Mac or Linux

  • با استفاده از Azure Data Studio به پایگاه داده Azure SQL متصل شوید Connect to Azure SQL Database using Azure Data Studio

کپی داده های ADF برای کپی داده ها از فایل ها به جداول SQL Server ADF Data Copy to Copy Data From Files to SQL Server Tables

  • ایجاد جدول در پایگاه داده Azure SQL Create table in Azure SQL Database

  • ایجاد سرویس پیوندی و مجموعه داده برای جدول پایگاه داده Azure SQL Create Linked Service and Dataset for Azure SQL Database Table

  • ADF Dataset را در یک پوشه کپی کنید Copy ADF Dataset into a folder

  • ایجاد خط لوله ADF با Data Copy برای کپی کردن داده های CSV در جدول SQL Create ADF Pipeline with Data Copy to Copy CSV Data to SQL Table

  • تعریف Mapping در ADF Data Copy Define Mapping in ADF Data Copy

  • ادغام از CSV به جدول SQL با استفاده از ADF Pipeline Data Copy Merge from CSV to SQL Table using ADF Pipeline Data Copy

  • برای کپی کردن داده ها در جدول SQL با استفاده از ADF Data Copy تمرین کنید Exercise to Copy Data to SQL Table using ADF Data Copy

شروع به کار با Azure Synapse Analytics Getting Started with Azure Synapse Analytics

  • فضای کاری Azure Synapse Analytics ایجاد کنید Create Azure Synapse Analytics Workspace

  • شروع کار با Azure Synapse Studio Getting Started with Azure Synapse Studio

  • نمای کلی Azure Synapse Serverless SQL Pool Overview of Azure Synapse Serverless SQL Pool

  • حساب Azure Storage را با Azure Synapse Workspace پیوند دهید Link Azure Storage Account with Azure Synapse Workspace

  • Azure Synapse Query را با استفاده از فایل های ADLS ایجاد کنید Generate Azure Synapse Query using ADLS Files

  • با استفاده از فضای کاری بدون سرور Azure Synapse، کوئری ها را در برابر فایل های ADLS اجرا کنید Run Queries against ADLS files using Azure Synapse Serverless Workspace

  • یکپارچه سازی فضای کاری و داده های Azure Synapse در فایل های ADLS Integrating Azure Synapse Workspace and Data in ADLS Files

  • تعیین طرح واره برای کوئری های Azure Synapse در فایل های ADLS Specifying Schema for Azure Synapse Queries on ADLS Files

  • ایجاد جداول خارجی در فایل های ADLS با استفاده از فضای کاری Azure Synapse Creating External Tables on ADLS Files using Azure Synapse Workspace

  • مدیریت اسکریپت های SQL در Azure Synapse Studio Managing SQL Scripts in Azure Synapse Studio

  • استخر اختصاصی SQL را در فضای کاری Azure Synapse ایجاد کنید Create Dedicated SQL Pool in Azure Synapse Workspace

  • جدول ایجاد کنید و داده ها را در پایگاه داده اختصاصی استخر SQL Azure Synapse کپی کنید Create Table and Copy Data into Azure Synapse Dedicated SQL Pool Database

  • مروری بر ابزارهای توسعه در استودیوی Azure Synapse Overview of Development Tools in Azure Synapse Studio

  • با استفاده از ابزار Copy Data، داده ها را در جداول Azure Synapse کپی کنید Copy Data into Azure Synapse Tables using Copy Data Tool

  • برای شروع با Azure Synapse Analytics تمرین کنید Exercise to get started with Azure Synapse Analytics

جریان داده ADF را با استفاده از Azure SQL و Synapse Analytics ایجاد کنید Build ADF Data Flow using Azure SQL and Synapse Analytics

  • مقدمه ای بر منطق ETL و معماری کاربردی Introduction to ETL Logic and Application Architecture

  • مروری بر ETL با استفاده از جریان داده ADF Overview of ETL using ADF Data Flow

  • شروع به کار با Azure Data Factory برای منطق ETL Getting Started with Azure Data Factory for the ETL Logic

  • سرویس ها و مجموعه داده های مرتبط را برای پایگاه داده و جداول Azure SQL مرور کنید Review Linked Service and Datasets for Azure SQL Database and Tables

  • با استفاده از جدول پایگاه داده Azure SQL به عنوان منبع، جریان داده ADF ایجاد کنید Create ADF Data Flow with Azure SQL Database Table as Source

  • گزینه های منبع جریان داده ADF را برای جدول پایگاه داده مرور کنید Review ADF Data Flow Source Options for Database Table

  • منبع جریان داده ADF را با استفاده از Azure SQL Query ایجاد کنید Create ADF Data Flow Source using Azure SQL Query

  • ADF Pipeline را با Source با استفاده از Azure SQL Query اجرا کنید Run ADF Pipeline with Source using Azure SQL Query

  • تعریف و استفاده از پارامترها در منبع جریان داده ADF با Azure SQL Query Define and Use Parameters in ADF Data Flow Source with Azure SQL Query

  • خط لوله ADF را با منبع پرس و جوی SQL با استفاده از پارامترها اجرا کنید Run ADF Pipeline with SQL Query Source using Parameters

  • ADF Data Flow سفارشات و موارد سفارش را بپیوندید ADF Data Flow Join Orders and Order Items

  • جریان داده ADF را با Join بین سفارشات و موارد سفارش اجرا کنید Run ADF Data Flow with Join between Orders and Order Items

  • عیب‌یابی مشکل در جستجوی منبع جریان داده ADF Troubleshoot Issue in ADF Data Flow Source Query

  • جریان داده ADF را با اصلاح اجرا و اعتبارسنجی کنید Run and Validate ADF Data Flow with fix

  • Aggregate را به جریان داده ADF اضافه کنید Add Aggregate to ADF Data Flow

  • برای محاسبه درآمد روزانه محصول، خط لوله ADF را اجرا کنید Run ADF Pipeline to Compute Daily Product Revenue

  • جدول هدف را در استخر اختصاصی SQL Azure Synapse ایجاد کنید Create Target Table in Azure Synapse Dedicated SQL Pool

  • ایجاد سرویس پیوندی و مجموعه داده برای Azure Synapse Table Create Linked Service and Dataset for Azure Synapse Table

  • به روز رسانی و اجرای ADF Data Flow Sink با Synapse Dataset Update and Run ADF Data Flow Sink with Synapse Dataset

  • مکث یا حذف Azure Synapse Dedicated SQL Pool Pause or Delete Azure Synapse Dedicated SQL Pool

شروع کار با Azure Databricks Getting Started with Azure Databricks

  • با استفاده از Premium Trial فضای کاری Azure Databricks ایجاد کنید Create Azure Databricks Workspace using Premium Trial

  • Azure Databricks Workspace یا Environment را راه اندازی کنید Launch Azure Databricks Workspace or Environment

  • شروع کار با Databricks Cluster در Azure Getting Started with Databricks Clusters on Azure

  • افزایش سهمیه Azure برای Databricks Cluster Increase Azure Quota for Databricks Clusters

  • شروع کار با Databricks Notebook در Azure Getting Started with Databricks Notebook on Azure

  • مروری بر زیرساخت فضای کاری Azure Databricks Overview of Azure Databricks Workspace Infrastructure

  • بررسی اجمالی Azure Databricks و سایر خدمات Azure Overview of Azure Databricks and other Azure Services

  • فضای کاری Azure Databricks را حذف کنید Delete Azure Databricks Workspace

  • Databricks CLI را در ویندوز راه اندازی کنید Setup Databricks CLI on Windows

  • Databricks CLI و Validate را پیکربندی کنید Configure Databricks CLI and Validate

  • عیب‌یابی و پیکربندی مجدد Databricks CLI با استفاده از Token Troubleshoot and Reconfigure Databricks CLI using Token

ادغام Azure Storage و Databricks Integration of Azure Storage and Databricks

  • مقدمه ای بر ادغام Azure Storage و Databricks Introduction to Integration of Azure Storage and Databricks

  • راه اندازی Databricks Personal Compute Cluster Setup Databricks Personal Compute Cluster

  • تنظیم مجموعه داده در DBFS با استفاده از دستورات Databricks CLI Setup Data Set in DBFS using Databricks CLI Commands

  • مروری بر جادوی fs در نوت بوک های Databricks Overview of fs magic in Databricks Notebooks

  • با استفاده از Credentials Passthrough به فایل‌ها در حساب ذخیره‌سازی Azure دسترسی پیدا کنید Access Files in Azure Storage Account using Credentials Passthrough

  • با استفاده از کلید دسترسی به فایل‌ها در حساب ذخیره‌سازی Azure دسترسی پیدا کنید Access Files in Azure Storage Account using Access Key

  • ایجاد Spark SQL View با استفاده از داده ها در حساب های ذخیره سازی Azure Create Spark SQL View using Data in Azure Storage Accounts

  • اعتبارسنجی با استفاده از Spark SQL و Exercise to Create Spark SQL View Validate using Spark SQL and Exercise to Create Spark SQL View

  • ادغام Azure Storage و Pyspark Demo Integration of Azure Storage and Pyspark Demo

مروری بر اسرار Databricks Overview of Databricks Secrets

  • مقدمه ای بر بررسی اجمالی اسرار Databricks Introduction to Overview of Databricks Secrets

  • مدیریت اسرار Databricks با استفاده از دستورات Databricks CLI Managing Databricks Secrets using Databricks CLI Commands

  • ایجاد Databricks Secret برای کلید حساب ذخیره سازی Azure Create Databricks Secret for Azure Storage Account Key

  • با استفاده از dbutils secrets API به جزئیات مخفی در برنامه های Databricks دسترسی پیدا کنید Access Secret Details in Databricks Applications using dbutils secrets APIs

  • تأیید اعتبار برنامه با حساب ذخیره سازی Azure با استفاده از Databricks Secrets Authenticate Application with Azure Storage Account using Databricks Secrets

  • مراحل استفاده از Databricks Secrets Steps involved in using Databricks Secrets

تبدیل اولیه با استفاده از Spark SQL Basic Transformations using Spark SQL

  • پردازش داده ها در DBFS با استفاده از Databricks Spark SQL Process Data in DBFS using Databricks Spark SQL

  • شروع با Spark SQL مثال با استفاده از Databricks Getting Started with Spark SQL Example using Databricks

  • ایجاد نماهای موقت با استفاده از Spark SQL Create Temporary Views using Spark SQL

  • برای ایجاد نماهای موقت با استفاده از Spark SQL تمرین کنید Exercise to create temporary views using Spark SQL

  • برای محاسبه درآمد روزانه محصول، Query SQL را جرقه بزنید Spark SQL Query to compute Daily Product Revenue

  • نتیجه پرس و جو را با استفاده از Spark SQL در DBFS ذخیره کنید Save Query Result to DBFS using Spark SQL

رتبه بندی با استفاده از توابع Windowing Spark SQL Ranking using Spark SQL Windowing Functions

  • رتبه بندی با استفاده از توابع Windowing Spark SQL Ranking using Spark SQL Windowing Functions

  • با استفاده از Spark SQL Windowing Functions برای رتبه بندی نمای موقت ایجاد کنید Create Temporary View for ranking using Spark SQL Windowing Functions

  • رتبه جهانی را با استفاده از توابع پنجره Spark SQL محاسبه کنید Compute Global Rank using Spark SQL Windowing Functions

  • با استفاده از توابع Windowing Spark SQL، رتبه ها را در هر کلید محاسبه کنید Compute Ranks Per Key using Spark SQL Windowing Functions

  • تفاوت بین رتبه و رتبه_ متراکم Difference Between rank and dense_rank

  • با استفاده از توابع پنجره Spark SQL، رتبه‌ها را فیلتر کنید Filter on Ranks using Spark SQL Windowing Functions

شروع به کار با PySpark Data Frame API Getting Started with PySpark Data Frame APIs

  • مروری بر نمونه های Pyspark در Databricks Overview of Pyspark Examples on Databricks

  • جزئیات طرحواره را در JSON با استفاده از Pyspark پردازش کنید Process Schema Details in JSON using Pyspark

  • با استفاده از Pyspark از فایل JSON با Schema Dataframe ایجاد کنید Create Dataframe with Schema from JSON File using Pyspark

  • تبدیل داده ها با استفاده از Spark API Transform Data using Spark APIs

  • با استفاده از Pyspark جزئیات طرحواره را برای همه مجموعه داده ها دریافت کنید Get Schema Details for all Data Sets using Pyspark

  • با استفاده از Pyspark CSV را به پارکت با Schema تبدیل کنید Convert CSV to Parquet with Schema using Pyspark

ساخت خطوط لوله ELT با استفاده از Databricks Jobs و Workflows Build ELT Pipelines using Databricks Jobs and Workflows

  • مروری بر گردش کار Databricks Overview of Databricks Workflows

  • ارسال آرگومان ها به نوت بوک های پایتون Databricks Pass Arguments to Databricks Python Notebooks

  • ارسال آرگومان ها به نوت بوک های Databricks SQL Pass Arguments to Databricks SQL Notebooks

  • ایجاد و اجرای First Databricks Job Create and Run First Databricks Job

  • Databricks Jobs و Tasks را با پارامترها اجرا کنید Run Databricks Jobs and Tasks with Parameters

  • با استفاده از Databricks Job خط لوله هماهنگ را ایجاد و اجرا کنید Create and Run Orchestrated Pipeline using Databricks Job

  • وارد کردن ELT Data Pipeline Applications به Databricks Environment Import ELT Data Pipeline Applications into Databricks Environment

  • برنامه Spark SQL برای پاکسازی پایگاه داده و مجموعه داده ها Spark SQL Application to Cleanup Database and Datasets

  • کد Pyspark مبدل فرمت فایل را بررسی کنید Review File Format Converter Pyspark Code

  • نوت بوک های Databricks SQL را برای جداول و نتایج نهایی مرور کنید Review Databricks SQL Notebooks for Tables and Final Results

  • اعتبار سنجی برنامه های کاربردی برای خط لوله ELT با استفاده از Databricks Validate Applications for ELT Pipeline using Databricks

  • خط لوله ELT را با استفاده از Databricks Job در گردش کار بسازید Build ELT Pipeline using Databricks Job in Workflows

  • اجرای و بررسی جزئیات اجرای خط لوله داده ELT با استفاده از Databricks Job Run and Review Execution details of ELT Data Pipeline using Databricks Job

  • پاکسازی محیط Databricks در GCP Cleanup Databricks Environment on GCP

برنامه های Azure Databricks را با استفاده از خطوط لوله ADF هماهنگ کنید Orchestrate Azure Databricks Applications using ADF Pipelines

  • شروع کار با ADF برای ادغام با Databricks Getting Started with ADF to integrate with Databricks

  • سرویس پیوندی ADF را برای Azure Databricks ایجاد کنید Create ADF Linked Service for Azure Databricks

  • ماشه Azure Databricks Application از خط لوله ADF Trigger Azure Databricks Application from ADF Pipeline

  • Core Logic را با استفاده از Databricks Notebook برای ادغام خط لوله ADF توسعه دهید Develop Core Logic using Databricks Notebook for ADF Pipeline Integration

  • مروری بر پارامترها با استفاده از نوت بوک Databricks Overview of Parameters using Databricks Notebooks

  • پارامترها را به ADF Pipeline و Databricks Activity اضافه کنید Add Parameters to ADF Pipeline and Databricks Activity

  • خط لوله ADF را با Databricks Activity با استفاده از پارامترها اجرا کنید Run ADF Pipeline with Databricks Activity using Parameters

خطوط لوله داده را با استفاده از خطوط لوله ADF و Databricks بسازید Build Data Pipelines using ADF Pipelines and Databricks

  • مقدمه ای بر خطوط لوله داده با استفاده از خطوط لوله ADF و Databricks Introduction to Data Pipelines using ADF Pipelines and Databricks

  • بررسی کد برای محاسبه درآمد روزانه محصول Code Review to Compute Daily Product Revenue

  • مروری بر ویژگی های ادغام خط لوله ADF و Databricks Overview of ADF Pipeline and Databricks Integration Features

  • گزینه های مختلف برای ADF Pipelines و Databricks یکپارچه سازی نوت بوک Different Options for ADF Pipelines and Databricks Notebook Integration

  • ایجاد دفترچه Driver Databricks برای خط لوله ADF Create Driver Databricks Notebook for ADF Pipeline

  • ایجاد ADF Linked Service برای Databricks Job Cluster Create ADF Linked Service for Databricks Job Cluster

  • با Databricks Driver Notebook خط ADF ایجاد کنید Create ADF Pipeline with Databricks Driver Notebook

  • خط لوله ADF را با دفترچه درایور Databricks اجرا کنید Run ADF Pipeline with Databricks Driver Notebook

  • خط لوله ADF برای هماهنگ کردن نوت بوک های Databricks ADF Pipeline to Orchestrate Databricks Notebooks

  • خط لوله ADF برای هماهنگ کردن نوت بوک های Databricks ADF Pipeline to Orchestrate Databricks Notebooks

  • برنامه های Databricks را با استفاده از خط لوله ADF هماهنگ کنید Orchestrate Databricks Applications using ADF Pipeline

  • وارد کردن ELT Data Pipeline Applications به Databricks Environment Import ELT Data Pipeline Applications into Databricks Environment

نمایش نظرات

آموزش کارشناسی ارشد مهندسی داده با استفاده از تجزیه و تحلیل داده های Azure
جزییات دوره
12.5 hours
194
Udemy (یودمی) Udemy (یودمی)
(آخرین آپدیت)
904
4.3 از 5
ندارد
دارد
دارد
جهت دریافت آخرین اخبار و آپدیت ها در کانال تلگرام عضو شوید.

Google Chrome Browser

Internet Download Manager

Pot Player

Winrar

Durga Viswanatha Raju Gadiraju Durga Viswanatha Raju Gadiraju

مشاور فناوری و Evangelist 13 سال تجربه در اجرای پروژه های پیچیده با استفاده از مجموعه گسترده ای از فناوری ها از جمله Big Data و Cloud. Iversity، llc - یک شرکت مستقر در ایالات متحده برای ارائه آموزش با کیفیت برای متخصصان فناوری اطلاعات و کارکنان و همچنین راه حل های مشاوره ای برای مشتریان سازمانی ، پیدا کردم. من هزاران نفر از متخصصان فناوری اطلاعات را در زمینه فن آوری های زیادی از جمله Big Data و Cloud آموزش داده ام. ایجاد حرفه ای فناوری اطلاعات برای افراد و ارائه خدمات با کیفیت به مشتریان از اهمیت بالاتری در سازمان ما برخوردار است. به عنوان یک استراتژی ورود ، ارائه آموزش با کیفیت در زمینه های ABCD خواهد بود * توسعه برنامه * داده های بزرگ و هوش تجاری * ابر * پایگاه داده ، پایگاه داده