آموزش Azure Databricks - آخرین آپدیت

دانلود Learning Azure Databricks

نکته: ممکن هست محتوای این صفحه بروز نباشد ولی دانلود دوره آخرین آپدیت می باشد.
نمونه ویدیوها:
توضیحات دوره: در اینجا ترجمه فارسی متن با بهینه‌سازی برای SEO گوگل، در قالب المنت‌های HTML مناسب برای قرارگیری درون تگ `` ارائه شده است:

آژور دیتا بریکس عملی: یونیتی کاتالوگ | دلتا لایو تیبلز | استریمینگ | CI/CD با آژور DevOps | ترافرم | MLflow

مباحث کلیدی:

  • درک اصول آژور دیتا بریکس (Azure Databricks) و ویژگی‌های کلیدی آن
  • آشنایی با فرمت‌های ذخیره‌سازی داده پشتیبانی شده برای داده‌های واقعی مانند آپاچی پارکت (Apache Parquet)
  • ساخت و اجرای پایپ‌لاین‌های داده سرتاسری (End-to-End Data Pipelines) با استفاده از پای‌اسپارک (PySpark)
  • ساخت و اجرای پایپ‌لاین‌های داده سرتاسری با استفاده از انبار داده SQL دیتا بریکس (Databricks SQL Data Warehousing)
  • ذخیره‌سازی مشترک با استفاده از یونیتی کاتالوگ (Unity Catalog) برای مدیریت چالش‌های دنیای واقعی
  • استفاده از CLI دیتا بریکس (Databricks CLI) برای خودکارسازی گردش کار، جاب‌ها (Jobs) و فضای‌های کاری دیتا بریکس
  • استفاده از ابزارهای کمکی دیتا بریکس (Databricks Utilities) برای مدیریت سیستم فایل (dbfs)
  • استفاده از دلتا لیکز (Delta Lakes) برای مهندسی داده (Data Engineering)
  • استفاده از COPY INTO و AutoLoader برای انتقال داده
  • مدیریت زیرساخت با استفاده از ابزارهای زیرساخت به عنوان کد (IaC) مانند ترافرم (Terraform)
  • پیاده‌سازی پایپ‌لاین‌های CI/CD (Continuous Integration/Continuous Deployment) با استفاده از آژور DevOps
  • مدیریت پروژه‌های علم داده (Data Science) با استفاده از یادگیری ماشین دیتا بریکس (Databricks Machine Learning)
  • بهره‌برداری از آژور دیتا بریکس برای یادگیری ماشین، شامل یکپارچه‌سازی MLflow
  • تجربه یادگیری از طریق ارجاعات به پروژه‌های واقعی و عملی

پیش‌نیازها:

  • شما باید برنامه‌نویسی پایتون (Python) را برای نوشتن و اجرای کدهای مبتنی بر پایتون بدانید.
  • درک SQL به ایجاد و مدیریت جداول، تبدیل داده‌ها و اجرای سریع کوئری‌ها کمک می‌کند.
  • آشنایی با اصول اولیه رایانش ابری (Cloud Computing) می‌تواند برای استفاده از آژور دیتا بریکس مفید باشد، از جمله مفاهیمی مانند ذخیره‌سازی ابری، توان پردازشی، شبکه و امنیت.

این دوره شما را به سفری عمیق در دنیای آژور دیتا بریکس می‌برد و رویکرد شما را در انجام تحلیل داده، وظایف مهندسی داده و پروژه‌های یادگیری ماشین متحول خواهد کرد.


نکات برجسته:


  • یادگیری نحوه راه‌اندازی و استفاده کارآمد از آژور دیتا بریکس.

  • درک مفاهیم Open Storage Parquet، دیتا لیکز (Data Lakes) و دلتا لیکز (Delta Lakes).

  • آشنایی با الگوی طراحی Medallion.

  • استفاده از آژور دیتا بریکس برای انبار داده SQL (SQL Data Warehousing).

  • تسلط بر برنامه‌نویسی اسپارک (Spark) و پردازش بیگ دیتا (Big Data) در آژور دیتا بریکس.

  • به‌کارگیری یونیتی کاتالوگ (Unity Catalog) برای مدیریت مجموعه داده‌های دسته‌ای و استریمینگ.

  • ساخت پایپ‌لاین‌ها با دلتا لایو تیبلز (Delta Live Tables) در آژور دیتا بریکس.

  • پیاده‌سازی پایپ‌لاین‌های CI/CD با استفاده از آژور DevOps.

  • خودکارسازی تامین زیرساخت با ترافرم (Terraform) برای آژور دیتا بریکس.

  • بهره‌برداری از آژور دیتا بریکس برای یادگیری ماشین، شامل یکپارچه‌سازی MLflow.


این دوره برای مهندسان داده، دانشمندان داده و متخصصان تحلیلگر طراحی شده است و توانایی شما را در استفاده از آژور دیتا بریکس برای پروژه‌های تحلیلی پیچیده افزایش می‌دهد.

دوره‌های ما با یک برنامه یادگیری ساده طراحی شده‌اند که برای دانشجویان سال اول دانشگاه بسیار مناسب است.

در پایان دوره، شما قادر خواهید بود راه‌حل‌های داده‌ای مقیاس‌پذیر و قابل اعتماد بسازید و تحلیل‌های پیشرفته را با اطمینان پیاده‌سازی کنید.

شما تجربه عملی در راه‌اندازی و بهینه‌سازی محیط داده خود کسب خواهید کرد و از پردازش کارآمد داده‌ها و گردش‌کارهای قوی مهندسی داده اطمینان حاصل می‌کنید.

علاوه بر این، بهترین شیوه‌ها برای مدیریت ذخیره‌سازی داده، توسعه مدل‌های یادگیری ماشین و استقرار بی‌وقفه آن‌ها را فرا خواهید گرفت و شما را در کل چرخه حیات داده (Data Lifecycle) با استفاده از آژور دیتا بریکس ماهر می‌سازد.


سرفصل ها و درس ها

بخش ۰۱ - مقدمه Section 01 - Introduction

  • درباره این دوره About this Course

  • درباره من About Me

  • چرا Azure Databricks را یاد بگیریم؟ Why Learn Azure Databricks

بخش ۰۲ - شروع کار Section 02 - Getting Started

  • یک حساب Azure برای Databricks An Azure Account for Databricks

  • حساب آزمایشی رایگان Azure Azure Free Trail Account

  • حساب آزمایشی رایگان در مقابل پرداخت به ازای استفاده Free Trail vs Pay-as-you-go

  • دریافت اشتراک پرداخت به ازای استفاده Get a Pay-as-you-Go Subscription

  • نمای کلی پورتال Azure Azure Portal Overview

  • افزایش سهمیه‌های vCPU خانواده VM Increase VM-family vCPU quotas

  • ایجاد هشدارهای صورتحساب Creation of Billing Alerts

  • کاهش صورتحساب‌های شما Lower your bills

بخش ۰۳ - مرکز معماری Section 03 - Architecture Centre

  • ذخیره‌سازی داده باز – Parquet Open Data Storage – Parquet

  • ایجاد Azure Blob و Azure Data Lake Storage Gen2 Create Azure Blob and Azure Data Lake Storage Gen2

بخش ۰۴ - مرکز مدیریت Section 04 - Administration Centre

  • ایجاد فضای کاری Azure Databricks Create Azure Databricks Workspace

  • ایجاد و مدیریت کاربران در فضای کاری Create and manage Users in Workspace

  • ایجاد Service Principalها برای Azure Databricks Create Service Prinicpals for Azure Databricks

  • ایجاد خوشه‌های محاسباتی Create Compute Clusters

  • ایجاد توکن‌ها از Azure Databricks Create Tokens from Azure Databricks

  • اجرای دستورات جادویی در نوت‌بوک‌ها Running Magic Commands in Notebooks

  • ادغام GitHub Repos با Azure Databricks GitHub Repos Integration with Azure Databricks

بخش ۰۵ - ابزارهای Databricks Section 05 - Databricks Utilities

  • استفاده از ابزارهای Databricks Using Databricks Utilities

  • ابزارهای Databricks - سیستم فایل (DBFS) Databricks Utilities - File System (DBFS)

  • ایجاد یک دایرکتوری Create a Directory

  • بارگذاری فایل File Upload

  • حذف فایل یا دایرکتوری Delete File or Directory

  • ابزارهای Databricks – نوت‌بوک‌ها Databricks Utilities – Notebooks

  • ابزارهای Databricks – ویجت‌ها Databricks Utilities – Widgets

بخش ۰۶ - اتصال به Azure Data Lake Storage Section 06 - Connect with Azure Data Lake Storage

  • ایجاد Azure Data Lake Storage Gen2 Creating Azure Data Lake Storage Gen2

  • اتصال به Azure Data Storage با استفاده از درایور WASBS Connect with Azure Data Storage using WASBS Driver

  • ایجاد Spark Data Frameها Create Spark Data Frames

  • اتصال به Azure Data Storage با استفاده از درایور ABFSS Connect with Azure Data Storage using ABFSS Driver

  • ایجاد Spark Viewها Create Spark Views

بخش ۰۷ - جداول Delta Lake Section 07 - Delta Lake Tables

  • چرا از جداول Delta Lake استفاده کنیم؟ Why Use Delta Lake Tables?

  • ایجاد جداول Delta Lake Create Delta Lake Tables

  • خواندن داده‌ها از جداول Delta Lake Read Data from Delta Lake Tables

  • به‌روزرسانی جداول Delta Lake Updates to Delta Lake Tables

  • سفر در زمان با جداول Delta Lake Time Travel with Delta Lake Tables

  • حذف داده‌ها از جداول Delta Lake Delete Data from Delta Lake Tables

  • حذف جداول Delta Lake Drop Delta Lake Tables

بخش ۰۸ - انبار داده SQL در Azure Databricks Section 08 - SQL Data warehousing on Azure Databricks

  • انبار داده SQL در Azure Databricks SQL Data warehousing on Azure Databricks

  • مدل‌سازی داده در Azure Databricks Data Modeling on Azure Databricks

  • ایجاد یک انبار داده SQL بدون سرور Create a Serverless SQL Datawarehouse

  • متااستورها برای Lakehouseها Metastores for Lake houses

  • وارد کردن داده‌ها به Azure Databricks Data Ingestion into Azure Databricks

  • ایجاد ولوم‌ها Create Volumes

  • وارد کردن داده‌ها به Azure Databricks با استفاده از رابط کاربری "افزودن داده" Data Ingestion into Azure Databricks using Add data UI

  • نمای کلی COPY INTO COPY INTO Overview

  • وارد کردن داده‌ها به Azure Databricks با استفاده از COPY INTO P1 Ingest Data into Azure Databricks using COPY INTO P1

  • وارد کردن داده‌ها به Azure Databricks با استفاده از COPY INTO P2 Ingest Data into Azure Databricks using COPY INTO P2

  • وارد کردن داده‌ها به Azure Databricks با استفاده از COPY INTO P3 Ingest Data into Azure Databricks using COPY INTO P3

  • وارد کردن داده‌ها به Azure Databricks با استفاده از Autoloader Ingest Data into Azure Databricks using Autoloader

بخش ۰۹ - Unity Catalog برای Azure Databricks Section 09 - Unity Catalog for Azure Databricks

  • Unity Catalog توسط Azure Databricks Unity Catalog by Azure Databricks

  • تنظیمات Unity Catalog – ایجاد فضاهای کاری Setup for Unity Catalog – Create Workspaces

  • تنظیمات Unity Catalog – ایجاد فضای ذخیره‌سازی Setup for Unity Catalog – Create Storage

  • تنظیمات Unity Catalog – ایجاد MetaStore Setup for Unity Catalog – Create MetaStore

  • تنظیمات Unity Catalog – به اشتراک‌گذاری جداول Setup for Unity Catalog – Sharing Tables

بخش ۱۰ - Structured Streaming در Azure Databricks Section 10 - Structured Streaming on Azure Databricks

  • Structured Streaming در Azure Databricks Structured Streaming on Azure Databricks

  • مدیریت داده‌های Structured Streaming در Azure Databricks با استفاده از Spark API قسمت اول Handling Structured Streaming Data on Azure Databricks using Spark API Part I

  • مدیریت داده‌های Structured Streaming در Azure Databricks با استفاده از Spark API قسمت دوم Handling Structured Streaming Data on Azure Databricks using Spark API Part II

  • API readStream readStream API

  • API writeStream writeStream API

  • پردازش از جداول Streaming Delta Lake Processing from Streaming Delta Lake Tables

  • ثبت تغییرات داده از جدول Streaming Delta Change Data Capture from Streaming Delta Table

  • توقف کوئری‌های Streaming Stopping Streaming Queries

بخش ۱۱ - مهندسی داده در Azure Databricks Section 11 - Data Engineering on Azure Databricks

  • تعریف پایپ‌لاین‌های داده برای Delta Live Tables با استفاده از PySpark P1 Declare Data Pipelines for Delta Live Tables Using PySpark P1

  • تعریف پایپ‌لاین‌های داده برای Delta Live Tables با استفاده از PySpark P2 Declare Data Pipelines for Delta Live Tables Using PySpark P2

  • تعریف پایپ‌لاین‌های داده برای Delta Live Tables با استفاده از PySpark P3 Declare Data Pipelines for Delta Live Tables Using PySpark P3

  • تعریف پایپ‌لاین‌های داده برای Delta Live Tables با استفاده از PySpark P4 Declare Data Pipelines for Delta Live Tables Using PySpark P4

  • تعریف پایپ‌لاین‌های داده برای Delta Live Tables با استفاده از PySpark P5 Declare Data Pipelines for Delta Live Tables Using PySpark P5

  • تعریف پایپ‌لاین‌های داده با استفاده از Delta Live Tables با SQL Declare Data Pipelines using Delta Live Tables Using SQL

بخش ۱۲ - CI/CD برای Azure Databricks Section 12 - CICD for Azure Databricks

  • CI/CD برای Azure Databricks CICD for Azure Databricks

  • استفاده از Azure DevOps برای CI/CD Using Azure DevOps for CICD

  • زیرساخت به عنوان کد (IaC) Infrastructure as Code(Iac)

  • نصب Azure CLI Install Azure CLI

  • نصب Terraform Install Terraform

  • احراز هویت Terraform با استفاده از Azure CLI Terraform Authencation using Azure CLI

  • استفاده از Terraform برای Azure Databricks P1 Using Terraform for Azure Databricks P1

  • استفاده از Terraform برای Azure Databricks P2 Using Terraform for Azure Databricks P2

  • نصب Databricks CLI Install Databricks CLI

  • پیکربندی Databricks CLI Configure Databricks CLI

  • ایجاد خوشه محاسباتی با استفاده از Databricks CLI Create Compute Cluster using Databricks CLI

  • وارد کردن نوت‌بوک‌ها با استفاده از Databricks CLI Import Notebooks using Databricks CLI

  • ایجاد Jobها با استفاده از Databricks CLI Create Jobs using Databricks CLI

  • حذف منابع با استفاده از Databricks CLI Deletion of Resources using Databricks CLI

  • ایجاد فضای کاری Azure Databricks Create Azure Databricks Workspace

  • ایجاد خوشه محاسباتی Create Compute Cluster

  • مخازن Azure DevOps Azure DevOps Repos

  • پایپ‌لاین‌های Azure DevOps برای Databricks P1 Azure DevOps Pipelines for Databricks P1

  • پایپ‌لاین‌های Azure DevOps برای Databricks P2 Azure DevOps Pipelines for Databricks P2

بخش ۱۳ - یادگیری ماشین در Azure Databricks Section 13 - Machine Learning on Azure Databricks

  • یادگیری ماشین در Azure Databricks Machine Learning on Azure Databricks

  • وارد کردن و آماده‌سازی داده Data Ingestion and Preparation

  • تحلیل اکتشافی داده Exploratory Data Analysis

  • مهندسی ویژگی قسمت اول Feature Engineering Part I

  • مهندسی ویژگی قسمت دوم Feature Engineering Part II

  • توسعه مدل Model Development

  • ارزیابی مدل Model Evaluation

  • استفاده از MLFlow برای استقرار مدل Using MLFlow for Model Deployment

  • ایجاد Serving Endpoint برای مدل Create Serving Endpoint for Model

  • نسخه‌بندی مدل Model Versioning

  • کوئری نتایج با استفاده از Model Endpoint Query results using Model Endpoint

  • حذف اجزای مدل Delete Model Components

بخش ۱۴ - ارائه پروژه بلادرنگ Section 14 - Delivering Real Time Project

  • نمای کلی پروژه - مقدمه Project Overview - Introduction

  • نمای کلی پروژه - مدیریت پروژه مهندسی داده Project Overview - Project Handling Data Engineering

  • راه‌اندازی پروژه - ایجاد منابع Azure Project Setup - Create Azure Resources

  • راه‌اندازی پروژه – وارد کردن داده Project Setup – Data Ingestion

  • راه‌اندازی پروژه – تبدیل داده Project Setup – Data Transformation

  • راه‌اندازی پروژه – ایجاد فضای کاری و خوشه‌ها Project Setup – Create Workspaces and Clusters

  • راه‌اندازی پروژه – اجرای نوت‌بوک‌ها Project Setup – Execute Notebooks

  • راه‌اندازی پروژه – مدیریت بصری‌سازی با PowerBI Project Setup – Handling Visualization with PowerBI

  • راه‌اندازی پروژه – مدیریت یادگیری ماشین Project Setup – Handling Machine Learning

  • راه‌اندازی پروژه – توسعه یک مدل Project Setup – Develop a Model

  • راه‌اندازی پروژه – استقرار یک مدل Project Setup – Deploy a Model

  • حذف پروژه Project Deletion

نمایش نظرات

آموزش Azure Databricks
جزییات دوره
12.5 hours
113
Udemy (یودمی) Udemy (یودمی)
(آخرین آپدیت)
248
4.6 از 5
دارد
دارد
دارد
جهت دریافت آخرین اخبار و آپدیت ها در کانال تلگرام عضو شوید.

Google Chrome Browser

Internet Download Manager

Pot Player

Winrar

VCloudMate Solutions VCloudMate Solutions

پلتفرم یادگیری برای همه نیازهای ابری شما