آموزش CI/CD با بسته‌های دارایی Databricks (DAB) - آخرین آپدیت

دانلود CI/CD with Databricks Asset Bundles (DAB)

نکته: ممکن هست محتوای این صفحه بروز نباشد ولی دانلود دوره آخرین آپدیت می باشد.
نمونه ویدیوها:
توضیحات دوره:

با Databricks Asset Bundles، پایپ‌لاین‌های استقرار در سطح تولید را بسازید.

پروژه خود را به عنوان کد بسته‌بندی کنید!

در این دوره چه چیزی خواهید آموخت:

  • نوت‌بوک‌ها، جاب‌ها و پیکربندی‌ها را به عنوان کد نسخه‌بندی شده با Databricks Asset Bundles بسته‌بندی کنید.
  • پایپ‌لاین‌های خودکار CI/CD ایجاد کنید که به طور قابل اعتماد از توسعه تا تولید مستقر می‌شوند.
  • پکیج‌های سفارشی پایتون را برای استفاده در محیط Databricks خود بسازید و توزیع کنید.
  • تست واحد (Unit Testing) و اعتبارسنجی را برای کدهای Databricks پیاده‌سازی کنید.
  • وُرک‌فلوهای GitHub Actions را برای بیلدها، تست‌ها و استقرار خودکار راه‌اندازی کنید.
  • بهترین شیوه‌های DevOps را در Databricks به کار بگیرید.

پیش‌نیازها:

  • تجربه با مبانی Databricks (نوت‌بوک‌ها، کلاسترها، جاب‌ها)
  • دانش پایه پایتون
  • درک سینتکس YAML
  • آگاهی از Git و GitHub
  • آگاهی از CI/CD

آیا آماده‌اید تا DevOps و CI/CD را در استقرارهای Databricks خود به کار بگیرید؟

در این دوره، شما در Databricks Asset Bundles – چارچوب رسمی "workspace-as-code" که DevOps واقعی را به پلتفرم تحلیلی شما می‌آورد – متخصص خواهید شد. یاد می‌گیرید که نوت‌بوک‌ها، جاب‌ها، پایپ‌لاین‌ها، مشخصات کلاستر، پیکربندی‌های زیرساخت و فضای کاری را در یک پکیج واحد و نسخه‌بندی شده بسته‌بندی کنید – و سپس اعتبارسنجی، تست و استقرار چندمرحله‌ای آن را از طریق پایپ‌لاین‌های CI/CD خودکار کنید. دیگر خبری از کلیک‌های تکی یا انحراف پنهان نیست – فقط انتشار‌های تکرارپذیر و قابل اعتماد.

نمای کلی سرفصل‌های دوره:

  • مقدمه و مفاهیم اصلی

    با Databricks Asset Bundles و مفاهیم CI/CD آشنا شوید. اهداف دوره، "حلقه تحویل بی‌نهایت" و محل یافتن نمونه کدها برای هر ماژول عملی را مرور کنید.

  • محیط و راه‌اندازی

    فضاهای کاری Azure Databricks خود را تامین کنید، VS Code را پیکربندی کنید، Databricks CLI را نصب کنید و Databricks Connect را برای توسعه IDE-محور آماده کنید.

  • مبانی Asset Bundles

    دستورات اصلی Databricks Bundles – init، validate، deploy، run و destroy – و نحوه تعریف، نسخه‌بندی و مدیریت پروژه تحلیلی خود را در databricks.yml بیاموزید.

  • توسعه محلی و تست واحد

    PyTest را برای تست‌های واحد و یکپارچه‌سازی ادغام کنید، تست‌ها را از طریق CI یا Databricks Connect اجرا کنید و گزارش‌های پوشش را برای اعمال دروازه‌های کیفیت تولید کنید. درک کنید که چگونه بین PySpark محلی برای تست واحد سریع و Databricks Connect برای اجرای و دیباگ کردن کد روی کلاسترهای واقعی جابجا شوید و برابری بین IDE و فضای ابری خود را تضمین کنید.

  • پروژه‌های عملی

    دانش خود را در سه پروژه عملی به کار بگیرید:

    • پایپ‌لاین‌های ETL نوت‌بوک (Bronze→Silver→Gold)
    • وظایف اسکریپت پایتون و جاب‌های بسته‌بندی شده با .whl
    • پایپ‌لاین‌های استریم Delta Live Tables
  • یکپارچه‌سازی Git و پایپ‌لاین‌های CI/CD

    پروژه خود را به Git منتقل کنید، از ورک‌فلوهای مبتنی بر شاخه استفاده کنید و GitHub Actions یا Azure Pipelines را برای خودکارسازی بیلدها، تست‌ها، مراحل Staging (با تأیید) و انتشار‌های تولیدی بنویسید.

در پایان این دوره، شما یک فرآیند CI/CD خودکار و سرتاسری برای کل محیط Databricks خود خواهید داشت.


سرفصل ها و درس ها

Introduction and Core Concepts

  • نمای کلی دوره Course Overview

  • با من در ارتباط باشید... Connect with me...

  • Databricks Asset Bundles چیست؟ What are Databricks Asset Bundles?

  • CI/CD چیست؟ What is CI/CD?

  • گردش کار توسعه و CI/CD برای این دوره Development and CI/CD Workflow for this Course

  • منابع دوره Course Resources

راه‌اندازی محیط Environment Set Up

  • راه‌اندازی محیط کاری (Workspace) Azure Databricks Azure Databricks Workspace Set Up

  • VS Code VS Code

  • VS Code: آموزش VS Code: Tutorial

  • نصب محلی جاوا (Java) Local Java Installation

  • نصب محلی پایتون (Python) Local Python Installation

  • Databricks CLI Databricks CLI

Databricks CLI Databricks CLI

  • پیکربندی محیط کاری Databricks CLI Databricks CLI Workspace Configuration

  • Databricks CLI Databricks CLI

  • نمایش Databricks CLI Databricks CLI Demo

شروع به کار با Databricks Asset Bundles Getting Started with Databricks Asset Bundles

  • راه‌اندازی اولیه پروژه Bundle ما Initialising our Bundle Project

  • اعتبارسنجی و استقرار Bundle Validating and Deploying the Bundle

  • استقرار Bundle در اهداف مختلف Deploying the Bundle to Different Targets

  • نمایش کار ساده Workflow و حالت‌های استقرار Simple Workflow Job Demo and Deployment Modes

  • ماژولار کردن فایل‌های پیکربندی شما Modularising your Configuration Files

  • حذف (Destroy) یک Bundle Destroying a Bundle

  • چگونه Databricks وضعیت استقرار‌های شما را ردیابی می‌کند How Databricks Tracks the State of your Deployments

راه‌اندازی برای توسعه محلی Set Up for Local Development

  • ایجاد کلاستر محاسباتی Databricks برای توسعه Creating Databricks Compute Cluster for Development

  • یکپارچه‌سازی VS Code با محاسبات Databricks Integrating VS Code with Databricks Compute

  • محیط‌های مجازی پایتون (Python) Python Virtual Environments

  • نصب Databricks Connect Installing Databricks Connect

  • ایجاد یک DatabricksSession برای اجرای اسکریپت‌ها در ترمینال Creating a DatabricksSession to Run Scripts on the Terminal

  • VS Code: مفسر پایتون انتخاب‌شده در مقابل محیط مجازی فعال VS Code: Selected Python Interpreter vs Active Virtual Environment

  • حذف (Exclude) venv محلی شما از Git و استقرارها Exclude your local venv from Git & deployments

راه‌اندازی پروژه Citibike Citibike Project Set Up

  • نمای کلی پروژه دوره Course Project Overview

  • راه‌اندازی محیط کاری (ایجاد کاتالوگ‌ها، Schemas و Volumes دوره) Workspace Set Up (Creating Course Catalogs, Schemas and Volumes)

وظایف Notebook و متغیرها با DAB Notebook Tasks and Variables with DAB

  • ساختار Codebase Codebase Structure

  • بررسی Notebook Bronze Bronze Notebook Walkthrough

  • بررسی Notebook Silver Silver Notebook Walkthrough

  • بررسی Notebook Gold Gold Notebook Walkthrough

  • وارد کردن ماژول‌های محلی در Databricks Local Module Imports in Databricks

  • پیکربندی Job و استقرار Dev Job Configuration and Dev Deployment

  • پیکربندی، استقرار و اجرای Job ETL Configuring, Deploying and Running the ETL Job

  • متغیرهای عادی با بازنویسی دستی Regular Variables with Manual Override

  • متغیرهای عادی با بازنویسی هدف Regular Variables with Target Override

  • متغیرهای پیچیده Complex Variables

  • متغیرهای Lookup (+ مستندات برای متغیرها) Lookup Variables (+ Documentation for Variables)

وظایف اسکریپت پایتون با DAB Python Script Tasks with DAB

  • مدیریت پارامترها با وظایف اسکریپت پایتون Handling Parameters with Python Script Tasks

  • بررسی کد بازسازی‌شده (Refactored) Walkthrough of Refactored Code

توزیع کد قابل استفاده مجدد شما به عنوان یک Wheel Distributing your Reusable Code as a Wheel

  • ایجاد یک پایتون Wheel (.whl) Creating a Python Wheel (.whl)

  • نصب Wheel بر روی یک کلاستر Databricks Installing the Wheel on a Databricks Cluster

  • نصب پکیج‌های Wheel در Jobهای Databricks شما Installing Wheel Packages in Your Databricks Jobs

  • وظیفه Python Wheel Python Wheel Task

پایپ‌لاین‌های Delta Live Table با DAB Delta Live Table Pipelines with DAB

  • Notebookهای منبع پایپ‌لاین DLT DLT Pipeline Source Notebooks

  • پیکربندی پایپ‌لاین DLT Configuring the DLT Pipeline

Databricks Asset Bundles - خلاصه‌ای از رویکرد پیکربندی YAML Databricks Asset Bundles - Summary of YAML Configuration Approach

  • خلاصه‌ای از رویکرد پیکربندی YAML Summary of YAML Configuration Approach

توسعه SparkSession محلی و تست واحد (Unit Testing) Local SparkSession Development and Unit Testing

  • SparkSession محلی Local SparkSession

  • مقدمه‌ای بر تست واحد (Unit Testing) با Pytest Introduction to Unit Testing with Pytest

  • افزودن تست‌های واحد به پروژه ما Adding Unit Tests to our Project

  • اجرای تست‌های واحد در Databricks Connect Running Unit Tests on Databricks Connect

  • متمرکز کردن Pytest Fixtures با conftest.py Centralising Pytest Fixtures with conftest.py

  • گزارش‌های Coverage Coverage Reports

  • نظرات پایانی Closing Comments

گردش کار CI/CD سرتاسری با DAB و GitHub End to End CI/CD Workflows with DAB and GitHub

  • الزامات Git و GitHub Git and GitHub Requirements

  • مبانی GitHub (اختیاری) GitHub Basics (Optional)

  • نمایش گردش کار GitHub (اختیاری) GitHub Workflow Demo (Optional)

  • ایجاد یک ریپو پروژه Databricks جدید از ابتدا در GitHub (اختیاری) Creating a New Databricks Project Repo from Scratch on GitHub (Optional)

  • افزودن وابستگی‌های محیطی ما در فایل‌های متنی Requirements Adding our Environment Dependencies in Requirements Text Files

  • انتشار پروژه DAB موجود ما در یک ریپو GitHub Publishing our Existing DAB Project to a GitHub Repo

  • جذب و آشنایی توسعه‌دهنده جدید New Developer Onboarding

  • مقدمه‌ای بر GitHub Actions Introduction to GitHub Actions

  • نمای کلی فرآیند CI/CD CI/CD Process Overview

  • پیاده‌سازی گردش کار CI (بخش ۱) Implementing the CI Workflow (Part 1)

  • پیاده‌سازی گردش کار CI (بخش ۲) Implementing the CI Workflow (Part 2)

  • Azure Service Principal Azure Service Principal

  • راه‌اندازی Service Principal برای استقرار تست Service Principal Set Up for Test Deployment

  • راه‌اندازی Service Principal برای استقرار Prod Service Principal Set Up for Prod Deployment

  • راه‌اندازی محیط‌های GitHub GitHub Environments Set Up

  • پیاده‌سازی گردش کار CD Implementing the CD Workflow

  • بررسی سرتاسری End to End Walkthrough

تبریک Congratulations

  • عالی بود—شما دوره را تکمیل کردید! Well done—you’ve completed the course!

نمایش نظرات

آموزش CI/CD با بسته‌های دارایی Databricks (DAB)
جزییات دوره
6.5 hours
76
Udemy (یودمی) Udemy (یودمی)
(آخرین آپدیت)
2,509
4.8 از 5
دارد
دارد
دارد
جهت دریافت آخرین اخبار و آپدیت ها در کانال تلگرام عضو شوید.

Google Chrome Browser

Internet Download Manager

Pot Player

Winrar

Malvik Vaghadia Malvik Vaghadia

مالویک بیش از 10 سال کار و مشاوره با تعدادی از شرکت های فهرست شده در لیست/لیست نشده به عنوان متخصص داده و BI را گذرانده است. در طول زندگی حرفه ای خود ، مالویک یک مهارت در تجزیه و تحلیل داده ها و تجسم ، با مهارت در مورد تعدادی از زبان های برنامه نویسی از جمله SQL ، Python و R. ایجاد کرده است. او به طور گسترده با تعدادی از سیستم عامل های نرم افزاری پیشرو از جمله Hadoop ، Oracle ، MySQL ، MS SQL Server ، Qlik و Microsoft Power Platforms. وی دارای تعدادی گواهینامه از جمله: · کارشناس راه حل های مجاز مایکروسافت: مدیریت داده و تجزیه و تحلیل · Microsoft Certified Solutions Associate: گزارشگری BI · مجوز Qlik Sense Data Architect