آموزش تسلط بر Databricks SQL Warehouse و Spark SQL

Mastering Databricks SQL Warehouse and Spark SQL

نکته: آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
نمونه ویدیوها:
توضیحات دوره: دوره جامع Databricks SQL Warehouse و Spark SQL برای مهندسان داده، تحلیلگران داده، توسعه دهندگان BI، و غیره راه اندازی Databricks SQL Warehouse Environment با استفاده از Azure Databricks برای تمرین عملی شروع با Databricks SQL برای تجزیه و تحلیل داده یا ویژگی های Databricks Engineering SQL - خوشه ها، ویرایشگر پرس و جو، تجسم ها و داشبوردها، و غیره مروری بر گزارش های ساختمان و داشبورد با استفاده از Databricks SQL ایجاد پایگاه داده و جداول با استفاده از Databricks SQL یا Spark SQL نوشتن پرس و جوهای اولیه با استفاده از Databricks SQL یا Spark SQL DML برای بارگذاری داده ها در Databricks SQL Tables یا Spark عملیات پیشرفته مانند رتبه بندی و تجمیع با استفاده از Databricks SQL یا پردازش داده های نیمه ساختار یافته Spark SQL با استفاده از Databricks SQL یا Spark SQL پوشش عمیق در مورد جداول دلتا از جمله کلیه عملیات های ممکن DML مانند Insert، Update، Delete، Merge و غیره End to End چرخه حیات تجزیه و تحلیل داده ها در فایل ها با استفاده از Databricks (بارگذاری فایل به Databricks در گزارش ها و داشبوردها) پیش نیازها: مهارت های پایه SQL و مهارت های تجزیه و تحلیل داده ها کامپیوتر با پیکربندی مناسب و حساب اینترنتی معتبر Azure با Databricks (دستورالعمل های ارائه شده برای راه اندازی محیط با استفاده از Azure آجرهای داده برای تمرین عملی)

Databricks SQL Warehouse یک فناوری نسبتاً جدید برای ساخت Data Lakehouse یا Data Warehouse با استفاده از موتور قدرتمند Apache Spark است که در آن تجزیه و تحلیل ها می توانند در مقیاس ساخته شوند. به عنوان بخشی از این دوره جامع، تمام مهارت های کلیدی مورد نیاز برای تسلط بر Databricks SQL Warehouse از جمله Spark SQL را خواهید آموخت زیرا SQL در Databricks SQL Warehouse مبتنی بر Spark SQL است.

این دوره همچنین اکثر برنامه های درسی مربوط به پاک کردن آزمون دانشیار تحلیلگر داده گواهی شده Databricks ارائه شده توسط خود Databricks را پوشش می دهد.

در اینجا جزئیات سطح بالا مربوط به این دوره آمده است. این یک دوره در سطح مبتدی است که در آن شما می توانید نه تنها نحو و معناشناسی Databricks SQL یا Spark SQL را یاد بگیرید، بلکه مفاهیم آن را نیز درک خواهید کرد.

  • تنظیم مواد و محیط دوره برای Databricks SQL Warehouse

  • مدیریت پایگاه‌های داده با استفاده از Databricks SQL Warehouse

  • مدیریت جداول دلتا در Databricks SQL Warehouse

  • تنظیم مجموعه داده برای Databricks SQL Views and Copy Commands

  • داده‌های SQL یا Spark SQL Queries برای پردازش مقادیر در ستون‌های رشته JSON

  • داده ها را در جداول دلتا در Databricks SQL Warehouse کپی کنید

  • درج یا ادغام نتایج جستجوی Spark SQL یا Databricks SQL یا مشاهده در جداول دلتا

  • نتایج جستجوی Spark SQL یا Databricks SQL و داده ها را از Delta Table با Delete در جداول Delta ادغام کنید

  • پرس و جوهای اساسی SQL با استفاده از Spark SQL یا Databricks SQL

  • انجام تجمیع با استفاده از Group By و فیلتر کردن با استفاده از استفاده از Spark SQL یا Databricks SQL

  • تجمیع با استفاده از Windowing یا توابع تحلیلی از جمله تجمعات تجمعی با استفاده از Spark SQL یا Databricks SQL

  • رتبه‌بندی با استفاده از Windowing یا توابع تحلیلی با استفاده از Spark SQL یا Databricks SQL

  • برخورد با فرمت های مختلف فایل مانند پارکت، json، csv و غیره با استفاده از Spark SQL یا Databricks SQL

  • همه انواع اتصالات مهم مانند داخلی، چپ یا راست بیرونی، بیرونی کامل با استفاده از Spark SQL یا Databricks SQL

  • تجسم و داشبورد با استفاده از Databricks SQL Warehouse

ما همچنین تعدادی تمرین همراه با راه حل با توضیحات در طول دوره ارائه کرده ایم.

نکات کلیدی تسلط بر Databricks SQL و Spark SQL با استفاده از Databricks SQL Warehouse

  • تنظیم محیط برای یادگیری Databricks SQL و Spark SQL با استفاده از Azure

  • پشتیبانی از طریق Udemy Q A با پشتیبانی تیم متخصص ما

  • مجموعه‌های داده و مواد از طریق مخزن GitHub به همراه دستورالعمل‌هایی برای تمرین Databricks SQL یا Spark SQL

  • دسترسی Life Time به سخنرانی‌های ویدیویی با کیفیت بالا برای یادگیری Databricks SQL و Spark SQL


سرفصل ها و درس ها

مقدمه ای بر تسلط بر Databricks SQL Warehouse و Spark SQL Introduction to Mastering Databricks SQL Warehouse and Spark SQL

  • مقدمه ای بر تسلط بر Databricks SQL Warehouse و Spark SQL Introduction to Mastering Databricks SQL Warehouse and Spark SQL

با استفاده از Azure محیط Databricks را راه اندازی کنید Setup Databricks Environment using Azure

  • مقدمه ای بر راه اندازی محیط Databricks با استفاده از Azure Introduction to Setup Databricks Environment using Azure

  • برای Azure Portal ثبت نام کنید Signup for Azure Portal

  • Azure Databricks را با استفاده از Azure Portal راه اندازی کنید Setup Azure Databricks using Azure Portal

  • راه اندازی Azure Databricks Environment Launching Azure Databricks Environment

  • خوشه Databricks Single Node ایجاد کنید Create Single Node Databricks Cluster

  • ویرایش خوشه های Databricks با استفاده از Databricks UI Editing Databricks Clusters using Databricks UI

  • شروع کار با نوت بوک های Databricks Getting Started with Databricks Notebooks

  • ایجاد Databricks SQL Warehouse Create Databricks SQL Warehouse

  • افزایش سهمیه برای ایجاد Databricks SQL Warehouse Cluster Increase Quota to Create Databricks SQL Warehouse Cluster

  • کوئری ها را با استفاده از Databricks SQL Warehouse اجرا کنید Run Queries using Databricks SQL Warehouse

  • مروری بر آپلود داده ها با استفاده از Databricks SQL Warehouse UI Overview of Uploading Data using Databricks SQL Warehouse UI

  • مرور داده کاوشگر علوم داده و محیط مهندسی Review Data Explorer of Data Science and Engineering Environment

  • تجزیه و تحلیل داده های فروش با استفاده از نوت بوک های Databricks Analyze Sales Data using Databricks Notebooks

  • خاتمه Databricks Data Science and Engineering Clusters Terminate Databricks Data Science and Engineering Clusters

  • خاتمه Databricks SQL Warehouse Cluster Terminate Databricks SQL Warehouse Clusters

  • فضای کاری Azure Databricks را حذف کنید Delete Azure Databricks Workspace

راه اندازی مواد و محیط دوره برای Databricks SQL Setup Course Material and Environment for Databricks SQL

  • Databricks CLI را با استفاده از دستور Python 3 Pip نصب کنید Install Databricks CLI using Python 3 Pip Command

  • Databricks CLI را با استفاده از Token و Profile پیکربندی کنید Configure Databricks CLI using Token and Profile

  • مخزن Git را برای مجموعه های مواد و داده های مربوط به دوره Databricks SQL راه اندازی کنید Setup Git Repository for Material and Data Sets related to Databricks SQL Course

شروع کار با Databricks SQL Getting Started with Databricks SQL

  • نمای کلی Databricks SQL Platform - مقدمه Overview of Databricks SQL Platform - Introduction

  • First Query را با استفاده از ویرایشگر SQL Databricks SQL اجرا کنید Run First Query using SQL Editor of Databricks SQL

  • نمای کلی داشبوردها با استفاده از Databricks SQL Overview of Dashboards using Databricks SQL

  • مروری بر Databricks SQL Data Explorer برای بررسی پایگاه داده و جداول متاستور Overview of Databricks SQL Data Explorer to review Metastore Database and Tables

  • از Databricks SQL Editor برای توسعه اسکریپت ها یا پرس و جوها استفاده کنید Use Databricks SQL Editor to develop scripts or queries

  • بررسی فراداده جداول با استفاده از Databricks SQL Platform Review Metadata of Tables using Databricks SQL Platform

  • نمای کلی بارگیری داده ها در جداول retail_db Overview of loading data into retail_db tables

  • Databricks CLI را پیکربندی کنید تا داده ها را به Databricks Platform منتقل کند Configure Databricks CLI to push data into Databricks Platform

  • داده های JSON را با استفاده از Databricks CLI در DBFS کپی کنید Copy JSON Data into DBFS using Databricks CLI

  • داده های JSON را با استفاده از Spark API تجزیه و تحلیل کنید Analyze JSON Data using Spark APIs

  • طرحواره های جدول دلتا را با استفاده از Spark API تجزیه و تحلیل کنید Analyze Delta Table Schemas using Spark APIs

  • بارگذاری داده ها از Spark Data Frames در جداول دلتا Load Data from Spark Data Frames into Delta Tables

  • برای اعتبارسنجی داده ها، پرس و جوهای Adhoc را با استفاده از Databricks SQL Editor اجرا کنید Run Adhoc Queries using Databricks SQL Editor to validate data

  • مروری بر جداول خارجی با استفاده از Databricks SQL Overview of External Tables using Databricks SQL

  • استفاده از دستور COPY برای کپی داده ها در جداول دلتا Using COPY Command to Copy Data into Delta Tables

  • نقاط پایانی Databricks SQL را مدیریت کنید Manage Databricks SQL Endpoints

مدیریت پایگاه های داده با استفاده از Databricks SQL Warehouse Managing Databases using Databricks SQL Warehouse

  • پایگاه های داده را با استفاده از Databricks SQL Data Explorer مرور کنید Review Databases using Databricks SQL Data Explorer

  • ایجاد پایگاه داده یا طرحواره با استفاده از Databricks SQL Create Database or Schema using Databricks SQL

  • استفاده از IF NOT EXISTS هنگام ایجاد پایگاه داده با استفاده از Databricks SQL Using IF NOT EXISTS while Creating Databases using Databricks SQL

  • فهرست کردن یا نمایش پایگاه‌های داده و دریافت فراداده پایگاه‌های داده با استفاده از Databricks Listing or Showing Databases and Getting Metadata of Databases using Databricks

  • مکان پیش فرض Databricks SQL Database یا Schema را درک کنید Understand Default Location of Databricks SQL Database or Schema

  • ایجاد پایگاه داده یا طرحواره با استفاده از مکان در Databricks SQL Warehouse Create Database or Schema using Location in Databricks SQL Warehouse

  • پایگاه های داده را در Databricks SQL Warehouse رها کنید Drop Databases in Databricks SQL Warehouse

  • تغییر پایگاه داده در Databricks SQL Warehouse Alter Database in Databricks SQL Warehouse

  • نظرات پایگاه های داده در Databricks SQL Warehouse Comments on Databases in Databricks SQL Warehouse

جداول دلتا را در Databricks SQL Warehouse مدیریت کنید Manage Delta Tables in Databricks SQL Warehouse

  • فهرست پایگاه های داده و ذخیره Databricks SQL Script List Databases and Save Databricks SQL Script

  • جدول را با استفاده از قالب دلتا در Databricks SQL Warehouse ایجاد کنید Create Table using Delta Format in Databricks SQL Warehouse

  • درک مکان و استفاده از بند برای تعیین فرمت فایل برای Databricks Understand Location and Using Clause to specify File Format for Databricks

  • جدول خارجی را با استفاده از قالب دلتا در Databricks SQL Warehouse ایجاد کنید Create External Table using Delta Format in Databricks SQL Warehouse

  • جدول خارجی را رها کنید و پوشه را در Databricks SQL Warehouse حذف کنید Drop External Table and Delete Folder in Databricks SQL Warehouse

  • مروری بر عملیات DML یا CRUD با استفاده از Databricks SQL Overview of DML or CRUD Operations using Databricks SQL

  • درج رکوردها در جدول Databricks SQL Warehouse Insert Records into Databricks SQL Warehouse table

  • چندین رکورد را در جدول Databricks SQL Warehouse درج کنید Insert Multiple Records into Databricks SQL Warehouse table

  • به روز رسانی رکوردهای موجود در جدول Databricks SQL Warehouse Update Existing Records in Databricks SQL Warehouse table

  • به روز رسانی رکوردهای موجود در جدول Databricks SQL Warehouse بر اساس مقادیر تهی Update Existing Records in Databricks SQL Warehouse table based on Null Values

  • حذف رکوردهای موجود در جدول Databricks SQL Warehouse Delete Existing Records in Databricks SQL Warehouse table

  • جداول کاربران را از پایگاه داده یا طرحواره Databricks SQL Warehouse پاک کنید Cleanup Users Tables from Databricks SQL Warehouse Database or Schema

Setup Data Set برای Databricks SQL Views and Copy Commands Setup Data Set for Databricks SQL Views and Copy Commands

  • شروع به کار با دستورات Databricks fs با استفاده از Databricks CLI Getting Started with Databricks fs Commands using Databricks CLI

  • با استفاده از دستورات CLI Databricks در DBFS پوشه ایجاد کنید Create Folder in DBFS using Databricks CLI Commands

  • با استفاده از دستورات Databricks CLI فایل ها را از سیستم فایل محلی در DBFS کپی کنید Copy Files from Local File System into DBFS using Databricks CLI Commands

  • هنگام کپی کردن در DBFS با استفاده از Databricks CLI Command فایل ها را بازنویسی کنید Overwrite Files while Copying into DBFS using Databricks CLI Command

  • اطلاعات کاتالوگ دوره را در فایل های آپلود شده در DBFS درک کنید Understand Course Catalog Data in the files uploaded to DBFS

  • گزینه هایی برای تجزیه و تحلیل داده ها با استفاده از Databricks SQL Queries Options to Analyze Data using Databricks SQL Queries

  • پرس و جوهای Select را با استفاده از مسیر DBFS در From Cluase اجرا کنید Run Select Queries using DBFS Path in From Cluase

  • کوئری ها را با استفاده از نماهای موقت در Databricks SQL اجرا کنید Run Queries using Temporary Views in Databricks SQL

  • کوئری ها را با استفاده از جداول خارجی در Databricks SQL اجرا کنید Run Queries using External Tables in Databricks SQL

پرس و جوهایی برای پردازش مقادیر در ستون های رشته ای JSON Queries to Process Values in JSON String Columns

  • پرس و جوهایی برای پردازش مقادیر در ستون های رشته ای JSON Queries to Process Values in JSON String Columns

  • با استفاده از داده های کاتالوگ دوره، بر اساس کلید متمایز و شمارش کنید Get Distinct and Count based on Key using Course Catalog Data

  • فیلتر کردن داده ها با استفاده از کوئری های Basic Databricks SQL با استفاده از داده های فهرست دوره Filter Data using Basic Databricks SQL Queries using Course Catalog Data

  • کاوش توابع با استفاده از Databricks SQL Exploring Functions using Databricks SQL

  • مقادیر رکوردهای ستون را در جدول کاتالوگ دوره درک کنید Understand Record Column Values in Course Catalog Table

  • پردازش مقادیر رشته JSON با استفاده از Databricks SQL Queries Processing JSON String Values using Databricks SQL Queries

  • Process Instructors JSON Records با استفاده از Databricks SQL Queries Process Instructors JSON Records using Databricks SQL Queries

  • ایجاد View for Instructors با استفاده از Databricks SQL Queries Create View for Instructors using Databricks SQL Queries

کپی داده ها در جداول دلتا در Databricks SQL Warehouse Copy Data into Delta Tables in Databricks SQL Warehouse

  • ایجاد جدول دلتا برای مجموعه داده های کاتالوگ دوره Create Delta Table for Course Catalog Data Set

  • با استفاده از Databricks SQL Queries نام فایل ها را به همراه داده دریافت کنید Get File Names along with Data using Databricks SQL Queries

  • مروری بر Databricks SQL COPY Command Overview of Databricks SQL COPY Command

  • با استفاده از Files داده ها را از یک فایل در جداول دلتا کپی کنید Copy Data from single file into Delta Tables using Files

  • با استفاده از Files داده ها را از چندین فایل در جداول دلتا کپی کنید Copy Data from multiple files into Delta Tables using Files

  • با استفاده از Pattern داده ها را از چندین فایل در جداول دلتا کپی کنید Copy Data from multiple files into Delta Tables using Pattern

  • جدول کاتالوگ دوره را در Databricks SQL Warehouse با ستون اضافی ایجاد کنید Create Course Catalog Table in Databricks SQL Warehouse with additional Column

  • داده ها را از فایل ها با استفاده از Queries در جداول دلتا کپی کنید Copy Data from Files using Queries into Delta Tables

  • اعتبار سنجی جدول کاتالوگ دوره در لایه برنز Validate Course Catalog Table in Bronze Layer

درج یا ادغام نتایج جستجو یا مشاهده در جداول دلتا با استفاده از Databricks SQL Insert or Merge Query Results or View into Delta Tables using Databricks SQL

  • مقدمه ای برای درج یا ادغام نتایج جستجو یا مشاهده در جداول دلتا با استفاده از D Introduction to Insert or Merge Query Results or View into Delta Tables using D

  • ایجاد کاتالوگ دوره و جداول مربیان با استفاده از Databricks SQL Create Course Catalog and Instructors Tables using Databricks SQL

  • داده ها را با استفاده از Databricks SQL از فایل های JSON در جدول کاتالوگ دوره کپی کنید Copy Data into Course Catalog Table from JSON Files using Databricks SQL

  • با استفاده از Databricks SQL، نتایج پرس و جو را در جدول دلتا قرار دهید Insert Query Results into Delta Table using Databricks SQL

  • تمرین ایجاد جدول دوره ها و درج داده ها Exercise to Create Courses Table and Insert Data

  • داده‌های مدرسان را از فایل جدید در جدول کاتالوگ دوره کپی کنید Copy Instructors Data into Course Catalog Table from new file

  • مفهوم Merge یا Upsert را در عملیات DML یا CRUD درک کنید Understand the Concept of Merge or Upsert in DML or CRUD Operations

  • برای دریافت آخرین سوابق مربیان از جدول کاتالوگ دوره، درخواست ایجاد کنید Develop Query to Get the latest Instructors Records from Course Catalog Table

  • مروری بر نحو بیانیه ادغام با استفاده از Databricks SQL Overview of Merge Statement Syntax using Databricks SQL

  • ادغام داده ها در جدول مربیان از کاتالوگ دوره با استفاده از Databricks SQL Merge Data into Instructors Table from Course Catalog using Databricks SQL

  • تمرینی برای ادغام داده های دوره ها از کاتالوگ دوره ها در جدول دوره ها Exercise to merge Courses Data from Course Catalog into Courses Table

نتایج پرس و جو و داده ها را با حذف در جداول دلتا با استفاده از Databricks SQL ادغام کنید Merge Query Results and Data with Delete into Delta Tables using Databricks SQL

  • مقدمه ای بر ادغام نتایج و داده های پرس و جو از جدول دلتا با حذف در Introduction to Merge Query Results and Data from Delta Table with Delete in

  • بررسی اجمالی سناریوی ادغام با حذف واقعی زندگی Overview of Merge with Delete Real Life Scenario

  • جدول کاربران را با استفاده از قالب دلتا برای ادغام با حذف ایجاد کنید Create Users Table using Delta format for Merge with Delete

  • اولین مجموعه رکوردها را در Users Table.cmproj ادغام کنید Merge First Set of Records into Users Table.cmproj

  • عملیات DML را روی جدول کاربران در لایه برنز انجام دهید Perform DML Operations on Users Table in Bronze Layer

  • داده های به روز شده را در جدول کاربران در لایه نقره ای ادغام کنید Merge Updated Data into Users Table in Silver Layer

  • سناریوهایی برای ادغام در Databricks SQL Delta Tables Scenarios for Merge into Databricks SQL Delta Tables

  • جدول کاربران را برای ادغام تدریجی داده ها در جدول هدف بازنشانی کنید Reset Users Table to Merge Data Incrementally into the target table

  • ادغام در جدول Databricks با استفاده از شرایط موجود در مهر زمانی به روز شده Merge Into Databricks Table using Conditions on Updated Timestamp

  • عملیات برای درج و به‌روزرسانی رکوردها در جدول کاربران برنز انجام دهید Perform Operations to Insert and Update records in Bronze Users Table

  • ادغام داده های افزایشی با حذف در جدول کاربران نقره ای با شرط روشن Merge Incremental Data with Delete into Silver Users Table with Condition on

  • تمرینی برای توسعه بیانیه ادغام با شرط اجتناب از نام ستون ها Exercise to Develop Merge Statement with Condition avoiding Column Names

شروع به کار با پرس و جوهای پایه SQL با استفاده از Databricks SQL Getting Started with Basic SQL Queries using Databricks SQL

  • مقدمه ای بر شروع پرس و جوهای پایه SQL با استفاده از Databricks SQL Introduction to Getting Started with Basic SQL Queries using Databricks SQL

  • کاوش مجموعه داده های Databricks Exploring Databricks Data Sets

  • ایجاد پایگاه داده و جدول موقت برای پیش نمایش داده ها Create Database and Temporary Table to Preview the Data

  • ویژگی های مجموعه داده خرده فروشی آنلاین را درک کنید Understand Characteristics of Online Retail Dataset

  • جدول خارجی با ستون ها و انواع داده ایجاد کنید Create External Table with Columns and Datatypes

  • با استفاده از Databricks SQL تعداد مقادیر غیر پوچ همه ستون ها را دریافت کنید Get Count of Not Null Values of all Columns using Databricks SQL

  • نمای کلی از Stack یا Unpivot یا Transpose of Data Overview of Stack or Unpivot or Transpose of Data

  • انتقال داده ها با استفاده از Stack در Databricks SQL Transpose Data using Stack in Databricks SQL

  • با استفاده از Databricks SQL، شمارش های Not Null را به ردیف های متعدد منتقل کنید Transpose Not Null Counts into Multiple Rows using Databricks SQL

  • مروری بر Unique یا Distinct در Databricks SQL Overview of Unique or Distinct in Databricks SQL

  • نمای کلی Distinct برای به دست آوردن رکوردهای منحصر به فرد با استفاده از Databricks SQL Overview of Distinct to get unique records using Databricks SQL

  • تمرین - تعداد مشخصی از هر ستون را دریافت کنید Exercise - Get Distinct Count of Every Column

  • مشاهده را با استفاده از Query for Unique Records ایجاد کنید Create View using Query for Unique Records

  • ساختار پرس و جوی SQL و نمای کلی بندها Structure of SQL Query and Overview of Clauses

  • مروری بر نظرات در Databricks SQL Queries Overview of Comments in Databricks SQL Queries

  • شروع با بند WHERE و مرور کلی مبدل های نوع داده ضمنی Getting Started with WHERE Clause and Overview of Implicit Data Type Convers

  • نتیجه گیری - شروع به کار با پرس و جوهای اولیه SQL با استفاده از Databricks SQL Conclusion - Getting Started with Basic SQL Queries using Databricks SQL

فیلتر کردن داده ها با استفاده از بند WHERE در Databricks SQL Filtering Data using WHERE Clause in Databricks SQL

  • مقدمه ای بر فیلتر کردن داده ها با استفاده از بند WHERE در Databricks SQL Introduction to Filtering Data using WHERE Clause in Databricks SQL

  • بررسی اجمالی فرمت های استاندارد تاریخ و مهر زمان در Databricks SQL Overview of Standard Date and Timestamp Formats in Databricks SQL

  • فرمت تاریخ فاکتور را درک کنید Understand the format of Invoice Date

  • الزامات استفاده از تاریخ ها یا مهرهای زمانی استاندارد را درک کنید Understand the requirements to use standard dates or timestamps

  • تبدیل مقادیر تاریخ فاکتور به تاریخ و مُهر زمانی استاندارد Convert Invoice Date Values to Standard Dates and Timestamps

  • با استفاده از Databricks SQL بر اساس Dates فیلتر کنید Filter using Databricks SQL based on Dates

  • مروری بر عملیات بولی در Databricks SQL Overview of Boolean Operations in Databricks SQL

  • داده ها را با استفاده از محدوده تاریخ و Boolean AND فیلتر کنید Filter Data using Date Range and Boolean AND

  • اهمیت تبدیل تاریخ و مهر زمانی به فرمت استاندارد Importance of Converting Dates and Timestamps to standard format

  • استفاده از Between Operator در Databricks SQL Queries در برابر تاریخ فاکتور Using Between Operator in Databricks SQL Queries against Invoice Date

  • استفاده از Between Operator در Databricks SQL Queries در مقابل کمیت Using Between Operator in Databricks SQL Queries against Quantity

  • مقابله با مقادیر پوچ در Databricks SQL Dealing with Null Values in Databricks SQL

  • مقایسه پرس و جو با مقادیر تهی با استفاده از Databricks SQL Queries Comparing with Null Values using Databricks SQL

  • OR بولی با استفاده از همان ستون در برابر مقادیر متعدد Boolean OR using Same Column against multiple values

  • Query را با استفاده از IN Operator توسعه دهید Develop Query using IN Operator

  • Query را برای دریافت تعداد فاکتور در روزهای آخر هفته با استفاده از Databricks SQL توسعه دهید Develop Query to get Invoice Count not in Weekend Days using Databricks SQL

تجمیع پایه با استفاده از Databricks SQL Basic Aggregations using Databricks SQL

  • مقدمه ای بر تجمیع پایه با استفاده از Databricks SQL Introduction to Basic Aggregations using Databricks SQL

  • مقدار مورد فاکتور را با استفاده از Databricks SQL محاسبه کنید Compute Invoice Item Amount using Databricks SQL

  • دریافت مبلغ فاکتور برای یک شماره فاکتور معین Get Invoice Amount for a given Invoice Number

  • دریافت جزئیات فاکتور و مبلغ با استفاده از Databricks SQL Get Invoice Details and Amount using Databricks SQL

  • مروری بر نحو پرس و جوی SQL با استفاده از GROUP BY در Databricks SQL Overview of Syntax of SQL Query using GROUP BY in Databricks SQL

  • با استفاده از GROUP BY، مبلغ و تعداد فاکتور به ازای هر مشتری را دریافت کنید Get Invoice Amount and Count Per Customer using GROUP BY

  • ترتیب اجرای کوئری های SQL با Group By و Having Order of Execution of SQL Queries with Group By and Having

  • نتایج جمع‌آوری شده را با استفاده از بند HAVING در Databricks SQL فیلتر کنید Filter Aggregated Results using HAVING Clause in Databricks SQL

  • محاسبه درآمد روزانه بر اساس تاریخ فاکتور با استفاده از Databricks SQL Compute Daily Revenue based on Invoice Date using Databricks SQL

  • محاسبه مبلغ روزانه فاکتور با استفاده از GROUP BY و HAVING با شناسه مشتری n است Compute Daily Invoice Amount using GROUP BY and HAVING with Customer Id is n

  • نتیجه‌گیری در مورد تجمیع‌های اساسی با استفاده از مجموعه داده‌های خرده‌فروشی آنلاین Conclusion on Basic Aggregations using Online Retail Data Set

تجمیع با استفاده از Rollup و Cube در Databricks SQL Aggregations using Rollup and Cube in Databricks SQL

  • مقدمه ای بر تجمیع با استفاده از Rollup و Cube در Databricks SQL Introduction to Aggregations using Rollup and Cube in Databricks SQL

  • داده های فروش را با استفاده از Databricks UI در Delta Table آپلود کنید Upload Sales Data into Delta Table using Databricks UI

  • با استفاده از GROUP BY مبلغ فروش و شمارش را دریافت کنید Get Sale Amount and Count using GROUP BY

  • درک مفهوم Rollup Understanding the concept of Rollup

  • پرس و جو با استفاده از Rollup در Databricks SQL Query using Rollup in Databricks SQL

  • CUBE یا ROLLUP با استفاده از تک ستون در GROUP BY CUBE or ROLLUP using single column in GROUP BY

  • درک مفهوم مکعب Understanding the concept of Cube

  • پرس و جو با استفاده از Cube در Databricks SQL Query using Cube in Databricks SQL

  • با استفاده از Rollup در Databricks SQL Queries تمرین کنید Exercise using Rollup in Databricks SQL Queries

  • نتیجه گیری در مورد تجمیع با استفاده از Rollup و Cube در Databricks SQL Conclusion on Aggregations using Rollup and Cube in Databricks SQL

با استفاده از Databricks SQL Queries می پیوندد Joins using Databricks SQL Queries

  • مقدمه ای بر Joins با استفاده از Databricks SQL Queries Introduction to Joins using Databricks SQL Queries

  • ایجاد جداول برای Joins با استفاده از Databricks SQL Create tables for Joins using Databricks SQL

  • داده ها را در جداول دلتا Databricks پر کنید Populate Data into Databricks Delta Tables

  • درک نمودار مدل داده و روابط بین جداول Understanding Data Model Diagram and Relationships between Tables

  • انواع مختلف اتصالات که با استفاده از Databricks SQL پشتیبانی می شوند Different Types of Joins Supported using Databricks SQL

  • Join داخلی با استفاده از Databricks SQL Inner Join using Databricks SQL

  • تمرین و راه حل برای پیوستن داخلی بین دوره ها و ثبت نام ها Exercise and Solution for Inner Join between Courses and Enrolments

  • تمرین و راه حل برای پیوستن به چند جدول و انجام عملیات حسابی Exercise and Solution to Join Multiple Table and Perform Arithmetic Operations

  • برای محاسبه مبلغ معوقه برای هر کاربر تمرین کنید Exercise to compute outstanding amount for each user

  • اتصالات بیرونی با استفاده از Databricks SQL Outer Joins using Databricks SQL

  • درک مفهوم اتصالات بیرونی با استفاده از Databricks SQL Understanding the Concept of Outer Joins using Databricks SQL

  • تغییرات اساسی در نتایج Join با استفاده از Databricks SQL Queries Basic Transformations on Join Results using Databricks SQL Queries

  • نتایج Join را با استفاده از Databricks SQL جمع آوری کنید Aggregate on Join Results using Databricks SQL

  • روی نتایج Join با استفاده از Databricks SQL حساب می کند Counts on Join Results using Databricks SQL

  • تمرین و راه حل برای پیوستن خارجی با استفاده از Databricks SQL Exercise and Solution for Outer Join using Databricks SQL

  • تمرین و راه حل برای تجمع در نتایج پیوستن Exercise and Solution for Aggregations on Join Results

  • Outer Join با چند شرط با استفاده از Databricks SQL Outer Join with Multiple Conditions using Databricks SQL

  • پیوستن کامل بیرونی با استفاده از Databricks SQL Full Outer Join using Databricks SQL

  • مروری بر محصول Cross Join یا Cartesian در Databricks SQL Overview of Cross Join or Cartesian Product in Databricks SQL

  • نتیجه گیری با استفاده از Databricks SQL Queries می پیوندد Conclusion Joins using Databricks SQL Queries

تجسم ها و داشبوردها با استفاده از Databricks SQL Warehouse Visualizations and Dashboards using Databricks SQL Warehouse

  • مقدمه ای بر تجسم ها و داشبوردها با استفاده از Databricks SQL Warehouse Introduction to Visualizations and Dashboards using Databricks SQL Warehouse

  • بررسی نمونه داشبورد Databricks SQL Warehouse Review Sample Databricks SQL Warehouse Dashboards

  • مروری بر مجموعه داده‌های Udemy Reviews برای تجسم‌ها و داشبوردها Overview of Udemy Reviews Dataset for Visualizations and Dashboards

  • آپلود داده و ایجاد جدول با استفاده از Databricks SQL UI Upload Data and Create Table using Databricks SQL UI

  • جزئیات مربوط به جدول ایجاد شده با استفاده از Databricks SQL Data Explorer را مرور کنید Review Details about Table Created using Databricks SQL Data Explorer

  • با استفاده از Databricks SQL UI، داشبورد سریع برای جدول نظرات Udemy ایجاد کنید Create Quick Dashboard for Udemy Reviews Table using Databricks SQL UI

  • تجسم ها را در داشبورد سریع سفارشی کنید Customize Visualizations in the Quick Dashboard

  • اعتبار سنجی های اولیه Udemy بررسی داده ها با استفاده از Databricks SQL Queries Basic Validations of Udemy Reviews Data using Databricks SQL Queries

  • با استفاده از Databricks SQL Queries تعداد داده‌های Udemy Reviews را با کلید دریافت کنید Get Counts of Udemy Reviews Data By Key using Databricks SQL Queries

  • Query for Visualizations را با استفاده از Databricks SQL توسعه دهید Develop Query for Visualizations using Databricks SQL

  • با استفاده از Databricks SQL Query Results Visualization Graph Line را ایجاد کنید Create Line Graph Visualization using Databricks SQL Query Results

  • با استفاده از Databricks SQL Query Results تجسم نمودار میله ای ایجاد کنید Create Bar Chart Visualization using Databricks SQL Query Results

  • پرس و جوها را با استفاده از Databricks SQL Editor پارامتر کنید Parameterize Queries using Databricks SQL Editor

  • Query را برای دریافت شمارنده در چندین فیلد با استفاده از Databricks SQL توسعه دهید Develop Query to Get Counters on Multiple Fields using Databricks SQL

  • اضافه کردن تجسم بر اساس شمارنده با استفاده از Databricks SQL Queries Add Visualizations based on Counters using Databricks SQL Queries

  • حذف Visualization با استفاده از Databricks SQL Editor Delete Visualization using Databricks SQL Editor

  • پرس و جوی شمارنده را با استفاده از Databricks SQL Editor پارامتر کنید Parameterize Counter Query using Databricks SQL Editor

  • داشبورد را با استفاده از تجسم های چندگانه بر اساس کوئری های Databricks SQL ایجاد کنید Create Dashboard using Multiple Visualizations based on Databricks SQL Queries

نمایش نظرات

آموزش تسلط بر Databricks SQL Warehouse و Spark SQL
جزییات دوره
14 hours
198
Udemy (یودمی) Udemy (یودمی)
(آخرین آپدیت)
836
4 از 5
ندارد
دارد
دارد
جهت دریافت آخرین اخبار و آپدیت ها در کانال تلگرام عضو شوید.

Google Chrome Browser

Internet Download Manager

Pot Player

Winrar

Durga Viswanatha Raju Gadiraju Durga Viswanatha Raju Gadiraju

مشاور فناوری و Evangelist 13 سال تجربه در اجرای پروژه های پیچیده با استفاده از مجموعه گسترده ای از فناوری ها از جمله Big Data و Cloud. Iversity، llc - یک شرکت مستقر در ایالات متحده برای ارائه آموزش با کیفیت برای متخصصان فناوری اطلاعات و کارکنان و همچنین راه حل های مشاوره ای برای مشتریان سازمانی ، پیدا کردم. من هزاران نفر از متخصصان فناوری اطلاعات را در زمینه فن آوری های زیادی از جمله Big Data و Cloud آموزش داده ام. ایجاد حرفه ای فناوری اطلاعات برای افراد و ارائه خدمات با کیفیت به مشتریان از اهمیت بالاتری در سازمان ما برخوردار است. به عنوان یک استراتژی ورود ، ارائه آموزش با کیفیت در زمینه های ABCD خواهد بود * توسعه برنامه * داده های بزرگ و هوش تجاری * ابر * پایگاه داده ، پایگاه داده

Asasri Manthena Asasri Manthena