آموزش Databricks Essentials برای توسعه دهندگان Spark (Azure و AWS)

Databricks Essentials for Spark Developers (Azure and AWS)

نکته: آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
نمونه ویدیوها:
توضیحات دوره: آشنایی با ویژگی های Databricks استفاده از نسخه Community از Databricks برای کاوش در پلت فرم ثبت نام برای آزمایش کامل با استفاده از Azure Databricks ثبت نام برای آزمایش کامل با استفاده از Databricks در AWS توسعه و استقرار نوت بوک ها با استفاده از Scala، Python و همچنین SQL با استفاده از Databricks Platform تفاوت بین تعاملی را درک کنید و خوشه های شغلی توسعه و استقرار رسمی چرخه زندگی اجرای کارها با پیوست کردن برنامه به صورت jar همراه با کتابخانه ها مروری بر Cluster Pools نصب و استفاده از databricks-cli پیش نیازها:لپ تاپ با پیکربندی مناسب دانش Apache Spark بسیار مطلوب است.

آیا شما یک توسعه دهنده باتجربه Spark هستید و می خواهید در مورد پلت فرم Databricks بدانید؟

به طور معمول ما روی مهندسی داده با خوشه هایی که با استفاده از توزیع ها ساخته می شدند کار می کردیم. با این حال، با استفاده از فضای ابری، اگر بتوانیم فضای ذخیره‌سازی را از محاسبه و مدل پرداخت اهرمی جدا کنیم، هزینه‌های زیرساخت برای خوشه‌های داده بزرگ می‌تواند به میزان قابل توجهی کاهش یابد.

Databricks یکی از این گزینه های Cloud است!!!

به‌عنوان بخشی از این دوره، نکات ضروری Databricks Essentials را یاد خواهید گرفت.

  • نسخه‌های مختلف مانند Community، Databricks (AWS) و Azure Databricks را بشناسید

  • ثبت نام برای نسخه انجمن

  • آپلود داده ها در DBFS

  • توسعه با استفاده از Databricks Notebook با Scala، Python و همچنین Spark SQL

  • چرخه عمر توسعه با استفاده از Scala با IntelliJ به عنوان IDE

  • پیکربندی کارها با استفاده از فایل های Jar

  • و بسیاری دیگر


سرفصل ها و درس ها

شروع کار با Databricks Getting Started with Databricks

  • معرفی دوره Introduction to the course

  • ثبت نام برای Databricks Community Edition Signing up for Databricks Community Edition

  • سرویس Azure Databricks را ایجاد کنید Create Azure Databricks Service

  • برای آزمایش کامل Databricks در AWS ثبت نام کنید Signup For Databricks Full Trial on AWS

  • مروری بر رابط کاربری Databricks Overview of Databricks UI

  • فایل ها را در Databricks آپلود کنید Upload Files into Databricks

  • ایجاد Cluster در Databricks Platform Create Cluster in Databricks Platform

  • مدیریت فایل سیستم با استفاده از نوت بوک Managing File System using Notebooks

  • استفاده از رابط کاربری Databricks Using Databricks UI

Notebook Databricks با استفاده از Scala with Spark Databricks Notebook using Scala with Spark

  • با استفاده از Scala نوت بوک ایجاد کنید و سفارشات را بخوانید Create Notebook and read orders using Scala

  • order_items و products را با استفاده از Scala در DataFrames بخوانید Read order_items and products into DataFrames using Scala

  • تجسم داده ها با استفاده از Display در Scala Visualize Data using Display in Scala

  • با استفاده از Scala سفارشات کامل یا بسته را دریافت کنید Get complete or closed orders using Scala

  • با استفاده از Scala به داده ها بپیوندید و انتخاب کنید Join and select data using Scala

  • با استفاده از Scala درآمد روزانه محصول را دریافت کنید Get Daily Product Revenue using Scala

  • با استفاده از Scala درآمد روزانه محصول را مرتب کنید Get Daily Product Revenue Sorted using Scala

  • خروجی را با استفاده از Scala در فایل‌های CSV ذخیره کنید Save output to CSV Files using Scala

  • تمرین - با استفاده از Scala درآمد ماهانه هر مشتری را دریافت کنید Exercise - Get the monthly revenue for each Customer using Scala

Notebook Databricks با استفاده از Python (pyspark) Databricks Notebook using Python (pyspark)

  • بیان مسئله را تعریف کنید Define Problem Statement

  • بیان مسئله را تعریف کنید Define Problem Statement

  • ایجاد نوت بوک و خواندن دستورات با استفاده از پایتون Create Notebook and read orders using Python

  • order_items و products را در DataFrames با استفاده از Python بخوانید Read order_items and products into DataFrames using Python

  • تجسم داده ها با استفاده از نمایش در پایتون Visualize Data using Display in Python

  • با استفاده از پایتون سفارشات کامل یا بسته را دریافت کنید Get complete or closed orders using Python

  • با استفاده از پایتون به داده ها بپیوندید و انتخاب کنید Join and select data using Python

  • درآمد روزانه محصول را با استفاده از پایتون دریافت کنید Get Daily Product Revenue using Python

  • با استفاده از پایتون درآمد روزانه محصول را مرتب کنید Get Daily Product Revenue Sorted using Python

  • خروجی را با استفاده از پایتون در فایل‌های CSV ذخیره کنید Save output to CSV Files using Python

  • تمرین - درآمد ماهانه هر مشتری را با استفاده از پایتون دریافت کنید Exercise - Get the monthly revenue for each Customer using Python

Notebook Databricks با استفاده از Spark SQL Databricks Notebook using Spark SQL

  • ایجاد نوت بوک و خواندن سفارشات با استفاده از Spark SQL Create Notebook and read orders using Spark SQL

  • order_items و محصولات را با استفاده از Spark SQL بخوانید Read order_items and products using Spark SQL

  • نتایج SQL را تجسم کنید Visualize SQL results

  • با استفاده از Spark SQL داده ها را بپیوندید و انتخاب کنید Join and Select data using Spark SQL

  • با استفاده از Spark SQL درآمد روزانه محصول را مرتب کنید Get Daily Product Revenue Sorted using Spark SQL

  • با استفاده از Spark SQL خروجی را در جدول ذخیره کنید Save output to a table using Spark SQL

  • تمرین - با استفاده از Spark SQL درآمد ماهانه هر مشتری را دریافت کنید Exercise - Get the monthly revenue for each Customer using Spark SQL

Databricks Jobs and Cluster Databricks Jobs and Clusters

  • مقدمه ای بر مشاغل و خوشه Introduction to Jobs and Cluster

  • ایجاد Cluster در Azure Databricks Create Cluster on Azure Databricks

  • درخواست افزایش سهمیه CPU در Azure Request to increase CPU Quota on Azure

  • ایجاد Job on Databricks با استفاده از Notebook Creating Job on Databricks using Notebook

  • ارسال مشاغل با استفاده از Job Cluster Submitting Jobs using Job Cluster

  • ایجاد Pool در Databricks Create Pool in Databricks

  • اجرای کار با استفاده از خوشه تعاملی متصل به Pool Running Job using Interactive Cluster attached to Pool

  • اجرای کار با استفاده از Job Cluster متصل به Pool Running Job using Job Cluster attached to Pool

  • تمرین - با استفاده از خوشه تعاملی، برنامه را به عنوان شغل ارسال کنید Exercise - Submit the application as job using interactive cluster

چرخه عمر توسعه و استقرار Databricks با استفاده از Scala Databricks Development and Deployment Life Cycle using Scala

  • مقدمه Introduction

  • راه اندازی پروژه با استفاده از IntelliJ IDE Setup Project using IntelliJ IDE

  • افزودن وابستگی به پروژه Add Dependencies to the project

  • توسعه برنامه با استفاده از IDE Develop application using IDE

  • خارجی کردن خواص Externalize Properties

  • کار را با استفاده از Jar ارسال کنید Submit job using Jar

نمایش نظرات

آموزش Databricks Essentials برای توسعه دهندگان Spark (Azure و AWS)
جزییات دوره
4 hours
50
Udemy (یودمی) Udemy (یودمی)
(آخرین آپدیت)
8,506
4 از 5
ندارد
دارد
دارد
جهت دریافت آخرین اخبار و آپدیت ها در کانال تلگرام عضو شوید.

Google Chrome Browser

Internet Download Manager

Pot Player

Winrar

Durga Viswanatha Raju Gadiraju Durga Viswanatha Raju Gadiraju

مشاور فناوری و Evangelist 13 سال تجربه در اجرای پروژه های پیچیده با استفاده از مجموعه گسترده ای از فناوری ها از جمله Big Data و Cloud. Iversity، llc - یک شرکت مستقر در ایالات متحده برای ارائه آموزش با کیفیت برای متخصصان فناوری اطلاعات و کارکنان و همچنین راه حل های مشاوره ای برای مشتریان سازمانی ، پیدا کردم. من هزاران نفر از متخصصان فناوری اطلاعات را در زمینه فن آوری های زیادی از جمله Big Data و Cloud آموزش داده ام. ایجاد حرفه ای فناوری اطلاعات برای افراد و ارائه خدمات با کیفیت به مشتریان از اهمیت بالاتری در سازمان ما برخوردار است. به عنوان یک استراتژی ورود ، ارائه آموزش با کیفیت در زمینه های ABCD خواهد بود * توسعه برنامه * داده های بزرگ و هوش تجاری * ابر * پایگاه داده ، پایگاه داده

Asasri Manthena Asasri Manthena