آموزش Apache Spark 3 - برنامه نویسی Spark در اسکالا برای مبتدیان

Apache Spark 3 - Spark Programming in Scala for Beginners

نکته: آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
نمونه ویدیوها:
توضیحات دوره: مهندسی داده با استفاده از Spark Structured API Apache Spark Foundation و Spark Architecture مهندسی داده و پردازش داده در Spark کار با منابع داده و سینک ها کار با فریم های داده، مجموعه داده ها و Spark SQL با استفاده از IntelliJ Idea برای توسعه Spark و تست واحد اشکال زدایی، مدیریت گزارش های برنامه کاربردی و استقرار کلاستر پیش نیازها: دانش برنامه نویسی با استفاده از زبان برنامه نویسی اسکالا یک ماشین جدید 64 بیتی ویندوز/مک/لینوکس با 8 گیگابایت رم

این دوره نیازی به دانش قبلی Apache Spark یا Hadoop ندارد. ما دقت کافی برای توضیح معماری Spark و مفاهیم اساسی داشته ایم تا به شما کمک کنیم تا به سرعت و درک محتوای این دوره برسید.


درباره دوره

من در حال ایجاد Apache Spark 3 - Spark Programming در دوره Scala برای مبتدیان هستم تا به شما در درک برنامه نویسی Spark و استفاده از آن دانش برای ساخت راه حل های مهندسی داده کمک کنم. این دوره نمونه محور است و از یک جلسه کاری مانند رویکرد پیروی می کند. ما یک رویکرد برنامه نویسی زنده را در پیش خواهیم گرفت و تمام مفاهیم مورد نیاز را در طول مسیر توضیح خواهیم داد.

چه کسی باید این دوره را بگذراند؟

من این دوره را برای مهندسین نرم افزاری طراحی کردم که مایل به توسعه خط لوله و برنامه مهندسی داده با استفاده از اسپارک آپاچی هستند. من همچنین در حال ایجاد این دوره برای معماران داده و مهندسان داده هستم که مسئول طراحی و ساخت زیرساخت های داده محور سازمان هستند. گروه دیگری از افراد، مدیران و معمارانی هستند که مستقیماً با اجرای اسپارک کار نمی کنند. با این حال، آنها با افرادی کار می کنند که Apache Spark را در سطح زمین پیاده سازی می کنند.

نسخه Spark مورد استفاده در دوره

این دوره از Apache Spark 3.x استفاده می کند. من تمام کد منبع و نمونه های استفاده شده در این دوره آموزشی را در توزیع منبع باز Apache Spark 3.0.0 آزمایش کرده ام.


سرفصل ها و درس ها

درک بیگ دیتا و دریاچه داده Understanding Big Data and Data Lake

  • نمای کلی بخش Section Overview

  • Big Data چیست و چگونه شروع شد What is Big Data and How it Started

  • معماری، تاریخ و تکامل هادوپ Hadoop Architecture, History, and Evolution

  • دریاچه داده چیست و چگونه کار می کند What is Data Lake and How it works

  • معرفی Apache Spark و Databricks Cloud Introducing Apache Spark and Databricks Cloud

  • کد منبع و سایر منابع Source Code and Other Resources

نصب و استفاده از آپاچی اسپارک Installing and Using Apache Spark

  • محیط های توسعه جرقه Spark Development Environments

  • Apache Spark در حالت Local Mode Command Line REPL Apache Spark in Local Mode Command Line REPL

  • Apache Spark در IDE - IntelliJ IDEA Apache Spark in the IDE - IntelliJ IDEA

  • Apache Spark در Cloud - Databricks Community and Notebooks Apache Spark in Cloud - Databricks Community and Notebooks

  • دانش خود را بررسی کنید Check your knowledge

  • آپاچی اسپارک در اکوسیستم هادوپ - نوت بوک های زپلین Apache Spark in Hadoop Ecosystem - Zeppelin Notebooks

مدل و معماری اجرای جرقه Spark Execution Model and Architecture

  • روش های اجرا - چگونه برنامه های Spark را اجرا کنیم؟ Execution Methods - How to Run Spark Programs?

  • مدل پردازش توزیع شده اسپارک - برنامه شما چگونه اجرا می شود؟ Spark Distributed Processing Model - How your program runs?

  • حالت های اجرای جرقه و مدیران خوشه Spark Execution Modes and Cluster Managers

  • دانش خود را بررسی کنید Check your knowledge

  • خلاصه کردن مدل های اجرای جرقه - چه زمانی از چه چیزی استفاده کنیم؟ Summarizing Spark Execution Models - When to use What?

  • کار با Spark Shell - نسخه ی نمایشی Working with Spark Shell - Demo

  • نصب Multi-Node Spark Cluster - Demo Installing Multi-Node Spark Cluster - Demo

  • کار با نوت بوک در کلاستر - نسخه ی نمایشی Working with Notebooks in Cluster - Demo

  • کار با Spark Submit - نسخه ی نمایشی Working with Spark Submit - Demo

  • خلاصه بخش Section Summary

  • دانش خود را بررسی کنید Check your knowledge

مدل برنامه نویسی اسپارک و تجربه توسعه دهنده Spark Programming Model and Developer Experience

  • ایجاد پیکربندی ساخت پروژه Spark Creating Spark Project Build Configuration

  • پیکربندی گزارش های برنامه Spark Project Configuring Spark Project Application Logs

  • دانش خود را بررسی کنید Check your knowledge

  • ایجاد جلسه اسپارک Creating Spark Session

  • پیکربندی Spark Session Configuring Spark Session

  • دانش خود را بررسی کنید Check your knowledge

  • معرفی چارچوب داده Data Frame Introduction

  • پارتیشن ها و مجریان چارچوب داده Data Frame Partitions and Executors

  • تحولات و اقدامات جرقه Spark Transformations and Actions

  • مراحل و وظایف Spark Jobs Spark Jobs Stages and Task

  • درک برنامه اجرایی شما Understanding your Execution Plan

  • اپلیکیشن اسپارک تست واحد Unit Testing Spark Application

  • اشکال زدایی درایور و مجری Spark Debugging Spark Driver and Executor

  • گزارش برنامه Spark در یک خوشه Spark Application Logs in a Cluster

  • جمع بندی خلاصه Rounding off Summary

Spark Structured API Foundation Spark Structured API Foundation

  • مقدمه ای بر Spark API Introduction to Spark APIs

  • مقدمه ای بر Spark RDD API Introduction to Spark RDD API

  • مجموعه داده در مقابل Dataframe Dataset Vs Dataframe

  • کار با Spark Dataset Working with Spark Dataset

  • کار با Spark SQL Working with Spark SQL

  • Spark SQL Engine و Catalyst Optimizer Spark SQL Engine and Catalyst Optimizer

  • خلاصه بخش Section Summary

منابع و سینک های داده اسپارک Spark Data Sources and Sinks

  • مقدمه ای بر منابع و سینک های جرقه Introduction to Spark Sources and Sinks

  • Spark DataFrameReader API Spark DataFrameReader API

  • خواندن فایل های CSV، JSON و Parquet Reading CSV, JSON and Parquet files

  • ایجاد Spark DataFrame Schema Creating Spark DataFrame Schema

  • Spark DataFrameWriter API Spark DataFrameWriter API

  • نوشتن داده ها و مدیریت طرح Writing Your Data and Managing Layout

  • پایگاه های داده و جداول Spark Spark Databases and Tables

  • کار با جداول Spark SQL Working with Spark SQL Tables

Spark Dataframe و Dataset Transformations Spark Dataframe and Dataset Transformations

  • مقدمه ای بر تبدیل داده ها Introduction to Data Transformation

  • کار با ردیف های Dataframe Working with Dataframe Rows

  • سطرهای چارچوب داده و تست واحد Dataframe Rows and Unit Testing

  • ردیف های چارچوب داده و داده های بدون ساختار Dataframe Rows and Unstructured data

  • کار با ستون های Dataframe Working with Dataframe Columns

  • ایجاد و استفاده از UDF Creating and Using UDF

  • تحولات متفرقه Miscellaneous Transformations

تجمعات در آپاچی اسپارک Aggregations in Apache Spark

  • جمع آوری Dataframes Aggregating Dataframes

  • گروه بندی تجمعات Grouping Aggregations

  • پنجره های جمع آوری Windowing Aggregations

Spark Dataframe Joins Spark Dataframe Joins

  • ابهام اتصالات چارچوب داده و نام ستون Dataframe Joins and column name ambiguity

  • اتصالات بیرونی در Dataframe Outer Joins in Dataframe

  • موارد داخلی Spark Join و Shuffle Internals of Spark Join and shuffle

  • بهینه سازی پیوندهای خود Optimizing your joins

  • پیاده سازی اتصالات سطلی Implementing Bucket Joins

به یادگیری ادامه دهید Keep Learning

  • کلمه پایانی Final Word

  • سخنرانی جایزه: اضافی دریافت کنید Bonus Lecture : Get Extra

آرشیو شده- معرفی اسپارک آپاچی Archived- Apache Spark Introduction

  • BigData History و Primer BigData History and Primer

  • درک چشم انداز دریاچه داده Understanding the Data Lake Landscape

  • Apache Spark چیست - مقدمه و مروری What is Apache Spark - An Introduction and Overview

  • دانش خود را بررسی کنید Check your knowledge

نمایش نظرات

آموزش Apache Spark 3 - برنامه نویسی Spark در اسکالا برای مبتدیان
جزییات دوره
8 hours
68
Udemy (یودمی) Udemy (یودمی)
(آخرین آپدیت)
11,117
4.5 از 5
دارد
دارد
دارد
جهت دریافت آخرین اخبار و آپدیت ها در کانال تلگرام عضو شوید.

Google Chrome Browser

Internet Download Manager

Pot Player

Winrar

Prashant Kumar Pandey Prashant Kumar Pandey

معمار ، نویسنده ، مشاور ، مربی @ Learning JournalPrashant Kumar Pandey علاقه زیادی به کمک به مردم برای یادگیری و رشد در زندگی حرفه ای خود دارد و از بین بردن شکاف بین مهارت های موجود و مورد نیاز آنها است. وی در تلاش برای تحقق این مأموریت ، نویسندگی کتاب ، انتشار مقالات فنی و ایجاد فیلم های آموزشی برای کمک به متخصصان و دانشجویان فناوری اطلاعات در صنعت است. وی با بیش از 18 سال تجربه در IT به عنوان توسعه دهنده ، معمار ، مشاور ، مربی و مربی ، با سازمان های بین المللی خدمات نرم افزار در پروژه های مختلف داده محوری و Bigdata کار کرده است. Prashant اعتقاد راسخ به یادگیری مستمر مادام العمر و رشد مهارت دارد. وی برای محبوبیت بخشیدن به یادگیری مادام العمر مادام العمر ، شروع به انتشار فیلم های آموزشی رایگان در کانال YouTube خود کرد و ایده ایجاد ژورنال یادگیری خود را تحت عنوان Learning Journal مفهوم سازی کرد. وی بنیانگذار ، نویسنده اصلی و سردبیر اصلی پورتال Learning Journal است که دوره های مختلف مهارت آموزی ، آموزش و مقالات فنی را از ابتدای سال 2018 ارائه می دهد.

Learning Journal Learning Journal

ژورنال یادگیری ، تیم کوچکی از افراد است که علاقه زیادی به کمک به دیگران برای یادگیری و رشد در کار خود دارند ، از بین بردن فاصله بین مهارت های موجود و مورد نیاز آنها. در تلاش برای انجام این ماموریت ، ما در حال نوشتن کتاب ، انتشار مقالات فنی و ایجاد فیلم های آموزشی برای کمک به متخصصان و دانشجویان فناوری اطلاعات در صنعت هستیم. با هم بیش از 40 سال تجربه در IT به عنوان توسعه دهنده ، معمار ، مشاور ، مربی و مربی داریم. ما با سازمان های بین المللی خدمات نرم افزار در پروژه های مختلف داده محوری و Bigdata کار کرده ایم. یادگیری ژورنال یک تیم معتقدین راسخ به یادگیری مستمر مادام العمر و رشد مهارت است. برای محبوب کردن اهمیت یادگیری مادام العمر ، ما شروع به انتشار فیلم های آموزشی رایگان در کانال YouTube خود کردیم. ما مفهوم یادگیری مداوم را مفهوم سازی کردیم و ژورنالی از یادگیری خود را تحت عنوان روزنامه یادگیری ایجاد کردیم. ما از ابتدای سال 2018 دوره های مختلف مهارت آموزی ، آموزش و مقالات فنی را تألیف کرده ایم.