آموزش Master Big Data - Apache Spark/Hadoop/Sqoop/Hive/Flume/Mongo

Master Big Data - Apache Spark/Hadoop/Sqoop/Hive/Flume/Mongo

نکته: آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
نمونه ویدیوها:
توضیحات دوره: دوره آموزشی عمیق در Big Data - Apache Spark، Hadoop، Sqoop، Flume & Apache Hive، MongoDB و Big Data Cluster راه اندازی سیستم فایل و دستورات توزیع شده Hadoop. چرخه حیات فرمان sqoop. دستور import Sqoop برای انتقال داده ها از Mysql به HDFS. دستور Sqoop import برای انتقال داده ها از Mysql به Hive. کار با فرمت‌های مختلف فایل، فشرده‌سازی، جداکننده فایل، بند و پرس‌وجو هنگام وارد کردن داده‌ها. پرس و جوهای تقسیم شده و مرزی را درک کنید. از حالت افزایشی برای انتقال داده ها از Mysql به HDFS استفاده کنید. با استفاده از sqoop export، داده ها را از HDFS به Mysql منتقل کنید. با استفاده از sqoop export، داده ها را از Hive به Mysql منتقل کنید. معماری فلوم را درک کنید. با استفاده از flume، داده‌ها را از توییتر دریافت کرده و در HDFS ذخیره کنید. با استفاده از flume، داده ها را از netcat دریافت کرده و در HDFS ذخیره کنید. با استفاده از flume، داده‌ها را از exec دریافت کنید و روی کنسول نشان دهید. رهگیرهای فلوم. پیش نیازها: خیر

در این دوره، شما با یادگیری سیستم فایل توزیع شده هادوپ و رایج ترین دستورات هادوپ مورد نیاز برای کار با سیستم فایل Hadoop شروع خواهید کرد.


سپس با Sqoop Import

آشنا می شوید
  • چرخه حیات فرمان sqoop را درک کنید.

  • از دستور sqoop import برای انتقال داده ها از Mysql به HDFS استفاده کنید.

  • از دستور sqoop import برای انتقال داده ها از Mysql به Hive استفاده کنید.

  • از فرمت‌های مختلف فایل، فشرده‌سازی‌ها، جداکننده فایل، بند و پرس‌وجو در هنگام وارد کردن داده‌ها استفاده کنید.

  • پرسمان‌های تقسیم‌بندی و مرزی را درک کنید.

  • از حالت افزایشی برای انتقال داده ها از Mysql به HDFS استفاده کنید.


به‌علاوه، Sqoop Export را برای انتقال داده‌ها یاد خواهید گرفت.

  • صادرات sqoop چیست

  • با استفاده از sqoop export، داده ها را از HDFS به Mysql منتقل کنید.

  • با استفاده از sqoop export، داده ها را از Hive به Mysql منتقل کنید.



بعلاوه، با Apache Flume

آشنا خواهید شد
  • معماری فلوم را درک کنید.

  • با استفاده از flume، داده‌ها را از Twitter دریافت کرده و در HDFS ذخیره کنید.

  • با استفاده از flume، داده‌ها را از netcat دریافت کرده و در HDFS ذخیره کنید.

  • با استفاده از flume، داده‌ها را از exec دریافت کنید و در کنسول نمایش دهید.

  • فلوم رهگیرها را توصیف کنید و نمونه هایی از استفاده از رهگیرها را ببینید.

  • چندین عامل را فلوم کنید

  • تجمیع فلوم.


در بخش بعدی، با Apache Hive

آشنا خواهیم شد
  • Hive Intro

  • جدول مدیریت شده خارجی

  • کار با فایل های مختلف - Parket,Avro

  • فشرده‌سازی‌ها

  • تجزیه و تحلیل کندو

  • توابع رشته Hive

  • توابع تاریخ کندو

  • پارتیشن بندی

  • سطوبندی


درباره Apache Spark

خواهید آموخت
  • معرفی Spark

  • نمای کلی خوشه

  • RDD

  • DAG/Stages/Tasks

  • تغییر اقدامات

  • نمونه‌های اقدام تغییر شکل

  • فریم های داده Spark

  • قاب‌های داده Spark - کار با فشرده‌سازی فرمت‌های فایل متفاوت

  • APIهای Dataframes

  • Spark SQL

  • نمونه‌های چارچوب داده

  • Spark with Cassandra Integration

  • اجرای Spark در Intellij IDE

  • اجرای Spark در EMR



سرفصل ها و درس ها

معرفی کلان داده Big Data Introduction

  • معرفی دوره Course Intro

  • معرفی کلان داده Big Data Intro

  • درک اکوسیستم کلان داده Understanding Big Data Ecosystem

راه اندازی محیط Environment Setup

  • اصلاحات کلاستر GCP GCP Cluster Fixes

  • راه اندازی کلاستر در Google Cloud Cluster Setup on Google Cloud

  • به روز رسانی محیط زیست Environment Update

هادوپ و نخ Hadoop & Yarn

  • دستورات HDFS و Hadoop HDFS and Hadoop Commands

  • بررسی اجمالی خوشه نخ Yarn Cluster Overview

Sqoop Import Sqoop Import

  • Sqoop مقدمه Sqoop Introduction

  • مدیریت فهرست های هدف Managing Target Directories

  • کار با فرمت فایل پارکت Working with Parquet File Format

  • کار با فرمت فایل Avro Working with Avro File Format

  • کار با فشرده سازی های مختلف Working with Different Compressions

  • واردات مشروط Conditional Imports

  • پرس و جوهای تقسیم شده و مرزی Split-by and Boundary Queries

  • جداکننده های میدان Field delimeters

  • ضمائم افزایشی Incremental Appends

  • Sqoop-Hive Cluster Fix Sqoop-Hive Cluster Fix

  • واردات کندو Sqoop Sqoop Hive Import

  • Sqoop List جداول/پایگاه داده Sqoop List Tables/Database

  • Sqoop Assignment1 Sqoop Assignment1

  • Sqoop Assignment2 Sqoop Assignment2

  • Sqoop Import Practice1 Sqoop Import Practice1

  • Sqoop Import Practice2 Sqoop Import Practice2

Sqoop Export Sqoop Export

  • صادرات از Hdfs به Mysql Export from Hdfs to Mysql

  • صادرات از Hive به Mysql Export from Hive to Mysql

  • Avro فشرده شده را به Mysql صادر کنید Export Avro Compressed to Mysql

  • سخنرانی جایزه: Sqoop with Airflow Bonus Lecture: Sqoop with Airflow

آپاچی فلوم Apache Flume

  • معرفی فلوم و معماری Flume Introduction & Architecture

  • Exec Source و Logger Sink Exec Source and Logger Sink

  • انتقال داده ها از توییتر به HDFS Moving data from Twitter to HDFS

  • انتقال داده ها از NetCat به HDFS Moving data from NetCat to HDFS

  • رهگیرهای فلوم Flume Interceptors

  • مثال Flume Interceptor Flume Interceptor Example

  • فلوم چند عامل جریان Flume Multi-Agent Flow

  • تثبیت فلوم Flume Consolidation

Apache Hive Apache Hive

  • معرفی کندو Hive Introduction

  • پایگاه داده Hive Hive Database

  • جداول مدیریت شده Hive Hive Managed Tables

  • جداول خارجی کندو Hive External Tables

  • درج کندو Hive Inserts

  • Hive Analytics Hive Analytics

  • کار با پارکت Working with Parquet

  • فشرده سازی پارکت Compressing Parquet

  • کار با فرمت فایل ثابت Working with Fixed File Format

  • تغییر فرمان Alter Command

  • توابع رشته کندو Hive String Functions

  • توابع تاریخ کندو Hive Date Functions

  • پارتیشن بندی کندو Hive Partitioning

  • سطل سازی کندو Hive Bucketing

جرقه با نخ و HDFS Spark with Yarn & HDFS

  • آپاچی اسپارک چیست؟ What is Apache Spark

  • درک مدیر خوشه (نخ) Understanding Cluster Manager (Yarn)

  • آشنایی با فضای ذخیره سازی توزیع شده (HDFS) Understanding Distributed Storage (HDFS)

  • Running Spark در Yarn/HDFS Running Spark on Yarn/HDFS

  • آشنایی با Deploy Modes Understanding Deploy Modes

خوشه GCS GCS Cluster

  • جرقه در GCS Cluster Spark on GCS Cluster

لوازم داخلی اسپارک Spark Internals

  • رانندگان و مجریان Drivers & Executors

  • RDDs و Dataframes RDDs & Dataframes

  • تحول و اقدامات Transformation & Actions

  • تحولات گسترده و باریک Wide & Narrow Transformations

  • درک برنامه اجرایی Understanding Execution Plan

  • طرح های مختلف توسط راننده Different Plans by Driver

Spark RDD: Transformation & Actions Spark RDD : Transformation & Actions

  • تبدیل نقشه/نقشه مسطح Map/FlatMap Transformation

  • فیلتر/تقاطع Filter/Intersection

  • اتحاد/تحول متمایز Union/Distinct Transformation

  • GroupByKey/افراد را بر اساس ماه های تولد گروه بندی کنید GroupByKey/ Group people based on Birthday months

  • ReduceByKey/تعداد کل دانش آموزان در هر موضوع ReduceByKey / Total Number of students in each Subject

  • SortByKey/مرتب سازی دانش آموزان بر اساس rollno آنها SortByKey / Sort students based on their rollno

  • MapPartition/MapPartitionWithIndex MapPartition / MapPartitionWithIndex

  • تغییر تعداد پارتیشن ها Change number of Partitions

  • پیوستن/پیوستن به آدرس ایمیل بر اساس نام مشتری Join / join email address based on customer name

  • اقدامات جرقه Spark Actions

Spark RDD Practice Spark RDD Practice

  • اسکالا تاپلز Scala Tuples

  • گزارش های خطای فیلتر Filter Error Logs

  • فراوانی کلمه در فایل متنی Frequency of word in Text File

  • جمعیت هر شهر Population of each city

  • سفارشات ارسال شده توسط مشتریان Orders placed by Customers

  • میانگین امتیاز فیلم average rating of movie

Spark Dataframes و Spark SQL Spark Dataframes & Spark SQL

  • معرفی چارچوب داده Dataframe Intro

  • Dafaframe از Json Files Dafaframe from Json Files

  • دیتافریم از فایل های پارکت Dataframe from Parquet Files

  • دیتافریم از فایل های CSV Dataframe from CSV Files

  • دیتافریم از Avro File Dataframe from Avro File

  • کار با XML Working with XML

  • کار با ستون ها Working with Columns

  • کار با String Working with String

  • کار با خرما Working with Dates

  • API فیلتر Dataframe Dataframe Filter API

  • DataFrame API Part1 DataFrame API Part1

  • DataFrame API Part2 DataFrame API Part2

  • Spark SQL Spark SQL

  • کار با Hive Tables در Spark Working with Hive Tables in Spark

  • مجموعه داده ها در مقابل Dataframe Datasets versus Dataframe

  • توابع تعریف شده توسط کاربر (UDFS) User Defined Functions (UDFS)

استفاده از Intellij IDE Using Intellij IDE

  • راه اندازی Intellij Intellij Setup

  • راه اندازی پروژه Project Setup

  • نوشتن اولین برنامه Spark در IDE Writing first Spark program on IDE

  • درک پیکربندی جرقه Understanding spark configuration

  • افزودن اقدامات/تحولات Adding Actions/Transformations

  • درک برنامه اجرایی Understanding Execution Plan

اجرای Spark در EMR (AWS Cloud) Running Spark on EMR (AWS Cloud)

  • نمای کلی خوشه EMR EMR Cluster Overview

  • راه اندازی خوشه Cluster Setup

  • تنظیم کد جرقه برای EMR Setting Spark Code for EMR

  • با استفاده از Spark-submit Using Spark-submit

  • اجرای Spark در خوشه EMR Running Spark on EMR Cluster

جرقه با کاساندرا Spark with Cassandra

  • دوره کاساندرا Cassandra Course

  • ایجاد Spark RDD از جدول Cassandra Creating Spark RDD from Cassandra Table

  • پردازش داده های کاساندرا در Spark Processing Cassandra data in Spark

  • ردیف های کاساندرا به کلاس موردی Cassandra Rows to Case Class

  • ذخیره Spark RDD در Cassandra Saving Spark RDD to Cassandra

شروع کار با MongoDB Getting Started with MongoDB

  • معرفی MongoDB MongoDB Intro

  • MongoDB Usecase & Limitations MongoDB Usecase & Limitations

  • نصب MongoDB MongoDB Installation

عملیات CRUD CRUD Operations

  • پیدا کردن Find

  • پیدا کردن با فیلتر Find With Filter

  • درج کنید Insert

  • به روز رسانی Update

  • به روز رسانی ادامه دارد Update Continues

  • طرح ها Projections

  • حذف Delete

کار با اپراتورها Working with Operators

  • در/نه در اپراتورها In / not in Operators

  • اپراتورهای gte/lte gte / lte Operators

  • و/یا اپراتورها and / or operators

  • عملگر regex regex operator

قطب نما MongoDB MongoDB Compass

  • کار با رابط کاربری گرافیکی Working with GUI

مونگو پیشرفته Advanced Mongo

  • اعتبارسنجی/طرحواره Validation/Schema

  • کار با شاخص ها Working with Indexes

جرقه با مونگو Spark with Mongo

  • ادغام Spark Mongo Spark Mongo Integration

نمایش نظرات

Udemy (یودمی)

یودمی یکی از بزرگ‌ترین پلتفرم‌های آموزشی آنلاین است که به میلیون‌ها کاربر در سراسر جهان امکان دسترسی به دوره‌های متنوع و کاربردی را فراهم می‌کند. این پلتفرم امکان آموزش در زمینه‌های مختلف از فناوری اطلاعات و برنامه‌نویسی گرفته تا زبان‌های خارجی، مدیریت، و هنر را به کاربران ارائه می‌دهد. با استفاده از یودمی، کاربران می‌توانند به صورت انعطاف‌پذیر و بهینه، مهارت‌های جدیدی را یاد بگیرند و خود را برای بازار کار آماده کنند.

یکی از ویژگی‌های برجسته یودمی، کیفیت بالای دوره‌ها و حضور استادان مجرب و با تجربه در هر حوزه است. این امر به کاربران اعتماد می‌دهد که در حال دریافت آموزش از منابع قابل اعتماد و معتبر هستند و می‌توانند به بهترین شکل ممکن از آموزش‌ها بهره ببرند. به طور خلاصه، یودمی به عنوان یکی از معتبرترین و موثرترین پلتفرم‌های آموزشی آنلاین، به افراد امکان می‌دهد تا به راحتی و با کیفیت، مهارت‌های مورد نیاز خود را ارتقا دهند و به دنبال رشد و پیشرفت شغلی خود باشند.

آموزش Master Big Data - Apache Spark/Hadoop/Sqoop/Hive/Flume/Mongo
جزییات دوره
11.5 hours
126
Udemy (یودمی) Udemy (یودمی)
(آخرین آپدیت)
10,334
4.1 از 5
دارد
دارد
دارد
Navdeep Kaur
جهت دریافت آخرین اخبار و آپدیت ها در کانال تلگرام عضو شوید.

Google Chrome Browser

Internet Download Manager

Pot Player

Winrar

Navdeep Kaur Navdeep Kaur

TechnoAvengers.com (مerسس) من یک معمار داده بزرگ با 11 سال سابقه صنعت در فناوری ها و حوزه های مختلف هستم. من علاقه زیادی به ارائه آموزش در زمینه فناوری های جدید دارم. من گواهینامه توسعه دهنده CCA175 Hadoop and Spark و گواهینامه معمار راه حل AWS را دریافت کرده ام. من عاشق هدایت مردم و کمک به آنها برای رسیدن به اهداف جدید هستم.