تسلط بر داده های بزرگ و تجزیه و تحلیل با Flume، Sqoop، Hive و Spark [ویدئو]

Master Big Data Ingestion and Analytics with Flume, Sqoop, Hive and Spark [Video]

نکته: آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
نمونه ویدیوها:
توضیحات دوره: در این دوره، شما با یادگیری سیستم فایل توزیع شده Hadoop (HDFS) و رایج ترین دستورات Hadoop مورد نیاز برای کار با HDFS شروع می کنید. در مرحله بعد، با Sqoop Import آشنا می شوید که به شما کمک می کند تا در مورد چرخه حیات فرمان Sqoop و نحوه استفاده از دستور import برای انتقال داده ها از MySQL به HDFS و از MySQL به Hive اطلاعاتی کسب کنید. علاوه بر این، با Sqoop Export برای انتقال موثر داده ها، همراه با استفاده از Apache Flume برای دریافت داده ها، سرعت بیشتری خواهید داشت. همانطور که پیشرفت می کنید، به Apache Hive، جداول خارجی و مدیریت شده، کار با فایل های مختلف و Parquet و Avro می پردازید. در بخش پایانی، روی Spark DataFrames و Spark SQL تمرکز خواهید کرد. در پایان این دوره، بینش جامعی در مورد مصرف کلان داده و تجزیه و تحلیل با Flume، Sqoop، Hive و Spark به دست خواهید آورد. همه کدها و فایل‌های پشتیبانی در دسترس هستند - https://github.com/PacktPublishing/Master-Big-Data-Ingestion-and-Analytics-with-Flume-Sqoop-Hive-and-Spark سیستم فایل توزیع شده Hadoop (HDFS) را کاوش کنید. ) و دستورات با چرخه حیات فرمان Sqoop آشنا شوید از دستور Sqoop Import برای انتقال داده ها از MySQL به HDFS و Hive استفاده کنید پرس و جوهای تقسیم شده و مرزی را درک کنید از حالت افزایشی برای انتقال داده ها از MySQL به HDFS استفاده کنید از Sqoop Export برای انتقال داده ها از HDFS به MySQL استفاده کنید Spark DataFrames را کشف کنید و در مورد کار با فرمت های مختلف فایل و فشرده سازی اطلاعاتی کسب کنید این دوره برای هرکسی است که می خواهد Sqoop و Flume را یاد بگیرد یا کسانی که به دنبال دریافت گواهینامه CCA و HDP هستند. Sqoop، Flume و Hive را بیاموزید و با موفقیت به گواهینامه CCA175 و Hortonworks Spark دست یابید * سیستم فایل توزیع شده Hadoop (HDFS) را به همراه کاوش در دستورات Hadoop برای کار موثر با HDFS درک کنید.

سرفصل ها و درس ها

مقدمه هادوپ Hadoop Introduction

  • دستورات HDFS و Hadoop HDFS and Hadoop Commands

Sqoop Import Sqoop Import

  • Sqoop مقدمه Sqoop Introduction

  • مدیریت فهرست های هدف Managing Target Directories

  • کار با فرمت های مختلف فایل Working with Different File Formats

  • کار با فشرده سازی های مختلف Working with Different Compressions

  • واردات مشروط Conditional Imports

  • پرس و جوهای تقسیم شده و مرزی Split-by and Boundary Queries

  • جداکننده های میدان Field delimeters

  • ضمیمه های افزایشی Incremental Appends

  • واردات کندو Sqoop Sqoop Hive Import

  • Sqoop List جداول/پایگاه داده Sqoop List Tables/Database

  • Sqoop Import Practice1 Sqoop Import Practice1

  • Sqoop Import Practice2 Sqoop Import Practice2

  • Sqoop Import Practice3 Sqoop Import Practice3

Sqoop Export Sqoop Export

  • صادرات از Hdfs به Mysql Export from Hdfs to Mysql

  • صادرات از Hive به Mysql Export from Hive to Mysql

آپاچی فلوم Apache Flume

  • معرفی فلوم و معماری Flume Introduction & Architecture

  • Exec Source و Logger Sink Exec Source and Logger Sink

  • انتقال داده ها از توییتر به HDFS Moving data from Twitter to HDFS

  • انتقال داده ها از NetCat به HDFS Moving data from NetCat to HDFS

  • رهگیرهای فلوم Flume Interceptors

  • مثال Flume Interceptor Flume Interceptor Example

  • فلوم چند عامل جریان Flume Multi-Agent Flow

  • تثبیت فلوم Flume Consolidation

Apache Hive Apache Hive

  • معرفی کندو Hive Introduction

  • پایگاه داده Hive Hive Database

  • جداول مدیریت شده Hive Hive Managed Tables

  • جداول خارجی کندو Hive External Tables

  • درج کندو Hive Inserts

  • Hive Analytics Hive Analytics

  • کار با پارکت Working with Parquet

  • فشرده سازی پارکت Compressing Parquet

  • کار با فرمت فایل ثابت Working with Fixed File Format

  • تغییر فرمان Alter Command

  • توابع رشته کندو Hive String Functions

  • توابع تاریخ کندو Hive Date Functions

  • پارتیشن بندی کندو Hive Partitioning

  • سطل سازی کندو Hive Bucketing

معرفی جرقه Spark Introduction

  • معرفی جرقه Spark Introduction

  • مجموعه داده های توزیع شده انعطاف پذیر Resilient Distributed Datasets

  • نمای کلی خوشه Cluster Overview

  • گراف غیر چرخشی کارگردانی شده (DAG) و مراحل Directed Acyclic Graph (DAG) & Stages

تحولات و اقدامات جرقه Spark Transformations & Actions

  • تبدیل نقشه/نقشه مسطح Map/FlatMap Transformation

  • فیلتر/تقاطع Filter/Intersection

  • اتحاد/تحول متمایز Union/Distinct Transformation

  • GroupByKey/افراد را بر اساس ماه های تولد گروه بندی کنید GroupByKey/ Group people based on Birthday months

  • ReduceByKey/تعداد کل دانش آموزان در هر موضوع ReduceByKey / Total Number of students in each Subject

  • SortByKey/مرتب سازی دانش آموزان بر اساس rollno آنها SortByKey / Sort students based on their rollno

  • MapPartition/MapPartitionWithIndex MapPartition / MapPartitionWithIndex

  • تغییر تعداد پارتیشن ها Change number of Partitions

  • پیوستن/پیوستن به آدرس ایمیل بر اساس نام مشتری Join / Join email address based on customer name

  • اقدامات جرقه Spark Actions

Spark RDD Practice Spark RDD Practice

  • اسکالا تاپلز Scala Tuples

  • Error Logs را از فایل های log استخراج کنید Extract Error Logs from log files

  • فراوانی کلمه در فایل متنی Frequency of word in Text File

  • جمعیت هر شهر Population of each City

  • سفارشات ارسال شده توسط مشتریان Orders placed by Customers

  • میانگین امتیاز فیلم بیشتر از 3 Movie Average Rating greater than 3

Spark Dataframes و Spark SQL Spark Dataframes & Spark SQL

  • معرفی چارچوب داده Dataframe Intro

  • Dafaframe از Json Files Dafaframe from Json Files

  • دیتافریم از فایل های پارکت Dataframe from Parquet Files

  • دیتافریم از فایل های CSV Dataframe from CSV Files

  • دیتافریم از Avro/XML Files Dataframe from Avro/XML Files

  • کار با فشرده سازی های مختلف Working with Different Compressions

  • DataFrame API Part1 DataFrame API Part1

  • DataFrame API Part2 DataFrame API Part2

  • Spark SQL Spark SQL

  • کار با Hive Tables در Spark Working with Hive Tables in Spark

نمایش نظرات

تسلط بر داده های بزرگ و تجزیه و تحلیل با Flume، Sqoop، Hive و Spark [ویدئو]
جزییات دوره
5 h 38 m
68
Packtpub Packtpub
(آخرین آپدیت)
از 5
ندارد
دارد
دارد
Navdeep Kaur
جهت دریافت آخرین اخبار و آپدیت ها در کانال تلگرام عضو شوید.

Google Chrome Browser

Internet Download Manager

Pot Player

Winrar

Navdeep Kaur Navdeep Kaur

TechnoAvengers.com (مerسس) من یک معمار داده بزرگ با 11 سال سابقه صنعت در فناوری ها و حوزه های مختلف هستم. من علاقه زیادی به ارائه آموزش در زمینه فناوری های جدید دارم. من گواهینامه توسعه دهنده CCA175 Hadoop and Spark و گواهینامه معمار راه حل AWS را دریافت کرده ام. من عاشق هدایت مردم و کمک به آنها برای رسیدن به اهداف جدید هستم.