آموزش تحلیلگر کلان داده - با استفاده از Sqoop و Advance Hive (CCA159)

Big Data Analyst -using Sqoop and Advance Hive (CCA159)

نکته: آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
نمونه ویدیوها:
توضیحات دوره: با استفاده از دوره Hive و Sqoop.Great برای تحلیلگر کسب و کار، آزمایش کنندگان و توسعه دهندگان Sql، به تحلیلگر داده های بزرگ تبدیل شوید. پیش نیازها: دانش پایه SQL

شما با یادگیری سیستم فایل توزیع شده Hadoop و رایج ترین دستورات هادوپ مورد نیاز برای کار با سیستم فایل Hadoop

شروع خواهید کرد.


سپس با Sqoop Import

آشنا می شوید
  • چرخه حیات فرمان sqoop را درک کنید.

  • از دستور sqoop import برای انتقال داده ها از Mysql به HDFS استفاده کنید.

  • از دستور sqoop import برای انتقال داده ها از Mysql به Hive استفاده کنید.

  • از فرمت‌های مختلف فایل، فشرده‌سازی‌ها، حذف‌شدن فایل، بند و پرس‌وجو در هنگام وارد کردن داده‌ها استفاده کنید.

  • پرسمان‌های تقسیم‌بندی و مرزی را درک کنید.

  • از حالت افزایشی برای انتقال داده ها از Mysql به HDFS استفاده کنید.


به‌علاوه، Sqoop Export را برای انتقال داده‌ها یاد خواهید گرفت.

  • صادرات sqoop چیست

  • با استفاده از sqoop export، داده ها را از HDFS به Mysql منتقل کنید.

  • با استفاده از sqoop export، داده ها را از Hive به Mysql منتقل کنید.


در نهایت، با Apache Hive [Advance]

شروع می کنیم
  • Hive Intro

  • جدول مدیریت شده خارجی

  • درج چند درج

  • انواع داده انواع داده های پیچیده

  • عملکرد مجموعه

  • عملکرد مشروط

  • توابع رشته Hive

  • توابع تاریخ کندو

  • تابع ریاضی

  • تجزیه و تحلیل کندو

  • تغییر فرمان

  • پیوستن، پیوستن چندگانه به نقشه پیوستن

  • کار با فایل های مختلف - Parket,Avro

  • فشرده سازی ها

  • پارتیشن بندی

  • سطوبندی

  • بازدیدها

  • نماهای جانبی/انفجار

  • عملکردهای پنجره - رتبه/رتبه متراکم/سرب/تاخر/دقیقه/حداکثر

  • مشخصات پنجره


سرفصل ها و درس ها

مقدمه هادوپ Hadoop Introduction

  • معرفی کلان داده Big Data Intro

  • سیستم فایل توزیع شده و دستورات Hadoop Hadoop Distributed File System & Commands

  • به‌روزرسانی آزمون CCA159 2020 CCA159 Exam Update 2020

  • راه اندازی Cloudera vm Cloudera vm setup

  • رفع خوشه در Google Cloud Cluster Fixes on Google Cloud

  • راه اندازی کلاستر در Google Cloud Cluster Setup on Google Cloud

  • به روز رسانی محیط زیست Environment Update

کندو Hive

  • معرفی کندو Hive Introduction

  • پایگاه داده Hive Hive Database

  • جداول مدیریت شده Hive Hive Managed Tables

  • جداول خارجی کندو Hive External Tables

  • درج کندو Hive Insert

  • Hive MultiInsert Hive MultiInsert

  • تغییر فرمان Alter Command

انواع داده های کندو Hive Data Types

  • DataTypes مقدمه DataTypes Introduction

  • آرایه نوع داده Array DataType

  • نوع داده نقشه Map DataType

  • Struct DataType Struct DataType

توابع کندو Hive Functions

  • توابع مجموعه Collection Functions

  • توابع شرطی Conditional Functions

  • توابع رشته String Functions

  • توابع تاریخ Date Functions

  • توابع ریاضی Mathematical Functions

Hive Join Hive Join

  • به Hive بپیوندید Join in Hive

  • چند اتصال در Hive Multi Joins in Hive

  • پیوستن سمت نقشه Map Side Joins

کار با فرمت ها و فشرده سازی های مختلف فایل Working with Different File Formats & Compressions

  • کار با پارکت Working with Parquet

  • فشرده سازی پارکت Compressing Parquet

  • کار با فرمت فایل ثابت Working with Fixed File Format

کندو پیشرفته Advance Hive

  • پارتیشن بندی کندو Hive Partitioning

  • سطل سازی کندو Hive Bucketing

  • نماها در Hive Views in Hive

  • نمای جانبی/انفجار Lateral View/Explode

  • Hive Analytics Hive Analytics

عملکرد ویندوز Hive Hive Windows Function

  • تابع پنجره بندی رتبه/رتبه متراکم Rank/Dense Rank Windowing Function

  • عملکرد پنجره سرب/تاخیر Lead/Lag Windowing Function

  • عملکرد پنجره حداقل/حداکثر Min/Max Windowing Function

  • مشخصات پنجره Windowing Specification

Sqoop Import Sqoop Import

  • Sqoop مقدمه Sqoop Introduction

  • مدیریت فهرست هدف Managing Target Directory

  • کار با پارکت Working with Parquet

  • کار با فرمت فایل Avro Working with Avro File Format

  • کار با فشرده سازی های مختلف Working with Different Compressions

  • واردات مشروط Conditional Imports

  • پرس و جوهای تقسیم شده و مرزی Split-By and Boundary Queries

  • جداکننده های میدان Field Delimiters

  • ضمائم افزایشی Incremental Appends

  • واردات کندو Sqoop Sqoop Hive Import

  • تمرین 1 Practice 1

  • تمرین 2 Practice2

  • تمرین 3 Practice3

  • سخنرانی جایزه: Sqoop with Airflow Bonus Lecture: Sqoop with Airflow

Sqoop Export Sqoop Export

  • صادرات از HDFS به MYSQL Export from HDFS to MYSQL

  • Avro فشرده شده را به Mysql صادر کنید Export Avro Compressed to Mysql

  • صادرات از Hive به MYSQL Export from Hive to MYSQL

نمایش نظرات

Udemy (یودمی)

یودمی یکی از بزرگ‌ترین پلتفرم‌های آموزشی آنلاین است که به میلیون‌ها کاربر در سراسر جهان امکان دسترسی به دوره‌های متنوع و کاربردی را فراهم می‌کند. این پلتفرم امکان آموزش در زمینه‌های مختلف از فناوری اطلاعات و برنامه‌نویسی گرفته تا زبان‌های خارجی، مدیریت، و هنر را به کاربران ارائه می‌دهد. با استفاده از یودمی، کاربران می‌توانند به صورت انعطاف‌پذیر و بهینه، مهارت‌های جدیدی را یاد بگیرند و خود را برای بازار کار آماده کنند.

یکی از ویژگی‌های برجسته یودمی، کیفیت بالای دوره‌ها و حضور استادان مجرب و با تجربه در هر حوزه است. این امر به کاربران اعتماد می‌دهد که در حال دریافت آموزش از منابع قابل اعتماد و معتبر هستند و می‌توانند به بهترین شکل ممکن از آموزش‌ها بهره ببرند. به طور خلاصه، یودمی به عنوان یکی از معتبرترین و موثرترین پلتفرم‌های آموزشی آنلاین، به افراد امکان می‌دهد تا به راحتی و با کیفیت، مهارت‌های مورد نیاز خود را ارتقا دهند و به دنبال رشد و پیشرفت شغلی خود باشند.

آموزش تحلیلگر کلان داده - با استفاده از Sqoop و Advance Hive (CCA159)
جزییات دوره
5 hours
55
Udemy (یودمی) Udemy (یودمی)
(آخرین آپدیت)
5,814
4 از 5
دارد
دارد
دارد
Navdeep Kaur
جهت دریافت آخرین اخبار و آپدیت ها در کانال تلگرام عضو شوید.

Google Chrome Browser

Internet Download Manager

Pot Player

Winrar

Navdeep Kaur Navdeep Kaur

TechnoAvengers.com (مerسس) من یک معمار داده بزرگ با 11 سال سابقه صنعت در فناوری ها و حوزه های مختلف هستم. من علاقه زیادی به ارائه آموزش در زمینه فناوری های جدید دارم. من گواهینامه توسعه دهنده CCA175 Hadoop and Spark و گواهینامه معمار راه حل AWS را دریافت کرده ام. من عاشق هدایت مردم و کمک به آنها برای رسیدن به اهداف جدید هستم.