آموزش Apache Hive برای مهندسان داده (کاربردی) با ۲ پروژه - آخرین آپدیت

دانلود Apache Hive for Data Engineers (Hands On) with 2 Projects

نکته: ممکن هست محتوای این صفحه بروز نباشد ولی دانلود دوره آخرین آپدیت می باشد.
نمونه ویدیوها:
توضیحات دوره:

هدیو آپاچی: مخزن داده مدرن برای مهندسان داده

چرا هدیو آپاچی برای مهندسان داده ضروری است؟

هدف این دوره آشنایی شما با اصول و جزئیات هدیو آپاچی است.

از صفر تا صد هدیو آپاچی را بیاموزید (از سطح مقدماتی تا پیشرفته).

تجربه عملی با هدیو آپاچی و موارد استفاده واقعی

تسلط بر انبار داده:

بیاموزید چگونه با استفاده از هدیو، مجموعه داده‌های بزرگ را به راحتی ذخیره، مدیریت و تجزیه و تحلیل کنید و قابلیت‌های هوش تجاری خود را متحول سازید.

تحلیل داده مقیاس‌پذیر:

کشف کنید چگونه پرس‌وجوهای خود را بهینه کرده و عملکرد را بهبود بخشید، و داده‌های خام را به سرعت و به طور مؤثر به بینش‌های استراتژیک تبدیل کنید.

پروژه‌های دنیای واقعی:

مهارت‌های خود را در پروژه‌های عملی به کار بگیرید و تکنیک‌های لازم برای حل چالش‌های پیچیده داده و هدایت رشد کسب و کار را بیاموزید.

نرم‌افزار انبار داده Apache Hive، خواندن، نوشتن و مدیریت مجموعه داده‌های بزرگ که در ذخیره‌سازی توزیع‌شده قرار دارند را با استفاده از SQL تسهیل می‌کند. ساختار را می‌توان بر روی داده‌هایی که از قبل در حافظه وجود دارند، اعمال کرد. ابزار خط فرمان و درایور JDBC برای اتصال کاربران به Hive ارائه شده است.

آیا می‌خواهید پتانسیل کامل کلان داده را آزاد کنید و در دنیای امروز که داده محور است، مزیت رقابتی کسب کنید؟ با Apache Hive، می‌توانید مجموعه داده‌های عظیم را با استفاده از پرس‌وجوهای ساده شبیه SQL بدون نیاز به کدنویسی پیشرفته، به بینش‌های تجاری عملی تبدیل کنید. Hive به عنوان یکی از قدرتمندترین ابزارها در اکوسیستم Hadoop، کلید مدیریت، تجزیه و تحلیل و بهینه‌سازی انبارهای داده در مقیاس بزرگ است.

این دوره طراحی شده است تا شما را از یک مبتدی به یک کارشناس Apache Hive تبدیل کند و شما را با مهارت‌های لازم برای بهره‌برداری از کلان داده برای تصمیم‌گیری بهتر و رشد استراتژیک مجهز کند. از طریق پروژه‌های عملی و دنیای واقعی، همه چیز را از راه‌اندازی محیط‌های Hive تا نوشتن پرس‌وجوهای با عملکرد بالا، ساخت انبار داده و تولید گزارش‌های بصیرت‌بخش که می‌تواند استراتژی کسب و کار شما را تقویت کند، خواهید آموخت.

یکی از با ارزش‌ترین مهارت‌های فناوری، توانایی تجزیه و تحلیل مجموعه‌های عظیم داده است و این دوره به طور خاص برای آشنا کردن شما با یکی از بهترین فناوری‌ها برای این کار، یعنی Apache Hive طراحی شده است! شرکت‌های برتر فناوری مانند Google، Facebook، Netflix، Airbnb، Amazon، NASA و بسیاری دیگر از Apache Hive استفاده می‌کنند!

Hive که بر پایه Apache Hadoop ساخته شده است، ویژگی‌های زیر را ارائه می‌دهد:

  • ابزارهایی برای دسترسی آسان به داده‌ها از طریق SQL، که وظایف انبار داده مانند استخراج/تبدیل/بارگذاری (ETL)، گزارش‌دهی و تجزیه و تحلیل داده‌ها را امکان‌پذیر می‌سازد.
  • مکانیزمی برای اعمال ساختار بر انواع فرمت‌های داده
  • دسترسی به فایل‌های ذخیره شده مستقیماً در Apache HDFS™ یا در سایر سیستم‌های ذخیره‌سازی داده مانند Apache HBase™
  • اجرای پرس‌وجو از طریق Apache Tez، Apache Spark یا MapReduce
  • زبان رویه‌ای با HPL-SQL
  • بازیابی پرس‌وجو در کمتر از یک ثانیه از طریق Hive LLAP، Apache YARN و Apache Slider.

Hive عملکرد استاندارد SQL را فراهم می‌کند، از جمله بسیاری از ویژگی‌های بعدی SQL:2003، SQL:2011 و SQL:2016 برای تجزیه و تحلیل. SQL Hive همچنین می‌تواند با کد کاربر از طریق توابع تعریف شده توسط کاربر (UDF)، تجمعات تعریف شده توسط کاربر (UDAF) و توابع جدول تعریف شده توسط کاربر (UDTF) گسترش یابد.

هیچ "فرمت Hive" واحدی وجود ندارد که داده‌ها باید در آن ذخیره شوند. Hive با کانکتورهای داخلی برای فایل‌های متنی مقادیر جدا شده با کاما و تب (CSV/TSV)، Apache Parquet، Apache ORC و سایر فرمت‌ها عرضه می‌شود. کاربران می‌توانند Hive را با کانکتورهایی برای فرمت‌های دیگر گسترش دهند. لطفاً برای جزئیات بیشتر به File Formats و Hive SerDe در Developer Guide مراجعه کنید.

Hive برای بارهای کاری پردازش تراکنش آنلاین (OLTP) طراحی نشده است. بهترین استفاده از آن برای وظایف سنتی انبارداری داده است.

Hive برای حداکثر کردن مقیاس‌پذیری (مقیاس‌بندی با افزودن دینامیک ماشین‌های بیشتر به کلاستر Hadoop)، عملکرد، افزونگی، تحمل خطا و کوپلینگ ضعیف با فرمت‌های ورودی خود طراحی شده است.

آنچه خواهیم آموخت:

  1. مروری بر Apache Hive
  2. معماری Apache Hive
  3. نصب و پیکربندی
  4. نحوه جریان پرس‌وجوی Hive در سیستم.
  5. ویژگی‌ها، محدودیت‌ها و مدل داده Hive
  6. انواع داده، زبان تعریف داده (DDL) و زبان دستکاری داده (DML)
  7. نما (View)، پارتیشن (Partition) و باکت (Bucketing) در Hive
  8. توابع و عملگرهای داخلی
  9. Join در Apache Hive
  10. سوالات و پاسخ‌های پرتکرار مصاحبه
  11. 2 پروژه واقعی

هدف من ارائه ابزارهای عملی است که در آینده برای شما مفید خواهد بود. در ضمن، با یک فرصت استفاده واقعی.

من واقعاً از حضور شما خوشحالم، امیدوارم تا پایان دوره با من همراه باشید. دنبال کردن دوره بسیار ساده و آسان است. من مرحله به مرحله هر خط کد را به شما نشان خواهم داد و توضیح خواهم داد که چه کاری انجام می‌دهد و چرا آن را انجام می‌دهیم. بنابراین لطفا من از شما دعوت می‌کنم که این دوره را دنبال کنید و تمام سخنرانی‌ها را مشاهده کنید. بسیار خب، شما را به زودی در دوره خواهم دید.

آنچه به دست خواهید آورد:

  • تسلط بر انبار داده: بیاموزید چگونه با استفاده از Hive، مجموعه داده‌های بزرگ را به راحتی ذخیره، مدیریت و تجزیه و تحلیل کنید و قابلیت‌های هوش تجاری خود را متحول سازید.

  • تحلیل داده مقیاس‌پذیر: کشف کنید چگونه پرس‌وجوهای خود را بهینه کرده و عملکرد را بهبود بخشید، و داده‌های خام را به سرعت و به طور مؤثر به بینش‌های استراتژیک تبدیل کنید.

  • پروژه‌های دنیای واقعی: مهارت‌های خود را در پروژه‌های عملی به کار بگیرید و تکنیک‌های لازم برای حل چالش‌های پیچیده داده و هدایت رشد کسب و کار را بیاموزید.

چه کسانی باید ثبت نام کنند:

این دوره برای موارد زیر عالی است:

  • تحلیلگران داده و متخصصان هوش تجاری که به دنبال ارتقاء مهارت‌ها و ساده‌سازی گردش کار تجزیه و تحلیل داده‌های خود هستند.

  • مهندسان و توسعه‌دهندگان داده که مشتاقند تخصص خود را در کلان داده با استفاده از Apache Hive افزایش دهند.

  • کارآفرینان و استارتاپ‌های آگاه به فناوری که می‌خواهند از کلان داده برای اصلاح استراتژی‌ها و افزایش سودآوری خود استفاده کنند.

این فرصت را برای تبدیل شدن به یک کارشناس Apache Hive و تحول در نحوه استفاده سازمان شما از داده‌ها از دست ندهید. همین حالا ثبت نام کنید و مهارت‌های تجزیه و تحلیل کلان داده خود را به سطوح بالاتری ارتقا دهید!


سرفصل ها و درس ها

بخش 1: مقدمه Section 1: Introduction

  • 1. مقدمه ای بر دوره 1. Introduction to Course

  • 2. مقدمه ای بر آپاچی Hive 2. Introduction to Apache Hive

  • 3. معماری کندو 3. Hive Architecture

  • 4. چگونه یک جستجوی Hive در سیستم جریان می یابد. 4. How a Hive query flows through the system.

  • 5. (اختیاری) مقدمه ای بر داده های بزرگ 5. (Optional) Introduction to Big Data

  • 6. (اختیاری) Hadoop چیست 6. (Optional) What is Hadoop

  • 7. ویژگی های کندو 7. Hive Features

  • 8. محدودیت کندو 8. Hive Limitation

مقدمه Introduction

  • مقدمه دوره Introduction to Course

  • مقدمه ای بر Apache Hive Introduction to Apache Hive

  • معماری Hive Hive Architecture

  • نحوه جریان کوئری Hive در سیستم. How a Hive query flows through the system.

  • نکاتی برای بهبود تجربه دوره گذراندن شما Tips to Improve Your Course Taking Experience

  • مقدمه ای بر Big Data (اختیاری) (Optional) Introduction to Big Data

  • Hadoop چیست؟ (اختیاری) (Optional) What is Hadoop

  • ویژگی های Hive Hive Features

  • محدودیت Hive Hive Limitation

بخش 2: نصب Apache Hive در ماشین اوبونتو (لینوکس). Section 2: Installing Apache Hive on Ubuntu (Linux) Machine

نصب Apache Hive بر روی اوبونتو (لینوکس) Installing Apache Hive on Ubuntu (Linux) Machine

  • مراحل نصب Hadoop Installation Steps of Hadoop

  • مراحل نصب Apache Hive Installation Steps of Apache Hive

بخش 3: مدل داده های کندو Section 3: Hive Data Model

مدل داده های کندو Hive Data Model

  • نمودار مدل داده های کندو Hive Data Model Diagram

  • جداول Tables

  • پارتیشن ها Partitions

  • سطل یا خوشه Buckets or Clusters

نصب Apache Hive بر روی ویندوز با استفاده از Docker Desktop Installing Apache Hive on Windows Machine using Docker Desktop

  • نصب Docker بر روی ویندوز Installing Docker on Windows

  • دانلود ایمیج Apache Hive بر روی Docker Downloading Apache Hive Image on Docker

  • اجرای Apache Hive بر روی Docker Desktop Running Apache Hive on Docker Desktop

بخش 4: انواع داده های کندو Section 4: Hive Data Types

انواع داده های کندو Hive Data Types

  • انواع داده های کندو Hive Data Types

  • نوع اولیه Primitive Type

  • نوع پیچیده Complex Type

مدل داده Hive Hive Data Model

  • نمودار مدل داده Hive Hive Data Model Diagram

  • جداول (Tables) Tables

  • پارتیشن ها (Partitions) Partitions

  • باکت ها یا کلاسترها (Buckets or Clusters) Buckets or Clusters

بخش 5: زبان تعریف داده های HIVE. Section 5: HIVE Data Definition Language.

زبان تعریف داده های HIVE. HIVE Data Definition Language.

  • ایجاد پایگاه داده Create Database

  • پایگاه داده را رها کنید Drop Database

  • تغییر پایگاه داده Alter Database

  • از پایگاه داده استفاده کنید Use Database

  • نمایش پایگاه داده Show Database

  • پایگاه داده را شرح دهید Describe Database

  • ایجاد جدول Create Table

  • ایجاد جدول (دست روی دست) Create Table (Hands On)

  • جدول (Hands On) با تمام داده های اولیه ایجاد کنید Create Table (Hands On) with all Primitive Datatype

  • جدول (Hands On) با تمام داده های پیچیده ایجاد کنید Create Table (Hands On) with all Complex Datatype

  • جداول مدیریت شده و خارجی Managed and External Tables

  • میزهای مدیریت شده و خارجی (دست روی) Managed and External Tables (Hands On)

  • فرمت های ذخیره سازی Storage Formats

  • نمایش جداول Show Tables

  • جداول را شرح دهید Describe Tables

  • جدول رها کنید Drop Table

  • جدول تغییرات Alter Table

  • جدول کوتاه Truncate Table

انواع داده Hive Hive Data Types

  • انواع داده Hive Hive Data Types

  • نوع اولیه (Primitive Type) Primitive Type

  • نوع پیچیده (Complex Type) Complex Type

بخش 6: زبان دستکاری داده های HIVE Section 6: HIVE Data Manipulation Language

زبان دستکاری داده های HIVE HIVE Data Manipulation Language

  • بار LOAD

  • انتخاب کنید SELECT

  • درج کنید INSERT

  • به روز رسانی UPDATE

  • حذف DELETE

زبان تعریف داده HIVE (Hive Data Definition Language) HIVE Data Definition Language.

  • ایجاد پایگاه داده (Create Database) Create Database

  • حذف پایگاه داده (Drop Database) Drop Database

  • تغییر پایگاه داده (Alter Database) Alter Database

  • استفاده از پایگاه داده (Use Database) Use Database

  • نمایش پایگاه داده ها (Show Database) Show Database

  • توضیح پایگاه داده (Describe Database) Describe Database

  • ایجاد جدول (Create Table) Create Table

  • ایجاد جدول (عملی) Create Table (Hands On)

  • ایجاد جدول (عملی) با تمامی انواع داده اولیه Create Table (Hands On) with all Primitive Datatype

  • ایجاد جدول (عملی) با تمامی انواع داده پیچیده Create Table (Hands On) with all Complex Datatype

  • جداول مدیریتی و خارجی (Managed and External Tables) Managed and External Tables

  • جداول مدیریتی و خارجی (عملی) Managed and External Tables (Hands On)

  • فرمت های ذخیره سازی (Storage Formats) Storage Formats

  • نمایش جداول (Show Tables) Show Tables

  • توضیح جداول (Describe Tables) Describe Tables

  • حذف جدول (Drop Table) Drop Table

  • تغییر جدول (Alter Table) Alter Table

  • پاک کردن جدول (Truncate Table) Truncate Table

بخش 7: نمای کندو، متاستور، پارتیشن ها و سطل سازی Section 7: Hive View, Metastore, Partitions, and Bucketing

عملکردهای داخلی کندو Hive Built-In Functions

  • توابع تاریخ Date Functions

  • توابع ریاضی Mathematical Functions

  • توابع رشته String Functions

زبان دستکاری داده Hive (Hive Data Manipulation Language) HIVE Data Manipulation Language

  • بارگذاری (LOAD) LOAD

  • انتخاب (SELECT) SELECT

  • درج (INSERT) INSERT

  • به روز رسانی (UPDATE) UPDATE

  • حذف (DELETE) DELETE

بخش 8: عملکردهای داخلی کندو Section 8: Hive Built-In Functions

Hive View، Metastore، Partitions و Bucketing Hive View, Metastore, Partitions, and Bucketing

  • چشم انداز View

  • مشاهده (Hands On) View (Hands On)

  • متاستور Metastore

  • پارتیشن ها Partitions

  • پارتیشن (Hands On) Partitions (Hands On)

  • سطل سازی Bucketing

  • سطل سازی (دست روی) Bucketing (Hands On)

  • دستورات پوسته تعاملی Hive Hive Interactive Shell Commands

  • Queries Hive را در دستورات "One Shot" اجرا کنید Execute Hive Queries in “One Shot” Commands

  • اجرای Hive Queries از فایل ها Executing Hive Queries from Files

  • متغیر Hive Hive Variable

توابع داخلی Hive Hive Built-In Functions

  • توابع تاریخ (Date Functions) Date Functions

  • توابع ریاضی (Mathematical Functions) Mathematical Functions

  • توابع رشته ای (String Functions) String Functions

بخش 9: اپراتورهای داخلی Section 9: Built-in Operators

اپراتورهای داخلی Built-in Operators

  • اپراتورهای رابطه ای Relational Operators

  • عملگرهای حسابی Arithmetic Operators

  • عملگرهای منطقی Logical Operators

  • عملگرهای رشته ای String Operators

نمای Hive، Metastore، پارتیشن ها و باکتینگ Hive View, Metastore, Partitions, and Bucketing

  • نما (View) View

  • نما (عملی) View (Hands On)

  • Metastore Metastore

  • پارتیشن ها (Partitions) Partitions

  • پارتیشن ها (عملی) Partitions (Hands On)

  • باکتینگ (Bucketing) Bucketing

  • باکتینگ (عملی) Bucketing (Hands On)

  • دستورات شل تعاملی Hive (Hive Interactive Shell Commands) Hive Interactive Shell Commands

  • اجرای کوئری های Hive در دستورات "One Shot" Execute Hive Queries in “One Shot” Commands

  • اجرای کوئری های Hive از فایل ها Executing Hive Queries from Files

  • متغیر Hive (Hive Variable) Hive Variable

بخش 10: عضویت در کندو Section 10: Hive Join

Hive Join Hive Join

  • می پیوندد Joins

  • پیوستن داخلی (Hands On) Inner Join (Hands On)

  • اتصال بیرونی چپ (دست روی) Left Outer Join (Hands On)

  • اتصال بیرونی راست (دست روی) Right Outer Join (Hands On)

  • اتصال کامل بیرونی (دست روی) Full Outer Join (Hands On)

عملگرهای داخلی Built-in Operators

  • عملگرهای رابطه‌ای (Relational Operators) Relational Operators

  • عملگرهای حسابی (Arithmetic Operators) Arithmetic Operators

  • عملگرهای منطقی (Logical Operators) Logical Operators

  • عملگرهای رشته ای (String Operators) String Operators

بخش 11: پرسش و پاسخ های متداول در مصاحبه Section 11: Frequently Asked Interview Question and Answers

کار با XML و JSON Working with XML and JSON

  • بارگیری XML در Hive Loading XML in Hive

  • بارگیری JSON در Hive Loading JSON in Hive

Join در Hive Hive Join

  • Join ها Joins

  • Inner Join (عملی) Inner Join (Hands On)

  • Left Outer Join (عملی) Left Outer Join (Hands On)

  • Right Outer Join (عملی) Right Outer Join (Hands On)

  • Full Outer Join (عملی) Full Outer Join (Hands On)

بخش 12: پروژه های دستی (2 پروژه) Section 12: Hands On Projects (2 Projects)

پرسش و پاسخ متداول در مصاحبه Frequently Asked Interview Question and Answers

  • چگونه می توان جدول HIVE را با جداکننده چند کاراکتر ایجاد کرد؟ How to create HIVE Table with multi character delimiter?

  • چگونه داده ها را از یک فایل txt. در جدول ذخیره شده به عنوان ORC در Hive بارگیری کنیم؟ How to load Data from a .txt file to Table Stored as ORC in Hive?

  • چگونه می توان از ردیف های سرصفحه از یک جدول در Hive عبور کرد؟ How to skip header rows from a table in Hive?

  • جدول Hive را برای فایل‌های کوچک بدون کاهش عملکرد در Hive ایجاد کنید؟ Create single Hive table for small files without degrading performance in Hive?

  • چگونه این فایل CSV را با استفاده از SerDe ساخته شده در انبار Hive مصرف خواهید کرد؟ How will you consume this CSV file into the Hive warehouse using built SerDe?

  • آیا امکان تغییر مکان پیش فرض جدول مدیریت شده وجود دارد؟ Is it possible to change the default location of a managed table?

  • آیا کوئری های hive را می توان از فایل های اسکریپت اجرا کرد؟ چگونه؟ Can hive queries be executed from script files? How?

  • آیا می توانیم دستورات پوسته یونیکس را از hive اجرا کنیم؟ مثال بزنید؟ Can we run unix shell commands from hive? Give example?

کار با XML و JSON Working with XML and JSON

  • بارگذاری XML در Hive Loading XML in Hive

  • بارگذاری JSON در Hive Loading JSON in Hive

پروژه های دستی (2 پروژه) Hands On Projects (2 Projects)

  • نصب Apache Zeppelin (0.10.1) Installing Apache Zeppelin (0.10.1)

  • (Hands On) در حال دانلود فایل ها (Hands On) Downloading files

  • فایل های داده برای پروژه Data Files for the Project

  • (Hands On) Hive Interpreter را در Apache Zeppelin پیکربندی کنید (Hands On) Configure Hive Interpreter in Apache Zeppelin

  • Hive Interpreter را در Apache Zeppelin پیکربندی کنید Configure Hive Interpreter in Apache Zeppelin

  • تنظیمات پیکربندی Hadoop Hadoop Configuration Setting

  • کد منبع پروژه را دانلود کنید Download Source Code for Project

  • شروع Hadoop، Hive، Zeppelin و آپلود کد منبع Starting Hadoop,Hive, Zeppelin and Uploading Source Code

  • پروژه 1 - قسمت 1 Project 1 - Part 1

  • پروژه 1 قسمت 2 Project 1 Part 2

  • پروژه 1 قسمت 3 Project 1 Part 3

  • پروژه 1 قسمت 4 Project 1 Part 4

  • پروژه 1 قسمت 5 Project 1 Part 5

  • پروژه 2 قسمت 1 Project 2 Part 1

  • پروژه 2 قسمت 2 Project 2 Part 2

  • پروژه 2 قسمت 3 Project 2 Part 3

  • پروژه 2 قسمت 4 Project 2 Part 4

  • پروژه 2 قسمت 5 Project 2 Part 5

  • پروژه 2 قسمت 6 Project 2 Part 6

  • سخنرانی پاداش Bonus Lecuture

سوالات و پاسخ های متداول مصاحبه Frequently Asked Interview Question and Answers

  • چگونه جدول HIVE را با جداکننده چند کاراکتری ایجاد کنیم؟ How to create HIVE Table with multi character delimiter?

  • چگونه داده ها را از فایل txt به جدولی که به صورت ORC در Hive ذخیره شده است بارگذاری کنیم؟ How to load Data from a .txt file to Table Stored as ORC in Hive?

  • چگونه ردیف های هدر را از یک جدول در Hive رد کنیم؟ How to skip header rows from a table in Hive?

  • ایجاد یک جدول Hive واحد برای فایل های کوچک بدون کاهش عملکرد در Hive؟ Create single Hive table for small files without degrading performance in Hive?

  • چگونه از این فایل CSV با استفاده از SerDe داخلی به انبار Hive منتقل کنیم؟ How will you consume this CSV file into the Hive warehouse using built SerDe?

  • آیا امکان تغییر مکان پیش فرض یک جدول مدیریتی وجود دارد؟ Is it possible to change the default location of a managed table?

  • آیا کوئری های Hive را می توان از فایل های اسکریپت اجرا کرد؟ چگونه؟ Can hive queries be executed from script files? How?

  • آیا می توانیم دستورات شل یونیکس را از Hive اجرا کنیم؟ مثال بزنید؟ Can we run unix shell commands from hive? Give example?

  • تراکنش های ACID در Hive چیست و چگونه کار می کنند؟ What are ACID transactions in Hive and how do they work?

  • Hive چگونه تکامل طرحواره را در جداول ORC/Parquet مدیریت می کند؟ How does Hive handle schema evolution in ORC/Parquet tables?

پروژه های عملی (2 پروژه) Hands On Projects (2 Projects)

  • نصب Apache Zeppelin (0.10.1) Installing Apache Zeppelin (0.10.1)

  • دانلود فایل ها (عملی) (Hands On) Downloading files

  • فایل های داده برای پروژه Data Files for the Project

  • پیکربندی مفسر Hive در Apache Zeppelin (عملی) (Hands On) Configure Hive Interpreter in Apache Zeppelin

  • پیکربندی مفسر Hive در Apache Zeppelin Configure Hive Interpreter in Apache Zeppelin

  • تنظیمات پیکربندی Hadoop Hadoop Configuration Setting

  • دانلود سورس کد پروژه Download Source Code for Project

  • راه اندازی Hadoop، Hive، Zeppelin و آپلود سورس کد Starting Hadoop,Hive, Zeppelin and Uploading Source Code

  • پروژه 1 - قسمت 1 Project 1 - Part 1

  • پروژه 1 قسمت 2 Project 1 Part 2

  • پروژه 1 قسمت 3 Project 1 Part 3

  • پروژه 1 قسمت 4 Project 1 Part 4

  • پروژه 1 قسمت 5 Project 1 Part 5

  • پروژه 2 قسمت 1 Project 2 Part 1

  • پروژه 2 قسمت 2 Project 2 Part 2

  • پروژه 2 قسمت 3 Project 2 Part 3

  • پروژه 2 قسمت 4 Project 2 Part 4

  • پروژه 2 قسمت 5 Project 2 Part 5

  • پروژه 2 قسمت 6 Project 2 Part 6

  • درس جایزه Bonus Lecuture

نمایش نظرات

آموزش Apache Hive برای مهندسان داده (کاربردی) با ۲ پروژه
جزییات دوره
7 hours
99
Udemy (یودمی) Udemy (یودمی)
(آخرین آپدیت)
15,125
3.9 از 5
دارد
دارد
دارد
جهت دریافت آخرین اخبار و آپدیت ها در کانال تلگرام عضو شوید.

Google Chrome Browser

Internet Download Manager

Pot Player

Winrar

Bigdata Engineer Bigdata Engineer

مهندس Bigdata من معمار راه حل هستم با 12 سال تجربه در صنعت بانکداری ، ارتباطات از راه دور و خدمات مالی در طیف متنوعی از نقش ها در برنامه های کارت اعتباری ، پرداخت ها ، انبار داده و مرکز داده نقش من به عنوان Bigdata و Cloud Architect به عنوان بخشی از تیم Bigdata برای ارائه راه حل نرم افزاری کار می کنم. مسئولیت ها شامل - از همه مسائل مربوط به Hadoop پشتیبانی کنید - معیار سیستم های موجود ، تجزیه و تحلیل چالش های سیستم موجود/گلوگاه ها و پیشنهاد راه حل های مناسب برای از بین بردن آنها بر اساس فن آوری های مختلف Big Data - تجزیه و تحلیل و تعریف جوانب مثبت و منفی فناوری ها و سیستم عامل های مختلف - موارد استفاده ، راه حل ها و توصیه ها را تعریف کنید - استراتژی Big Data را تعریف کنید - انجام تجزیه و تحلیل دقیق از مشکلات کسب و کار و محیط های فنی - راه حل عملی بزرگ داده را بر اساس تجزیه و تحلیل نیازهای مشتری تعریف کنید - توصیه های عملی Big Big Cluster را تعریف کنید - به مشتریان در مورد فن آوری های مختلف Big Data آموزش دهید تا به آنها در درک نکات مثبت و منفی Big Data کمک کند - حاکمیت داده ها - ساخت ابزارهایی برای بهبود بهره وری توسعه دهنده و اجرای روشهای استاندارد