لطفا جهت اطلاع از آخرین دوره ها و اخبار سایت در
کانال تلگرام
عضو شوید.
تسلط بر داده های بزرگ و تجزیه و تحلیل با Flume، Sqoop، Hive و Spark [ویدئو]
Master Big Data Ingestion and Analytics with Flume, Sqoop, Hive and Spark [Video]
نکته:
آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
نمونه ویدیوها:
توضیحات دوره:
در این دوره، شما با یادگیری سیستم فایل توزیع شده Hadoop (HDFS) و رایج ترین دستورات Hadoop مورد نیاز برای کار با HDFS شروع می کنید. در مرحله بعد، با Sqoop Import آشنا می شوید که به شما کمک می کند تا در مورد چرخه حیات فرمان Sqoop و نحوه استفاده از دستور import برای انتقال داده ها از MySQL به HDFS و از MySQL به Hive اطلاعاتی کسب کنید.
علاوه بر این، با Sqoop Export برای انتقال موثر داده ها، همراه با استفاده از Apache Flume برای دریافت داده ها، سرعت بیشتری خواهید داشت. همانطور که پیشرفت می کنید، به Apache Hive، جداول خارجی و مدیریت شده، کار با فایل های مختلف و Parquet و Avro می پردازید. در بخش پایانی، روی Spark DataFrames و Spark SQL تمرکز خواهید کرد.
در پایان این دوره، بینش جامعی در مورد مصرف کلان داده و تجزیه و تحلیل با Flume، Sqoop، Hive و Spark به دست خواهید آورد.
همه کدها و فایلهای پشتیبانی در دسترس هستند - https://github.com/PacktPublishing/Master-Big-Data-Ingestion-and-Analytics-with-Flume-Sqoop-Hive-and-Spark سیستم فایل توزیع شده Hadoop (HDFS) را کاوش کنید. ) و دستورات
با چرخه حیات فرمان Sqoop آشنا شوید
از دستور Sqoop Import برای انتقال داده ها از MySQL به HDFS و Hive استفاده کنید
پرس و جوهای تقسیم شده و مرزی را درک کنید
از حالت افزایشی برای انتقال داده ها از MySQL به HDFS استفاده کنید
از Sqoop Export برای انتقال داده ها از HDFS به MySQL استفاده کنید
Spark DataFrames را کشف کنید و در مورد کار با فرمت های مختلف فایل و فشرده سازی اطلاعاتی کسب کنید این دوره برای هرکسی است که می خواهد Sqoop و Flume را یاد بگیرد یا کسانی که به دنبال دریافت گواهینامه CCA و HDP هستند. Sqoop، Flume و Hive را بیاموزید و با موفقیت به گواهینامه CCA175 و Hortonworks Spark دست یابید * سیستم فایل توزیع شده Hadoop (HDFS) را به همراه کاوش در دستورات Hadoop برای کار موثر با HDFS درک کنید.
سرفصل ها و درس ها
مقدمه هادوپ
Hadoop Introduction
دستورات HDFS و Hadoop
HDFS and Hadoop Commands
Sqoop Import
Sqoop Import
Sqoop مقدمه
Sqoop Introduction
مدیریت فهرست های هدف
Managing Target Directories
کار با فرمت های مختلف فایل
Working with Different File Formats
کار با فشرده سازی های مختلف
Working with Different Compressions
واردات مشروط
Conditional Imports
پرس و جوهای تقسیم شده و مرزی
Split-by and Boundary Queries
جداکننده های میدان
Field delimeters
ضمیمه های افزایشی
Incremental Appends
واردات کندو Sqoop
Sqoop Hive Import
Sqoop List جداول/پایگاه داده
Sqoop List Tables/Database
Sqoop Import Practice1
Sqoop Import Practice1
Sqoop Import Practice2
Sqoop Import Practice2
Sqoop Import Practice3
Sqoop Import Practice3
Sqoop Export
Sqoop Export
صادرات از Hdfs به Mysql
Export from Hdfs to Mysql
صادرات از Hive به Mysql
Export from Hive to Mysql
آپاچی فلوم
Apache Flume
معرفی فلوم و معماری
Flume Introduction & Architecture
Exec Source و Logger Sink
Exec Source and Logger Sink
انتقال داده ها از توییتر به HDFS
Moving data from Twitter to HDFS
انتقال داده ها از NetCat به HDFS
Moving data from NetCat to HDFS
رهگیرهای فلوم
Flume Interceptors
مثال Flume Interceptor
Flume Interceptor Example
فلوم چند عامل جریان
Flume Multi-Agent Flow
تثبیت فلوم
Flume Consolidation
Apache Hive
Apache Hive
معرفی کندو
Hive Introduction
پایگاه داده Hive
Hive Database
جداول مدیریت شده Hive
Hive Managed Tables
جداول خارجی کندو
Hive External Tables
درج کندو
Hive Inserts
Hive Analytics
Hive Analytics
کار با پارکت
Working with Parquet
فشرده سازی پارکت
Compressing Parquet
کار با فرمت فایل ثابت
Working with Fixed File Format
تغییر فرمان
Alter Command
توابع رشته کندو
Hive String Functions
توابع تاریخ کندو
Hive Date Functions
پارتیشن بندی کندو
Hive Partitioning
سطل سازی کندو
Hive Bucketing
معرفی جرقه
Spark Introduction
معرفی جرقه
Spark Introduction
مجموعه داده های توزیع شده انعطاف پذیر
Resilient Distributed Datasets
نمای کلی خوشه
Cluster Overview
گراف غیر چرخشی کارگردانی شده (DAG) و مراحل
Directed Acyclic Graph (DAG) & Stages
تحولات و اقدامات جرقه
Spark Transformations & Actions
تبدیل نقشه/نقشه مسطح
Map/FlatMap Transformation
فیلتر/تقاطع
Filter/Intersection
اتحاد/تحول متمایز
Union/Distinct Transformation
GroupByKey/افراد را بر اساس ماه های تولد گروه بندی کنید
GroupByKey/ Group people based on Birthday months
ReduceByKey/تعداد کل دانش آموزان در هر موضوع
ReduceByKey / Total Number of students in each Subject
SortByKey/مرتب سازی دانش آموزان بر اساس rollno آنها
SortByKey / Sort students based on their rollno
TechnoAvengers.com (مerسس) من یک معمار داده بزرگ با 11 سال سابقه صنعت در فناوری ها و حوزه های مختلف هستم. من علاقه زیادی به ارائه آموزش در زمینه فناوری های جدید دارم. من گواهینامه توسعه دهنده CCA175 Hadoop and Spark و گواهینامه معمار راه حل AWS را دریافت کرده ام. من عاشق هدایت مردم و کمک به آنها برای رسیدن به اهداف جدید هستم.
نمایش نظرات