آموزش تجزیه و تحلیل داده های بزرگ با Hadoop و Apache Spark

دانلود Big Data Analytics with Hadoop and Apache Spark

نکته: آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
نمونه ویدیوها:
توضیحات دوره: Apache Hadoop پیشگام در دنیای فناوری های کلان داده بود و همچنان در ذخیره سازی کلان داده های سازمانی پیشتاز است. Apache Spark برترین موتور پردازش داده های بزرگ است و مجموعه ای چشمگیر از ویژگی ها و قابلیت ها را ارائه می دهد. هنگامی که با هم استفاده می شود، سیستم فایل توزیع شده Hadoop (HDFS) و Spark می توانند یک راه اندازی واقعا مقیاس پذیر برای تجزیه و تحلیل داده های بزرگ ارائه دهند. در این دوره، کوماران پونامبالام، متخصص تجزیه و تحلیل داده ها به شما نشان می دهد که چگونه از این دو فناوری برای ایجاد خطوط لوله تجزیه و تحلیل داده مقیاس پذیر و بهینه استفاده کنید. کاوش راه هایی برای بهینه سازی مدل سازی و ذخیره سازی داده ها در HDFS؛ بحث در مورد مصرف و استخراج داده های مقیاس پذیر با استفاده از Spark. و نکات قابل اجرا برای بهینه سازی پردازش داده ها در Spark را مرور کنید. به علاوه، یک پروژه مورد استفاده را تکمیل کنید که به شما امکان می دهد تکنیک های جدید خود را تمرین کنید.

سرفصل ها و درس ها

مقدمه Introduction

  • قدرت ترکیبی Spark و Hadoop Distributed File System (HDFS) The combined power of Spark and Hadoop Distributed File System (HDFS)

1. معرفی و راه اندازی 1. Introduction and Setup

  • نمای کلی آپاچی هادوپ Apache Hadoop overview

  • ادغام Spark و Hadoop Integrating Spark and Hadoop

  • نمای کلی آپاچی اسپارک Apache Spark overview

  • استفاده از فایل های تمرینی Using exercise files

2. مدل سازی داده های HDFS برای تجزیه و تحلیل 2. HDFS Data Modeling for Analytics

  • بهترین روش ها برای ذخیره سازی داده ها Best practices for data storage

  • سطل سازی Bucketing

  • پارتیشن بندی Partitioning

  • فرمت های ذخیره سازی Storage formats

  • فشرده سازی Compression

3. بلع داده ها با Spark 3. Data Ingestion with Spark

  • خواندن فایل های خارجی در Spark Reading external files into Spark

  • موازی با سطل می نویسد Parallel writes with bucketing

  • موازی می نویسد با پارتیشن بندی Parallel writes with partitioning

  • بهترین شیوه ها برای بلعیدن Best practices for ingestion

  • نوشتن به HDFS Writing to HDFS

4. استخراج داده ها با اسپارک 4. Data Extraction with Spark

  • بهترین روش ها برای استخراج داده ها Best practices for data extraction

  • خواندن فایل های HDFS با طرحواره Reading HDFS files with schema

  • خواندن داده های سطلی Reading bucketed data

  • اسپارک چگونه کار می کند How Spark works

  • خواندن داده های پارتیشن بندی شده Reading partitioned data

5. بهینه سازی پردازش جرقه 5. Optimizing Spark Processing

  • ذخیره سازی نتایج متوسط Storing intermediate results

  • مدیریت پارتیشن ها Managing partitions

  • پایین آوردن پیش بینی ها Pushing down projections

  • بهبود اتصالات Improving joins

  • فشار دادن فیلترها Pushing down filters

  • بهترین روش ها برای پردازش داده ها Best practices for data processing

6. از پروژه Case استفاده کنید 6. Use Case Project

  • برترین تحلیل های دانشجویی Top student analytics

  • بارگذاری داده ها Data loading

  • تعریف مشکل Problem definition

  • تجزیه و تحلیل میانگین امتیاز Average score analytics

  • تجزیه و تحلیل امتیاز کل Total score analytics

نتیجه گیری Conclusion

  • با تجزیه و تحلیل داده های بزرگ ادامه دهید Continuing on with big data analytics

نمایش نظرات

آموزش تجزیه و تحلیل داده های بزرگ با Hadoop و Apache Spark
جزییات دوره
0h 51m
32
Linkedin (لینکدین) Linkedin (لینکدین)
(آخرین آپدیت)
773
- از 5
دارد
دارد
دارد
جهت دریافت آخرین اخبار و آپدیت ها در کانال تلگرام عضو شوید.

Google Chrome Browser

Internet Download Manager

Pot Player

Winrar

Kumaran Ponnambalam Kumaran Ponnambalam

اختصاص به آموزش علوم داده

V2 Maestros به آموزش علوم داده و داده های بزرگ با هزینه های مقرون به صرفه برای جهان اختصاص دارد. مربیان ما تجربه دنیای واقعی در تمرین علم داده و ارائه نتایج تجاری دارند. علم داده یک حوزه داغ و در حال رخ دادن در صنعت فناوری اطلاعات است. متأسفانه منابع موجود برای یادگیری این مهارت به سختی یافت می شود و گران است. امیدواریم این مشکل را با ارائه آموزش باکیفیت با نرخ های مقرون به صرفه، با ایجاد استعدادهای علم داده در سراسر جهان، کاهش دهیم.