در این دوره، شما با یادگیری سیستم فایل توزیع شده هادوپ و رایج ترین دستورات هادوپ مورد نیاز برای کار با سیستم فایل Hadoop شروع خواهید کرد.
سپس با Sqoop Import
آشنا می شویدچرخه حیات فرمان sqoop را درک کنید.
از دستور sqoop import برای انتقال داده ها از Mysql به HDFS استفاده کنید.
از دستور sqoop import برای انتقال داده ها از Mysql به Hive استفاده کنید.
از فرمتهای مختلف فایل، فشردهسازیها، جداکننده فایل، بند و پرسوجو در هنگام وارد کردن دادهها استفاده کنید.
پرسمانهای تقسیمبندی و مرزی را درک کنید.
از حالت افزایشی برای انتقال داده ها از Mysql به HDFS استفاده کنید.
بهعلاوه، Sqoop Export را برای انتقال دادهها یاد خواهید گرفت.
صادرات sqoop چیست
با استفاده از sqoop export، داده ها را از HDFS به Mysql منتقل کنید.
با استفاده از sqoop export، داده ها را از Hive به Mysql منتقل کنید.
بعلاوه، با Apache Flume
آشنا خواهید شدمعماری فلوم را درک کنید.
با استفاده از flume، دادهها را از Twitter دریافت کرده و در HDFS ذخیره کنید.
با استفاده از flume، دادهها را از netcat دریافت کرده و در HDFS ذخیره کنید.
با استفاده از flume، دادهها را از exec دریافت کنید و در کنسول نمایش دهید.
فلوم رهگیرها را توصیف کنید و نمونه هایی از استفاده از رهگیرها را ببینید.
چندین عامل را فلوم کنید
تجمیع فلوم.
در بخش بعدی، با Apache Hive
آشنا خواهیم شدHive Intro
جدول مدیریت شده خارجی
کار با فایل های مختلف - Parket,Avro
فشردهسازیها
تجزیه و تحلیل کندو
توابع رشته Hive
توابع تاریخ کندو
پارتیشن بندی
سطوبندی
درباره Apache Spark
خواهید آموختمعرفی Spark
نمای کلی خوشه
RDD
DAG/Stages/Tasks
تغییر اقدامات
نمونههای اقدام تغییر شکل
فریم های داده Spark
قابهای داده Spark - کار با فشردهسازی فرمتهای فایل متفاوت
APIهای Dataframes
Spark SQL
نمونههای چارچوب داده
Spark with Cassandra Integration
اجرای Spark در Intellij IDE
اجرای Spark در EMR
TechnoAvengers.com (مerسس) من یک معمار داده بزرگ با 11 سال سابقه صنعت در فناوری ها و حوزه های مختلف هستم. من علاقه زیادی به ارائه آموزش در زمینه فناوری های جدید دارم. من گواهینامه توسعه دهنده CCA175 Hadoop and Spark و گواهینامه معمار راه حل AWS را دریافت کرده ام. من عاشق هدایت مردم و کمک به آنها برای رسیدن به اهداف جدید هستم.
نمایش نظرات