Big Data: Hadoop| MapReduce| کندو| خوک| NoSQL| ماهوت| اوزی

Big Data: Hadoop| MapReduce| Hive| Pig| NoSQL| Mahout| Oozie

نکته: آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
نمونه ویدیوها:
توضیحات دوره: Hadoop، HDFS، MapReduce، Hive، Pig، NoSQL، Mahout، Oozie، Flume، Storm، Avro، Spark، Projects و Case Studies را بیاموزید. مقدمه ای بر Big Data و Hadoop. مروری بر آموزش هادوپ سناریوی Big Data Hadoop. Hadoop Architecture و HDFS. سیستم فایل توزیع شده Hadoop. Hadoop MapReduce Fundamentals. تکنیک های پیشرفته MapReduce. مبانی HIVE و مفاهیم پیشرفته. اصول PIG و تکنیک های پیشرفته. NoSQL Fundamentals. Apache Mahout برای یادگیری ماشین. آپاچی اوزی برای ارکستراسیون گردش کار. Apache Flume برای مصرف داده ها. طوفان آپاچی برای پردازش داده ها در زمان واقعی. Apache Avro برای سریال سازی داده ها. Apache Spark Fundamentals، مفاهیم پیشرفته پروژه های عملی Hadoop در دامنه های مختلف. Hadoop در محیط کلودرا. تجزیه و تحلیل داده ها با Hadoop. تجزیه و تحلیل رسانه های اجتماعی با استفاده از Hadoop. تجزیه و تحلیل داده های YouTube با Hadoop. تجزیه و تحلیل بررسی سلامت با استفاده از HDFS. تجزیه و تحلیل تخلفات ترافیکی تجزیه و تحلیل فروش تجارت الکترونیک Hive/MapReduce برای تجزیه و تحلیل شکایات مشتری. تجزیه و تحلیل داده های حسگر با استفاده از PIG/MapReduce. Spark Streaming برای تجزیه و تحلیل داده های توییتر. تجزیه و تحلیل صنعت مخابرات با استفاده از Hive. مدیریت داده های دانشکده با HDFS. تحلیل بررسی گردشگری. تجزیه و تحلیل حقوق و دستمزد درک جامع از فناوری های کلان داده. پیش نیازها: دانش پایه کامپیوتر دانش پایه جاوا و SQL به عنوان یک مزیت اضافه خواهد بود بدون نیاز به دانش قبلی. این دوره از صفر شروع می شود و با پروژه های مختلف به سطح پیشرفته می رود. برای گذراندن این دوره هادوپ به مهارت خاصی نیاز نیست.

به دوره جامع ما درباره Big Data و Hadoop خوش آمدید! در این دوره، با تمرکز بر Hadoop، یکی از قدرتمندترین و پرکاربردترین چارچوب‌ها برای پردازش مجموعه‌های داده در مقیاس بزرگ، عمیقاً به دنیای فناوری‌های کلان داده می‌پردازیم.

در طول این دوره، شما با اصول Hadoop از جمله معماری، اجزا و برنامه های کاربردی آن آشنا خواهید شد. ما همه چیز را از مبانی کلان داده و Hadoop گرفته تا موضوعات پیشرفته مانند MapReduce، HDFS، Hive، Pig و موارد دیگر را پوشش خواهیم داد.

چه یک مبتدی باشید که به دنبال درک اصول اولیه داده های بزرگ هستید یا یک حرفه ای با تجربه که به دنبال افزایش مهارت های خود در فناوری های اکوسیستم Hadoop هستید، این دوره آموزشی برای همه دارد. برای کاوش در زمینه هیجان انگیز داده های بزرگ آماده شوید و قدرت Hadoop را برای حل چالش های داده در دنیای واقعی آزاد کنید. در این سفر به ما بپیوندید تا پتانسیل داده های بزرگ را با هم باز کنیم! از نظر بخش موارد زیر را یاد خواهیم گرفت:

بخش 1: Big Data و Hadoop Training مقدمه

در این بخش، دانش آموزان با مفاهیم اساسی Big Data و آموزش هادوپ آشنا می شوند. آنها با درک اهمیت Hadoop در مدیریت کارآمد حجم زیادی از داده ها شروع می کنند. از طریق یک سری جلسات مقدماتی، فراگیران با چشم انداز Big Data و فناوری Hadoop آشنا می شوند و زمینه را برای کاوش عمیق تر در بخش های بعدی فراهم می کنند.

بخش 2: معماری Hadoop و HDFS

با رفتن به معماری Hadoop و سیستم فایل توزیع شده آن (HDFS)، این بخش به اجزای اصلی Hadoop 1.0 می پردازد. دانش‌آموزان بینشی در مورد لایه ذخیره‌سازی Hadoop و سیاست‌های قرار دادن حاکم بر توزیع داده در سراسر خوشه به دست می‌آورند. از طریق تمرین‌های عملی و آموزش‌های راه‌اندازی خوشه، یادگیرندگان درک کاملی از معماری Hadoop و اجرای عملی آن در سناریوهای دنیای واقعی پیدا می‌کنند.

بخش 3: MapReduce Fundamentals

در این بخش، دانش‌آموزان به اصول MapReduce می‌پردازند، جزء اصلی Hadoop برای پردازش و تجزیه و تحلیل مجموعه‌های داده بزرگ به صورت موازی. از طریق مجموعه ای از سخنرانی ها، فراگیران مفاهیم کلیدی مانند مرتب سازی ثانویه، کلیدهای ترکیبی و اهمیت پارتیشن بندی را بررسی می کنند. آن‌ها با کار بر روی برنامه‌های نمونه، درک اتصال‌های سمت نقشه، و پیاده‌سازی ترکیب‌کننده‌ها برای پردازش کارآمد داده، تجربه عملی در برنامه‌نویسی MapReduce به دست می‌آورند.

بخش 4: MapReduce Advanced

بر اساس دانش پایه MapReduce، این بخش به موضوعات و تکنیک های پیشرفته تر برای بهینه سازی برنامه های MapReduce می پردازد. دانش‌آموزان در مورد اجرا و اشکال‌زدایی برنامه‌های MapReduce، کار با فرمت‌های فایل مختلف، و استفاده از قابلیت‌های پیشرفته MapReduce برای کارهایی مانند پردازش گزارش و صادرات داده‌ها، یاد می‌گیرند. در پایان این بخش، فراگیران به مهارت‌هایی برای مقابله با چالش‌های پیچیده پردازش داده با استفاده از MapReduce مجهز می‌شوند.

بخش 5: اصول HIVE

در این بخش، دانش‌آموزان با Apache Hive، یک زیرساخت انبار داده که در بالای Hadoop برای پرس و جو و تجزیه و تحلیل مجموعه داده‌های بزرگ ذخیره شده در HDFS ساخته شده است، آشنا می‌شوند. از طریق مجموعه ای از سخنرانی ها، زبان آموزان معماری Hive، مفاهیم مدل سازی داده ها و زبان پرس و جو (HiveQL) را بررسی می کنند. آنها یاد می گیرند که چگونه پایگاه داده ها و جداول را ایجاد و مدیریت کنند، عملیات بارگذاری داده ها را انجام دهند، و پرس و جوهای مختلف شبیه به SQL را برای استخراج بینش از داده های ساختاریافته اجرا کنند.

بخش 6: Hive Advanced

با گسترش دانش پایه Hive، این بخش موضوعات و تکنیک های پیشرفته ای را برای بهینه سازی پرس و جوهای Hive و گردش کار پردازش داده ها پوشش می دهد. دانش‌آموزان در مورد پارتیشن‌بندی، سطل‌سازی، نمایه‌سازی و سایر استراتژی‌های بهینه‌سازی عملکرد برای افزایش عملکرد و مقیاس‌پذیری پرس و جو، یاد می‌گیرند. علاوه بر این، آن‌ها ویژگی‌های پیشرفته‌ای مانند نمونه‌برداری از جدول، بایگانی، و کار با ابعاد آهسته در حال تغییر (SCD) را بررسی می‌کنند تا به طور موثر نیازمندی‌های تجزیه و تحلیل داده‌های پیچیده را برطرف کنند.

بخش 7: اصول PIG

در این بخش، دانش‌آموزان Apache Pig را بررسی می‌کنند، یک زبان برنامه‌نویسی جریان داده سطح بالا برای پردازش و تجزیه و تحلیل مجموعه‌های داده بزرگ در Hadoop. از طریق مجموعه‌ای از سخنرانی‌ها، فراگیران ویژگی‌های Pig، انواع داده‌ها و عملگرها را برای بیان تبدیل داده‌ها و وظایف تجزیه و تحلیل مختصر کشف می‌کنند. آنها تجربه عملی در بارگیری و ذخیره داده ها، گروه بندی و پیوستن به عملیات، و استفاده از توابع داخلی برای انجام کارآمد وظایف دستکاری داده به دست می آورند.

بخش 8: PIG پیشرفته

با تکیه بر دانش اساسی Pig، این بخش به موضوعات و تکنیک های پیشرفته برای بهینه سازی اسکریپت های Pig و گردش کار پردازش داده می پردازد. دانش‌آموزان در مورد تکنیک‌های اشکال‌زدایی، استفاده از توابع تعریف‌شده توسط کاربر (UDF) و کار با انواع داده‌های پیچیده برای رسیدگی مؤثر به نیازهای پردازش داده‌های متنوع، یاد می‌گیرند. علاوه بر این، آنها استراتژی‌هایی را برای بهبود عملکرد و مقیاس‌پذیری اسکریپت Pig در محیط‌های پردازش داده در مقیاس بزرگ بررسی می‌کنند.

بخش 9: اصول NoSQL

این بخش مقدمه‌ای بر پایگاه‌های داده NoSQL ارائه می‌کند که تاریخچه، ویژگی‌ها و مزایای آن‌ها را در مدیریت انواع داده‌های متنوع و به سرعت در حال تغییر پوشش می‌دهد. دانش‌آموزان در مورد انواع مختلف پایگاه‌های داده NoSQL از جمله پایگاه‌های داده مبتنی بر سند، ستونی و نموداری یاد می‌گیرند و مناسب بودن آن‌ها برای موارد استفاده مختلف را درک می‌کنند. علاوه بر این، یادگیرندگان مفاهیم کلیدی مانند انعطاف‌پذیری طرح‌واره، مدل‌های سازگاری، و معماری توزیع‌شده را بررسی می‌کنند، و بینش‌هایی را در مورد مدیریت و جستجوی داده‌ها در محیط‌های NoSQL به‌طور مؤثر به‌دست می‌آورند.

بخش 10: Apache Mahout

در این بخش، دانش‌آموزان Apache Mahout را بررسی می‌کنند، یک کتابخانه یادگیری ماشینی مقیاس‌پذیر که در بالای Hadoop برای ساخت و استقرار مدل‌های یادگیری ماشین در مقیاس ساخته شده است. از طریق مجموعه‌ای از سخنرانی‌ها و تمرین‌های عملی، زبان‌آموزان معماری، الگوریتم‌های ماهوت را کشف می‌کنند و از موارد در سناریوهای دنیای واقعی استفاده می‌کنند. آنها تجربه عملی در پیاده سازی سیستم های توصیه، خوشه بندی، طبقه بندی و سایر وظایف یادگیری ماشین با استفاده از APIها و ابزارهای Mahout کسب می کنند.

بخش 11: Apache Oozie

این بخش Apache Oozie را معرفی می‌کند، یک سیستم زمان‌بندی گردش کار برای مدیریت کارهای Hadoop و گردش‌های کاری پردازش داده. دانش آموزان در مورد معماری Oozie، زبان تعریف گردش کار، و اقدامات مختلف گردش کار برای هماهنگی و هماهنگی خطوط لوله پردازش داده پیچیده یاد می گیرند. از طریق تمرین‌های عملی، فراگیران در ایجاد، زمان‌بندی و نظارت بر گردش‌های کاری با استفاده از Oozie مهارت کسب می‌کنند و به آنها امکان می‌دهد تا وظایف پردازش داده‌ها را به طور موثر خودکار و ساده کنند.

بخش 12: Apache Flume

در این بخش، دانش‌آموزان Apache Flume را بررسی می‌کنند، یک سیستم توزیع‌شده، قابل اعتماد و در دسترس برای جمع‌آوری، جمع‌آوری، و انتقال حجم زیادی از داده‌های گزارش از منابع مختلف به فروشگاه‌های داده متمرکز. از طریق سخنرانی ها و نمایش های عملی، زبان آموزان معماری، اجزا و مدل جریان داده Flume را برای دریافت و پردازش داده های گزارش در محیط های Hadoop درک می کنند. آنها تجربه عملی در پیکربندی عوامل Flume، تعریف خطوط لوله انتقال داده، و نظارت بر جریان داده ها برای پردازش گزارش بلادرنگ به دست می آورند.

بخش 13: طوفان آپاچی

این بخش Apache Storm را معرفی می‌کند، یک سیستم پردازش جریان بی‌درنگ توزیع‌شده برای پردازش جریان‌های داده با سرعت بالا با تاخیر کم و تحمل خطا. دانش آموزان در مورد معماری استورم، اجزا و مدل پردازش جریان، از جمله دهانه ها، پیچ ها و توپولوژی ها یاد می گیرند. از طریق تمرین‌های عملی، فراگیران تجربه عملی در راه‌اندازی خوشه‌های طوفان، توسعه و استقرار توپولوژی‌های پردازش جریان، و مدیریت جریان‌های داده در زمان واقعی برای موارد استفاده مختلف مانند تجزیه و تحلیل بلادرنگ، پردازش رویداد و موارد دیگر کسب می‌کنند.

بخش 14: Apache Avro

در این بخش، دانش‌آموزان به بررسی Apache Avro می‌پردازند، یک سیستم سریال‌سازی داده‌ها که ساختارهای داده‌ای غنی، یک فرمت باینری فشرده و یک مدل داده مانند JSON را برای تبادل کارآمد داده بین برنامه‌ها فراهم می‌کند. زبان آموزان زبان تعریف طرحواره Avro، انواع داده های پشتیبانی شده و ادغام با سایر ابزارهای کلان داده مانند Apache Sqoop را بررسی می کنند. از طریق مثال‌ها و تمرین‌های عملی، دانش‌آموزان در استفاده از Avro برای سریال‌سازی داده‌ها، تکامل طرح‌واره و قابلیت همکاری در اکوسیستم‌های Hadoop مهارت کسب می‌کنند.

بخش 15: اصول اسپارک آپاچی

این بخش مقدمه‌ای بر Apache Spark، یک چارچوب محاسباتی خوشه‌ای همه‌منظوره و سریع برای پردازش مجموعه‌های داده در مقیاس بزرگ با سرعت بالا و سهولت استفاده را ارائه می‌دهد. دانش‌آموزان در مورد اجزای اصلی Spark، از جمله Spark Context، Resilient Distributed Datasets (RDDs)، و تبدیل‌ها/اقدامات برای پردازش داده‌های توزیع‌شده، یاد می‌گیرند. از طریق آزمایشگاه‌ها و نمایش‌های عملی، زبان‌آموزان تجربه عملی در کار با RDD، اعمال تبدیل‌ها/عمل‌ها، و انجام وظایف تحلیل داده‌های اولیه با استفاده از APIهای Spark به دست می‌آورند.

بخش 16: Apache Spark Advanced

با تکیه بر اصول اساسی، این بخش به مفاهیم و ویژگی‌های پیشرفته Apache Spark عمیق‌تر می‌پردازد و به دانش‌آموزان قدرت می‌دهد تا به طور موثر با چالش‌های پردازش داده و تجزیه و تحلیل پیچیده مقابله کنند. یادگیرندگان موضوعاتی مانند اتصال Spark به منابع داده خارجی، کار با Spark SQL برای پردازش داده‌های ساخت‌یافته، و استفاده از یادگیری ماشینی و کتابخانه‌های پردازش گراف Spark برای کارهای تحلیلی پیشرفته را بررسی می‌کنند. از طریق ترکیبی از سخنرانی‌ها و تمرین‌های عملی، دانش‌آموزان مهارت‌های پیشرفته‌ای را در ساخت خطوط لوله پردازش داده سرتاسر و استقرار مدل‌های یادگیری ماشین با استفاده از Spark توسعه می‌دهند.

بخش 17: پروژه Hadoop 01 - تجزیه و تحلیل داده های فروش

در این بخش مبتنی بر پروژه، دانش‌آموزان دانش خود را در مورد Hadoop و فناوری‌های مرتبط برای تجزیه و تحلیل داده‌های فروش و به دست آوردن بینش‌های عملی به کار می‌گیرند. یادگیرندگان از طریق بیانیه های مختلف مشکل، مانند محاسبه میانگین فروش، تجزیه و تحلیل روند فروش، و تقسیم بندی مشتریان بر اساس رفتار خرید، کار می کنند. با تکمیل این پروژه، دانش آموزان تجربه عملی در تجزیه و تحلیل داده ها، ابزارهای اکوسیستم Hadoop، و سناریوهای پردازش داده در دنیای واقعی به دست می آورند.

بخش 18: پروژه Hadoop 02 - تجزیه و تحلیل نظرسنجی گردشگری

در ادامه یادگیری مبتنی بر پروژه، این بخش بر تجزیه و تحلیل داده‌های نظرسنجی گردشگری با استفاده از فناوری‌های Hadoop تمرکز دارد. دانش‌آموزان بر روی وظایفی مانند محاسبه میانگین هزینه‌های گردشگران، تجزیه و تحلیل جمعیت‌شناسی و شناسایی گرایش‌ها در ترجیحات گردشگری کار می‌کنند. از طریق تمرین‌های عملی و پروژه‌های هدایت‌شده، یادگیرندگان مهارت‌های خود را در دستکاری داده‌ها، پرس‌وجو، و تجسم برای به دست آوردن بینش‌های ارزشمند برای صنعت گردشگری به کار می‌گیرند.

بخش 19: پروژه Hadoop 03 - مدیریت داده های دانشکده

در این پروژه، دانش‌آموزان با استفاده از راه‌حل‌های مبتنی بر Hadoop، وظیفه مدیریت داده‌های هیئت علمی در یک موسسه آموزشی را بر عهده می‌گیرند. فراگیران بر روی وظایفی مانند دریافت داده ها، طراحی طرحواره، تبدیل داده ها و پرس و جو برای ایجاد یک سیستم مدیریت داده های دانشکده جامع کار می کنند. با تکمیل این پروژه، دانش آموزان تجربه عملی در طراحی و پیاده سازی راه حل های مدیریت داده با استفاده از فناوری های Hadoop به دست می آورند.

بخش 20: پروژه Hadoop 04 - تجزیه و تحلیل فروش تجارت الکترونیک

در این پروژه، دانش‌آموزان با استفاده از ابزارها و تکنیک‌های Hadoop به تجزیه و تحلیل داده‌های فروش تجارت الکترونیکی می‌پردازند. آنها بر روی وظایفی مانند تقسیم بندی مشتری، تجزیه و تحلیل عملکرد محصول، و پیش بینی فروش کار می کنند تا بینش های ارزشمندی را برای کسب و کارهای تجارت الکترونیک استخراج کنند. دانش‌آموزان با استفاده از دانش خود در مورد اجزای اکوسیستم Hadoop، تکنیک‌های پردازش داده و روش‌های تجزیه و تحلیل، تجربه عملی در حل چالش‌های دنیای واقعی در حوزه تجارت الکترونیک به دست می‌آورند.

بخش 21: پروژه Hadoop 05 - تجزیه و تحلیل حقوق و دستمزد

این پروژه حول تجزیه و تحلیل داده‌های حقوق و دستمزد با استفاده از رویکردهای مبتنی بر Hadoop می‌چرخد. دانش آموزان در وظایفی مانند شناسایی الگوها در توزیع حقوق، محاسبه میانگین حقوق از نظر بخش، و تجزیه و تحلیل روند پاداش کارکنان شرکت می کنند. از طریق تمرین‌های عملی و تکالیف تجزیه و تحلیل داده‌ها، یادگیرندگان مهارت‌های خود را در دستکاری داده‌ها، تجزیه و تحلیل آماری، و استخراج بینش‌های عملی از مجموعه داده‌های حقوق در مقیاس بزرگ افزایش می‌دهند.

بخش 22: پروژه Hadoop 06 - تجزیه و تحلیل نظرسنجی سلامت با استفاده از HDFS

در این پروژه، دانش‌آموزان تجزیه و تحلیل داده‌های نظرسنجی سلامت را با استفاده از سیستم فایل توزیع‌شده Hadoop (HDFS) و فناوری‌های مرتبط انجام می‌دهند. آنها بر روی وظایفی مانند پیش پردازش داده ها، تجزیه و تحلیل روند، و نقشه برداری جغرافیایی از شاخص های سلامت برای به دست آوردن بینش در مورد روندها و مسائل بهداشت عمومی کار می کنند. از طریق پروژه‌های عملی و وظایف تجسم داده‌ها، یادگیرندگان در استفاده از Hadoop برای تجزیه و تحلیل داده‌های سلامت و تصمیم‌گیری در تنظیمات مراقبت‌های بهداشتی مهارت کسب می‌کنند.

بخش 23: پروژه Hadoop 07 - تجزیه و تحلیل تخلفات ترافیکی

در این پروژه، دانش‌آموزان تجزیه و تحلیل داده‌های تخلفات ترافیکی را با استفاده از ابزارها و چارچوب‌های Hadoop بررسی می‌کنند. آنها بر روی وظایفی مانند دریافت داده ها از منابع مختلف، تجزیه و تحلیل جغرافیایی تخلفات ترافیکی، و شناسایی الگوها در داده های تخلفات ترافیکی کار می کنند. با استفاده از راه‌حل‌های مبتنی بر Hadoop برای تجزیه و تحلیل داده‌های ترافیک، یادگیرندگان تجربه عملی در درک الگوهای ترافیکی، بهبود ایمنی جاده‌ها و اجرای مداخلات مبتنی بر داده‌ها برای مدیریت مؤثر تخلفات ترافیکی به دست می‌آورند.

بخش 24: Hadoop Project 08 - PIG/MapReduce - Analyse Loan Dataset

این پروژه بر تجزیه و تحلیل مجموعه داده های وام با استفاده از ترکیبی از تکنیک های Apache Pig و MapReduce تمرکز دارد. دانش آموزان در وظایفی مانند پیش پردازش داده ها، محاسبه معیارهای ریسک، و تولید گزارش در مورد عملکرد وام شرکت می کنند. از طریق تمرین‌های عملی و تکالیف کدنویسی، فراگیران در استفاده از اسکریپت‌های Pig Latin، پیاده‌سازی الگوریتم‌های MapReduce، و انجام تجزیه و تحلیل بر روی مجموعه داده‌های وام در مقیاس بزرگ برای پشتیبانی از فرآیندهای تصمیم‌گیری مالی مهارت کسب می‌کنند.

بخش 25: پروژه Hadoop:09 - HIVE - مطالعه موردی در صنعت مخابرات

در این پروژه، دانش‌آموزان به مطالعه موردی متمرکز بر تجزیه و تحلیل داده‌های صنعت مخابرات با استفاده از Apache Hive می‌پردازند. آنها بر روی وظایفی مانند مدل سازی داده ها، بهینه سازی پرس و جو و تنظیم عملکرد برای استخراج بینش معنی دار از مجموعه داده های مخابراتی کار می کنند. از طریق تمرین‌های عملی و جستجوهای مبتنی بر SQL در Hive، فراگیران تجربه عملی در انبار داده‌ها، هوش تجاری و سیستم‌های پشتیبانی تصمیم متناسب با حوزه مخابراتی کسب می‌کنند.

بخش 26: پروژه Hadoop: 10 - HIVE/MapReduce - تجزیه و تحلیل شکایات مشتریان

این پروژه حول تجزیه و تحلیل داده‌های شکایات مشتریان با استفاده از ترکیبی از تکنیک‌های Hive و MapReduce می‌چرخد. دانش آموزان برای درک الگوهای بازخورد مشتری و بهبود کیفیت خدمات، درگیر وظایفی مانند پیش پردازش داده ها، تجزیه و تحلیل احساسات، و شناسایی روند می شوند. با استفاده از Hive برای جستجوی داده ها و MapReduce برای تجزیه و تحلیل پیچیده، یادگیرندگان مهارت های ارزشمندی در تجزیه و تحلیل مشتری و افزایش تجربه مشتری در صنایع مختلف به دست می آورند.

بخش 27: پروژه Hadoop 11 - HIVE/PIG/MapReduce/Sqoop - تجزیه و تحلیل رسانه های اجتماعی

در این پروژه، دانش‌آموزان با استفاده از ترکیبی از ابزارهای اکوسیستم Hadoop از جمله Hive، Pig، MapReduce و Sqoop، به تجزیه و تحلیل داده‌های رسانه‌های اجتماعی می‌پردازند. آنها بر روی وظایفی مانند استخراج داده ها، تجزیه و تحلیل احساسات و مدل سازی رفتار کاربر برای درک روندها و الگوهای تعاملات رسانه های اجتماعی کار می کنند. از طریق تمرین‌های عملی و وظایف پردازش داده‌ها، یادگیرندگان بینش‌هایی در مورد تجزیه و تحلیل رسانه‌های اجتماعی، بهینه‌سازی محتوا و استراتژی‌های تعامل با مخاطب به دست می‌آورند.

بخش 28: پروژه Hadoop 12 - HIVE/PIG - تجزیه و تحلیل داده های حسگر

این پروژه بر تجزیه و تحلیل داده‌های حسگر با استفاده از Apache Hive و Pig برای پردازش و تجزیه و تحلیل داده‌ها تمرکز دارد. دانش‌آموزان درگیر کارهایی مانند تمیز کردن داده‌ها، تشخیص ناهنجاری‌ها، و مدل‌سازی پیش‌بینی‌کننده برای استخراج بینش‌های عملی از جریان‌های داده تولید شده توسط حسگر هستند. با استفاده از راه‌حل‌های مبتنی بر Hadoop برای تجزیه و تحلیل داده‌های حسگر، یادگیرندگان تجربه عملی در تجزیه و تحلیل IoT (اینترنت اشیا) و استفاده از داده‌های حسگر برای برنامه‌های مختلف مانند نگهداری پیش‌بینی‌کننده و نظارت بر محیط کسب می‌کنند.

بخش 29: پروژه Hadoop 13 - PIG/MapReduce - تحلیل داده‌های YouTube

در این پروژه، دانش‌آموزان تجزیه و تحلیل داده‌های YouTube را با استفاده از ترکیبی از Pig و MapReduce انجام می‌دهند. آنها روی کارهایی مانند پیش پردازش داده ها، شناسایی روند، و تجزیه و تحلیل رفتار کاربر کار می کنند تا بینش هایی را در مورد الگوهای مصرف محتوای YouTube و تعامل مخاطبان کشف کنند. با استفاده از Pig برای تبدیل داده ها و MapReduce برای تجزیه و تحلیل پیچیده، یادگیرندگان تجربه عملی در تجزیه و تحلیل داده های بزرگ که در پلتفرم های رسانه دیجیتال اعمال می شود، به دست می آورند.

بخش 30: اصول Hadoop و HDFS در Cloudera

این بخش دانش اساسی در مورد Hadoop و HDFS (سیستم فایل توزیع شده Hadoop) با استفاده از محیط Cloudera ارائه می دهد. دانش آموزان در مورد مفاهیم کلان داده، ذخیره سازی توزیع شده، و پردازش، همراه با جنبه های عملی مانند پیکربندی ابرداده و دسترسی به HDFS از طریق رابط های مختلف یاد می گیرند. از طریق تمرینات عملی و کاوش در اکوسیستم هادوپ کلودرا، فراگیران به درک کاملی از اصول هادوپ و کاربردهای عملی آن در سناریوهای دنیای واقعی دست می‌یابند.

بخش 31: تجزیه و تحلیل داده های گزارش با Hadoop

در این بخش، دانش‌آموزان با استفاده از ابزارها و تکنیک‌های Hadoop به تجزیه و تحلیل داده‌های ورود به سیستم می‌پردازند. آن‌ها یاد می‌گیرند که با استفاده از برنامه‌های MapReduce، فایل‌های گزارش را به‌طور کارآمد خلاصه و پردازش کنند، و بینشی در مورد عملکرد سیستم، رفتار کاربر و حوادث امنیتی به دست آورند. با نوشتن برنامه‌های MapReduce و اجرای آن‌ها بر روی داده‌های گزارش، یادگیرندگان مهارت‌هایی را در تجزیه و تحلیل داده‌های گزارش، عیب‌یابی و بهینه‌سازی سیستم برای عملیات فناوری اطلاعات و مدیریت امنیت ایجاد می‌کنند.


سرفصل ها و درس ها

مقدمه آموزش Big Data و Hadoop Big Data and Hadoop Training Introduction

  • مروری بر آموزش هادوپ Overview of Hadoop Training

  • مقدمه ای بر Big Data Hadoop Introduction to Big Data Hadoop

  • سناریوی Big Data Hadoop Scenario of Big Data Hadoop

  • آناتومی بنویس Write Anatomy

  • Continuation os Write Anatomy Continuation os Write Anatomy

  • آناتومی را بخوانید Read Anatomy

  • ادامه آناتومی را بخوانید Continuation os Read Anatomy

  • تعداد کلمات در Hadoop Word Count in Hadoop

  • اجرای برنامه Hadoop Running Hadoop Application

  • ادامه برنامه Hadoop Continuation Hadoop Application

  • کار بر روی نمونه برنامه Working on Sample Program

  • ایجاد نقشه روش Creating Method Map

  • مقادیر تکرار شونده Iterable Values

  • مسیر خروجی Output Path

  • جعبه گرفتن ترسناک Scary Catch Box

Hadoop Architecture و HDFS Hadoop Architecture and HDFS

  • معرفی Hadoop Admin Introduction to Hadoop Admin

  • محدودیت های سیستم موجود Limitations of Existing System

  • ویژگی های کلیدی Hadoop Hadoop Key Characteristics

  • سیستم فایل توزیع شده Hadoop Hadoop Distributed File System

  • لایه ذخیره سازی Hadoop Storage Layer of Hadoop

  • اجزای اصلی Hadoop 1.0 Hadoop 1.0 Core Components

  • تصاویر FS FS Images

  • گره نام ثانویه Secondary Name Node

  • معماری HDFS HDFS Architecture

  • خط مشی قرار دادن را مسدود کنید Block Placement Policy

  • تکالیف Assignments

  • راه اندازی کلاستر معماری Hadoop Hadoop Architecture Cluster Setup

  • نصب Hadoop در Vmware Workstation Installation of Hadoop in Vmware Workstation

  • نصب پکیج هادوپ Hadoop Package Installation

  • پیکربندی نام میزبان و دروازه Configuration of Host Name and Gateway

  • کپی کردن فایل ISO در Centos Copying of ISO File to Centos

  • نصب فایل SSH با استفاده از Yum Installation of SSH File Using Yum

  • کلید عمومی را در کلید مجاز در SSH کپی کنید Copy the Public Key to Authorized Key in SSH

  • راه اندازی برای اندازه بلوک و نقشه برداری Setup for Block Size and Mapped

  • ایجاد SSH -keygen برای کاربر HD Create SSH -keygen for HD User

  • Map Reduce را در Hadoop شروع کنید Start the Map Reduce in Hadoop

  • ایجاد یک کلون برای Hadoop Creating a Clone for Hadoop

  • تغییر نام میزبان Changing the Hostname

  • پیکربندی سایت Hadoop Configuring Hadoop Site

  • پیکربندی فایل Slave Slave File Configuration

  • ایجاد گره نام و گره داده در Hadoop Creating Name node and Data Node In Hadoop

  • آشنایی با HDFS Understanding HDFS

  • فایل های پیکربندی هسته Hadoop Hadoop Core Config Files

  • Hadoop Cluster و Password SSH کمتر Hadoop Cluster and Password less SSH

  • پیکربندی Rack Awareness Configuring Rack Awareness

  • پیکربندی Rack Awareness ادامه دارد Configuring Rack Awareness Continues

  • در حال اجرا گزارش مدیریت DFS Running DFS Admin Report

  • Hadoop Map Reduce Hadoop Map Reduce

  • اجرای Hadoop NameNode Running Hadoop NameNode

  • اجرای دستور Hadoop Executing Hadoop Command

  • نوشتن فایل در Hadoop Cluster Writing File in Hadoop Cluster

  • درک فرمان FS Understanding FS Command

  • فهرست راهنمای داده ها Directories of Data

  • بررسی سیستم Fie Fie System Check

  • نوشتن داده ها در HDFS Writing Data in HDFS

  • گره نقطه بازرسی Checkpointing Node

  • ادغام فراداده ها Merging the Metadata

  • خوشه در حالت ایمن Cluster in Safe Mode

  • خوشه در حالت نگهداری Cluster in Maintainance Mode

  • راه اندازی گره های داده Commissioning of Data Nodes

  • گره نام Name Node

  • اعتبار سنجی گره داده Validating the Data Node

  • ملاحظات ذخیره سازی Storage Considerations

MapReduce Fundamentals MapReduce Fundamentals

  • مرتب سازی ثانویه Hadoop Secondary Sort Hadoop

  • ایجاد کلید ترکیبی Creating Composite Key

  • روی Composite Key ادامه دهید Continue on Composite Key

  • گروه شمارش کلمات Word Count Group

  • اهمیت پارتیشن Importance of Partition

  • Hadoop FS - LS Hadoop FS - LS

  • به Hadoop می پیوندد Joins in Hadoop

  • ایجاد آبجکت پیکربندی Creating Configuration Object

  • روش راه اندازی Setup Method

  • Map Side Join Mapper Map Side Join Mapper

  • دستورات هدوپ Hadoop Commands

  • کمباین در هادوپ Combiner in Hadoop

  • به Combiner در Hadoop ادامه دهید Continue on Combiner in Hadoop

  • بارگذاری Combiner Jar Uploading Combiner Jar

  • مقدمه ای بر دنیای واقعی Introduction to Real World

  • نقشه‌بردار رتبه‌بندی Ratings Mapper

  • دونده فیلم و رتبه بندی Movie and Ratings Runner

  • فیلم و رتبه بندی Calc Jar Movie and Rating Calc Jar

  • مجموع امتیازات توسط یک کاربر Total Ratings By A User

  • کاهش دهنده امتیاز کاربران User Rating Reducer

  • کلاس رتبه بندی کاربران User Rating Class

  • آموزش پایه نخ Yarn Basic Tutorial

  • مدیر گره Node Manager

MapReduce پیشرفته MapReduce Advanced

  • اجرای یک برنامه MapReduce Running a MapReduce Program

  • اجرای برنامه MapReduce ادامه دارد Running a MapReduce Program Continues

  • سیستم فایل HDFS HDFS File System

  • ترکیبی از عملکرد تعداد کلمات Combination of Word Count Functionality

  • تعداد کلمات با ابزار Word Count With Tools

  • پردازشگر ورود به سیستم Log Processor

  • MapReduce و PIG پیشرفته Advanced MapReduce and PIG

  • اطلاعات بیشتر در مورد Advanced MapReduce More on Advanced MapReduce

  • اجرای برنامه مشابه Executing Similar Program

  • داده های HDI و داده های صادراتی HDI Data and Export Data

  • ایجاد کلاس جاوا جدید Creating New Java Class

  • نمایه‌ساز معکوس متنی Text Out Inverted Indexer

  • مقدمه ای بر MapReduce در Hadoop Introduction to MapReduce on Hadoop

  • مسیر ساخت جاوا Java Build Path

  • MapReduce محلی Local MapReduce

  • با استفاده از MapReduce Using MapReduce

  • فرمت فایل دنباله ای Sequence file Format

  • تجزیه و تحلیل وبلاگ ها Parse Weblogs

  • صفحه نمایش نقشه‌بردار Page View Mapper

  • برنامه تجزیه و تحلیل Analytics Program

  • برنامه تجزیه و تحلیل ادامه دارد Analytics Program Continue

  • کاهش نقشه شاخص معکوس Inverted Index Map Reduce

  • دوست مبل دوست Friend Sofa Friend

  • میزبان محلی عصر ابر Cloud era Local Host

  • خروجی میزبان محلی عصر ابر Cloud era Local Host Output

  • ماژول نهایی برنامه MapReduce Final Module MapReduce Program

  • رشته ها Strands

  • فیلتر مسیر فایل File Path Filter

  • مثال Example

  • مثال ادامه Example Continue

اصول HIVE HIVE Fundamentals

  • مقدمه ای بر HIVE Introduction to HIVE

  • پایگاه داده HIVE HIVE Data Base

  • فرمان داده بارگذاری Load Data Command

  • نحوه جایگزینی ستون How to Replace Column

  • میز خارجی External Table

  • HIVE Metastore HIVE Metastore

  • Hive Partition چیست؟ What is Hive Partition

  • ایجاد جدول پارتیشن Creating Partition Table

  • درج جدول بازنویسی Insert Overwrite Table

  • Dynamic Partition True Dynamic Partition True

  • سطل سازی کندو Hive Bucketing

  • تجزیه مجموعه داده ها Decomposing Data Sets

  • Hive Joins Hive Joins

  • پیوستن به Hive ادامه دارد Hive Joins Continue

  • Skew Join Skew Join

  • سرده چیست What is Serde

  • سرد در کندو Serde in Hive

  • کندو UDF Hive UDF

  • کندو UDF ادامه دارد Hive UDF Continues

  • بیشتر UDF کندو More Hive UDF

  • تابع Maxcale Maxcale Function

  • مثال استفاده از کندو Hive Example Use Case

کندو پیشرفته Hive Advanced

  • مقدمه ای بر مفاهیم کندو و نمایش عملی Introduction to Hive Concepts and Hands-on Demonstration

  • میز داخلی و میز خارجی Internal Table and External Table

  • درج داده ها در جداول Inserting Data Into Tables

  • تاریخ و توابع ریاضی Date and Mathematical Functions

  • اظهارات مشروط Conditional Statements

  • انفجار و نمای جانبی Explode and Lateral View

  • مرتب سازی Sorting

  • بپیوندید Join

  • نقشه پیوستن Map Join

  • پارتیشن بندی استاتیک و دینامیک Static and Dynamic Partitioning

  • اطلاعات بیشتر در مورد پارتیشن بندی پویا More on Dynamic Partitioning

  • تغییر فرمان Alter Command

  • فرمان MSCK MSCK Command

  • سطل سازی Bucketing

  • نمونه گیری جدول Table Sampling

  • آرشیو کردن Archiving

  • رتبه ها Ranks

  • ایجاد نماها Creating Views

  • مزایای نماها و تغییر نماها Advantages of views and Altering Views

  • نمایه سازی چیست What is Indexing

  • زمان اجرای فهرست فشرده و بیت مپ Compact and Bitmap Index Running Time

  • فرمان های Hive در Bash Shell Hive Commands in Bash Shell

  • متغیرهای Hive - Hiveconf Hive Variables - Hiveconf

  • Hive Variables -Hiveconf در Bash Shell Hive Variables -Hiveconf in Bash Shell

  • پیکربندی متغیر Hive Var Configuring a Hive Var Variable

  • جایگزینی متغیر Variable Substitution

  • تعداد کلمات Word Count

  • معماری کندو Hive Architecture

  • موازی سازی در کندو Parallelism in Hive

  • ویژگی های جدول در Hive Table Properties in Hive

  • ویژگی های فرمت تهی Null Format Properties

  • ویژگی های فرمت تهی ادامه دارد Null Format Properties Continues

  • دستورات پاکسازی در کندوها Purge Commands in Hives

  • کاهش تغییر ابعاد Slowing Changing Dimension

  • SCD را اجرا کنید Implement the SCD

  • نمونه ای از SCD Example of the SCD

  • نحوه بارگذاری اطلاعات XML در Hive How to Load XML Data in Hive

  • نحوه بارگیری داده های XML در Hive ادامه دهید How to Load XML Data in Hive Continue

  • بدون افت و آفلاین در Hive No Drop and Offline in Hive

  • جدول تغییرناپذیر Immutable Table

  • نحوه ایجاد فایل Hive RC How to Create Hive RC File

  • جداول چندگانه Multiple Tables

  • ادغام Hive Created Files و عملکرد rLike Merging Hive Created Files and Function rLike

  • تنظیمات پیکربندی مختلف در Hive Various Configuration Settings in Hive

  • تنظیمات پیکربندی مختلف در Hive همچنان ادامه دارد Various Configuration Settings in Hive Continues

  • فشرده سازی فایل های مختلف در Hive Compressing Various Files in Hive

  • حالت های مختلف در Hive Different Modes in Hive

  • فشرده سازی فایل در Hive File Compression in Hive

  • نوع حالت در Hive Type of Mode in Hive

  • مقایسه جدول داخلی و خارجی Comparison of Internal and External Table

اصول PIG PIG Fundamentals

  • مقدمه ای بر خوک Introduction to Pig

  • ویژگی های Apache Pig Features of Apache Pig

  • خوک در مقابل کندو Pig Vs Hive

  • حالت های Apache Pig Local و MR Apache Pig Local and MR Modes

  • راه اندازی حالت های محلی Launching Local Modes

  • انواع داده ها در Pig Data Types in Pig

  • دستورات خوک - ذخیره و بارگیری کنید Pig Commands - Store and Load

  • فرمان بارگذاری Load Command

  • دستورات خوک - گروه Pig Commands - Group

  • اپراتور CoGroup CoGroup Operator

  • عضویت و کراس اپراتورها در Pig Join and Cross operators in Pig

  • پیوستن و متقابل اپراتورها در Pig ادامه دارد Join and Cross operators in Pig Continues

  • اتحادیه و اسپلیت اپراتورها در پیگ Union and Split Operators in Pig

  • اطلاعات بیشتر در مورد اسپلیت اپراتورها More on Split Operators

  • فیلتر متمایز و برای هر کدام Filter Distinct and For each

  • توابع خوک Pig Functions

  • توابع خوک ادامه دارد Pig Functions Continues

  • اندازه داده های ورودی Input Data Size

PIG پیشرفته PIG Advanced

  • شروع کار با PIG Getting Started with PIG

  • فرآیند نصب Installation Process

  • PIG لاتین PIG Latin

  • آپلود فایل در HDFS Uploading the File in HDFS

  • اسکریپت PIG PIG Script

  • مبانی لاتین PIG PIG Latin Basics

  • بالا و دویدن با خوک Up and Running with Pig

  • بارگیری و ذخیره سازی Loading and Storage

  • بارگیری و ذخیره سازی ادامه دارد Loading and Storage Continue

  • اشکال زدایی Debugging

  • Grunt Shell Grunt Shell

  • UDFs و Piggy Bank UDFs and Piggy Bank

NoSQL Fundamentals NoSQL Fundamentals

  • تاریخچه مختصری از NoSQL A Brief History of NoSQL

  • طرحواره آگنوستیک Schema Agnostic

  • غیر رابطه ای Nonrelational

  • شرکت NoSQL Enterprise NoSQL

  • روندهای اخیر در فناوری اطلاعات Recent Trends in IT

  • مزایا و اقدامات احتیاطی NoSQL NoSQL Benefits and Precautions

  • مدیریت انواع داده های مختلف Managing Different Data Types

  • فروشگاه سه گانه و نمودار Triple and Graph Store

  • پایگاه های داده هیبریدی NoSQL Hybrid NoSQL Databases

  • بکارگیری روش سازگاری Applying Consistency Method

  • انتخاب اسید یا باز؟ Choosing ACID or BASE?

  • توسعه اپلیکیشن در NoSQL Developing Application on NoSQL

  • معناشناسی Semantics

  • ابر عمومی Public Cloud

  • مدیریت در دسترس بودن Managing Availability

  • داده های نسخه سازی Versioning Data

آپاچی ماهوت Apache Mahout

  • ماهوت چیه What is Mahout

  • معماری ماهوت Mahout Architecture

  • نصب برانداز Subversion Installation

  • توصیه مبتنی بر آیتم Item Based Recommendation

  • مثال- CBayes Classifier Example- CBayes Classifier

  • گزینه های خط فرمان Command Line Options

  • خوشه بندی سایبان Canopy Clustering

  • توصیه کننده پایه Basic Recommender

  • مثال های عملی Practical Examples

  • فرماندهی ماهوت سکودامپر Mahout Seqdumper Command

  • اجرای کد از طریق Eclipse Running Code through Eclipse

  • خواندن از کد Reading from Code

  • آشنایی با Apache Mahout Deep Dive Introduction to Apache Mahout Deep Dive

  • موارد استفاده Use Cases

  • توصیه Recommendation

  • مثال - فاصله تانیموتو Example - Tanimoto Distance

  • چگونه از ماهوت استفاده کنیم؟ How to Use Mahout?

  • ورزش کنید Exercise

  • مثال - ارزشیابی Example - Evaluation

  • خوشه بندی سایبان غواصی عمیق Deep Dive Canopy Clustering

  • طبقه بندی Classification

  • فایل وکتور Vector File

  • طبقه بندی کننده ساده بیز از کد Naïve Bayes Classifier from Code

  • KMeans Clustering KMeans Clustering

  • رگرسیون لجستیک Logistic Regression

آپاچی اوزی Apache Oozie

  • مقدمه ای بر آپاچی اوزی Introduction to Apache Oozie

  • درباره عمل به تفصیل بحث کنید Discuss Action in Detail

  • بحث در مورد پارامترها Discuss Parameters

  • اقدام ایمیل در Oozie Email Action in Oozie

  • اکشن Hadoop FS در Oozie Hadoop FS Action in Oozie

  • Hive Action در Oozie Hive Action in Oozie

  • Hive Action در Oozie ادامه دهید Hive Action in Oozie Continue

  • گره کنترل Control Node

  • گره کنترل ادامه دهید Control Node Continue

  • اکشن خوک در Oozie Pig Action in Oozie

  • اکشن Pig در Oozie ادامه دارد Pig Action in Oozie Continues

  • Oozie Coordinators Oozie Coordinators

  • برنامه های Oozie Workflow Oozie Workflow Applications

  • برنامه های Oozie Workflow همچنان ادامه دارد Oozie Workflow Applications Continues

آپاچی فلوم Apache Flume

  • مقدمه ای بر فلوم Introduction to Flume

  • جریان داده در فلوم Data Flow in Flume

  • مثال فلوم نت کت Flume Netcat Example

طوفان آپاچی Apache Storm

  • مقدمه Introduction

  • توضیحات Hadoop Description of Hadoop

  • طوفان مقدمه Storm Introduction

  • تاریخچه طوفان آپاچی Apache Storm History

  • ویژگی های Apache Storm Features of Apache Storm

  • معماری طوفان آپاچی Architecture of Apache Storm

  • توضیح کامل معماری Architcture Explanation in Detail

  • توپولوژی Topology

  • دهانه و پیچ و مهره Spouts and Bolts

  • جریان Stream

  • فرآیند نصب Installation Process

  • گروه بندی جریان Stream Grouping

  • گروه‌بندی جریانی ادامه دارد Stream Grouping Continue

  • قابلیت اطمینان Reliability

  • وظایف Tasks

  • کارگران Workers

  • نصب جاوا و Zookeeper Java Installation and Zookeeper

  • نصب باغ وحش Zookeeper installation

  • نصب Eclipse Eclipse Installation

  • سرویس گیرنده خط فرمان Command line Client

  • موازی سازی در توپولوژی طوفان Parallelism in Storm Topology

آپاچی آورو Apache Avro

  • معرفی اپچه آورو Introduction to Apche Avro

  • استفاده از Avro با Sqoop Using Avro with Sqoop

  • پشتیبانی از انواع داده های اولیه در Avro Supported Primitive Data Types in Avro

اصول اسپارک آپاچی Apache Spark Fundamentals

  • معرفی آپاچی اسپارک اسپارک Introduction to Apache Spark Spark

  • زمینه جرقه Spark Context

  • اجزای جرقه Spark Components

  • مقدمه ای بر مبانی Spark RDD Introduction to Spark RDD Basics

  • استفاده از عملکرد فیلتر Use of Filter Function

  • تبدیل RDD در Spark RDD Transformations in Spark

  • تحولات RDD در Spark ادامه دارد RDD Transformations in Spark Continues

  • پایداری RDD در Spark RDD Persistence in Spark

  • مرتب سازی گروهی و اقدامات روی جفت RDD Group Sort and Actions on Pair RDDs

  • فرمت های فایل Spark Spark File Formats

  • فرمت های فایل اسپارک ادامه دارد Spark File Formats Continues

آپاچی اسپارک پیشرفته Apache Spark Advanced

  • مقدمه ای برای اتصال به توییتر با استفاده از Spark Introduction to Connecting to Twitter Using Spark

  • فلوچارت اسپارک Flowchart of Spark

  • اجزای اسپارک Components of Spark

  • خدمات مختلف در حال اجرا بر روی YARN Different Services Running on YARN

  • معرفی اسکالا Introduction to Scala

  • کلاس های مورد و تطبیق الگو Case Classes and Pattern Matching

  • نصب اسکالا Installation of Scala

  • متغیرها و توابع Variables and Functions

  • متغیرها و توابع ادامه دارد Variables and Functions Continues

  • حلقه ها Loops

  • مجموعه ها Collections

  • اطلاعات بیشتر در مورد مجموعه ها More on Collections

  • کلاس چکیده Abstract Class

  • نمونه ای از کلاس Abstract Example of the Abstract Class

  • صفت Trait

  • نمونه ای از صفت Example of the Trait

  • استثنا Exception

  • مثال عملی استثناها Practical Example of Exceptions

  • سفارشی کردن استثناهای پروژه اسکالا Customize Exceptions of Scala Project

  • اصلاح کننده ها Modifiers

  • رشته ها Strings

  • روش ها در رشته ها Methods in Strings

  • روش ها در رشته ها ادامه دارد Methods in Strings Continue

  • آرایه Array

  • RDD در Spark RDD in Spark

  • RDD در Spark ادامه دارد RDD in Spark Continues

  • عملیات های مختلف Different Operations

  • عملیات تحول Transformation Operations

  • عملیات اقدام Action Operations

  • عملیات عملیات ادامه دارد Action Operations Continues

  • مقدمه Spark Streaming Introduction Spark Streaming

  • نحوه پردازش داده های پخش زنده How to Process the Live Streaming Data

  • نحوه پردازش داده های پخش زنده ادامه دارد How to Process the Live Streaming Data Continued

  • تعداد کلمات پنجره ای Windowed Wordcount

  • مثال ورد شمارش پنجره ای Windowed Wordcount Example

  • نقطه‌گذاری را در Spark بررسی کنید Check Pointing in Spark

  • Maven Creation Maven Creation

  • پروژه اسکالا را ایجاد کنید Create Scala Project

  • تفاوت بین Hadoop 1.x و 2.x Difference between Hadoop 1.x and 2.x

  • اتصال به توییتر با استفاده از Spark Streaming Connection to Twitter Using Spark Streaming

  • نحوه اتصال توییتر با استفاده از برنامه Spark How to Connect Twitter Using Spark Application

  • اطلاعات بیشتر در مورد اتصال توییتر با استفاده از برنامه Spark More on Connect Twitter Using Spark Application

پروژه Hadoop 01 - تجزیه و تحلیل داده های فروش Hadoop Project 01 - Sales Data Analysis

  • مقدمه ای بر تجزیه و تحلیل داده های فروش با استفاده از Hadoop- HDFS Introduction to Sales Data Analysis Using Hadoop- HDFS

  • کار با بیان مسئله 2 Working with Problem Statement 2

  • کار با بیان مسئله 3 Working with Problem Statement 3

  • کار با بیان مسئله 4 Working with Problem Statement 4

  • کار با بیان مسئله 5 Working with Problem Statement 5

  • کار با بیان مسئله 6 Working with Problem Statement 6

پروژه Hadoop 02 - تحلیل بررسی گردشگری Hadoop Project 02 - Tourism Survey Analysis

  • مقدمه ای بر تحلیل نظرسنجی گردشگری با استفاده از HDFS Introduction to Tourism Survey Analysis Using HDFS

  • میانگین پول خرج شده توسط گردشگران در کشور ما Average of Money Spend By Tourist in our Country

  • به کشور و ملیت بپیوندید Join Country and Nationality

  • تعداد کل گردشگران کمتر از 18 Total no. of Tourist Less than 18

  • ستون نام کشور را تغییر دهید Change the Country Name Column

  • تعداد مردان از استرالیا Number of Males from Australia

  • جزییات عمومی و جزئیات هزینه‌های سروی گردشگری Tourism Survey General Detail and Spending Details

پروژه Hadoop 03 - مدیریت داده های دانشکده Hadoop Project 03 - Faculty Data Management

  • مقدمه ای بر مدیریت داده های دانشکده با استفاده از HDFS Introduction to Faculty Data Management Using HDFS

  • صنعت آموزش و پرورش Education Industry

  • افزودن ستون جدید در مدیریت پایگاه داده دانشکده Adding New Column in Faculty Database Management

  • تغییر نام ستون و نوع داده Changing Column Name and Data Type

  • ستون را از جدول رها کنید و ستون جدید اضافه کنید Drop Column From Table and Add New Column

پروژه Hadoop 04 - تجزیه و تحلیل فروش تجارت الکترونیک Hadoop Project 04 - E-Commerce Sales Analysis

  • مقدمه ای بر تجزیه و تحلیل فروش تجارت الکترونیک با استفاده از Hadoop Introduction to E-Commerce Sales Analysis Using Hadoop

  • جزئیات مشتری از ایالات متحده آمریکا نیست Customer Detail not from USA

  • حساب جزئیات مشتری ایجاد شده پس از سال 2009 Customer Detail Account Created After 2009

  • جزئیات مشتری که فروش آنها کمتر از 3600 دلار است Customer Details whose Sales are Less than 3600$

  • جزئیات نام مشتری Anushka Details of Customer Name ’’Anushka

پروژه Hadoop 05 - تحلیل حقوق و دستمزد Hadoop Project 05 - Salary Analysis

  • کارمند پاره وقت با استفاده از تجزیه و تحلیل حقوق و دستمزد Part time Employee using Salary Analysis

  • جزئیات کمک اداری Details of Administrative Assistance

  • مجموعه داده ها به ترتیب صعودی Data Sets in Ascending Order

  • عنوان شغلی برای هر بخش Job Title for Each Department

  • تغییر نام به نام کارمند Changing Name to Employee Name

  • تعداد کل کارکنان به صورت ساعتی Total number of Employee in Hourly Basis

  • حقوق سالانه گرفته شده توسط وزارت مالیه Annual Salary Taken By Finance Department

پروژه Hadoop 06 - تجزیه و تحلیل بررسی سلامت با استفاده از HDFS Hadoop Project 06 - Health Survey Analysis using HDFS

  • مقدمه ای بر تحلیل سلامت Introduction to Health Analysis

  • نمایش داده های ردیف ها از جدول داده های سلامت Show Rows Data From Health Data Table

  • افزودن داده های جدید در جدول داده های سلامت Adding New Data in Health Data Table

  • دریافت داده از پایگاه داده HDFS از پایگاه داده SQL Get Data From HDFS Database from SQL Database

  • دریافت داده در فهرست جدید HDFS از SQL Getting Data in New HDFS Directory from SQL

  • صادرات جدول داده ها از HDFS به SQL Export Data Table From HDFS to SQL

  • جزئیات جمعیت شهر را در مجموعه داده سلامت دریافت کنید Get Details of City Population in Health Dataset

پروژه Hadoop:07 - تجزیه و تحلیل تخلفات ترافیکی Hadoop Project:07 - Traffic Violation Analysis

  • مقدمه ای بر تجزیه و تحلیل تخلفات ترافیکی Introduction to Traffic Violation Analysis

  • مقدمه ای بر تحلیل تخلفات رانندگی ادامه دارد Introduction to Traffic Violation Analysis Continues

  • جدول را از دایرکتوری SQL به HDFS دریافت کنید Get Table From SQL to HDFS Directory

  • خروجی جدول از دایرکتوری SQL به HDFS Output of Table From SQL to HDFS Directory

  • فهرست پایگاه های داده و جداول SQl در HDFS List Databases and Tables of SQl in HDFS

  • ایجاد و اجرای مشاغل در تخلفات ترافیکی Create and Execute jobs in Traffic Violation

  • وارد کردن داده ها برای آسیب های شخصی از SQL Import Data for Personal Injuries from SQL

  • دریافت داده برای ایالت مریلند Get Data For State Maryland

  • استخراج داده های نقض ترافیک از HDFS به My SQL Extract Data of Traffic Violation from HDFS to My SQL

Hadoop Project 08 - PIG/MapReduce - تجزیه و تحلیل مجموعه داده های وام Hadoop Project 08 - PIG/MapReduce - Analyze Loan Dataset

  • مقدمه ای برای تجزیه و تحلیل مجموعه داده های وام Introduction to Analyze the Loan Data Set

  • مقدمه ای برای تجزیه و تحلیل مجموعه داده های وام ادامه دارد Introduction to Analyze the Loan Data Set Continues

  • میانگین کلی ریسک Overall Average Risk

  • میانگین ریسک کدگذاری Coding Average Risk

  • میانگین ریسک کدگذاری ادامه دارد Coding Average Risk Continues

  • بیشتر در مورد ریسک متوسط More on Average Risk

  • میانگین ریسک در هر مکان Average Risk Per Location

  • میانگین ریسک در هر نوع وام Average Risk per Loan Type

  • میانگین ریسک در هر دسته را محاسبه کنید Calculate Average Risk Per Category

  • محاسبه میانگین ریسک در هر دسته ادامه دارد Calculate Average Risk Per category Continues

  • رابط قابل مقایسه در MapReduce Comparable Interface in MapReduce

  • پیاده سازی و اجرا MapReduce Implementation and Execution MapReduce

  • میانگین ریسک در هر دسته در PIG Average Risk Per Category in PIG

  • میانگین ریسک در هر رده و مکان در PIG Average Risk Per Category and Location in PIG

  • میانگین ریسک در هر رده و مکان در PIG ادامه دارد Average Risk Per Category and Location in PIG Continues

  • میانگین ریسک در هر دسته در کندو Average Risk Per Category in Hive

  • تجزیه و تحلیل مجموعه داده های وام بانکی در HIVE Analysis Bank Loan Dataset in HIVE

  • تجزیه و تحلیل مجموعه داده های وام بانکی در HIVE ادامه دارد Analysis Bank Loan Dataset in HIVE Continues

  • درک Sqoop و دریافت داده های RDBMS در HDFS Understand of Sqoop and Get RDBMS Data in HDFS

پروژه Hadoop:09 - HIVE - مطالعه موردی در صنعت مخابرات Hadoop Project:09 - HIVE - Case Study on Telecom Industry

  • معرفی کندو Introduction of Hive

  • نوع داده ساده و پیچیده در Hive Simple and Complex Datatype in Hive

  • خوشه ها Clusters

  • فرمان پایگاه داده در Hive Database Command in Hive

  • دستورات جداول در Hive Tables Commands in Hive

  • مدیریت جداول Manage Tables

  • جداول خارجی External Tables

  • مقدمه ای بر پارتیشن بندی Introduction to Partitioning

  • فرمان پارتیشن Partition Command

  • سطل سازی Bucketing

  • خدمات کنترل جدول در Hive Table Contr Services in Hive

  • نمونه ای از خدمات Contr Example of Contr Services

  • نمونه ای از خدمات Contr ادامه دارد Example of Contr Services Continues

  • ایجاد تمام جدول قرارداد Creating Contract All Table

پروژه Hadoop:10 - HIVE/MapReduce - تجزیه و تحلیل شکایات مشتریان Hadoop Project:10 - HIVE/MapReduce - Customers Complaints Analysis

  • مقدمه ای بر پروژه شکایت مشتری در داده های بزرگ Introduction to Customer Complaint Project in Big Data

  • شکایت در زیر هر فایل ثبت شده است Complaint Filed Under Each File

  • ایجاد فایل های درایور و Jar Manifest Creating Driver Files and Jar Manifest

  • ایجاد فایل های درایور و Jar Manifest ادامه دارد Creating Driver Files and Jar Manifest Continues

  • شکایت از مکان خاص ثبت شده است Complaint Filed from Particular Location

  • مکان تعریف شده توسط کاربر User Defined Location

  • لیست شکایات گروه بندی شده بر اساس مکان List of Complaint Grouped By Location

پروژه Hadoop 11 - HIVE/PIG/MapReduce/Sqoop - تجزیه و تحلیل رسانه های اجتماعی Hadoop Project 11 - HIVE/PIG/MapReduce/Sqoop - Social Media Analysis

  • مقدمه ای بر صنعت رسانه های اجتماعی Introduction to Social Media Industry

  • وب سایت نشانه گذاری کتاب Book Marking Website

  • سایت علامت گذاری کتاب ادامه دارد Book Marking Website Continues

  • درک Sqoop Understanding Sqoop

  • دریافت داده از RDMS به HDFS Get Data from RDMS to HDFS

  • برنامه کاهش نقشه را برای پردازش فایل XML اجرا کنید Execute Map Reduce Program in order to Process XML File

  • تجزیه و تحلیل عملکرد کتاب با بررسی با استفاده از Codev Analyze Book Performance By Reviews Using Codev

  • تجزیه و تحلیل عملکرد کتاب با بررسی با استفاده از کد ادامه دارد Analyze Book Performance By Reviews Using Code Continues

  • تجزیه و تحلیل کتاب بر اساس مکان Analyse Book By Location

  • نمونه تجزیه و تحلیل کتاب بر اساس مکان Example of Analyse Book By Location

  • تحلیل کتابخوان در مقابل نویسنده Analyse Book Reader Against Author

  • نحوه پردازش فایل XML در PIG How to process XML File in PIG

  • نحوه پردازش فایل XML در PIG ادامه دارد How to process XML File in PIG Continues

  • تجزیه و تحلیل عملکرد کتاب در فایل XML در PIG Analyze Book Performance in XML File in PIG

  • اطلاعات بیشتر در مورد تجزیه و تحلیل عملکرد کتاب در فایل XML در PIG More on Analyze Book Performance in XML File in PIG

  • خروجی فایل XML Pig با استفاده از کتاب Pig XML File Output Using Book

  • خروجی فایل XML Pig با استفاده از مکان Pig XML File Output Using Location

  • خروجی فایل XML Pig با استفاده از موقعیت مکانی ادامه دارد Pig XML File Output Using Location Continues

  • درک مجموعه داده های پیچیده با استفاده از Hive Understanding Complex Data Set Using Hive

  • درک مجموعه داده های پیچیده با استفاده از Hive ادامه دارد Understanding Complex Data Set Using Hive Continues

  • ایجاد آرایه در Map Reduce با استفاده از Hive Create Array in Map Reduce Using Hive

  • مجموعه داده نوع علامت گذاری کتاب با استفاده از نوع پیچیده Book Marking Type Data Set Using Complex Type

  • خروجی مجموعه داده نوع علامت گذاری کتاب Output of Book Marking Type Data Set

پروژه Hadoop 12 - HIVE/PIG - تجزیه و تحلیل داده های حسگر Hadoop Project 12 - HIVE/PIG - Sensor Data Analysis

  • مقدمه ای بر تحلیل داده های حسگر Introduction to Sensor Data Analysis

  • مقدمه ای بر تحلیل داده های حسگر ادامه دارد Introduction to Sensor Data Analysis Continues

  • نمونه ای از تجزیه و تحلیل داده های حسگر Example of Sensor Data Analysis

  • آشنایی با اصول Big Data و MapReduce Uderstanding Basic of Big Data and MapReduce

  • اطلاعات بیشتر در مورد Big Data و MapReduce More on Big Data and MapReduce

  • تبدیل فایل Json به فرمت متن ساده Converting Json File into Simple Text Format

  • تبدیل فایل Json به فرمت متن ساده ادامه دارد Converting Json File into Simple Text Format Continues

  • خروجی برای فرمت فایل Json Output for Json File format

  • تفاوت بین Pig MapReduce و Hive Diffrence Between Pig‚ MapReduce and Hive

  • اطلاعات بیشتر در مورد Pig MapReduce و Hive More on Pig‚ MapReduce and Hive

  • پردازش داده های حسگر در Pig Sensor Data Processing in Pig

  • کار با عملکرد خوک Working With Pig Function

  • انواع عملکرد در خوک Types of Function in Pig

  • مثالی از تابع خوک Example of Pig Function

  • کار بر روی موارد استفاده با استفاده از توابع در PIG Working on Use Cases Using Functions in PIG

  • از Case Data Flow در Pig استفاده کنید Use Case Data Flow in Pig

  • نسبت جریان داده در Pig Ratio Data Flow in Pig

  • اطلاعات بیشتر در مورد Use Case in Pig More on Use Case in Pig

  • اطلاعات بیشتر در مورد Use Case in Pig ادامه دارد More on Use Case in Pig Continues

  • نمونه ای از آموزش نسبت در خوک Example od Ratio Education in Pig

  • به پردازش فایل Json در Hive نزدیک شوید Approach Process the Json File in Hive

  • ویژگی ها و پرس و جو در Hive Features and Query in Hive

  • با استفاده از Hive روی Json Use Cases کار کنید Work on Json Use Cases Using Hive

  • کار بر روی موارد استفاده Json با استفاده از Hive ادامه دارد Work on Json Use Cases Using Hive Continues

  • خروجی Json Usecases با استفاده از Hive Output of Json Usecases Using Hive

  • اطلاعات بیشتر در مورد Json Usecses در Hive More on Json Usecses in Hive

  • خلاصه پردازش داده های حسگر Summary of Sensor Data Processing

پروژه Hadoop 13 - PIG/MapReduce - تجزیه و تحلیل داده های یوتیوب Hadoop Project 13 - PIG/MapReduce - Youtube Data Analysis

  • مقدمه ای بر تجزیه و تحلیل داده های یوتیوب با استفاده از Hadoop Introduction to Youtube Data Analysis Using Hadoop

  • مقدمه ای بر تجزیه و تحلیل داده های یوتیوب با استفاده از Hadoop ادامه دارد Introduction to Youtube Data Analysis Using Hadoop Continues

  • آماده سازی داده ها برای تجزیه و تحلیل داده های یوتیوب با استفاده از Hadoop Data Preparation For Youtube Data Analysis using Hadoop

  • مبانی کلان داده و کاهش نقشه Basics of Big Data and Map Reduce

  • اطلاعات بیشتر درباره Big Data و Map Reduce More on Big Data and Map Reduce

  • کار با Analysis Senario با استفاده از Map Reduce Working with Analysis Senario using Map Reduce

  • نمونه ای از تحلیلگر یوتیوب با استفاده از Map Reduce Example of Youtube Analyser using Map Reduce

  • خروجی یوتیوب تجزیه و تحلیل در نقشه کاهش می دهد Output Youtube Analyse in Map Reduces

  • تحلیلگر ویدیوی یوتیوب با رتبه بالا در نقشه کاهش می یابد High Rated Youtube Video Analyser in Map Reduces

  • پیاده سازی و خروجی در نقشه کاهش می یابد Implementation and Outputt in Map Reduces

  • مبانی PIG Basics of PIG

  • مبانی PIG ادامه دارد Basics of PIG Continues

  • تجزیه و تحلیل داده های یوتیوب با استفاده از PIG Implementation Analyze Youtube Data using PIG Implementation

  • نمونه ای از پیاده سازی PIG Example of PIG Implementation

  • خروجی پیاده سازی PIG Output of PIG Implementation

  • تحلیلگر ویدیوی یوتیوب با استفاده از Hive Youtube Video Analyzer using Hive

  • ایجاد تحلیلگر ویدیوی یوتیوب با استفاده از Hive Creating Youtube Video Analyzer using Hive

  • تجزیه و تحلیل ویدیوهای یوتیوب با استفاده از Hive Query Analysis Youtube Videos using Hive Query

  • تجزیه و تحلیل ویدیوهای یوتیوب با استفاده از Hive Query ادامه دارد Analysis Youtube Videos using Hive Query Continues

  • اطلاعات بیشتر در مورد Hive Query Languages More on Hive Query Languages

  • نتیجه گیری Conclusion

Hadoop و HDFS Fundamentals در Cloudera Hadoop and HDFS Fundamentals on Cloudera

  • کلان داده چیست؟ What is Big Data ?

  • پردازش داده های بزرگ Processing Big Data

  • ذخیره سازی و پردازش توزیع شده Distributed storage and processing

  • درک نقشه کاهش Understanding Map Reduce

  • مقدمه ای بر ماژول 2 Introduction to module 2

  • آشنایی با محیط کلودرا Introduction to Cloudera environment

  • آشنایی با محیط هادوپ نصب شده در کلودرا Understanding hadoop environment installed on Cloudera

  • درک پیکربندی ابرداده در هادوپ Understanding metadata configuration on hadoop

  • آشنایی با رابط کاربری وب HDFS و HUE Understanding HDFS web UI and HUE

  • دستورات پوسته HDFS HDFS shell Commands

  • چند فرمان پوسته HDFS دیگر Few more HDFS shell Commands

  • دسترسی به HDFS از طریق برنامه جاوا Accesing HDFS through Java program

تجزیه و تحلیل داده ها با Hadoop Log Data Analysis with Hadoop

  • مقدمه ای بر پردازش گزارش Introduction to Log Processing

  • خلاصه کردن فایل های گزارش Summarizing Log Files

  • برنامه کاهش نقشه MapReducing Programme

  • برنامه MapReduce را اجرا کنید Execute MapReduce Program

  • فناوری داده های بزرگ Big Data Technology

  • اجرای ابزار کلان داده Executing Big Data Tool

  • نوشتن برنامه کاهش نقشه Writing Map Reduce Program

  • جستجوی فهرست آرایه Array List Searching

  • پردازش فایل ها در Map Reduce Processing Files In Map Reduce

  • نتیجه گیری Conclusion

نمایش نظرات

Udemy (یودمی)

یودمی یکی از بزرگ‌ترین پلتفرم‌های آموزشی آنلاین است که به میلیون‌ها کاربر در سراسر جهان امکان دسترسی به دوره‌های متنوع و کاربردی را فراهم می‌کند. این پلتفرم امکان آموزش در زمینه‌های مختلف از فناوری اطلاعات و برنامه‌نویسی گرفته تا زبان‌های خارجی، مدیریت، و هنر را به کاربران ارائه می‌دهد. با استفاده از یودمی، کاربران می‌توانند به صورت انعطاف‌پذیر و بهینه، مهارت‌های جدیدی را یاد بگیرند و خود را برای بازار کار آماده کنند.

یکی از ویژگی‌های برجسته یودمی، کیفیت بالای دوره‌ها و حضور استادان مجرب و با تجربه در هر حوزه است. این امر به کاربران اعتماد می‌دهد که در حال دریافت آموزش از منابع قابل اعتماد و معتبر هستند و می‌توانند به بهترین شکل ممکن از آموزش‌ها بهره ببرند. به طور خلاصه، یودمی به عنوان یکی از معتبرترین و موثرترین پلتفرم‌های آموزشی آنلاین، به افراد امکان می‌دهد تا به راحتی و با کیفیت، مهارت‌های مورد نیاز خود را ارتقا دهند و به دنبال رشد و پیشرفت شغلی خود باشند.

Big Data: Hadoop| MapReduce| کندو| خوک| NoSQL| ماهوت| اوزی
جزییات دوره
68 hours
532
Udemy (یودمی) Udemy (یودمی)
(آخرین آپدیت)
24,228
4.9 از 5
دارد
دارد
دارد
EDU CBA
جهت دریافت آخرین اخبار و آپدیت ها در کانال تلگرام عضو شوید.

Google Chrome Browser

Internet Download Manager

Pot Player

Winrar

EDU CBA EDU CBA

مهارت های دنیای واقعی را بصورت آنلاین بیاموزید EDUCBA یک ارائه دهنده جهانی آموزش مبتنی بر مهارت است که نیازهای اعضا را در بیش از 100 کشور برطرف می کند. ما بزرگترین شرکت فناوری پیشرفته در آسیا با نمونه کارهای 5498+ دوره آنلاین ، 205+ مسیر یادگیری ، 150+ برنامه شغل محور (JOPs) و 50+ بسته دوره حرفه ای شغلی هستیم که توسط متخصصان برجسته صنعت آماده شده است. برنامه های آموزشی ما برنامه های مبتنی بر مهارت شغلی است که توسط صنعت در سراسر امور مالی ، فناوری ، تجارت ، طراحی ، داده و فناوری جدید و آینده مورد نیاز صنعت است.