Beginning of dialog window. Escape will cancel and close the window.
End of dialog window.
نکته:
آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
نمونه ویدیوها:
در حال بارگزاری، لطفا صبر کنید...
توضیحات دوره:
بخش 1 طراحی شده است تا منعکس کننده ترین مهارت های Scala باشد. درک عمیقی از مفاهیم اصلی اسکالا ارائه می دهد. ما با بحث در مورد خطوط لوله Map Reduce و ETL با استفاده از Spark از AWS S3 تا AWS RDS (شامل شش پروژه کوچک و یک پروژه Scala Spark) پایان خواهیم داد.
قسمت 2 PySpark را برای انجام تجزیه و تحلیل داده ها پوشش می دهد. شما Spark RDD ها، Dataframes، کمی کوئری های Spark SQL، تبدیل ها و اقداماتی را که می توان روی داده ها با استفاده از Spark RDD ها و dataframe ها، اکوسیستم Spark و Hadoop و معماری زیربنایی آنها انجام داد را بررسی خواهید کرد. همچنین خواهید آموخت که چگونه میتوانیم از فضای ذخیرهسازی AWS، پایگاههای داده، محاسبات و نحوه ارتباط Spark با سرویسهای مختلف AWS استفاده کنیم.
بخش 3 همه چیز در مورد خراش دادن داده و داده کاوی است. شما مفاهیم مهمی مانند اجرای مرورگر اینترنت و ارتباط با سرور، همزمان و ناهمزمان، تجزیه دادهها در پاسخ از سرور، ابزارهایی برای حذف دادهها، ماژول درخواستهای پایتون و موارد دیگر را پوشش خواهید داد.
در قسمت 4، شما از MongoDB برای ایجاد درک درستی از پایگاه های داده NoSQL استفاده خواهید کرد. شما عملیات های اساسی را کاوش خواهید کرد و پرس و جو، پروژه و اپراتورهای به روز MongoDB را بررسی خواهید کرد. ما این بخش را با دو پروژه تکمیل خواهیم کرد: توسعه یک برنامه کاربردی مبتنی بر CRUD با استفاده از جنگو و MongoDB و پیادهسازی خط لوله ETL با استفاده از PySpark برای تخلیه دادهها در MongoDB.
در پایان این دوره، شما قادر خواهید بود مفاهیم و جنبه های عملی فناوری های آموخته شده را با مسائل دنیای واقعی مرتبط کنید.
تمام منابع این دوره در https://github.com/PacktPublishing/50-Hours-of-Big-Data-PySpark-AWS-Scala-and-Scraping Build ETL pipeline از AWS S3 به AWS RDS با استفاده از Spark موجود است.
برنامه های Spark/Hadoop، اکوسیستم و معماری را کاوش کنید
آموزش فیلترینگ مشارکتی در PySpark
تمایز بین درخواست های همزمان و ناهمزمان را تشخیص دهید
MongoDB CRUD، عملگرهای پرس و جو، عملگرهای طرح ریزی و اپراتورهای به روز رسانی را درک کنید
ساخت API برای عملیات CRUD در MongoDB از طریق جنگو این دوره برای مبتدیانی طراحی شده است که می خواهند راه حل های هوشمندی ایجاد کنند، با داده های واقعی مطالعه کنند و از یادگیری تئوری و سپس اجرای آن لذت ببرند. دانشمندان داده، کارشناسان یادگیری ماشین، و ارسال کنندگان دراپ همگی از این آموزش بهره مند خواهند شد.
درک اولیه از برنامه نویسی، تگ های HTML، Python، SQL و Node JS مورد نیاز است. با این حال، هیچ دانش قبلی از خراش دادن داده ها، و Scala مورد نیاز است. خراش دادن داده و داده کاوی برای مبتدیان تا حرفه ای با Python * آشکار شدن واضح مفاهیم با مثال هایی در Python، Scrapy، Scala، PySpark و MongoDB * تسلط بر Big Data با PySpark و AWS
سرفصل ها و درس ها
بخش 1 - استخراج داده و داده کاوی برای مبتدی تا حرفه ای با پایتون
Part 1 - Data Scraping and Data Mining for Beginners to Pro with Python
چرا Data Scraping
Why Data Scraping
کاربردهای Scraping داده ها
Applications of Data Scraping
معرفی مربی
Introduction of Instructor
مقدمه ای بر دوره، تراشیدن، ابزار
Introduction to Course, Scraping, Tools
بررسی اجمالی پروژه ها برای استخراج داده و داده کاوی
Projects Overview for Data Scraping and Data Mining
درخواست ها
Requests
مقدمه ای بر درخواست های پایتون
Introduction to Python Requests
دست بر روی درخواست
Hands-On with Requests
استخراج نقل قول به صورت دستی
Extracting Quotes Manually
نمایش نظرات