لطفا جهت اطلاع از آخرین دوره ها و اخبار سایت در
کانال تلگرام
عضو شوید.
Snowflake - ساخت و معمار خطوط لوله داده با استفاده از AWS [ویدئو]
Snowflake - Build and Architect Data Pipelines Using AWS [Video]
نکته:
آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
نمونه ویدیوها:
توضیحات دوره:
Snowflake چیز بزرگ بعدی است و در حال تبدیل شدن به یک اکوسیستم داده کامل است. با سطح مقیاس پذیری و کارایی در مدیریت حجم عظیمی از داده ها و همچنین با چندین مفهوم جدید در آن، این زمان مناسبی است که سر خود را به دور Snowflake بپیچید و آن را در جعبه ابزار خود داشته باشید. این دوره نه تنها ویژگی های اصلی Snowflake را پوشش می دهد، بلکه به شما می آموزد که چگونه کارهای Python/PySpark را در AWS Glue و Airflow که با Snowflake که یکی از مهم ترین جنبه های ساخت خطوط لوله است، ارتباط برقرار کنید.
در این دوره، شما به Snowflake و سپس حیاتی ترین جنبه های Snowflake به شیوه ای کارآمد نگاه خواهید کرد. شما در AWS Glue Jobs برای تبدیل دادهها و مشاهده جریانهای بلادرنگ با استفاده از Kafka و Snowflake، Python/Spark Jobs مینویسید. شما با توابع خارجی و موارد استفاده در تعامل خواهید بود و ویژگی های امنیتی را در Snowflake مشاهده خواهید کرد. در نهایت، به Snowpark نگاه خواهید کرد و نحوه استفاده از آن را برای خطوط لوله داده و علم داده بررسی خواهید کرد.
در پایان این دوره، شما با Snowflake و Snowpark آشنا خواهید شد و نحوه ساخت و معماری خطوط لوله داده با استفاده از AWS را یاد خواهید گرفت.
برای انجام بخش های مربوط به Python و PySpark باید یک حساب AWS فعال داشته باشید. برای بقیه دوره، یک حساب آزمایشی رایگان Snowflake باید کافی باشد. قبل از شروع کار با آزمایشگاه، درباره Snowflake و اصول اولیه آن بیاموزید
جنبه های مهم Snowflake را به روشی بسیار عملی بررسی کنید
کارهای Python/Spark را در AWS Glue Jobs برای تبدیل داده بنویسید
با استفاده از Kafka و Snowflake استریم بلادرنگ را اجرا کنید
تعامل با توابع خارجی و موارد استفاده
کتابخانه Snowpark را بیاموزید و کاوش کنید این دوره برای مهندسان نرم افزار، مهندسان داده یا تحلیلگران داده و دانشمندان داده که می خواهند در حرفه خود در حوزه فناوری اطلاعات برتر باشند ایده آل است. جدای از آنها، این دوره برای برنامه نویسان و مدیران پایگاه داده با تجربه در نوشتن پرس و جوهای SQL نیز خوب است.
تجربه برنامه نویسی قبلی در SQL یا حداقل دانش قبلی در نوشتن پرس و جو و پایتون ضروری است. شما باید یک تجربه یا درک اولیه از خدمات ابری مانند AWS همراه با یک حساب فعال AWS داشته باشید. از یک دوره آسان برای درک و گام به گام بیاموزید، که به بیش از 85 ویدیو به همراه فایل های منبع دقیق تقسیم شده است * داده های جریانی و هماهنگ سازی داده ها را با Airflow و Snowflake یکپارچه کنید * توضیحات بسیار کاربردی و تمرین های آزمایشگاهی برای کمک به شما بیشترین بهره را از دوره بگیرید
سرفصل ها و درس ها
مقدمه دوره
Introduction to the Course
نقشه راه دوره
Course Roadmap
پیش نیازها و نحوه موفقیت در این دوره
Prerequisites and How to Succeed in This Course
مقدمه ای بر Snowflake و AWS
Introduction to Snowflake and AWS
Data-Warehouse چیست؟
What Is Data-Warehouse?
دو جنبه از اکوسیستم داده
Two Aspects of a Data Ecosystem
آزمایشگاه - حساب آزمایشی Snowflake را تنظیم کنید
Lab – Set Up Snowflake Trial Account
آزمایشگاه - استقرار رویه های ذخیره شده برای پردازش دسته ای ETL
Lab - Deploy Stored Procedures for ETL Batch Processing
علم داده - از مرور کلی پرونده و آماده سازی داده استفاده کنید
Data Science – Use Case Overview and Data Preparation
آزمایشگاه - مدل استقرار - کد آموزشی برای Scikit-Learn با استفاده از رویههای ذخیره شده
Lab - Deploy Model - Training Code for Scikit-Learn Using Stored Procedures
آزمایشگاه - خط لوله سرویس دهی/پیش بینی مدل را با استفاده از UDF مستقر کنید
Lab - Deploy Model Serving/Prediction Serving Pipeline Using UDFs
مرجع یادگیری بیشتر و کد کوپن
More Learning Reference and Coupon Code
جمع بندی و یادگیری بیشتر
Wrap Up and More Learning
بهروزرسانیهای بیشتر و آنچه در ادامه است
More Updates and What's Next
Siddharth Raghunath یک مدیر مهندسی کسب و کار با تجربه گسترده در زمینه توسعه نرم افزار، پردازش توزیع شده و مهندسی داده های ابری است. او روی پلتفرمهای ابری مختلف مانند AWS و GCP و همچنین خوشههای Hadoop در محل کار کرده است. او سمینارهایی را در مورد پردازش توزیع شده با استفاده از Spark، جریان بیدرنگ و تجزیه و تحلیل، و بهترین شیوه ها برای ETL و حاکمیت داده برگزار می کند. او علاقه زیادی به کدنویسی و ایجاد خطوط لوله داده بهینه برای پردازش قوی داده ها و راه حل های جریان دارد.
نمایش نظرات