🔔 با توجه به بهبود نسبی اینترنت، آمادهسازی دورهها آغاز شده است. به دلیل تداوم برخی اختلالات، بارگذاری دورهها ممکن است با کمی تأخیر انجام شود. مدت اشتراکهای تهیهشده محفوظ است.
لطفا جهت اطلاع از آخرین دوره ها و اخبار سایت در
کانال تلگرام
عضو شوید.
Snowflake - ساخت و معمار خطوط لوله داده با استفاده از AWS [ویدئو]
- آخرین آپدیت
Snowflake - Build and Architect Data Pipelines Using AWS [Video]
نکته:
ممکن هست محتوای این صفحه بروز نباشد ولی دانلود دوره آخرین آپدیت می باشد.
نمونه ویدیوها:
توضیحات دوره:
Snowflake چیز بزرگ بعدی است و در حال تبدیل شدن به یک اکوسیستم داده کامل است. با سطح مقیاس پذیری و کارایی در مدیریت حجم عظیمی از داده ها و همچنین با چندین مفهوم جدید در آن، این زمان مناسبی است که سر خود را به دور Snowflake بپیچید و آن را در جعبه ابزار خود داشته باشید. این دوره نه تنها ویژگی های اصلی Snowflake را پوشش می دهد، بلکه به شما می آموزد که چگونه کارهای Python/PySpark را در AWS Glue و Airflow که با Snowflake که یکی از مهم ترین جنبه های ساخت خطوط لوله است، ارتباط برقرار کنید.
در این دوره، شما به Snowflake و سپس حیاتی ترین جنبه های Snowflake به شیوه ای کارآمد نگاه خواهید کرد. شما در AWS Glue Jobs برای تبدیل دادهها و مشاهده جریانهای بلادرنگ با استفاده از Kafka و Snowflake، Python/Spark Jobs مینویسید. شما با توابع خارجی و موارد استفاده در تعامل خواهید بود و ویژگی های امنیتی را در Snowflake مشاهده خواهید کرد. در نهایت، به Snowpark نگاه خواهید کرد و نحوه استفاده از آن را برای خطوط لوله داده و علم داده بررسی خواهید کرد.
در پایان این دوره، شما با Snowflake و Snowpark آشنا خواهید شد و نحوه ساخت و معماری خطوط لوله داده با استفاده از AWS را یاد خواهید گرفت.
برای انجام بخش های مربوط به Python و PySpark باید یک حساب AWS فعال داشته باشید. برای بقیه دوره، یک حساب آزمایشی رایگان Snowflake باید کافی باشد. قبل از شروع کار با آزمایشگاه، درباره Snowflake و اصول اولیه آن بیاموزید
جنبه های مهم Snowflake را به روشی بسیار عملی بررسی کنید
کارهای Python/Spark را در AWS Glue Jobs برای تبدیل داده بنویسید
با استفاده از Kafka و Snowflake استریم بلادرنگ را اجرا کنید
تعامل با توابع خارجی و موارد استفاده
کتابخانه Snowpark را بیاموزید و کاوش کنید این دوره برای مهندسان نرم افزار، مهندسان داده یا تحلیلگران داده و دانشمندان داده که می خواهند در حرفه خود در حوزه فناوری اطلاعات برتر باشند ایده آل است. جدای از آنها، این دوره برای برنامه نویسان و مدیران پایگاه داده با تجربه در نوشتن پرس و جوهای SQL نیز خوب است.
تجربه برنامه نویسی قبلی در SQL یا حداقل دانش قبلی در نوشتن پرس و جو و پایتون ضروری است. شما باید یک تجربه یا درک اولیه از خدمات ابری مانند AWS همراه با یک حساب فعال AWS داشته باشید. از یک دوره آسان برای درک و گام به گام بیاموزید، که به بیش از 85 ویدیو به همراه فایل های منبع دقیق تقسیم شده است * داده های جریانی و هماهنگ سازی داده ها را با Airflow و Snowflake یکپارچه کنید * توضیحات بسیار کاربردی و تمرین های آزمایشگاهی برای کمک به شما بیشترین بهره را از دوره بگیرید
سرفصل ها و درس ها
مقدمه دوره
Introduction to the Course
نقشه راه دوره
Course Roadmap
پیش نیازها و نحوه موفقیت در این دوره
Prerequisites and How to Succeed in This Course
مقدمه ای بر Snowflake و AWS
Introduction to Snowflake and AWS
Data-Warehouse چیست؟
What Is Data-Warehouse?
دو جنبه از اکوسیستم داده
Two Aspects of a Data Ecosystem
آزمایشگاه - حساب آزمایشی Snowflake را تنظیم کنید
Lab – Set Up Snowflake Trial Account
آزمایشگاه - استقرار رویه های ذخیره شده برای پردازش دسته ای ETL
Lab - Deploy Stored Procedures for ETL Batch Processing
علم داده - از مرور کلی پرونده و آماده سازی داده استفاده کنید
Data Science – Use Case Overview and Data Preparation
آزمایشگاه - مدل استقرار - کد آموزشی برای Scikit-Learn با استفاده از رویههای ذخیره شده
Lab - Deploy Model - Training Code for Scikit-Learn Using Stored Procedures
آزمایشگاه - خط لوله سرویس دهی/پیش بینی مدل را با استفاده از UDF مستقر کنید
Lab - Deploy Model Serving/Prediction Serving Pipeline Using UDFs
مرجع یادگیری بیشتر و کد کوپن
More Learning Reference and Coupon Code
جمع بندی و یادگیری بیشتر
Wrap Up and More Learning
بهروزرسانیهای بیشتر و آنچه در ادامه است
More Updates and What's Next
Siddharth Raghunath یک مدیر مهندسی کسب و کار با تجربه گسترده در زمینه توسعه نرم افزار، پردازش توزیع شده و مهندسی داده های ابری است. او روی پلتفرمهای ابری مختلف مانند AWS و GCP و همچنین خوشههای Hadoop در محل کار کرده است. او سمینارهایی را در مورد پردازش توزیع شده با استفاده از Spark، جریان بیدرنگ و تجزیه و تحلیل، و بهترین شیوه ها برای ETL و حاکمیت داده برگزار می کند. او علاقه زیادی به کدنویسی و ایجاد خطوط لوله داده بهینه برای پردازش قوی داده ها و راه حل های جریان دارد.
نمایش نظرات