در دوره قبلی Snowflake Masterclas [نمایشگاههای بیدرنگ+ بهترین تمرینها+ آزمایشگاهها] ما به غواصی عمیق پرداختیم و اصول اولیه دانههای برف را درک کردیم، تکالیف زیادی را حل کردیم و بهترین روشها برای بارگیری دادهها و تخلیه دادهها را فهمیدیم.
همچنین، ما بیشتر ویژگیهای دانههای برف را از نزدیک ارزیابی کردیم تا نحوه عملکرد آنها در زیر کاپوت را درک کنیم. از طریق این بحث ها، متوجه شدید که چگونه از Snowflake به طور موثر استفاده کنید.
یک قطعه گم شده بود، نحوه ساخت و تنظیم جریان های کاری ETL در Snowflake. این دوره فقط در مورد آن است.
در این دوره، ما قرار است یاد بگیریم،
جریان کاری در Airflow ایجاد کنید.
ما از قابلیتهای Talend برای ایجاد کدهای عمومی برای جذب دادهها و پردازش دادهها در snowflake استفاده خواهیم کرد.
ما جداول ممیزی را می سازیم و هر فرمانی را که روی دانه برف اجرا می کنیم ثبت می کنیم. ما زمان مصرف شده برای هر کار را ثبت می کنیم و اعتبار دانه های برف را می گیریم.
هنگامی که چارچوب را ساختیم، یک گردش کار برای پردازش و تبدیل حجم 250 + گیگابایت از داده های ترافیک نیویورک ایجاد می کنیم.
در نهایت، ما Snowflake را با پایتون وصل می کنیم و کد می نویسیم تا آمار داده هایی را که در برف ریزه بارگذاری کرده ایم، ثبت کنیم.
شما همچنین به نوت بوک Jupyter از پیش پیکربندی شده دسترسی خواهید داشت تا کد پایتون خود را روی Snowflake اجرا کنید.
اگر قبلاً با Talend، Airflow و Python کار نکردهاید، نگران نباشید آنها ابزارهای بسیار سادهای هستند، مقدمه لازم را ارائه خواهم کرد.
من مطمئن هستم که از این سفر چیزهای زیادی یاد خواهید گرفت. شما را در دوره می بینیم!!
مهندس داده
نمایش نظرات