AWS یا Amazon Redshift یکی از خدمات کلیدی AWS است که در ساخت انبارهای داده یا Data Marts برای ارائه گزارشها و داشبوردها برای کاربران تجاری استفاده میشود. به عنوان بخشی از این دوره، با مرور تمام ویژگیهای مهم AWS یا Amazon Redshift برای ساخت انبارهای داده یا Data Marts، AWS یا Amazon Redshift را یاد میگیرید.
ما ویژگیهایی مانند پرسشهای فدرال، طیف Redshift، ادغام با پایتون، توابع AWS Lambda، ادغام Redshift با EMR، و خط لوله End-to-End با استفاده از توابع مرحلهای AWS را پوشش دادهایم.
در اینجا خلاصه کامل دوره آمده است.
ابتدا، نحوه شروع کار با Amazon Redshift را با استفاده از کنسول وب AWS درک خواهیم کرد. نحوه ایجاد یک کلاستر، نحوه اتصال به خوشه و همچنین نحوه اجرای پرس و جوها با استفاده از ویرایشگر پرس و جو مبتنی بر وب را خواهیم دید. ما همچنین پیش می رویم و یک پایگاه داده و جداول در Redshift Cluster ایجاد می کنیم. هنگامی که یک پایگاه داده و جداول را تنظیم کردیم، جزئیات مربوط به عملیات CRUD در برابر جداول در پایگاههای داده در Redshift Cluster را نیز بررسی خواهیم کرد.
هنگامی که پایگاههای داده و جداول را در Redshift Cluster در اختیار داریم، زمان آن فرا رسیده است که بفهمیم چگونه دادهها را در جداول Redshift Cluster وارد کنیم. یکی از روشهای رایجی که برای دریافت دادهها به خوشه Redshift استفاده میکنیم، کپی کردن دادهها از s3 در جداول Redshift است. ما فرآیند گام به گام کپی کردن داده ها را در جداول Redshift از s3 با استفاده از دستور copy انجام خواهیم داد.
Python یکی از زبان های برنامه نویسی برجسته برای ساخت نرم افزارهای مهندسی داده یا ETL است. به طور گسترده برای ساخت ETL Jobs برای دریافت داده ها در جداول پایگاه داده در Redshift Cluster استفاده می شود. هنگامی که نحوه دریافت داده ها از جداول s3 به Redshift را با استفاده از Command Copy درک کردیم، یاد می گیریم که چگونه مهندسی داده مبتنی بر پایتون یا برنامه های ETL را با استفاده از Redshift Cluster توسعه دهیم. ما یاد خواهیم گرفت که چگونه عملیات CRUD را انجام دهیم و همچنین چگونه دستورات COPY اجرا شده را با استفاده از برنامه های مبتنی بر پایتون دریافت کنیم.
وقتی نحوه ساخت برنامهها با استفاده از Redshift Cluster را فهمیدیم، برخی از مفاهیم کلیدی مورد استفاده در هنگام ایجاد جداول Redshift با Distkeys و Sortkeys را بررسی خواهیم کرد.
ما همچنین میتوانیم به پایگاههای داده راه دور مانند Postgres متصل شویم و پرسوجوها را مستقیماً روی جداول پایگاه داده راه دور با استفاده از Redshift Federated Queries اجرا کنیم و همچنین میتوانیم پرسوجوها را در بالای Glue یا Athena Catalog با استفاده از Redshift Spectrum اجرا کنیم. شما یاد خواهید گرفت که چگونه از Redshift Federated Queries و Spectrum برای پردازش داده ها در جداول پایگاه داده راه دور یا s3 بدون کپی کردن داده ها استفاده کنید.
همچنین یک نمای کلی از Amazon Redshift Serverless به عنوان بخشی از شروع کار با Amazon Redshift Serverless دریافت خواهید کرد.
هنگامی که Amazon Redshift Serverless را یاد گرفتید، در نهایت یک Pipeline مستقر خواهید کرد که در آن یک Spark Application در AWS EMR Cluster مستقر شده است که داده های پردازش شده توسط Spark را در Redshift بارگیری می کند.
مشاور فناوری و Evangelist 13 سال تجربه در اجرای پروژه های پیچیده با استفاده از مجموعه گسترده ای از فناوری ها از جمله Big Data و Cloud. Iversity، llc - یک شرکت مستقر در ایالات متحده برای ارائه آموزش با کیفیت برای متخصصان فناوری اطلاعات و کارکنان و همچنین راه حل های مشاوره ای برای مشتریان سازمانی ، پیدا کردم. من هزاران نفر از متخصصان فناوری اطلاعات را در زمینه فن آوری های زیادی از جمله Big Data و Cloud آموزش داده ام. ایجاد حرفه ای فناوری اطلاعات برای افراد و ارائه خدمات با کیفیت به مشتریان از اهمیت بالاتری در سازمان ما برخوردار است. به عنوان یک استراتژی ورود ، ارائه آموزش با کیفیت در زمینه های ABCD خواهد بود * توسعه برنامه * داده های بزرگ و هوش تجاری * ابر * پایگاه داده ، پایگاه داده
Analytiqs Incشریک رسمی برای دوره های ITVversity
نمایش نظرات