مهندسی داده همه چیز در مورد ایجاد خطوط لوله داده است تا داده ها را از منابع متعدد به دریاچه های داده یا انبارهای داده و سپس از دریاچه های داده یا انبارهای داده به سیستم های پایین دستی منتقل کند. به عنوان بخشی از این دوره، من شما را با نحوه ساخت خطوط لوله مهندسی داده با استفاده از AWS Data Analytics Stack آشنا خواهم کرد. این شامل خدماتی مانند Glue، Elastic Map Reduce (EMR)، Lambda Functions، Athena، EMR، Kinesis، و بسیاری دیگر است.
در اینجا مراحل سطح بالایی وجود دارد که به عنوان بخشی از دوره دنبال خواهید کرد.
محیط توسعه راه اندازی
شروع به کار با AWS
ذخیره سازی - همه چیز درباره AWS s3 (سرویس ذخیره سازی ساده)
امنیت سطح کاربر - مدیریت کاربران، نقشها و خطمشیها با استفاده از IAM
زیرساخت - AWS EC2 (Elastic Cloud Compute)
حذف داده با استفاده از توابع AWS Lambda
نمای کلی اجزای چسب AWS
سرور Spark History را برای AWS Glue Jobs راه اندازی کنید
غواصی عمیق در کاتالوگ چسب AWS
کاوش APIهای AWS Glue Job
نشانکهای کار چسب AWS
چرخه حیات توسعه Pyspark
شروع به کار با AWS EMR
استقرار برنامههای Spark با استفاده از AWS EMR
جریان خط لوله با استفاده از AWS Kinesis
مصرف داده از AWS s3 با استفاده از boto3 مصرف شده با استفاده از AWS Kinesis
پر کردن دادههای GitHub به AWS Dynamodb
نمای کلی Amazon AWS Athena
Amazon AWS Athena با استفاده از AWS CLI
Amazon AWS Athena با استفاده از Python boto3
شروع به کار با Amazon AWS Redshift
دادهها را از AWS s3 در جداول AWS Redshift کپی کنید
برنامهها را با استفاده از AWS Redshift Cluster توسعه دهید
جدول AWS Redshift با کلیدهای Distkey و Sortkeys
پرسشها و طیف فدرال AWS Redshift
در اینجا جزئیاتی در مورد آنچه که به عنوان بخشی از این دوره یاد خواهید گرفت، آمده است. ما بیشتر خدمات رایج مورد استفاده را با تمرین عملی که تحت AWS Data Analytics در دسترس هستند پوشش خواهیم داد.
شروع به کار با AWS
به عنوان بخشی از این بخش، جزئیات مربوط به شروع کار با AWS را بررسی خواهید کرد.
مقدمه - AWS شروع به کار
سطل s3 ایجاد کنید
گروه AWS IAM و کاربر AWS IAM را ایجاد کنید تا به سطل s3 و سایر خدمات دسترسی لازم داشته باشید
نمای کلی نقشهای AWS IAM
خطمشی سفارشی AWS IAM را به گروههای AWS IAM و همچنین کاربران ایجاد و پیوست کنید
پیکربندی و اعتبارسنجی AWS CLI برای دسترسی به خدمات AWS با استفاده از دستورات AWS CLI
فضای ذخیره سازی - همه چیز درباره AWS s3 (سرویس ذخیره سازی ساده)
AWS s3 یکی از برجستهترین سرویسهای AWS با مدیریت کامل است. همه متخصصان فناوری اطلاعات که مایلند روی AWS کار کنند باید با آن آشنا باشند. ما در این بخش به چند ویژگی رایج مرتبط با AWS s3 خواهیم پرداخت.
شروع به کار با AWS S3
تنظیم دادهها را به صورت محلی برای آپلود در AWS s3 تنظیم کنید
افزودن سطل های AWS S3 و مدیریت اشیاء (فایل ها و پوشه ها) در سطل های AWS s3
کنترل نسخه برای سطلهای AWS S3
تکثیر بین منطقه ای برای سطل های AWS S3
نمای کلی کلاسهای ذخیرهسازی AWS S3
نمای کلی AWS S3 Glacier
مدیریت AWS S3 با استفاده از دستورات AWS CLI
مدیریت اشیاء در AWS S3 با استفاده از CLI - Lab
امنیت سطح کاربر - مدیریت کاربران، نقشها و سیاستها با استفاده از IAM
وقتی شروع به کار بر روی AWS کردید، باید مجوزهایی را که به عنوان یک کاربر غیر سرپرست دارید، بدانید. به عنوان بخشی از این بخش، جزئیات مربوط به کاربران، گروهها، نقشها و همچنین خطمشیهای AWS IAM را خواهید فهمید.
ایجاد کاربران AWS IAM
ورود به سیستم AWS Management Console با استفاده از AWS IAM User
دسترسی برنامهای به کاربر AWS IAM را تأیید کنید
سیاستهای مبتنی بر هویت AWS IAM
مدیریت گروههای AWS IAM
مدیریت نقشهای AWS IAM
نمای کلی خطمشیهای سفارشی AWS IAM
مدیریت کاربران، گروهها، نقشها و همچنین خطمشیهای AWS IAM با استفاده از دستورات AWS CLI
زیرساخت - مبانی AWS EC2 (Elastic Cloud Compute)
نمونههای AWS EC2 چیزی جز ماشینهای مجازی در AWS نیستند. به عنوان بخشی از این بخش، برخی از اصول اولیه مربوط به مبانی AWS EC2 را بررسی خواهیم کرد.
شروع به کار با AWS EC2
جفت کلید AWS EC2
ایجاد کنیدنمونه AWS EC2
را راه اندازی کنیداتصال به نمونه AWS EC2
مبانی گروههای امنیتی AWS EC2
آدرس های IP عمومی و خصوصی AWS EC2
چرخه عمر AWS EC2
تخصیص و تخصیص آدرس IP الاستیک AWS
مدیریت AWS EC2 با استفاده از AWS CLI
نمونه های AWS EC2 را ارتقا یا کاهش دهید
زیرساخت - AWS EC2 Advanced
در این بخش، ما با AWS EC2 ادامه میدهیم تا بفهمیم چگونه میتوانیم نمونههای EC2 را با استفاده از دستورات AWS مدیریت کنیم و همچنین چگونه ماژولهای سیستم عامل اضافی را با استفاده از اسکریپتهای بوت استرپ نصب کنیم.
شروع به کار با AWS EC2
درک فراداده AWS EC2
پرس و جو در فراداده AWS EC2
تنظیم در فراداده AWS EC2
استفاده از اسکریپتهای Bootstrapping با نمونههای AWS EC2 برای نصب نرمافزارهای اضافی در نمونههای AWS EC2
یک AWS AMI با استفاده از نمونههای AWS EC2 ایجاد کنید
تأیید AWS AMI - Lab
مصرف داده با استفاده از توابع Lambda
توابع AWS Lambda چیزی جز توابع بدون سرور نیستند. در این بخش، خواهیم فهمید که چگونه می توانیم توابع Lambda را با استفاده از Python به عنوان یک زبان برنامه نویسی توسعه و استقرار دهیم. همچنین خواهیم دید که چگونه با استفاده از s3 یک نشانک یا نقطه بازرسی را حفظ کنیم.
Hello World با استفاده از AWS Lambda
پروژه راه اندازی برای توسعه محلی توابع AWS Lambda
استقرار پروژه در کنسول AWS Lambda
با استفاده از درخواستها برای توابع AWS Lambda، عملکرد دانلود را توسعه دهید
استفاده از کتابخانه های شخص ثالث در توابع AWS Lambda
تأیید اعتبار دسترسی AWS s3 برای توسعه محلی توابع AWS Lambda
با استفاده از توابع AWS Lambda، قابلیت آپلود در s3 را توسعه دهید
اعتبار سنجی عملکردهای AWS Lambda با استفاده از کنسول AWS Lambda
توابع AWS Lambda را با استفاده از کنسول AWS Lambda اجرا کنید
تأیید اعتبار فایلهایی که با استفاده از توابع AWS Lambda بارگیری میشوند
خواندن و نوشتن نشانک در s3 با استفاده از توابع AWS Lambda
نگهداری نشانک در s3 با استفاده از توابع AWS Lambda
منطق آپلود افزایشی ایجاد شده با استفاده از توابع AWS Lambda را مرور کنید
استقرار توابع AWS Lambda
توابع AWS Lambda را با استفاده از AWS Event Bridge برنامه ریزی کنید
مروری بر اجزای چسب AWS
در این بخش، ما یک نمای کلی از تمام اجزای مهم چسب مانند خزنده چسب، پایگاه های داده چسب، جداول چسب و غیره خواهیم داشت. همچنین نحوه اعتبارسنجی جداول چسب با استفاده از AWS Athena را خواهیم فهمید. چسب AWS (به ویژه کاتالوگ چسب) یکی از اجزای کلیدی در حوزه خدمات تجزیه و تحلیل داده AWS است.
مقدمه - مروری بر اجزای چسب AWS
ایجاد AWS Glue Crawler و AWS Glue Catalog Database و همچنین جدول
داده ها را با استفاده از AWS Athena تجزیه و تحلیل کنید
ایجاد سطل و نقش AWS S3 برای ایجاد جداول کاتالوگ چسب AWS با استفاده از خزنده در مکان s3
ایجاد و اجرای AWS Glue Job برای پردازش داده ها در جداول کاتالوگ چسب AWS
با استفاده از جدول کاتالوگ چسب چسب AWS و با اجرای پرس و جوها با استفاده از AWS Athena اعتبارسنجی کنید
ایجاد و اجرای AWS Glue Trigger
جریان کاری چسب AWS
ایجاد کنیدAWS Glue Workflow و اعتبارسنجی را اجرا کنید
سرور Spark History را برای AWS Glue Jobs راه اندازی کنید
AWS Glue از Apache Spark در زیر هود برای پردازش داده ها استفاده می کند. مهم است که Spark History Server را برای AWS Glue Jobs راهاندازی کنیم تا هر گونه مشکلی را عیبیابی کنیم.
مقدمه - سرور تاریخچه Spark برای چسب AWS
سرور Spark History را در AWS راه اندازی کنید
مخزن نمونه چسب AWS را کلون کنید
کانتینر رابط کاربری AWS Glue Spark
بسازیداجازههای خطمشی AWS IAM را بهروزرسانی کنید
کانتینر رابط کاربری AWS Glue Spark را راه اندازی کنید
فرو رفتن عمیق در کاتالوگ چسب AWS
چسب AWS چندین مؤلفه دارد، اما مهمترین آنها چیزی نیست جز خزندههای چسب AWS، پایگاههای داده و همچنین جداول کاتالوگ. در این بخش، برخی از مهم ترین و رایج ترین ویژگی های کاتالوگ چسب AWS را بررسی خواهیم کرد.
پیش نیازهای جداول کاتالوگ چسب AWS
مراحل ایجاد جداول کاتالوگ چسب AWS
مجموعه داده را دانلود کنید تا از آن برای ایجاد جداول کاتالوگ چسب AWS استفاده کنید
آپلود دادهها در s3 برای خزیدن با استفاده از AWS Glue Crawler برای ایجاد جداول فهرست AWS Glue مورد نیاز
ایجاد پایگاه داده کاتالوگ چسب AWS - itvghlandingdb
جدول کاتالوگ چسب AWS - ghactivity
ایجاد کنیداجرای جستجوها با استفاده از AWS Athena - ghactivity
خزیدن چندین پوشه با استفاده از خزنده های چسب AWS
مدیریت کاتالوگ چسب AWS با استفاده از AWS CLI
مدیریت کاتالوگ چسب AWS با استفاده از Python Boto3
کاوش APIهای AWS Glue Job
وقتی کارهای چسب AWS را اجرا کردیم، میتوانیم آنها را با استفاده از APIهای AWS Glue Job مدیریت کنیم. در این بخش مروری بر APIهای AWS Glue Job برای اجرا و مدیریت کارها خواهیم داشت.
نقش AWS IAM را برای AWS Glue Job بهروزرسانی کنید
کار چسب پایه AWS
ایجاد کنیداجرای کار چسب پایه AWS
اسکریپت چسب AWS برای پارتیشن بندی داده ها
در حال اعتبارسنجی با استفاده از AWS Athena
درک نشانکهای کار چسب AWS
نشانکهای کار چسب AWS میتوانند برای نگهداری نشانکها یا نقاط بازرسی برای بارهای افزایشی استفاده شوند. در این بخش، جزئیات مربوط به نشانکهای کار چسب AWS را بررسی میکنیم.
مقدمه ای بر نشانک های کار چسب AWS
پاک کردن داده ها برای اجرای AWS Glue Jobs
نمای کلی AWS Glue CLI و دستورات
AWS Glue Job را با استفاده از نشانک چسب چسب AWS اجرا کنید
نشانک چسب AWS را با استفاده از AWS CLI تأیید کنید
افزودن داده های جدید به منطقه فرود برای اجرای AWS Glue Jobs با استفاده از نشانک ها
AWS Glue Job را با استفاده از نشانک اجرا کنید
نشانک و فایلهای AWS Glue Job را برای اجرای افزایشی اعتبارسنجی کنید
جدول کاتالوگ چسب AWS را با استفاده از دستورات AWS CLI دوباره خزیدن کنید
پرس و جوهای AWS Athena را برای اعتبارسنجی داده اجرا کنید
چرخه عمر توسعه برای Pyspark
در این بخش، ما بر روی توسعه برنامه های Spark با استفاده از Pyspark تمرکز خواهیم کرد. ما بعداً و در حین بررسی جزئیات EMR از این برنامه استفاده خواهیم کرد.
محیط مجازی را راه اندازی کرده و Pyspark را نصب کنید
شروع با Pycharm
گذر از آرگومانهای زمان اجرا
دسترسی به متغیرهای محیط سیستم عامل
شروع به کار با Spark
ایجاد تابع برای Spark Session
تنظیم داده های نمونه
دادهها را از فایلها بخوانید
دادهها را با استفاده از Spark API پردازش کنید
دادهها را در فایلها بنویسید
اعتبار سنجی نوشتن داده ها در فایل ها
تولید کد
شروع به کار با AWS EMR (کاهش نقشه الاستیک)
به عنوان بخشی از این بخش، نحوه شروع کار با AWS EMR Cluster را خواهیم فهمید. ما در درجه اول بر روی کنسول وب AWS EMR تمرکز خواهیم کرد. Elastic Map Reduce یکی از سرویسهای کلیدی در سرویسهای تجزیه و تحلیل دادههای AWS است که قابلیت اجرای برنامههایی را فراهم میکند که دادههای مقیاس بزرگ را با استفاده از چارچوبهای محاسباتی توزیعشده مانند Spark پردازش میکنند.
برنامه ریزی برای AWS EMR Cluster
ایجاد جفت کلید AWS EC2 برای AWS EMR Cluster
دسته AWS EMR را با Apache Spark راه اندازی کنید
درک خلاصه AWS EMR Cluster
واسط های کاربری برنامه AWS EMR Cluster
را مرور کنیدنظارت خوشه AWS EMR را مرور کنید
بررسی سخت افزار AWS EMR Cluster and Cluster Scaling Policy
پیکربندیهای خوشه AWS EMR را مرور کنید
رویدادهای AWS EMR Cluster
را مرور کنیدمرحلههای AWS EMR Cluster
را مرور کنیداقدامات بوت استرپ AWS EMR Cluster
را مرور کنیداتصال به گره اصلی AWS EMR با استفاده از SSH
غیرفعال کردن حفاظت خاتمه برای خوشه AWS EMR و خاتمه دادن به خوشه AWS EMR
کلون کنید و یک خوشه AWS EMR جدید ایجاد کنید
لیست کردن سطل ها و اشیاء AWS S3 با استفاده از AWS CLI در خوشه AWS EMR
لیست کردن سطل ها و اشیاء AWS S3 با استفاده از HDFS CLI در خوشه AWS EMR
مدیریت فایلها در AWS S3 با استفاده از HDFS CLI در AWS EMR Cluster
پایگاهها و جداول کاتالوگ چسب AWS را مرور کنید
دسترسی به پایگاههای داده و جداول کاتالوگ چسب AWS با استفاده از خوشه AWS EMR
دسترسی به spark-sql CLI خوشه AWS EMR
دسترسی به pyspark CLI خوشه AWS EMR
دسترسی به spark-shell CLI خوشه AWS EMR
خوشه AWS EMR را برای نوت بوک ایجاد کنید
استقرار برنامههای Spark با استفاده از AWS EMR
به عنوان بخشی از این بخش، نحوه استقرار Spark Applications را با استفاده از AWS EMR درک خواهیم کرد. ما از برنامه Spark که قبلاً استفاده کرده بودیم استفاده خواهیم کرد.
استقرار برنامهها با استفاده از AWS EMR - مقدمه
دسته AWS EMR را برای استقرار برنامهها راهاندازی کنید
تأیید اتصال SSH به گره اصلی خوشه AWS EMR
تنظیم محیط نوت بوک Jupyter در AWS EMR Cluster
ایجاد سطل AWS s3 مورد نیاز برای AWS EMR Cluster
دادههای GHActivity را در s3 آپلود کنید تا بتوانیم با استفاده از Spark Application مستقر در AWS EMR Cluster پردازش کنیم
تأیید اعتبار برنامه با استفاده از نسخه های سازگار با AWS EMR Python و Spark
برنامه Spark را در AWS EMR Master Node مستقر کنید
ایجاد فضای کاربری برای ec2-user در AWS EMR Cluster
اجرای Spark Application با استفاده از spark-submit در AWS EMR Master Node
تأیید اعتبار داده ها با استفاده از نوت بوک های Jupyter در AWS EMR Cluster
کلون و شروع خودکار خاتمه یافته AWS EMR Cluster
حذف داده های پر شده توسط GHAcitivity Application با استفاده از AWS EMR Cluster
تفاوتهای Spark Client و حالتهای استقرار کلاستر در AWS EMR Cluster
اجرای برنامه Spark با استفاده از حالت کلاستر در AWS EMR Cluster
نمای کلی از افزودن برنامه Pyspark به عنوان مرحله به خوشه AWS EMR
برنامه Spark را در AWS S3 اجرا کنید تا با استفاده از مراحل AWS EMR اجرا شود
اجرای برنامه های Spark به عنوان مراحل AWS EMR در حالت مشتری
اجرای برنامه های Spark به عنوان مراحل AWS EMR در حالت خوشه
تأیید اعتبار AWS EMR Step Execution of Spark Application
خط لوله انتقال داده جریانی با استفاده از AWS Kinesis
بهعنوان بخشی از این بخش، جزئیات مربوط به خط لوله انتقال دادههای جریانی را با استفاده از AWS Kinesis که یک سرویس پخش سرویسهای تجزیه و تحلیل دادههای AWS است، بررسی میکنیم. ما از AWS Kinesis Firehose Agent و AWS Kinesis Delivery Stream برای خواندن دادهها از فایلهای گزارش و وارد کردن آن به AWS s3 استفاده میکنیم.
ساخت خط لوله جریان با استفاده از AWS Kinesis Firehose Agent و Delivery Stream
گزارشهای چرخشی بهگونهای که فایلها به طور مکرر ایجاد میشوند که در نهایت با استفاده از AWS Kinesis Firehose Agent و AWS Kinesis Firehose Stream وارد میشوند
AWS Kinesis Firehose Agent را برای دریافت دادهها از گزارشها به AWS Kinesis Delivery Stream تنظیم کنید.
جریان تحویل AWS Kinesis Firehose را ایجاد کنید
برنامه ریزی خط لوله برای ورود داده به s3 با استفاده از AWS Kinesis Delivery Stream
ایجاد گروه و کاربر AWS IAM برای خطوط لوله جریانی با استفاده از اجزای AWS Kinesis
اعطای مجوز به کاربر AWS IAM با استفاده از خطمشی برای خطوط لوله جریانی با استفاده از مؤلفههای AWS Kinesis
AWS Kinesis Firehose Agent را برای خواندن دادهها از فایلهای گزارش و وارد کردن آن به AWS Kinesis Firehose Stream پیکربندی کنید.
عامل AWS Kinesis Firehose را شروع و اعتبار سنجی کنید
نتیجهگیری - ساخت خط لوله بخار ساده با استفاده از AWS Kinesis Firehose
مصرف داده از AWS s3 با استفاده از Python boto3 دریافت شده با استفاده از AWS Kinesis
از آنجایی که دادهها در AWS S3 وارد میشوند، خواهیم فهمید که چگونه دادههای دریافت شده در AWS s3 را میتوان با استفاده از boto3 پردازش کرد.
سفارشی کردن پوشه AWS s3 با استفاده از AWS Kinesis Delivery Stream
خط مشی AWS IAM را برای خواندن از AWS s3 Bucket ایجاد کنید
دسترسی به AWS s3 را با استفاده از AWS CLI تأیید کنید
محیط مجازی پایتون را برای کاوش boto3 راه اندازی کنید
تأیید اعتبار دسترسی به AWS s3 با استفاده از Python boto3
مطالب را از شی AWS s3 بخوانید
خواندن چندین شیء AWS s3
تعداد اشیاء AWS s3 را با استفاده از نشانگر بدست آورید
اندازه اشیاء AWS s3 را با استفاده از نشانگر دریافت کنید
پر کردن داده های GitHub به AWS Dynamodb
به عنوان بخشی از این بخش، خواهیم فهمید که چگونه می توانیم داده ها را با استفاده از Python به عنوان یک زبان برنامه نویسی در جداول AWS Dynamodb پر کنیم.
برای دریافت دادههای GitHub به جداول AWS Dynamodb، کتابخانههای لازم را نصب کنید.
آشنایی با APIهای GitHub
تنظیم توکن GitHub API
درک محدودیت نرخ GitHub
مخزن جدید برای since
ایجاد کنیداستخراج اطلاعات مورد نیاز با استفاده از پایتون
پردازش داده ها با استفاده از پایتون
برای ایجاد جداول AWS dynamodb با استفاده از boto3 مجوز اعطا کنید
جدول AWS Dynamodb ایجاد کنید
عملیات AWS Dynamodb CRUD
جدول AWS Dynamodb را پر کنید
عملیات دسته ای AWS Dynamodb
مروری بر Amazon AWS Athena
به عنوان بخشی از این بخش، نحوه شروع کار با AWS Athena با استفاده از کنسول وب AWS را خواهیم فهمید. ما همچنین بر روی عملیات DDL و DML یا CRUD اولیه با استفاده از AWS Athena Query Editor تمرکز خواهیم کرد.
شروع به کار با Amazon AWS Athena
بازنویسی سریع پایگاه های داده و جداول کاتالوگ چسب AWS
دسترسی به پایگاههای داده و جداول کاتالوگ AWS Glue با استفاده از ویرایشگر AWS Athena Query
با استفاده از AWS Athena یک پایگاه داده و جدول ایجاد کنید
داده ها را با استفاده از AWS Athena در جدول پر کنید
استفاده از CTAS برای ایجاد جداول با استفاده از AWS Athena
نمای کلی معماری Amazon AWS Athena
منابع آمازون AWS Athena و رابطه با Hive
یک جدول پارتیشن بندی شده با استفاده از AWS Athena ایجاد کنید
پرس و جو برای ستون پارتیشن بندی شده ایجاد کنید
با استفاده از AWS Athena در جداول پارتیشن بندی شده وارد کنید
تأیید پارتیشن بندی داده ها با استفاده از AWS Athena
جدول AWS Athena را رها کنید و فایلهای داده را حذف کنید
جدول پارتیشن بندی شده را با استفاده از AWS Athena رها کنید
پارتیشن بندی داده ها در AWS Athena با استفاده از CTAS
Amazon AWS Athena با استفاده از AWS CLI
به عنوان بخشی از این بخش، نحوه تعامل با AWS Athena با استفاده از دستورات AWS CLI را خواهیم فهمید.
Amazon AWS Athena با استفاده از AWS CLI - مقدمه
کمک دریافت کنید و پایگاه های داده AWS Athena را با استفاده از AWS CLI فهرست کنید
مدیریت گروههای کاری AWS Athena با استفاده از AWS CLI
پرس و جوهای AWS Athena را با استفاده از AWS CLI اجرا کنید
متادیتا جدول AWS Athena را با استفاده از AWS CLI دریافت کنید
پرس و جوهای AWS Athena را با یک مکان سفارشی با استفاده از AWS CLI اجرا کنید
جدول AWS Athena را با استفاده از AWS CLI رها کنید
CTAS را تحت AWS Athena با استفاده از AWS CLI اجرا کنید
Amazon AWS Athena با استفاده از Python boto3
به عنوان بخشی از این بخش، نحوه تعامل با AWS Athena با استفاده از Python boto3 را خواهیم فهمید.
Amazon AWS Athena با استفاده از Python boto3 - مقدمه
شروع به مدیریت AWS Athena با استفاده از Python boto3
پایگاه های داده Amazon AWS Athena را با استفاده از Python boto3 فهرست کنید
جدول Amazon AWS Athena را با استفاده از Python boto3 فهرست کنید
Amazon AWS Athena Queries را با boto3 اجرا کنید
نتایج جستجوی AWS Athena را با استفاده از boto3 مرور کنید
تداوم نتایج جستجوی Amazon AWS Athena در مکان سفارشی با استفاده از boto3
پردازش نتایج جستجوی AWS Athena با استفاده از پاندا
CTAS را در مقابل Amazon AWS Athena با استفاده از Python boto3 اجرا کنید
شروع به کار با Amazon AWS Redshift
به عنوان بخشی از این بخش، نحوه شروع کار با AWS Redshift با استفاده از کنسول وب AWS را خواهیم فهمید. همچنین بر روی عملیاتهای اساسی DDL و DML یا CRUD با استفاده از ویرایشگر کوئری AWS Redshift تمرکز خواهیم کرد.
شروع به کار با Amazon AWS Redshift - مقدمه
خوشه AWS Redshift را با استفاده از آزمایش رایگان ایجاد کنید
اتصال به پایگاه داده با استفاده از AWS Redshift Query Editor
لیستی از جداول درخواست طرح اطلاعات را دریافت کنید
پرس و جوها را در برابر جداول AWS Redshift با استفاده از ویرایشگر کوئری اجرا کنید
جدول AWS Redshift را با استفاده از کلید اصلی ایجاد کنید
درج دادهها در جداول AWS Redshift
دادهها را در جداول AWS Redshift بهروزرسانی کنید
حذف داده ها از جداول AWS Redshift
پرس و جوهای ذخیره شده را با استفاده از ویرایشگر پرس و جو به قرمز تغییر دهید
حذف AWS Redshift Cluster
بازیابی AWS Redshift Cluster از Snapshot
دادهها را از s3 در جداول AWS Redshift کپی کنید
به عنوان بخشی از این بخش، جزئیات مربوط به کپی کردن داده ها از s3 در جداول AWS Redshift با استفاده از دستور AWS Redshift Copy را بررسی خواهیم کرد.
دادهها را از s3 به AWS Redshift کپی کنید - مقدمه
داده ها را در s3 برای کپی AWS Redshift تنظیم کنید
کپی پایگاه داده و جدول برای دستور کپی AWS Redshift
ایجاد کاربر IAM با دسترسی کامل در s3 برای AWS Redshift Copy
برای کپی دادهها از s3 به جدول Redshift AWS، Command Copy را اجرا کنید
عیبیابی خطاهای مربوط به AWS Redshift Copy Command
برای کپی کردن از جدول s3 به AWS Redshift دستور Copy را اجرا کنید
با استفاده از جستارها در برابر جدول Redshift AWS اعتبارسنجی کنید
نمای کلی از دستور کپی AWS Redshift
نقش IAM را برای AWS Redshift برای دسترسی به s3 ایجاد کنید
داده ها را از s3 به جدول AWS Redshift با استفاده از نقش IAM کپی کنید
تنظیم JSON Dataset در s3 برای AWS Redshift Copy Command
دادههای JSON را از s3 به جدول AWS Redshift با استفاده از IAM Role کپی کنید
برنامه ها را با استفاده از AWS Redshift Cluster توسعه دهید
به عنوان بخشی از این بخش، نحوه توسعه برنامهها در برابر پایگاههای داده و جداول ایجاد شده به عنوان بخشی از AWS Redshift Cluster را خواهیم فهمید.
برنامه را با استفاده از AWS Redshift Cluster توسعه دهید - مقدمه
Ip الاستیک برای AWS Redshift Cluster اختصاص دهید
دسترسی عمومی را برای AWS Redshift Cluster فعال کنید
قوانین ورودی را در گروه امنیتی بهروزرسانی کنید تا به AWS Redshift Cluster دسترسی پیدا کنید
ایجاد پایگاه داده و کاربر در AWS Redshift Cluster
با استفاده از psql به پایگاه داده در AWS Redshift متصل شوید
تغییر مالک در جداول AWS Redshift
فایل AWS Redshift JDBC Jar را دانلود کنید
اتصال به پایگاه های داده AWS Redshift با استفاده از IDE هایی مانند SQL Workbench
محیط مجازی پایتون را برای AWS Redshift راه اندازی کنید
پرس و جو ساده را در برابر جدول پایگاه داده AWS Redshift با استفاده از Python اجرا کنید
جدول AWS Redshift را با استفاده از Python کوتاه کنید
کاربر IAM را برای کپی کردن از s3 به جداول AWS Redshift ایجاد کنید
دسترسی کاربر IAM را با استفاده از Boto3 تأیید کنید
دستور کپی AWS Redshift را با استفاده از پایتون اجرا کنید
جداول AWS Redshift با Distkeys و Sortkeys
به عنوان بخشی از این بخش، ویژگیهای خاص AWS Redshift مانند کلیدهای توزیع و کلیدهای مرتبسازی را برای ایجاد جداول AWS Redshift بررسی میکنیم.
جدول AWS Redshift با Distkeys و Sortkeys - مقدمه
بررسی سریع معماری AWS Redshift
خوشه AWS Redshift چند گره ای ایجاد کنید
با استفاده از ویرایشگر Query به AWS Redshift Cluster متصل شوید
ایجاد پایگاه داده AWS Redshift
کاربر پایگاه داده AWS Redshift ایجاد کنید
ایجاد طرحواره پایگاه داده AWS Redshift
سبک توزیع پیشفرض جدول AWS Redshift
اعطای مجوزهای انتخاب در کاتالوگ به کاربر پایگاه داده AWS Redshift
مسیر جستجو را برای درخواست جداول سیستم AWS Redshift بهروزرسانی کنید
تأیید جدول AWS Redshift با DISTSTYLE AUTO
خوشه AWS Redshift را از Snapshot به حالت اصلی ایجاد کنید
نمای کلی Node Slices در AWS Redshift Cluster
نمای کلی از سبک های توزیع مربوط به جداول AWS Redshift
استراتژیهای توزیع برای جداول خردهفروشی در پایگاههای داده AWS Redshift
جدول AWS Redshift را با سبک توزیع همه ایجاد کنید
عیبیابی و رفع خطاهای بارگیری یا کپی کردن
جدول AWS Redshift با خودکار سبک توزیع ایجاد کنید
جدول AWS Redshift را با استفاده از کلید سبک توزیع ایجاد کنید
خوشه AWS Redshift را با یک عکس فوری دستی حذف کنید
پرسوجوها و طیف فدرال AWS Redshift
به عنوان بخشی از این بخش، برخی از ویژگی های پیشرفته Redshift مانند AWS Redshift Federated Queries و AWS Redshift Spectrum را بررسی خواهیم کرد.
پرسشها و طیف فدرال AWS Redshift - مقدمه
نمای کلی ادغام AWS RDS و AWS Redshift برای جستجوهای فدرال
نقش IAM را برای AWS Redshift Cluster ایجاد کنید
راه اندازی سرور پایگاه داده Postgres برای پرس و جوهای فدرال AWS Redshift
ایجاد جداول در پایگاه داده Postgres برای جستارهای فدرال AWS Redshift
ایجاد راز با استفاده از Secrets Manager برای پایگاه داده Postgres
دسترسی به جزئیات مخفی با استفاده از Python Boto3
خواندن دادههای Json در Dataframe با استفاده از پاندا
نوشتن داده های JSON در جداول پایگاه داده AWS Redshift با استفاده از پاندا
خط مشی AWS IAM را برای Secret ایجاد کنید و با Redshift Role مرتبط شوید
ایجاد AWS Redshift Cluster با استفاده از AWS IAM Role با مجوزهای Secret
طرحواره خارجی AWS Redshift را در پایگاه داده Postgres ایجاد کنید
تنظیمات شبکه AWS Redshift Cluster را برای جستارهای فدرال بهروزرسانی کنید
اجرای ETL با استفاده از جستارهای فدرال AWS Redshift
منابع اضافه شده برای جستارهای فدرال AWS Redshift را پاک کنید
اعطای دسترسی به کاتالوگ داده چسب AWS به AWS Redshift Cluster for Spectrum
دستههای AWS Redshift را برای اجرای پرسوجوها با استفاده از Spectrum تنظیم کنید
بازنویسی سریع پایگاه داده و جداول کاتالوگ چسب AWS برای طیف AWS Redshift
با استفاده از AWS Redshift Spectrum طرحواره خارجی ایجاد کنید
پرس و جوها را با استفاده از AWS Redshift Spectrum اجرا کنید
خوشه AWS Redshift را پاکسازی کنید
مشاور فناوری و Evangelist 13 سال تجربه در اجرای پروژه های پیچیده با استفاده از مجموعه گسترده ای از فناوری ها از جمله Big Data و Cloud. Iversity، llc - یک شرکت مستقر در ایالات متحده برای ارائه آموزش با کیفیت برای متخصصان فناوری اطلاعات و کارکنان و همچنین راه حل های مشاوره ای برای مشتریان سازمانی ، پیدا کردم. من هزاران نفر از متخصصان فناوری اطلاعات را در زمینه فن آوری های زیادی از جمله Big Data و Cloud آموزش داده ام. ایجاد حرفه ای فناوری اطلاعات برای افراد و ارائه خدمات با کیفیت به مشتریان از اهمیت بالاتری در سازمان ما برخوردار است. به عنوان یک استراتژی ورود ، ارائه آموزش با کیفیت در زمینه های ABCD خواهد بود * توسعه برنامه * داده های بزرگ و هوش تجاری * ابر * پایگاه داده ، پایگاه داده
Asasri ManthenaPerraju Vegiraju
نمایش نظرات