آموزش مهندسی داده با استفاده از AWS Data Analytics

Data Engineering using AWS Data Analytics

نکته: آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
نمونه ویدیوها:
توضیحات دوره: ساخت خطوط لوله مهندسی داده بر روی AWS با استفاده از خدمات تجزیه و تحلیل داده - Glue، EMR، Athena، Kinesis، Lambda، Redshift Data Engineering Services تحت AWS Data Analytics AWS Essentials مانند s3، IAM، EC2، و غیره درک AWS s3 برای ذخیره سازی مبتنی بر ابر درک جزئیات مربوط به ماشین‌های مجازی در AWS معروف به EC2. مدیریت کاربران AWS IAM، گروه‌ها، نقش‌ها و خط‌مشی‌ها برای RBAC (کنترل دسترسی مبتنی بر نقش) مدیریت جداول با استفاده از AWS Glue کاتالوگ مهندسی خط‌های داده دسته‌ای با استفاده از AWS Glue Jobs هماهنگ‌سازی خطوط لوله داده دسته‌ای با استفاده از AWS Glue Workflows Running جستارهایی با استفاده از AWS Athena - سرویس موتور جستجوی کمتر سرور با استفاده از خوشه‌های AWS Elastic Map Reduce (EMR) برای ساخت خطوط لوله داده با استفاده از خوشه‌های AWS Elastic Map Reduce (EMR) برای گزارش‌ها و داشبوردها جذب داده با استفاده از AWS Lambda Functions Scheduling با استفاده از AWS Events Engineering Pipeaming با استفاده از AWS Kinesis گزارش های سرور وب با استفاده از AWS Kinesis Firehose بررسی اجمالی پردازش داده ها با استفاده از اجرای AWS Athena پرس‌وجوها یا دستورات AWS Athena با استفاده از CLI اجرای پرس‌وجوهای AWS Athena با استفاده از Python boto3 ایجاد AWS Redshift Cluster، ایجاد جداول و انجام عملیات CRUD کپی داده‌ها از s3 به AWS Redshift Tables درک Distribution Styles با استفاده از Distribution Styles و ایجاد جدول‌های DisquetBMSRdn. با استفاده از AWS Redshift Federated Queries اجرای پرس و جو بر روی جداول Glue یا کاتالوگ Athena با استفاده از AWS Redshift Spectrum پیش نیازها: یک رایانه با حداقل 8 گیگابایت رم تجربه برنامه نویسی با استفاده از Python بسیار مطلوب است زیرا برخی از موضوعات با استفاده از Python SQL نشان داده می شود. برخی از موضوعات با استفاده از SQL Nice برای داشتن تجربه مهندسی داده با استفاده از پانداها یا Pyspark نشان داده شده است.

مهندسی داده همه چیز در مورد ایجاد خطوط لوله داده است تا داده ها را از منابع متعدد به دریاچه های داده یا انبارهای داده و سپس از دریاچه های داده یا انبارهای داده به سیستم های پایین دستی منتقل کند. به عنوان بخشی از این دوره، من شما را با نحوه ساخت خطوط لوله مهندسی داده با استفاده از AWS Data Analytics Stack آشنا خواهم کرد. این شامل خدماتی مانند Glue، Elastic Map Reduce (EMR)، Lambda Functions، Athena، EMR، Kinesis، و بسیاری دیگر است.

در اینجا مراحل سطح بالایی وجود دارد که به عنوان بخشی از دوره دنبال خواهید کرد.

  • محیط توسعه راه اندازی

  • شروع به کار با AWS

  • ذخیره سازی - همه چیز درباره AWS s3 (سرویس ذخیره سازی ساده)

  • امنیت سطح کاربر - مدیریت کاربران، نقش‌ها و خط‌مشی‌ها با استفاده از IAM

  • زیرساخت - AWS EC2 (Elastic Cloud Compute)

  • حذف داده با استفاده از توابع AWS Lambda

  • نمای کلی اجزای چسب AWS

  • سرور Spark History را برای AWS Glue Jobs راه اندازی کنید

  • غواصی عمیق در کاتالوگ چسب AWS

  • کاوش APIهای AWS Glue Job

  • نشانک‌های کار چسب AWS

  • چرخه حیات توسعه Pyspark

  • شروع به کار با AWS EMR

  • استقرار برنامه‌های Spark با استفاده از AWS EMR

  • جریان خط لوله با استفاده از AWS Kinesis

  • مصرف داده از AWS s3 با استفاده از boto3 مصرف شده با استفاده از AWS Kinesis

  • پر کردن داده‌های GitHub به AWS Dynamodb

  • نمای کلی Amazon AWS Athena

  • Amazon AWS Athena با استفاده از AWS CLI

  • Amazon AWS Athena با استفاده از Python boto3

  • شروع به کار با Amazon AWS Redshift

  • داده‌ها را از AWS s3 در جداول AWS Redshift کپی کنید

  • برنامه‌ها را با استفاده از AWS Redshift Cluster توسعه دهید

  • جدول AWS Redshift با کلیدهای Distkey و Sortkeys

  • پرسش‌ها و طیف فدرال AWS Redshift

در اینجا جزئیاتی در مورد آنچه که به عنوان بخشی از این دوره یاد خواهید گرفت، آمده است. ما بیشتر خدمات رایج مورد استفاده را با تمرین عملی که تحت AWS Data Analytics در دسترس هستند پوشش خواهیم داد.

شروع به کار با AWS

به عنوان بخشی از این بخش، جزئیات مربوط به شروع کار با AWS را بررسی خواهید کرد.

  • مقدمه - AWS شروع به کار

  • سطل s3 ایجاد کنید

  • گروه AWS IAM و کاربر AWS IAM را ایجاد کنید تا به سطل s3 و سایر خدمات دسترسی لازم داشته باشید

  • نمای کلی نقش‌های AWS IAM

  • خط‌مشی سفارشی AWS IAM را به گروه‌های AWS IAM و همچنین کاربران ایجاد و پیوست کنید

  • پیکربندی و اعتبارسنجی AWS CLI برای دسترسی به خدمات AWS با استفاده از دستورات AWS CLI

فضای ذخیره سازی - همه چیز درباره AWS s3 (سرویس ذخیره سازی ساده)

AWS s3 یکی از برجسته‌ترین سرویس‌های AWS با مدیریت کامل است. همه متخصصان فناوری اطلاعات که مایلند روی AWS کار کنند باید با آن آشنا باشند. ما در این بخش به چند ویژگی رایج مرتبط با AWS s3 خواهیم پرداخت.

  • شروع به کار با AWS S3

  • تنظیم داده‌ها را به صورت محلی برای آپلود در AWS s3 تنظیم کنید

  • افزودن سطل های AWS S3 و مدیریت اشیاء (فایل ها و پوشه ها) در سطل های AWS s3

  • کنترل نسخه برای سطل‌های AWS S3

  • تکثیر بین منطقه ای برای سطل های AWS S3

  • نمای کلی کلاس‌های ذخیره‌سازی AWS S3

  • نمای کلی AWS S3 Glacier

  • مدیریت AWS S3 با استفاده از دستورات AWS CLI

  • مدیریت اشیاء در AWS S3 با استفاده از CLI - Lab

امنیت سطح کاربر - مدیریت کاربران، نقش‌ها و سیاست‌ها با استفاده از IAM

وقتی شروع به کار بر روی AWS کردید، باید مجوزهایی را که به عنوان یک کاربر غیر سرپرست دارید، بدانید. به عنوان بخشی از این بخش، جزئیات مربوط به کاربران، گروه‌ها، نقش‌ها و همچنین خط‌مشی‌های AWS IAM را خواهید فهمید.

  • ایجاد کاربران AWS IAM

  • ورود به سیستم AWS Management Console با استفاده از AWS IAM User

  • دسترسی برنامه‌ای به کاربر AWS IAM را تأیید کنید

  • سیاست‌های مبتنی بر هویت AWS IAM

  • مدیریت گروه‌های AWS IAM

  • مدیریت نقش‌های AWS IAM

  • نمای کلی خط‌مشی‌های سفارشی AWS IAM

  • مدیریت کاربران، گروه‌ها، نقش‌ها و همچنین خط‌مشی‌های AWS IAM با استفاده از دستورات AWS CLI

زیرساخت - مبانی AWS EC2 (Elastic Cloud Compute)

نمونه‌های AWS EC2 چیزی جز ماشین‌های مجازی در AWS نیستند. به عنوان بخشی از این بخش، برخی از اصول اولیه مربوط به مبانی AWS EC2 را بررسی خواهیم کرد.

  • شروع به کار با AWS EC2

  • جفت کلید AWS EC2

    ایجاد کنید
  • نمونه AWS EC2

    را راه اندازی کنید
  • اتصال به نمونه AWS EC2

  • مبانی گروه‌های امنیتی AWS EC2

  • آدرس های IP عمومی و خصوصی AWS EC2

  • چرخه عمر AWS EC2

  • تخصیص و تخصیص آدرس IP الاستیک AWS

  • مدیریت AWS EC2 با استفاده از AWS CLI

  • نمونه های AWS EC2 را ارتقا یا کاهش دهید

زیرساخت - AWS EC2 Advanced

در این بخش، ما با AWS EC2 ادامه می‌دهیم تا بفهمیم چگونه می‌توانیم نمونه‌های EC2 را با استفاده از دستورات AWS مدیریت کنیم و همچنین چگونه ماژول‌های سیستم عامل اضافی را با استفاده از اسکریپت‌های بوت استرپ نصب کنیم.

  • شروع به کار با AWS EC2

  • درک فراداده AWS EC2

  • پرس و جو در فراداده AWS EC2

  • تنظیم در فراداده AWS EC2

  • استفاده از اسکریپت‌های Bootstrapping با نمونه‌های AWS EC2 برای نصب نرم‌افزارهای اضافی در نمونه‌های AWS EC2

  • یک AWS AMI با استفاده از نمونه‌های AWS EC2 ایجاد کنید

  • تأیید AWS AMI - Lab

مصرف داده با استفاده از توابع Lambda

توابع AWS Lambda چیزی جز توابع بدون سرور نیستند. در این بخش، خواهیم فهمید که چگونه می توانیم توابع Lambda را با استفاده از Python به عنوان یک زبان برنامه نویسی توسعه و استقرار دهیم. همچنین خواهیم دید که چگونه با استفاده از s3 یک نشانک یا نقطه بازرسی را حفظ کنیم.

  • Hello World با استفاده از AWS Lambda

  • پروژه راه اندازی برای توسعه محلی توابع AWS Lambda

  • استقرار پروژه در کنسول AWS Lambda

  • با استفاده از درخواست‌ها برای توابع AWS Lambda، عملکرد دانلود را توسعه دهید

  • استفاده از کتابخانه های شخص ثالث در توابع AWS Lambda

  • تأیید اعتبار دسترسی AWS s3 برای توسعه محلی توابع AWS Lambda

  • با استفاده از توابع AWS Lambda، قابلیت آپلود در s3 را توسعه دهید

  • اعتبار سنجی عملکردهای AWS Lambda با استفاده از کنسول AWS Lambda

  • توابع AWS Lambda را با استفاده از کنسول AWS Lambda اجرا کنید

  • تأیید اعتبار فایل‌هایی که با استفاده از توابع AWS Lambda بارگیری می‌شوند

  • خواندن و نوشتن نشانک در s3 با استفاده از توابع AWS Lambda

  • نگهداری نشانک در s3 با استفاده از توابع AWS Lambda

  • منطق آپلود افزایشی ایجاد شده با استفاده از توابع AWS Lambda را مرور کنید

  • استقرار توابع AWS Lambda

  • توابع AWS Lambda را با استفاده از AWS Event Bridge برنامه ریزی کنید

مروری بر اجزای چسب AWS

در این بخش، ما یک نمای کلی از تمام اجزای مهم چسب مانند خزنده چسب، پایگاه های داده چسب، جداول چسب و غیره خواهیم داشت. همچنین نحوه اعتبارسنجی جداول چسب با استفاده از AWS Athena را خواهیم فهمید. چسب AWS (به ویژه کاتالوگ چسب) یکی از اجزای کلیدی در حوزه خدمات تجزیه و تحلیل داده AWS است.

  • مقدمه - مروری بر اجزای چسب AWS

  • ایجاد AWS Glue Crawler و AWS Glue Catalog Database و همچنین جدول

  • داده ها را با استفاده از AWS Athena تجزیه و تحلیل کنید

  • ایجاد سطل و نقش AWS S3 برای ایجاد جداول کاتالوگ چسب AWS با استفاده از خزنده در مکان s3

  • ایجاد و اجرای AWS Glue Job برای پردازش داده ها در جداول کاتالوگ چسب AWS

  • با استفاده از جدول کاتالوگ چسب چسب AWS و با اجرای پرس و جوها با استفاده از AWS Athena اعتبارسنجی کنید

  • ایجاد و اجرای AWS Glue Trigger

  • جریان کاری چسب AWS

    ایجاد کنید
  • AWS Glue Workflow و اعتبارسنجی را اجرا کنید

سرور Spark History را برای AWS Glue Jobs راه اندازی کنید

AWS Glue از Apache Spark در زیر هود برای پردازش داده ها استفاده می کند. مهم است که Spark History Server را برای AWS Glue Jobs راه‌اندازی کنیم تا هر گونه مشکلی را عیب‌یابی کنیم.

  • مقدمه - سرور تاریخچه Spark برای چسب AWS

  • سرور Spark History را در AWS راه اندازی کنید

  • مخزن نمونه چسب AWS را کلون کنید

  • کانتینر رابط کاربری AWS Glue Spark

    بسازید
  • اجازه‌های خط‌مشی AWS IAM را به‌روزرسانی کنید

  • کانتینر رابط کاربری AWS Glue Spark را راه اندازی کنید

فرو رفتن عمیق در کاتالوگ چسب AWS

چسب AWS چندین مؤلفه دارد، اما مهم‌ترین آنها چیزی نیست جز خزنده‌های چسب AWS، پایگاه‌های داده و همچنین جداول کاتالوگ. در این بخش، برخی از مهم ترین و رایج ترین ویژگی های کاتالوگ چسب AWS را بررسی خواهیم کرد.

  • پیش نیازهای جداول کاتالوگ چسب AWS

  • مراحل ایجاد جداول کاتالوگ چسب AWS

  • مجموعه داده را دانلود کنید تا از آن برای ایجاد جداول کاتالوگ چسب AWS استفاده کنید

  • آپلود داده‌ها در s3 برای خزیدن با استفاده از AWS Glue Crawler برای ایجاد جداول فهرست AWS Glue مورد نیاز

  • ایجاد پایگاه داده کاتالوگ چسب AWS - itvghlandingdb

  • جدول کاتالوگ چسب AWS - ghactivity

    ایجاد کنید
  • اجرای جستجوها با استفاده از AWS Athena - ghactivity

  • خزیدن چندین پوشه با استفاده از خزنده های چسب AWS

  • مدیریت کاتالوگ چسب AWS با استفاده از AWS CLI

  • مدیریت کاتالوگ چسب AWS با استفاده از Python Boto3

کاوش APIهای AWS Glue Job

وقتی کارهای چسب AWS را اجرا کردیم، می‌توانیم آنها را با استفاده از APIهای AWS Glue Job مدیریت کنیم. در این بخش مروری بر APIهای AWS Glue Job برای اجرا و مدیریت کارها خواهیم داشت.

  • نقش AWS IAM را برای AWS Glue Job به‌روزرسانی کنید

  • کار چسب پایه AWS

    ایجاد کنید
  • اجرای کار چسب پایه AWS

  • اسکریپت چسب AWS برای پارتیشن بندی داده ها

  • در حال اعتبارسنجی با استفاده از AWS Athena

درک نشانک‌های کار چسب AWS

نشانک‌های کار چسب AWS می‌توانند برای نگهداری نشانک‌ها یا نقاط بازرسی برای بارهای افزایشی استفاده شوند. در این بخش، جزئیات مربوط به نشانک‌های کار چسب AWS را بررسی می‌کنیم.

  • مقدمه ای بر نشانک های کار چسب AWS

  • پاک کردن داده ها برای اجرای AWS Glue Jobs

  • نمای کلی AWS Glue CLI و دستورات

  • AWS Glue Job را با استفاده از نشانک چسب چسب AWS اجرا کنید

  • نشانک چسب AWS را با استفاده از AWS CLI تأیید کنید

  • افزودن داده های جدید به منطقه فرود برای اجرای AWS Glue Jobs با استفاده از نشانک ها

  • AWS Glue Job را با استفاده از نشانک اجرا کنید

  • نشانک و فایل‌های AWS Glue Job را برای اجرای افزایشی اعتبارسنجی کنید

  • جدول کاتالوگ چسب AWS را با استفاده از دستورات AWS CLI دوباره خزیدن کنید

  • پرس و جوهای AWS Athena را برای اعتبارسنجی داده اجرا کنید

چرخه عمر توسعه برای Pyspark

در این بخش، ما بر روی توسعه برنامه های Spark با استفاده از Pyspark تمرکز خواهیم کرد. ما بعداً و در حین بررسی جزئیات EMR از این برنامه استفاده خواهیم کرد.

  • محیط مجازی را راه اندازی کرده و Pyspark را نصب کنید

  • شروع با Pycharm

  • گذر از آرگومان‌های زمان اجرا

  • دسترسی به متغیرهای محیط سیستم عامل

  • شروع به کار با Spark

  • ایجاد تابع برای Spark Session

  • تنظیم داده های نمونه

  • داده‌ها را از فایل‌ها بخوانید

  • داده‌ها را با استفاده از Spark API پردازش کنید

  • داده‌ها را در فایل‌ها بنویسید

  • اعتبار سنجی نوشتن داده ها در فایل ها

  • تولید کد

شروع به کار با AWS EMR (کاهش نقشه الاستیک)

به عنوان بخشی از این بخش، نحوه شروع کار با AWS EMR Cluster را خواهیم فهمید. ما در درجه اول بر روی کنسول وب AWS EMR تمرکز خواهیم کرد. Elastic Map Reduce یکی از سرویس‌های کلیدی در سرویس‌های تجزیه و تحلیل داده‌های AWS است که قابلیت اجرای برنامه‌هایی را فراهم می‌کند که داده‌های مقیاس بزرگ را با استفاده از چارچوب‌های محاسباتی توزیع‌شده مانند Spark پردازش می‌کنند.

  • برنامه ریزی برای AWS EMR Cluster

  • ایجاد جفت کلید AWS EC2 برای AWS EMR Cluster

  • دسته AWS EMR را با Apache Spark راه اندازی کنید

  • درک خلاصه AWS EMR Cluster

  • واسط های کاربری برنامه AWS EMR Cluster

    را مرور کنید
  • نظارت خوشه AWS EMR را مرور کنید

  • بررسی سخت افزار AWS EMR Cluster and Cluster Scaling Policy

  • پیکربندی‌های خوشه AWS EMR را مرور کنید

  • رویدادهای AWS EMR Cluster

    را مرور کنید
  • مرحله‌های AWS EMR Cluster

    را مرور کنید
  • اقدامات بوت استرپ AWS EMR Cluster

    را مرور کنید
  • اتصال به گره اصلی AWS EMR با استفاده از SSH

  • غیرفعال کردن حفاظت خاتمه برای خوشه AWS EMR و خاتمه دادن به خوشه AWS EMR

  • کلون کنید و یک خوشه AWS EMR جدید ایجاد کنید

  • لیست کردن سطل ها و اشیاء AWS S3 با استفاده از AWS CLI در خوشه AWS EMR

  • لیست کردن سطل ها و اشیاء AWS S3 با استفاده از HDFS CLI در خوشه AWS EMR

  • مدیریت فایل‌ها در AWS S3 با استفاده از HDFS CLI در AWS EMR Cluster

  • پایگاه‌ها و جداول کاتالوگ چسب AWS را مرور کنید

  • دسترسی به پایگاه‌های داده و جداول کاتالوگ چسب AWS با استفاده از خوشه AWS EMR

  • دسترسی به spark-sql CLI خوشه AWS EMR

  • دسترسی به pyspark CLI خوشه AWS EMR

  • دسترسی به spark-shell CLI خوشه AWS EMR

  • خوشه AWS EMR را برای نوت بوک ایجاد کنید

استقرار برنامه‌های Spark با استفاده از AWS EMR

به عنوان بخشی از این بخش، نحوه استقرار Spark Applications را با استفاده از AWS EMR درک خواهیم کرد. ما از برنامه Spark که قبلاً استفاده کرده بودیم استفاده خواهیم کرد.

  • استقرار برنامه‌ها با استفاده از AWS EMR - مقدمه

  • دسته AWS EMR را برای استقرار برنامه‌ها راه‌اندازی کنید

  • تأیید اتصال SSH به گره اصلی خوشه AWS EMR

  • تنظیم محیط نوت بوک Jupyter در AWS EMR Cluster

  • ایجاد سطل AWS s3 مورد نیاز برای AWS EMR Cluster

  • داده‌های GHActivity را در s3 آپلود کنید تا بتوانیم با استفاده از Spark Application مستقر در AWS EMR Cluster پردازش کنیم

  • تأیید اعتبار برنامه با استفاده از نسخه های سازگار با AWS EMR Python و Spark

  • برنامه Spark را در AWS EMR Master Node مستقر کنید

  • ایجاد فضای کاربری برای ec2-user در AWS EMR Cluster

  • اجرای Spark Application با استفاده از spark-submit در AWS EMR Master Node

  • تأیید اعتبار داده ها با استفاده از نوت بوک های Jupyter در AWS EMR Cluster

  • کلون و شروع خودکار خاتمه یافته AWS EMR Cluster

  • حذف داده های پر شده توسط GHAcitivity Application با استفاده از AWS EMR Cluster

  • تفاوت‌های Spark Client و حالت‌های استقرار کلاستر در AWS EMR Cluster

  • اجرای برنامه Spark با استفاده از حالت کلاستر در AWS EMR Cluster

  • نمای کلی از افزودن برنامه Pyspark به عنوان مرحله به خوشه AWS EMR

  • برنامه Spark را در AWS S3 اجرا کنید تا با استفاده از مراحل AWS EMR اجرا شود

  • اجرای برنامه های Spark به عنوان مراحل AWS EMR در حالت مشتری

  • اجرای برنامه های Spark به عنوان مراحل AWS EMR در حالت خوشه

  • تأیید اعتبار AWS EMR Step Execution of Spark Application

خط لوله انتقال داده جریانی با استفاده از AWS Kinesis

به‌عنوان بخشی از این بخش، جزئیات مربوط به خط لوله انتقال داده‌های جریانی را با استفاده از AWS Kinesis که یک سرویس پخش سرویس‌های تجزیه و تحلیل داده‌های AWS است، بررسی می‌کنیم. ما از AWS Kinesis Firehose Agent و AWS Kinesis Delivery Stream برای خواندن داده‌ها از فایل‌های گزارش و وارد کردن آن به AWS s3 استفاده می‌کنیم.

  • ساخت خط لوله جریان با استفاده از AWS Kinesis Firehose Agent و Delivery Stream

  • گزارش‌های چرخشی به‌گونه‌ای که فایل‌ها به طور مکرر ایجاد می‌شوند که در نهایت با استفاده از AWS Kinesis Firehose Agent و AWS Kinesis Firehose Stream وارد می‌شوند

  • AWS Kinesis Firehose Agent را برای دریافت داده‌ها از گزارش‌ها به AWS Kinesis Delivery Stream تنظیم کنید.

  • جریان تحویل AWS Kinesis Firehose را ایجاد کنید

  • برنامه ریزی خط لوله برای ورود داده به s3 با استفاده از AWS Kinesis Delivery Stream

  • ایجاد گروه و کاربر AWS IAM برای خطوط لوله جریانی با استفاده از اجزای AWS Kinesis

  • اعطای مجوز به کاربر AWS IAM با استفاده از خط‌مشی برای خطوط لوله جریانی با استفاده از مؤلفه‌های AWS Kinesis

  • AWS Kinesis Firehose Agent را برای خواندن داده‌ها از فایل‌های گزارش و وارد کردن آن به AWS Kinesis Firehose Stream پیکربندی کنید.

  • عامل AWS Kinesis Firehose را شروع و اعتبار سنجی کنید

  • نتیجه‌گیری - ساخت خط لوله بخار ساده با استفاده از AWS Kinesis Firehose

مصرف داده از AWS s3 با استفاده از Python boto3 دریافت شده با استفاده از AWS Kinesis

از آنجایی که داده‌ها در AWS S3 وارد می‌شوند، خواهیم فهمید که چگونه داده‌های دریافت شده در AWS s3 را می‌توان با استفاده از boto3 پردازش کرد.

  • سفارشی کردن پوشه AWS s3 با استفاده از AWS Kinesis Delivery Stream

  • خط مشی AWS IAM را برای خواندن از AWS s3 Bucket ایجاد کنید

  • دسترسی به AWS s3 را با استفاده از AWS CLI تأیید کنید

  • محیط مجازی پایتون را برای کاوش boto3 راه اندازی کنید

  • تأیید اعتبار دسترسی به AWS s3 با استفاده از Python boto3

  • مطالب را از شی AWS s3 بخوانید

  • خواندن چندین شیء AWS s3

  • تعداد اشیاء AWS s3 را با استفاده از نشانگر بدست آورید

  • اندازه اشیاء AWS s3 را با استفاده از نشانگر دریافت کنید

پر کردن داده های GitHub به AWS Dynamodb

به عنوان بخشی از این بخش، خواهیم فهمید که چگونه می توانیم داده ها را با استفاده از Python به عنوان یک زبان برنامه نویسی در جداول AWS Dynamodb پر کنیم.

  • برای دریافت داده‌های GitHub به جداول AWS Dynamodb، کتابخانه‌های لازم را نصب کنید.

  • آشنایی با APIهای GitHub

  • تنظیم توکن GitHub API

  • درک محدودیت نرخ GitHub

  • مخزن جدید برای since

    ایجاد کنید
  • استخراج اطلاعات مورد نیاز با استفاده از پایتون

  • پردازش داده ها با استفاده از پایتون

  • برای ایجاد جداول AWS dynamodb با استفاده از boto3 مجوز اعطا کنید

  • جدول AWS Dynamodb ایجاد کنید

  • عملیات AWS Dynamodb CRUD

  • جدول AWS Dynamodb را پر کنید

  • عملیات دسته ای AWS Dynamodb

مروری بر Amazon AWS Athena

به عنوان بخشی از این بخش، نحوه شروع کار با AWS Athena با استفاده از کنسول وب AWS را خواهیم فهمید. ما همچنین بر روی عملیات DDL و DML یا CRUD اولیه با استفاده از AWS Athena Query Editor تمرکز خواهیم کرد.

  • شروع به کار با Amazon AWS Athena

  • بازنویسی سریع پایگاه های داده و جداول کاتالوگ چسب AWS

  • دسترسی به پایگاه‌های داده و جداول کاتالوگ AWS Glue با استفاده از ویرایشگر AWS Athena Query

  • با استفاده از AWS Athena یک پایگاه داده و جدول ایجاد کنید

  • داده ها را با استفاده از AWS Athena در جدول پر کنید

  • استفاده از CTAS برای ایجاد جداول با استفاده از AWS Athena

  • نمای کلی معماری Amazon AWS Athena

  • منابع آمازون AWS Athena و رابطه با Hive

  • یک جدول پارتیشن بندی شده با استفاده از AWS Athena ایجاد کنید

  • پرس و جو برای ستون پارتیشن بندی شده ایجاد کنید

  • با استفاده از AWS Athena در جداول پارتیشن بندی شده وارد کنید

  • تأیید پارتیشن بندی داده ها با استفاده از AWS Athena

  • جدول AWS Athena را رها کنید و فایل‌های داده را حذف کنید

  • جدول پارتیشن بندی شده را با استفاده از AWS Athena رها کنید

  • پارتیشن بندی داده ها در AWS Athena با استفاده از CTAS

Amazon AWS Athena با استفاده از AWS CLI

به عنوان بخشی از این بخش، نحوه تعامل با AWS Athena با استفاده از دستورات AWS CLI را خواهیم فهمید.

  • Amazon AWS Athena با استفاده از AWS CLI - مقدمه

  • کمک دریافت کنید و پایگاه های داده AWS Athena را با استفاده از AWS CLI فهرست کنید

  • مدیریت گروه‌های کاری AWS Athena با استفاده از AWS CLI

  • پرس و جوهای AWS Athena را با استفاده از AWS CLI اجرا کنید

  • متادیتا جدول AWS Athena را با استفاده از AWS CLI دریافت کنید

  • پرس و جوهای AWS Athena را با یک مکان سفارشی با استفاده از AWS CLI اجرا کنید

  • جدول AWS Athena را با استفاده از AWS CLI رها کنید

  • CTAS را تحت AWS Athena با استفاده از AWS CLI اجرا کنید

Amazon AWS Athena با استفاده از Python boto3

به عنوان بخشی از این بخش، نحوه تعامل با AWS Athena با استفاده از Python boto3 را خواهیم فهمید.

  • Amazon AWS Athena با استفاده از Python boto3 - مقدمه

  • شروع به مدیریت AWS Athena با استفاده از Python boto3

  • پایگاه های داده Amazon AWS Athena را با استفاده از Python boto3 فهرست کنید

  • جدول Amazon AWS Athena را با استفاده از Python boto3 فهرست کنید

  • Amazon AWS Athena Queries را با boto3 اجرا کنید

  • نتایج جستجوی AWS Athena را با استفاده از boto3 مرور کنید

  • تداوم نتایج جستجوی Amazon AWS Athena در مکان سفارشی با استفاده از boto3

  • پردازش نتایج جستجوی AWS Athena با استفاده از پاندا

  • CTAS را در مقابل Amazon AWS Athena با استفاده از Python boto3 اجرا کنید

شروع به کار با Amazon AWS Redshift

به عنوان بخشی از این بخش، نحوه شروع کار با AWS Redshift با استفاده از کنسول وب AWS را خواهیم فهمید. همچنین بر روی عملیات‌های اساسی DDL و DML یا CRUD با استفاده از ویرایشگر کوئری AWS Redshift تمرکز خواهیم کرد.

  • شروع به کار با Amazon AWS Redshift - مقدمه

  • خوشه AWS Redshift را با استفاده از آزمایش رایگان ایجاد کنید

  • اتصال به پایگاه داده با استفاده از AWS Redshift Query Editor

  • لیستی از جداول درخواست طرح اطلاعات را دریافت کنید

  • پرس و جوها را در برابر جداول AWS Redshift با استفاده از ویرایشگر کوئری اجرا کنید

  • جدول AWS Redshift را با استفاده از کلید اصلی ایجاد کنید

  • درج داده‌ها در جداول AWS Redshift

  • داده‌ها را در جداول AWS Redshift به‌روزرسانی کنید

  • حذف داده ها از جداول AWS Redshift

  • پرس و جوهای ذخیره شده را با استفاده از ویرایشگر پرس و جو به قرمز تغییر دهید

  • حذف AWS Redshift Cluster

  • بازیابی AWS Redshift Cluster از Snapshot

داده‌ها را از s3 در جداول AWS Redshift کپی کنید

به عنوان بخشی از این بخش، جزئیات مربوط به کپی کردن داده ها از s3 در جداول AWS Redshift با استفاده از دستور AWS Redshift Copy را بررسی خواهیم کرد.

  • داده‌ها را از s3 به AWS Redshift کپی کنید - مقدمه

  • داده ها را در s3 برای کپی AWS Redshift تنظیم کنید

  • کپی پایگاه داده و جدول برای دستور کپی AWS Redshift

  • ایجاد کاربر IAM با دسترسی کامل در s3 برای AWS Redshift Copy

  • برای کپی داده‌ها از s3 به جدول Redshift AWS، Command Copy را اجرا کنید

  • عیب‌یابی خطاهای مربوط به AWS Redshift Copy Command

  • برای کپی کردن از جدول s3 به AWS Redshift دستور Copy را اجرا کنید

  • با استفاده از جستارها در برابر جدول Redshift AWS اعتبارسنجی کنید

  • نمای کلی از دستور کپی AWS Redshift

  • نقش IAM را برای AWS Redshift برای دسترسی به s3 ایجاد کنید

  • داده ها را از s3 به جدول AWS Redshift با استفاده از نقش IAM کپی کنید

  • تنظیم JSON Dataset در s3 برای AWS Redshift Copy Command

  • داده‌های JSON را از s3 به جدول AWS Redshift با استفاده از IAM Role کپی کنید

برنامه ها را با استفاده از AWS Redshift Cluster توسعه دهید

به عنوان بخشی از این بخش، نحوه توسعه برنامه‌ها در برابر پایگاه‌های داده و جداول ایجاد شده به عنوان بخشی از AWS Redshift Cluster را خواهیم فهمید.

  • برنامه را با استفاده از AWS Redshift Cluster توسعه دهید - مقدمه

  • Ip الاستیک برای AWS Redshift Cluster اختصاص دهید

  • دسترسی عمومی را برای AWS Redshift Cluster فعال کنید

  • قوانین ورودی را در گروه امنیتی به‌روزرسانی کنید تا به AWS Redshift Cluster دسترسی پیدا کنید

  • ایجاد پایگاه داده و کاربر در AWS Redshift Cluster

  • با استفاده از psql به پایگاه داده در AWS Redshift متصل شوید

  • تغییر مالک در جداول AWS Redshift

  • فایل AWS Redshift JDBC Jar را دانلود کنید

  • اتصال به پایگاه های داده AWS Redshift با استفاده از IDE هایی مانند SQL Workbench

  • محیط مجازی پایتون را برای AWS Redshift راه اندازی کنید

  • پرس و جو ساده را در برابر جدول پایگاه داده AWS Redshift با استفاده از Python اجرا کنید

  • جدول AWS Redshift را با استفاده از Python کوتاه کنید

  • کاربر IAM را برای کپی کردن از s3 به جداول AWS Redshift ایجاد کنید

  • دسترسی کاربر IAM را با استفاده از Boto3 تأیید کنید

  • دستور کپی AWS Redshift را با استفاده از پایتون اجرا کنید

جداول AWS Redshift با Distkeys و Sortkeys

به عنوان بخشی از این بخش، ویژگی‌های خاص AWS Redshift مانند کلیدهای توزیع و کلیدهای مرتب‌سازی را برای ایجاد جداول AWS Redshift بررسی می‌کنیم.

  • جدول AWS Redshift با Distkeys و Sortkeys - مقدمه

  • بررسی سریع معماری AWS Redshift

  • خوشه AWS Redshift چند گره ای ایجاد کنید

  • با استفاده از ویرایشگر Query به AWS Redshift Cluster متصل شوید

  • ایجاد پایگاه داده AWS Redshift

  • کاربر پایگاه داده AWS Redshift ایجاد کنید

  • ایجاد طرحواره پایگاه داده AWS Redshift

  • سبک توزیع پیش‌فرض جدول AWS Redshift

  • اعطای مجوزهای انتخاب در کاتالوگ به کاربر پایگاه داده AWS Redshift

  • مسیر جستجو را برای درخواست جداول سیستم AWS Redshift به‌روزرسانی کنید

  • تأیید جدول AWS Redshift با DISTSTYLE AUTO

  • خوشه AWS Redshift را از Snapshot به حالت اصلی ایجاد کنید

  • نمای کلی Node Slices در AWS Redshift Cluster

  • نمای کلی از سبک های توزیع مربوط به جداول AWS Redshift

  • استراتژی‌های توزیع برای جداول خرده‌فروشی در پایگاه‌های داده AWS Redshift

  • جدول AWS Redshift را با سبک توزیع همه ایجاد کنید

  • عیب‌یابی و رفع خطاهای بارگیری یا کپی کردن

  • جدول AWS Redshift با خودکار سبک توزیع ایجاد کنید

  • جدول AWS Redshift را با استفاده از کلید سبک توزیع ایجاد کنید

  • خوشه AWS Redshift را با یک عکس فوری دستی حذف کنید

پرس‌وجوها و طیف فدرال AWS Redshift

به عنوان بخشی از این بخش، برخی از ویژگی های پیشرفته Redshift مانند AWS Redshift Federated Queries و AWS Redshift Spectrum را بررسی خواهیم کرد.

  • پرسش‌ها و طیف فدرال AWS Redshift - مقدمه

  • نمای کلی ادغام AWS RDS و AWS Redshift برای جستجوهای فدرال

  • نقش IAM را برای AWS Redshift Cluster ایجاد کنید

  • راه اندازی سرور پایگاه داده Postgres برای پرس و جوهای فدرال AWS Redshift

  • ایجاد جداول در پایگاه داده Postgres برای جستارهای فدرال AWS Redshift

  • ایجاد راز با استفاده از Secrets Manager برای پایگاه داده Postgres

  • دسترسی به جزئیات مخفی با استفاده از Python Boto3

  • خواندن داده‌های Json در Dataframe با استفاده از پاندا

  • نوشتن داده های JSON در جداول پایگاه داده AWS Redshift با استفاده از پاندا

  • خط مشی AWS IAM را برای Secret ایجاد کنید و با Redshift Role مرتبط شوید

  • ایجاد AWS Redshift Cluster با استفاده از AWS IAM Role با مجوزهای Secret

  • طرحواره خارجی AWS Redshift را در پایگاه داده Postgres ایجاد کنید

  • تنظیمات شبکه AWS Redshift Cluster را برای جستارهای فدرال به‌روزرسانی کنید

  • اجرای ETL با استفاده از جستارهای فدرال AWS Redshift

  • منابع اضافه شده برای جستارهای فدرال AWS Redshift را پاک کنید

  • اعطای دسترسی به کاتالوگ داده چسب AWS به AWS Redshift Cluster for Spectrum

  • دسته‌های AWS Redshift را برای اجرای پرس‌وجوها با استفاده از Spectrum تنظیم کنید

  • بازنویسی سریع پایگاه داده و جداول کاتالوگ چسب AWS برای طیف AWS Redshift

  • با استفاده از AWS Redshift Spectrum طرحواره خارجی ایجاد کنید

  • پرس و جوها را با استفاده از AWS Redshift Spectrum اجرا کنید

  • خوشه AWS Redshift را پاکسازی کنید


سرفصل ها و درس ها

معرفی دوره Introduction to the course

  • مقدمه ای بر مهندسی داده با استفاده از سرویس های AWS Analytics Introduction to Data Engineering using AWS Analytics Services

  • سخنرانی های ویدیویی و مواد مرجع Video Lectures and Reference Material

  • گذراندن دوره Udemy برای کاربران جدید Udemy Taking the Udemy Course for new Udemy Users

  • هزینه های اضافی برای زیرساخت AWS برای تمرین عملی Additional Costs for AWS Infrastructure for Hands-on Practice

  • برای حساب AWS ثبت نام کنید Signup for AWS Account

  • ورود به حساب AWS Logging in into AWS Account

  • مروری بر داشبورد صورت‌حساب AWS - کاوشگر هزینه و بودجه Overview of AWS Billing Dashboard - Cost Explorer and Budgets

تنظیم محیط توسعه محلی برای AWS در ویندوز 10 یا ویندوز 11 Setup Local Development Environment for AWS on Windows 10 or Windows 11

  • تنظیم محیط محلی در ویندوز برای AWS Setup Local Environment on Windows for AWS

  • نمای کلی Powershell در ویندوز 10 یا ویندوز 11 Overview of Powershell on Windows 10 or Windows 11

  • راه اندازی Ubuntu VM در ویندوز 10 یا 11 با استفاده از wsl Setup Ubuntu VM on Windows 10 or 11 using wsl

  • راه اندازی Ubuntu VM در ویندوز 10 یا 11 با استفاده از wsl - Contd... Setup Ubuntu VM on Windows 10 or 11 using wsl - Contd...

  • پایتون venv و pip را در اوبونتو راه اندازی کنید Setup Python venv and pip on Ubuntu

  • AWS CLI را در ویندوز و اوبونتو با استفاده از Pip راه اندازی کنید Setup AWS CLI on Windows and Ubuntu using Pip

  • AWS IAM User و بارگیری اعتبار ایجاد کنید Create AWS IAM User and Download Credentials

  • AWS CLI را در ویندوز پیکربندی کنید Configure AWS CLI on Windows

  • ایجاد محیط مجازی پایتون برای پروژه های AWS Create Python Virtual Environment for AWS Projects

  • Boto3 را به عنوان بخشی از محیط مجازی پایتون راه اندازی کنید Setup Boto3 as part of Python Virtual Environment

  • راه اندازی آزمایشگاه Jupyter و اعتبارسنجی boto3 Setup Jupyter Lab and Validate boto3

تنظیم محیط توسعه محلی برای AWS در مک Setup Local Development Environment for AWS on Mac

  • تنظیم محیط محلی برای AWS در مک Setup Local Environment for AWS on Mac

  • AWS CLI را در مک راه اندازی کنید Setup AWS CLI on Mac

  • کاربر AWS IAM را برای پیکربندی AWS CLI تنظیم کنید Setup AWS IAM User to configure AWS CLI

  • AWS CLI را با استفاده از اعتبار کاربری IAM پیکربندی کنید Configure AWS CLI using IAM User Credentials

  • راه اندازی محیط مجازی پایتون در مک با استفاده از پایتون 3 Setup Python Virtual Environment on Mac using Python 3

  • Boto3 را به عنوان بخشی از محیط مجازی پایتون راه اندازی کنید Setup Boto3 as part of Python Virtual Environment

  • Boto3 را به عنوان بخشی از محیط مجازی پایتون راه اندازی کنید Setup Boto3 as part of Python Virtual Environment

  • راه اندازی آزمایشگاه Jupyter و اعتبارسنجی boto3 Setup Jupyter Lab and Validate boto3

تنظیم محیط برای تمرین با استفاده از Cloud9 Setup Environment for Practice using Cloud9

  • مقدمه ای بر Cloud9 Introduction to Cloud9

  • راه اندازی Cloud9 Setup Cloud9

  • نمای کلی Cloud9 IDE Overview of Cloud9 IDE

  • Docker و AWS CLI در Cloud9 Docker and AWS CLI on Cloud9

  • Cloud9 و EC2 Cloud9 and EC2

  • دسترسی به برنامه های کاربردی وب Accessing Web Applications

  • تخصیص و اختصاص IP استاتیک Allocate and Assign Static IP

  • تغییر مجوزها با استفاده از سیاست های IAM Changing Permissions using IAM Policies

  • افزایش اندازه حجم EBS Increasing Size of EBS Volume

  • باز کردن پورت ها برای Cloud9 Instance Opening ports for Cloud9 Instance

  • راه اندازی آزمایشگاه Jupyter در Cloud9 Instance Setup Jupyter lab on Cloud9 Instance

  • پورت SSH را برای نمونه Cloud9 EC2 باز کنید Open SSH Port for Cloud9 EC2 Instance

  • با استفاده از SSH به Cloud9 EC2 Instance متصل شوید Connect to Cloud9 EC2 Instance using SSH

AWS شروع به کار با s3، IAM و CLI AWS Getting Started with s3, IAM and CLI

  • مقدمه - شروع AWS Introduction - AWS Getting Started

  • [دستورالعمل ها] مقدمه - شروع AWS [Instructions] Introduction - AWS Getting Started

  • با استفاده از کنسول وب AWS سطل AWS s3 ایجاد کنید Create AWS s3 Bucket using AWS Web Console

  • [دستورالعمل ها] سطل s3 را ایجاد کنید [Instructions] Create s3 Bucket

  • گروه و کاربر AWS IAM را با استفاده از کنسول وب AWS ایجاد کنید Create AWS IAM Group and User using AWS Web Console

  • [دستورالعمل ها] گروه و کاربر IAM را ایجاد کنید [Instructions] Create IAM Group and User

  • مروری بر نقش‌های AWS IAM برای اعطای مجوز بین سرویس‌های AWS Overview of AWS IAM Roles to grant permissions between AWS Services

  • [دستورالعمل ها] مروری بر نقش ها [Instructions] Overview of Roles

  • خط مشی سفارشی AWS IAM را با استفاده از کنسول وب AWS ایجاد و پیوست کنید Create and Attach AWS IAM Custom Policy using AWS Web Console

  • [دستورالعمل ها و کد] خط مشی سفارشی را ایجاد و پیوست کنید [Instructions and Code] Create and Attach Custom Policy

  • برای اجرای دستورات AWS، رابط خط فرمان AWS را پیکربندی و اعتبارسنجی کنید Configure and Validate AWS Command Line Interface to run AWS Commands

  • [دستورالعمل ها و کد] AWS CLI را پیکربندی و اعتبار سنجی کنید [Instructions and Code] Configure and Validate AWS CLI

Storage - Deep Dive into AWS Simple Storage Service با نام مستعار s3 Storage -Deep Dive into AWS Simple Storage Service aka s3

  • شروع کار با AWS Simple Storage با نام S3 Getting Started with AWS Simple Storage aka S3

  • [دستورالعمل ها] شروع به کار با AWS S3 [Instructions] Getting Started with AWS S3

  • تنظیم داده ها به صورت محلی برای آپلود در AWS s3 Setup Data Set locally to upload into AWS s3

  • [دستورالعمل ها] تنظیم داده ها به صورت محلی برای آپلود در AWS s3 [Instructions] Setup Data Set locally to upload into AWS s3

  • افزودن سطل ها و اشیاء AWS S3 با استفاده از کنسول وب AWS Adding AWS S3 Buckets and Objects using AWS Web Console

  • [دستورالعمل] افزودن سطل ها و اشیاء AWS s3 [Instruction] Adding AWS s3 Buckets and Objects

  • کنترل نسخه اشیاء یا فایل های AWS S3 Version Control of AWS S3 Objects or Files

  • [دستورالعمل ها] کنترل نسخه در AWS S3 [Instructions] Version Control in AWS S3

  • AWS S3 Cross-Region Replication برای تحمل خطا AWS S3 Cross-Region Replication for fault tolerance

  • [دستورالعمل ها] AWS S3 Cross-Region Replication برای تحمل خطا [Instructions] AWS S3 Cross-Region Replication for fault tolerance

  • مروری بر کلاس های ذخیره سازی AWS S3 یا سطوح ذخیره سازی Overview of AWS S3 Storage Classes or Storage Tiers

  • [دستورالعمل ها] مروری بر کلاس های ذخیره سازی AWS S3 یا سطوح ذخیره سازی [Instructions] Overview of AWS S3 Storage Classes or Storage Tiers

  • نمای کلی Glacier در AWS s3 Overview of Glacier in AWS s3

  • [دستورالعمل ها] نمای کلی Glacier در AWS s3 [Instructions] Overview of Glacier in AWS s3

  • مدیریت سطل ها و اشیاء AWS S3 با استفاده از AWS CLI Managing AWS S3 buckets and objects using AWS CLI

  • [دستورالعمل ها و دستورات] مدیریت سطل ها و اشیاء AWS S3 با استفاده از AWS CLI [Instructions and Commands] Managing AWS S3 buckets and objects using AWS CLI

  • مدیریت اشیاء در AWS S3 با استفاده از AWS CLI - Lab Managing Objects in AWS S3 using AWS CLI - Lab

  • [دستورالعمل ها] مدیریت اشیاء در AWS S3 با استفاده از AWS CLI - Lab [Instructions] Managing Objects in AWS S3 using AWS CLI - Lab

امنیت AWS با استفاده از IAM - مدیریت کاربران، نقش‌ها و سیاست‌های AWS با استفاده از AWS IAM AWS Security using IAM - Managing AWS Users, Roles and Policies using AWS IAM

  • ایجاد کاربران AWS IAM با دسترسی برنامه‌نویسی و کنسول وب Creating AWS IAM Users with Programmatic and Web Console Access

  • [دستورالعمل ها] ایجاد کاربران IAM [Instructions] Creating IAM Users

  • ورود به کنسول مدیریت AWS با استفاده از AWS IAM User Logging into AWS Management Console using AWS IAM User

  • [دستورالعمل ها] ورود به کنسول مدیریت AWS با استفاده از IAM User [Instructions] Logging into AWS Management Console using IAM User

  • اعتبارسنجی دسترسی برنامه‌ای به کاربر AWS IAM از طریق AWS CLI Validate Programmatic Access to AWS IAM User via AWS CLI

  • [دستورالعمل‌ها و دستورات] اعتبار دسترسی برنامه‌ای به کاربر IAM را تأیید کنید [Instructions and Commands] Validate Programmatic Access to IAM User

  • شروع با سیاست های مبتنی بر هویت AWS IAM Getting Started with AWS IAM Identity-based Policies

  • [دستورالعمل ها و دستورات] سیاست های مبتنی بر هویت IAM [Instructions and Commands] IAM Identity-based Policies

  • مدیریت گروه های کاربری AWS IAM Managing AWS IAM User Groups

  • [دستورالعمل ها و دستورات] مدیریت گروه های IAM [Instructions and Commands] Managing IAM Groups

  • مدیریت نقش های AWS IAM برای دسترسی سطح سرویس Managing AWS IAM Roles for Service Level Access

  • [دستورالعمل ها و دستورات] مدیریت نقش های IAM [Instructions and Commands] Managing IAM Roles

  • مروری بر سیاست های سفارشی AWS برای اعطای مجوز به کاربران، گروه ها و نقش ها Overview of AWS Custom Policies to grant permissions to Users, Groups, and Roles

  • [دستورالعمل ها و دستورات] مروری بر سیاست های سفارشی [Instructions and Commands] Overview of Custom Policies

  • مدیریت گروه ها، کاربران و نقش های AWS IAM با استفاده از AWS CLI Managing AWS IAM Groups, Users, and Roles using AWS CLI

  • [دستورالعمل ها و دستورات] مدیریت IAM با استفاده از AWS CLI [Instructions and Commands] Managing IAM using AWS CLI

زیرساخت - شروع به کار با AWS Elastic Cloud Compute با نام مستعار EC2 Infrastructure - Getting Started with AWS Elastic Cloud Compute aka EC2

  • شروع کار با AWS Elastic Cloud Compute با نام EC2 Getting Started with AWS Elastic Cloud Compute aka EC2

  • [دستورالعمل ها] شروع به کار با EC2 [Instructions] Getting Started with EC2

  • جفت کلید AWS EC2 برای دسترسی SSH ایجاد کنید Create AWS EC2 Key Pair for SSH Access

  • [دستورالعمل ها] جفت کلید EC2 ایجاد کنید [Instructions] Create EC2 Key Pair

  • AWS EC2 Instance یا Virtual Machine را راه اندازی کنید Launch AWS EC2 Instance or Virtual Machine

  • [دستورالعمل ها] نمونه EC2 را راه اندازی کنید [Instructions] Launch EC2 Instance

  • اتصال به نمونه AWS EC2 یا ماشین مجازی با استفاده از SSH Connecting to AWS EC2 Instance or Virtual Machine using SSH

  • [دستورالعمل ها و دستورات] اتصال به نمونه EC2 [Instructions and Commands] Connecting to EC2 Instance

  • مروری بر گروه‌های امنیتی AWS برای امنیت فایروال نمونه AWS EC2 Overview of AWS Security Groups for firewall security of AWS EC2 Instance

  • [دستورالعمل ها و دستورات] مبانی گروه های امنیتی [Instructions and Commands] Security Groups Basics

  • مروری بر آدرس های IP عمومی و خصوصی نمونه AWS EC2 Overview of Public and Private IP Addresses of AWS EC2 Instance

  • [دستورالعمل ها] آدرس های IP عمومی و خصوصی [Instructions] Public and Private IP Addresses

  • آشنایی با نمونه AWS EC2 یا چرخه عمر ماشین مجازی Understanding AWS EC2 Instance or Virtual Machine Life Cycle

  • [دستورالعمل] چرخه زندگی EC2 [Instructions] EC2 Life Cycle

  • تخصیص و تخصیص AWS Elastic IP یا آدرس IP Static به نمونه AWS EC2 Allocating and Assigning AWS Elastic IP or Static IP address to AWS EC2 Instance

  • [دستورالعمل ها] تخصیص و تخصیص آدرس های IP الاستیک [Instructions] Allocating and Assigning Elastic IP Addresses

  • مدیریت نمونه های AWS EC2 یا ماشین های مجازی با استفاده از AWS CLI Managing AWS EC2 Instances or Virtual Machines Using AWS CLI

  • [دستورالعمل ها و دستورات] مدیریت EC2 با استفاده از AWS CLI [Instructions and Commands] Managing EC2 Using AWS CLI

  • ارتقا یا تنزل نمونه های AWS EC2 یا ماشین های مجازی Upgrade or Downgrade of AWS EC2 Instances or Virtual Machines

  • [دستورالعمل ها و دستورات] موارد EC2 را ارتقا یا کاهش دهید [Instructions and Commands] Upgrade or Downgrade EC2 Instances

زیرساخت - AWS EC2 Advanced Infrastructure - AWS EC2 Advanced

  • درک نمونه AWS EC2 یا فراداده ماشین مجازی Understanding AWS EC2 Instance or Virtual Machine Metadata

  • [دستورالعمل ها و دستورات] درک فراداده EC2 [Instructions and Commands] Understanding EC2 Metadata

  • پرس و جو در نمونه AWS EC2 یا فراداده ماشین مجازی Querying on AWS EC2 Instance or Virtual Machine Metadata

  • [دستورالعمل ها و دستورات] پرس و جو در فراداده EC2 [Instructions and Commands] Querying on EC2 Metadata

  • فیترینگ در نمونه AWS EC2 یا فراداده ماشین مجازی Fitering on AWS EC2 Instance or Virtual Machine Metadata

  • [دستورالعمل ها و دستورات] فیلتر کردن بر روی فراداده EC2 [Instructions and Commands] Filtering on EC2 Metadata

  • استفاده از اسکریپت های بوت استرپینگ در نمونه AWS EC2 یا ماشین مجازی Using Bootstrapping Scripts on AWS EC2 Instance or Virtual Machine

  • [دستورالعمل ها و دستورات] با استفاده از اسکریپت های بوت استرپینگ [Instructions and Commands] Using Bootstrapping Scripts

  • با استفاده از نمونه AWS EC2 یک تصویر ماشین آمازون با نام AMI ایجاد کنید Create an Amazon Machine Image aka AMI using AWS EC2 Instance

  • [دستورالعمل ها و دستورات] یک AMI ایجاد کنید [Instructions and Commands] Create an AMI

  • اعتبارسنجی تصویر ماشین آمازون با نام AMI - Lab Validate Amazon Machine Image aka AMI - Lab

  • [دستورالعمل ها و دستورات] اعتبارسنجی AMI - Lab [Instructions and Commands] Validate AMI - Lab

بلع داده ها با استفاده از توابع لامبدا Data Ingestion using Lambda Functions

  • Hello World با استفاده از AWS Lambda Hello World using AWS Lambda

  • [دستورالعمل ها] Hello World با استفاده از AWS Lambda [Instructions] Hello World using AWS Lambda

  • پروژه راه اندازی برای توسعه محلی Setup Project for local development

  • [دستورالعمل ها و کد] پروژه راه اندازی برای توسعه محلی [Instructions and Code] Setup Project for local development

  • استقرار پروژه در کنسول AWS Lambda Deploy Project to AWS Lambda console

  • [دستورالعمل ها و کد] پروژه را در کنسول AWS Lambda اجرا کنید [Instructions and Code] Deploy Project to AWS Lambda console

  • قابلیت دانلود را با استفاده از درخواست ها توسعه دهید Develop download functionality using requests

  • [دستورالعمل ها و کد] قابلیت دانلود را با استفاده از درخواست ها توسعه دهید [Instructions and Code] Develop download functionality using requests

  • استفاده از کتابخانه های شخص ثالث در AWS Lambda Using 3rd party libraries in AWS Lambda

  • [دستورالعمل ها و کد] استفاده از کتابخانه های شخص ثالث در AWS Lambda [Instructions and Code] Using 3rd party libraries in AWS Lambda

  • اعتبار سنجی دسترسی s3 برای توسعه محلی Validating s3 access for local development

  • [دستورالعمل ها و کد] اعتبار سنجی دسترسی s3 برای توسعه محلی [Instructions and Code] Validating s3 access for local development

  • قابلیت آپلود را در s3 توسعه دهید Develop upload functionality to s3

  • [دستورالعمل ها و کد] قابلیت آپلود را در s3 توسعه دهید [Instructions and Code] Develop upload functionality to s3

  • اعتبارسنجی با استفاده از کنسول AWS Lambda Validating using AWS Lambda Console

  • [دستورالعمل ها و کد] اعتبارسنجی با استفاده از کنسول AWS Lambda [Instructions and Code] Validating using AWS Lambda Console

  • با استفاده از کنسول AWS Lambda اجرا کنید Run using AWS Lambda Console

  • [دستورالعمل ها] با استفاده از کنسول AWS Lambda اجرا شود [Instructions] Run using AWS Lambda Console

  • اعتبار سنجی فایل ها به صورت تدریجی Validating files incrementally

  • [دستورالعمل ها و کد] اعتبار سنجی فایل ها به صورت تدریجی [Instructions and Code] Validating files incrementally

  • خواندن و نوشتن نشانک با استفاده از s3 Reading and Writing Bookmark using s3

  • [دستورالعمل ها و کد] خواندن و نوشتن نشانک با استفاده از s3 [Instructions and Code] Reading and Writing Bookmark using s3

  • حفظ نشانک با استفاده از s3 Maintaining Bookmark using s3

  • [دستورالعمل ها و کد] حفظ نشانک با استفاده از s3 [Instructions and Code] Maintaining Bookmark using s3

  • منطق آپلود افزایشی را مرور کنید Review the incremental upload logic

  • استقرار تابع لامبدا Deploying lambda function

  • [دستورالعمل ها و کد منبع] - ghactivity-downloader Function Lambda [Instructions and Source Code] - ghactivity-downloader Lambda Function

  • با استفاده از AWS Event Bridge، عملکرد لامبدا را برنامه ریزی کنید Schedule Lambda Function using AWS Event Bridge

  • [دستورالعمل ها] عملکرد Lambda را با استفاده از AWS Event Bridge برنامه ریزی کنید [Instructions] Schedule Lambda Function using AWS Event Bridge

چرخه حیات توسعه برای Pyspark Development Lifecycle for Pyspark

  • محیط مجازی را راه اندازی کرده و Pyspark را نصب کنید Setup Virtual Environment and Install Pyspark

  • [فرمان ها] - محیط مجازی را راه اندازی کرده و Pyspark را نصب کنید [Commands] - Setup Virtual Environment and Install Pyspark

  • شروع با Pycharm Getting Started with Pycharm

  • [کد و دستورالعمل] - شروع به کار با Pycharm [Code and Instructions] - Getting Started with Pycharm

  • گذراندن آرگومان های زمان اجرا Passing Run Time Arguments

  • دسترسی به متغیرهای محیط سیستم عامل Accessing OS Environment Variables

  • شروع کار با Spark Getting Started with Spark

  • ایجاد تابع برای Spark Session Create Function for Spark Session

  • [کد و دستورالعمل] - ایجاد عملکرد برای Spark Session [Code and Instructions] - Create Function for Spark Session

  • داده های نمونه را تنظیم کنید Setup Sample Data

  • خواندن داده ها از فایل ها Read data from files

  • [کد و دستورالعمل] - داده ها را از فایل ها بخوانید [Code and Instructions] - Read data from files

  • پردازش داده ها با استفاده از Spark API Process data using Spark APIs

  • [کد و دستورالعمل ها] - پردازش داده ها با استفاده از Spark API [Code and Instructions] - Process data using Spark APIs

  • نوشتن داده ها در فایل ها Write data to files

  • [کد و دستورالعمل] - داده ها را در فایل ها بنویسید [Code and Instructions] - Write data to files

  • اعتبار سنجی نوشتن داده ها در فایل ها Validating Writing Data to Files

  • تولید کد Productionizing the Code

  • [کد و دستورالعمل] - تولید کد [Code and Instructions] - Productionizing the code

مروری بر اجزای چسب Overview of Glue Components

  • مقدمه - مروری بر اجزای چسب Introduction - Overview of Glue Components

  • [دستورالعمل] مروری بر اجزای چسب [Instructions] Overview of Glue Components

  • جدول خزنده و کاتالوگ را ایجاد کنید Create Crawler and Catalog Table

  • [دستورالعمل ها] جدول خزنده و کاتالوگ را ایجاد کنید [Instructions] Create Crawler and Catalog Table

  • تجزیه و تحلیل داده ها با استفاده از آتنا Analyze Data using Athena

  • [دستورالعمل ها] تجزیه و تحلیل داده ها با استفاده از آتنا [Instructions] Analyze Data using Athena

  • ایجاد سطل و نقش S3 Creating S3 Bucket and Role

  • [دستورالعمل ها و کد] ایجاد سطل و نقش S3 [Instructions and Code] Creating S3 Bucket and Role

  • کار چسب را ایجاد و اجرا کنید Create and Run the Glue Job

  • [دستورالعمل ها] کار چسب را ایجاد و اجرا کنید [Instructions] Create and Run the Glue Job

  • با استفاده از Glue CatalogTable و Athena اعتبارسنجی کنید Validate using Glue CatalogTable and Athena

  • [دستورالعمل ها و کد] با استفاده از Glue CatalogTable و Athena اعتبارسنجی کنید [Instructions and Code] Validate using Glue CatalogTable and Athena

  • ایجاد و اجرای چسب ماشه Create and Run Glue Trigger

  • [دستورالعمل ها و کد] ماشه چسب را ایجاد و اجرا کنید [Instructions and Code] Create and Run Glue Trigger

  • گردش کار چسب ایجاد کنید Create Glue Workflow

  • [دستورالعمل ها] گردش کار چسب را ایجاد کنید [Instructions] Create Glue Workflow

  • Glue Workflow را اجرا و اعتبارسنجی کنید Run Glue Workflow and Validate

  • [دستورالعمل] گردش کار چسب را اجرا و اعتبار سنجی کنید [Instructions] Run Glue Workflow and Validate

سرور Spark History را برای Glue Jobs راه اندازی کنید Setup Spark History Server for Glue Jobs

  • مقدمه - Spark History Server for Glue Introduction - Spark History Server for Glue

  • سرور Spark History را در AWS راه اندازی کنید Setup Spark History Server on AWS

  • کلون AWS Glue Samples Repository Clone AWS Glue Samples repository

  • [دستورالعمل ها و کد] مخزن نمونه چسب AWS را کلون کنید [Instructions and Code] Clone AWS Glue Samples repository

  • کانتینر رابط کاربری Glue Spark را بسازید Build Glue Spark UI Container

  • [دستورالعمل ها و کد] کانتینر رابط کاربری چسب اسپارک [Instructions and Code] Build Glue Spark UI Container

  • مجوزهای سیاست IAM را به روز کنید Update IAM Policy Permissions

  • کانتینر Glue Spark UI را راه اندازی کنید Start Glue Spark UI Container

  • [دستورالعمل ها و کد] محفظه رابط کاربری Glue Spark [Instructions and Code] Start Glue Spark UI Container

فرو رفتن عمیق در کاتالوگ چسب Deep Dive into Glue Catalog

  • پیش نیاز جداول کاتالوگ چسب Prerequisites for Glue Catalog Tables

  • [دستورالعمل] پیش نیاز جداول کاتالوگ چسب [Instructions] Prerequisites for Glue Catalog Tables

  • مراحل ایجاد جداول کاتالوگ Steps for Creating Catalog Tables

  • [دستورالعمل ها] مراحل ایجاد جداول کاتالوگ [Instructions] Steps for Creating Catalog Tables

  • مجموعه داده را دانلود کنید Download Data Set

  • [دستورالعمل ها و کد] مجموعه داده را دانلود کنید [Instructions and Code] Download Data Set

  • آپلود اطلاعات در s3 Upload data to s3

  • [دستورالعمل ها و کد] داده ها را در s3 آپلود کنید [Instructions and Code] Upload data to s3

  • ایجاد پایگاه داده کاتالوگ چسب - itvghlandingdb Create Glue Catalog Database - itvghlandingdb

  • [دستورالعمل ها] ایجاد پایگاه داده کاتالوگ چسب - itvghlandingdb [Instructions] Create Glue Catalog Database - itvghlandingdb

  • ایجاد جدول کاتالوگ چسب - ghactivity Create Glue Catalog Table - ghactivity

  • [دستورالعمل ها] جدول کاتالوگ چسب ایجاد کنید - ghactivity [Instructions] Create Glue Catalog Table - ghactivity

  • اجرای کوئری ها با استفاده از Athena - ghactivity Running Queries using Athena - ghactivity

  • [دستورالعمل ها و کد] اجرای پرس و جوها با استفاده از Athena - ghactivity [Instructions and Code] Running Queries using Athena - ghactivity

  • خزیدن چندین پوشه Crawling Multiple Folders

  • [دستورالعمل] خزیدن پوشه های متعدد [Instructions] Crawling Multiple Folders

  • مدیریت کاتالوگ چسب با استفاده از AWS CLI Managing Glue Catalog using AWS CLI

  • [دستورالعمل ها و کد] مدیریت کاتالوگ چسب با استفاده از AWS CLI [Instructions and Code] Managing Glue Catalog using AWS CLI

  • مدیریت کاتالوگ چسب با استفاده از Python Boto3 Managing Glue Catalog using Python Boto3

  • [دستورالعمل ها و کد] مدیریت کاتالوگ چسب با استفاده از Python Boto3 [Instructions and Code] Managing Glue Catalog using Python Boto3

کاوش APIهای Glue Job Exploring Glue Job APIs

  • IAM Role for Glue Job را به روز کنید Update IAM Role for Glue Job

  • [دستورالعمل ها و کد] نقش IAM را برای Glue Job به روز کنید [Instructions and Code] Update IAM Role for Glue Job

  • ایجاد کار چسب پایه Generate baseline Glue Job

  • [دستورالعمل ها و کد] کار چسب پایه را ایجاد کنید [Instructions and Code] Generate baseline Glue Job

  • اجرای کار چسب پایه Running baseline Glue Job

  • [دستورالعمل ها] اجرای کار چسب خط پایه [Instructions] Running baseline Glue Job

  • اسکریپت چسب برای پارتیشن بندی داده ها Glue Script for Partitioning Data

  • [دستورالعمل ها و کد] اسکریپت چسب برای پارتیشن بندی داده ها [Instructions and Code] Glue Script for Partitioning Data

  • اعتبارسنجی با استفاده از آتنا Validating using Athena

  • [دستورالعمل ها و کد] اعتبارسنجی با استفاده از آتنا [Instructions and Code] Validating using Athena

چسب نشانک های شغلی Glue Job Bookmarks

  • مقدمه ای بر نشانگرهای کار چسب Introduction to Glue Job Boomarks

  • پاک کردن داده ها Cleaning up the data

  • [دستورالعمل ها و کد] پاک کردن داده ها [Instructions and Code] Cleaning up the data

  • نمای کلی AWS Glue CLI Overview of AWS Glue CLI

  • [دستورالعمل ها و کد] نمای کلی AWS Glue CLI [Instructions and Code] Overview of AWS Glue CLI

  • کار را با استفاده از نشانک اجرا کنید Run Job using Bookmark

  • [دستورالعمل ها و کد] کار را با استفاده از نشانک اجرا کنید [Instructions and Code] Run Job using Bookmark

  • نشانک را با استفاده از AWS CLI اعتبار سنجی کنید Validate Bookmark using AWS CLI

  • [دستورالعمل ها و کد] نشانک را با استفاده از AWS CLI اعتبار سنجی کنید [Instructions and Code] Validate Bookmark using AWS CLI

  • داده های جدید را به فرود اضافه کنید Add new data to landing

  • [دستورالعمل ها و کد] داده های جدید را به فرود اضافه کنید [Instructions and Code] Add new data to landing

  • Glue Job را با استفاده از نشانک اجرا کنید Rerun Glue Job using Bookmark

  • [دستورالعمل ها و کد] کار چسب را با استفاده از نشانک اجرا کنید [Instructions and Code] Rerun Glue Job using Bookmark

  • نشانک کار و فایل‌ها را برای اجرای افزایشی اعتبارسنجی کنید Validate Job Bookmark and Files for Incremental run

  • [دستورالعمل ها و کد] نشانک کار و فایل ها را برای اجرای افزایشی اعتبارسنجی کنید [Instructions and Code] Validate Job Bookmark and Files for Incremental run

  • جدول کاتالوگ چسب را با استفاده از CLI دوباره بخزید Recrawl the Glue Catalog Table using CLI

  • [دستورالعمل ها و کد] با استفاده از CLI، جدول کاتالوگ سرنخ را دوباره بخزید [Instructions and Code] Recrawl the Clue Catalog Table using CLI

  • Query Athena را برای اعتبارسنجی داده ها اجرا کنید Run Athena Queries for Data Validation

  • [دستورالعمل ها و کد] Query Athena را برای اعتبارسنجی داده ها اجرا کنید [Instructions and Code] Run Athena Queries for Data Validation

شروع کار با AWS EMR Getting Started with AWS EMR

  • برنامه ریزی خوشه EMR Planning of EMR Cluster

  • جفت کلید EC2 ایجاد کنید Create EC2 Key Pair

  • راه اندازی خوشه EMR با Spark Setup EMR Cluster with Spark

  • درک خلاصه ای از AWS EMR Cluster Understanding Summary of AWS EMR Cluster

  • رابط های کاربری EMR Cluster Application را مرور کنید Review EMR Cluster Application User Interfaces

  • بررسی EMR Cluster Monitoring07 بررسی EMR Cluster Monitoring Review EMR Cluster Monitoring07 Review EMR Cluster Monitoring

  • سیاست سخت‌افزار خوشه‌ای EMR و مقیاس‌بندی خوشه را مرور کنید Review EMR Cluster Hardware and Cluster Scaling Policy

  • تنظیمات EMR Cluster را مرور کنید Review EMR Cluster Configurations

  • رویدادهای EMR Cluster را مرور کنید Review EMR Cluster Events

  • مراحل EMR Cluster را مرور کنید Review EMR Cluster Steps

  • اقدامات EMR Cluster Bootstrap را مرور کنید Review EMR Cluster Bootstrap Actions

  • اتصال به EMR Master Node با استفاده از SSH Connecting to EMR Master Node using SSH

  • غیرفعال کردن حفاظت خاتمه و خاتمه کلاستر Disabling Termination Protection and Terminating the Cluster

  • کلون و ایجاد خوشه جدید Clone and Create New Cluster

  • فهرست کردن سطل ها و اشیاء AWS S3 با استفاده از AWS CLI در خوشه EMR Listing AWS S3 Buckets and Objects using AWS CLI on EMR Cluster

  • فهرست کردن سطل ها و اشیاء AWS S3 با استفاده از HDFS CLI در خوشه EMR Listing AWS S3 Buckets and Objects using HDFS CLI on EMR Cluster

  • مدیریت فایل ها در AWS s3 با استفاده از HDFS CLI در EMR Cluster Managing Files in AWS s3 using HDFS CLI on EMR Cluster

استقرار برنامه های Spark با استفاده از AWS EMR Deploying Spark Applications using AWS EMR

  • استقرار برنامه ها با استفاده از AWS EMR - مقدمه Deploying Applications using AWS EMR - Introduction

  • EMR Cluster را برای استقرار برنامه ها راه اندازی کنید Setup EMR Cluster to deploy applications

  • اعتبارسنجی اتصال SSH به گره اصلی خوشه AWS EMR Validate SSH Connectivity to Master node of AWS EMR Cluster

  • محیط نوت بوک Jupyter را در خوشه EMR تنظیم کنید Setup Jupyter Notebook Environment on EMR Cluster

  • سطل AWS s3 مورد نیاز را ایجاد کنید Create required AWS s3 Bucket

  • داده های GHActivity را در s3 آپلود کنید Upload GHActivity Data to s3

  • اعتبار سنجی برنامه با استفاده از نسخه های سازگار AWS EMR Validate Application using AWS EMR Compatible Versions

  • استقرار برنامه در AWS EMR Master Node Deploy Application to AWS EMR Master Node

  • فضای کاربری برای ec2-user در AWS EMR Cluster ایجاد کنید Create user space for ec2-user on AWS EMR Cluster

  • برنامه Spark را با استفاده از spark-submit در AWS EMR Master Node اجرا کنید Run Spark Application using spark-submit on AWS EMR Master Node

  • اعتبارسنجی داده ها با استفاده از نوت بوک های Jupyter در AWS EMR Cluster Validate Data using Jupyter Notebooks on AWS EMR Cluster

  • کلون کنید و کلاستر AWS EMR پایان یافته خودکار را شروع کنید Clone and Start Auto Terminated AWS EMR Cluster

  • با استفاده از AWS EMR Cluster داده های پر شده توسط GHAcitivity Application را حذف کنید Delete Data Populated by GHAcitivity Application using AWS EMR Cluster

  • تفاوت بین Spark Client و Cluster Deployment Mode Differences between Spark Client and Cluster Deployment Modes

  • اجرای برنامه Spark با استفاده از حالت Cluster در AWS EMR Cluster Running Spark Application using Cluster Mode on AWS EMR Cluster

  • بررسی اجمالی افزودن برنامه Pyspark به عنوان مرحله به خوشه AWS EMR Overview of Adding Pyspark Application as Step to AWS EMR Cluster

  • برنامه Spark را در AWS S3 اجرا کنید Deploy Spark Application to AWS S3

  • اجرای برنامه های Spark به عنوان مراحل AWS EMR در حالت مشتری Running Spark Applications as AWS EMR Steps in client mode

  • اجرای برنامه های Spark به عنوان مراحل AWS EMR در حالت خوشه ای Running Spark Applications as AWS EMR Steps in cluster mode

  • اعتبار سنجی AWS EMR Step Execution of Spark Application Validate AWS EMR Step Execution of Spark Application

خط لوله جریان با استفاده از Kinesis Streaming Pipeline using Kinesis

  • ساخت خط لوله جریان با استفاده از Kinesis Building Streaming Pipeline using Kinesis

  • سیاهههای مربوط به چرخش Rotating Logs

  • راه اندازی Kinesis Firehose Agent Setup Kinesis Firehose Agent

  • جریان تحویل Kinesis Firehose را ایجاد کنید Create Kinesis Firehose Delivery Stream

  • برنامه ریزی خط لوله Planning the Pipeline

  • گروه و کاربر IAM را ایجاد کنید Create IAM Group and User

  • اعطای مجوز به کاربر IAM با استفاده از سیاست Granting Permissions to IAM User using Policy

  • عامل Kinesis Firehose را پیکربندی کنید Configure Kinesis Firehose Agent

  • شروع و اعتبار سنجی عامل Start and Validate Agent

  • نتیجه گیری - ساخت خط لوله بخار ساده Conclusion - Building Simple Steaming Pipeline

مصرف داده از s3 با استفاده از boto3 Consuming Data from s3 using boto3

  • سفارشی کردن پوشه s3 با استفاده از Kinesis Delivery Stream Customizing s3 folder using Kinesis Delivery Stream

  • ایجاد خط مشی برای خواندن از سطل s3 Create Policy to read from s3 Bucket

  • اعتبار دسترسی s3 را با استفاده از AWS CLI تأیید کنید Validate s3 access using AWS CLI

  • محیط مجازی پایتون را برای بررسی boto3 راه اندازی کنید Setup Python Virtual Environment to explore boto3

  • اعتبارسنجی دسترسی به s3 با استفاده از Python boto3 Validating access to s3 using Python boto3

  • خواندن مطالب از شی s3 Read Content from s3 object

  • چندین شی s3 را بخوانید Read multiple s3 Objects

  • با استفاده از نشانگر تعداد اشیاء s3 را دریافت کنید Get number of s3 Objects using Marker

  • اندازه اشیاء s3 را با استفاده از نشانگر دریافت کنید Get size of s3 Objects using Marker

پر کردن داده های GitHub به Dynamodb Populating GitHub Data to Dynamodb

  • کتابخانه های مورد نیاز را نصب کنید Install required libraries

  • آشنایی با API های GitHub Understanding GitHub APIs

  • راه اندازی توکن GitHub API Setting up GitHub API Token

  • درک محدودیت نرخ GitHub Understanding GitHub Rate Limit

  • ایجاد مخزن جدید برای since Create New Repository for since

  • استخراج اطلاعات مورد نیاز Extracting Required Information

  • پردازش داده ها Processing Data

  • اعطای مجوز برای ایجاد جداول dynamodb با استفاده از boto3 Grant Permissions to create dynamodb tables using boto3

  • جداول Dynamodb ایجاد کنید Create Dynamodb Tables

  • Dynamodb CRUD Operations Dynamodb CRUD Operations

  • جدول Dynamodb را پر کنید Populate Dynamodb Table

  • عملیات دسته ای Dynamodb Dynamodb Batch Operations

مروری بر آمازون آتنا Overview of Amazon Athena

  • شروع کار با آمازون آتنا Getting Started with Amazon Athena

  • جمع بندی سریع پایگاه ها و جداول کاتالوگ چسب Quick Recap of Glue Catalog Databases and Tables

  • با استفاده از ویرایشگر Athena Query به پایگاه‌های داده و جداول کاتالوگ چسب دسترسی پیدا کنید Access Glue Catalog Databases and Tables using Athena Query Editor

  • ایجاد پایگاه داده و جدول با استفاده از آتنا Create Database and Table using Athena

  • با استفاده از Athena داده ها را در جدول پر کنید Populate Data into Table using Athena

  • استفاده از CTAS برای ایجاد جداول با استفاده از Athena Using CTAS to create tables using Athena

  • مروری بر معماری آمازون آتنا Overview of Amazon Athena Architecture

  • منابع آمازون آتنا و رابطه با Hive Amazon Athena Resources and relationship with Hive

  • با استفاده از آتنا جدول پارتیشن شده ایجاد کنید Create Partitioned Table using Athena

  • پرس و جو را برای ستون پارتیشن بندی شده توسعه دهید Develop Query for Partitioned Column

  • با استفاده از آتنا در جداول پارتیشن بندی شده قرار دهید Insert into Partitioned Tables using Athena

  • پارتیشن بندی داده ها را با استفاده از آتنا اعتبار سنجی کنید Validate Data Partitioning using Athena

  • جداول آتنا را رها کنید و فایل های داده را حذف کنید Drop Athena Tables and Delete Data Files

  • جدول پارتیشن بندی شده را با استفاده از آتنا رها کنید Drop Partitioned Table using Athena

  • پارتیشن بندی داده ها در آتنا با استفاده از CTAS Data Partitioning in Athena using CTAS

آمازون آتنا با استفاده از AWS CLI Amazon Athena using AWS CLI

  • آمازون آتنا با استفاده از AWS CLI - مقدمه Amazon Athena using AWS CLI - Introduction

  • کمک بگیرید و پایگاه داده های Athena را با استفاده از AWS CLI فهرست کنید Get help and list Athena databases using AWS CLI

  • [فرمان ها] کمک بگیرید و پایگاه داده های Athena را با استفاده از AWS CLI فهرست کنید [Commands] Get help and list Athena databases using AWS CLI

  • مدیریت گروه های کاری آتنا با استفاده از AWS CLI Managing Athena Workgroups using AWS CLI

  • [فرمان‌ها] مدیریت گروه‌های کاری آتنا با استفاده از AWS CLI [Commands] Managing Athena Workgroups using AWS CLI

  • Athena Queries را با استفاده از AWS CLI اجرا کنید Run Athena Queries using AWS CLI

  • [فرمان‌ها] کوئری‌های Athena را با استفاده از AWS CLI اجرا کنید [Commands] Run Athena Queries using AWS CLI

  • با استفاده از AWS CLI، متادیتای جدول آتنا را دریافت کنید Get Athena Table Metadata using AWS CLI

  • [فرمان‌ها] متادیتای جدول آتنا را با استفاده از AWS CLI دریافت کنید [Commands] Get Athena Table Metadata using AWS CLI

  • Athena Queries را با مکان سفارشی با استفاده از AWS CLI اجرا کنید Run Athena Queries with custom location using AWS CLI

  • [فرمان ها] پرس و جوهای Athena را با مکان سفارشی اجرا کنید [Commands] Run Athena Queries with custom location

  • جدول Athena را با استفاده از AWS CLI رها کنید Drop Athena table using AWS CLI

  • [دستورها] جدول Athena را با استفاده از AWS CLI رها کنید [Commands] Drop Athena table using AWS CLI

  • CTAS را تحت Athena با استفاده از AWS CLI اجرا کنید Run CTAS under Athena using AWS CLI

  • [فرمان‌ها] CTAS را تحت Athena با استفاده از AWS CLI اجرا کنید [Commands] Run CTAS under Athena using AWS CLI

آمازون آتنا با استفاده از Python boto3 Amazon Athena using Python boto3

  • آمازون آتنا با استفاده از Python boto3 - مقدمه Amazon Athena using Python boto3 - Introduction

  • شروع کار با مدیریت آتنا با استفاده از Python boto3 Getting Started with Managing Athena using Python boto3

  • [کد] شروع به مدیریت آتنا با استفاده از Python boto3 [Code] Getting Started with Managing Athena using Python boto3

  • فهرست پایگاه های داده آمازون آتنا با استفاده از Python boto3 List Amazon Athena Databases using Python boto3

  • [کد] پایگاه های داده آمازون آتنا را با استفاده از Python boto3 فهرست کنید [Code] List Amazon Athena Databases using Python boto3

  • جدول های Amazon Athena را با استفاده از Python boto3 فهرست کنید List Amazon Athena Tables using Python boto3

  • [کد] جدول‌های Amazon Athena را با استفاده از Python boto3 فهرست کنید [Code] List Amazon Athena Tables using Python boto3

  • Amazon Athena Queries را با استفاده از Python boto3 اجرا کنید Run Amazon Athena Queries using Python boto3

  • [کد] پرس و جوهای Amazon Athena را با استفاده از Python boto3 اجرا کنید [Code] Run Amazon Athena Queries using Python boto3

  • نتایج جستجوی Athena را با استفاده از boto3 مرور کنید Review Athena Query Results using boto3

  • [کد] نتایج جستجوی Athena را با استفاده از Python boto3 مرور کنید [Code] Review Athena Query Results using Python boto3

شروع کار با Amazon Redshift Getting Started with Amazon Redshift

  • شروع با Amazon Redshift - مقدمه Getting Started with Amazon Redshift - Introduction

  • با استفاده از نسخه آزمایشی رایگان، Redshift Cluster را ایجاد کنید Create Redshift Cluster using Free Trial

  • اتصال به پایگاه داده با استفاده از Redshift Query Editor Connecting to Database using Redshift Query Editor

  • دریافت لیست جداول پرس و جو از طرح اطلاعات Get list of tables querying information schema

  • [پرس و جو] - دریافت لیست جداول پرس و جو طرح اطلاعات [Queries] - Get list of tables querying information schema

  • با استفاده از Query Editor کوئری ها را در مقابل جداول Redshift اجرا کنید Run Queries against Redshift Tables using Query Editor

  • [Queries] - اعتبارسنجی داده های کاربران با استفاده از ویرایشگر پرس و جو [Queries] - Validate users data using Query Editor

  • جدول Redshift را با استفاده از کلید اصلی ایجاد کنید Create Redshift Table using Primary Key

  • [Queries] - جدول Redshift ایجاد کنید [Queries] - Create Redshift Table

  • [پرس و جوهای تلفیقی] - عملیات CRUD [Consolidated Queries] - CRUD Operations

  • داده ها را در جداول Redshift وارد کنید Insert Data into Redshift Tables

  • داده ها را در جداول Redshift به روز کنید Update Data in Redshift Tables

  • حذف داده ها از جداول Redshift Delete data from Redshift tables

  • Redshift پرس و جوهای ذخیره شده با استفاده از ویرایشگر کوئری Redshift Saved Queries using Query Editor

  • در حال حذف Redshift Cluster Deleting Redshift Cluster

  • Redshift Cluster را از Snapshot بازیابی کنید Restore Redshift Cluster from Snapshot

داده ها را از s3 در جداول Redshift کپی کنید Copy Data from s3 into Redshift Tables

  • کپی اطلاعات از s3 به Redshift - مقدمه Copy Data from s3 to Redshift - Introduction

  • تنظیم داده ها در s3 برای Redshift Copy Setup Data in s3 for Redshift Copy

  • پایگاه داده و جدول برای Redshift Copy Command را کپی کنید Copy Database and Table for Redshift Copy Command

  • ایجاد IAM User با دسترسی کامل در s3 برای Redshift Copy Create IAM User with full access on s3 for Redshift Copy

  • برای کپی اطلاعات از s3 به Reshift Table، Command Copy را اجرا کنید Run Copy Command to copy data from s3 to Reshift Table

  • عیب یابی خطاهای مربوط به Redshift Copy Command Troubleshoot Errors related to Redshift Copy Command

  • برای کپی کردن از جدول s3 به Redshift، Command Copy را اجرا کنید Run Copy Command to copy from s3 to Redshift table

  • اعتبارسنجی با استفاده از پرس و جو در مقابل جدول Redshift Validate using queries against Redshift Table

  • نمای کلی از Redshift Copy Command Overview of Redshift Copy Command

  • برای دسترسی به s3، نقش IAM را برای Redshift ایجاد کنید Create IAM Role for Redshift to access s3

  • داده ها را از s3 به جدول Redshift با استفاده از IAM Role کپی کنید Copy Data from s3 to Redshift table using IAM Role

  • تنظیم JSON Dataset در s3 برای Redshift Copy Command Setup JSON Dataset in s3 for Redshift Copy Command

  • داده های JSON را از s3 به جدول Redshift با استفاده از IAM Role کپی کنید Copy JSON Data from s3 to Redshift table using IAM Role

برنامه ها را با استفاده از Redshift Cluster توسعه دهید Develop Applications using Redshift Cluster

  • توسعه برنامه با استفاده از Redshift Cluster - مقدمه Develop application using Redshift Cluster - Introduction

  • اختصاص Ip الاستیک برای Redshift Cluster Allocate Elastic Ip for Redshift Cluster

  • قابلیت دسترسی عمومی را برای Redshift Cluster فعال کنید Enable Public Accessibility for Redshift Cluster

  • برای دسترسی به Redshift Cluster، قوانین ورودی را در Security Group به روز کنید Update Inbound Rules in Security Group to access Redshift Cluster

  • ایجاد پایگاه داده و کاربر در Redshift Cluster Create Database and User in Redshift Cluster

  • با استفاده از psql به پایگاه داده در Redshift متصل شوید Connect to database in Redshift using psql

  • تغییر مالک در جداول Redshift Change Owner on Redshift Tables

  • دانلود فایل Redshift JDBC Jar Download Redshift JDBC Jar file

  • با استفاده از IDE هایی مانند SQL Workbench به پایگاه داده Redshift متصل شوید Connect to Redshift Databases using IDEs such as SQL Workbench

  • راه اندازی محیط مجازی پایتون برای Redshift Setup Python Virtual Environment for Redshift

  • Simple Query را در مقابل جدول پایگاه داده Redshift با استفاده از پایتون اجرا کنید Run Simple Query against Redshift Database Table using Python

  • جدول Redshift را با استفاده از پایتون کوتاه کنید Truncate Redshift Table using Python

  • IAM User را ایجاد کنید تا از s3 به Redshift Tables کپی کنید Create IAM User to copy from s3 to Redshift Tables

  • اعتبار سنجی دسترسی کاربر IAM با استفاده از Boto3 Validate Access of IAM User using Boto3

  • Redshift Copy Command را با استفاده از پایتون اجرا کنید Run Redshift Copy Command using Python

جداول Redshift با Distkeys و Sortkeys Redshift Tables with Distkeys and Sortkeys

  • جداول Redshift با Distkeys و Sortkeys - مقدمه Redshift Tables with Distkeys and Sortkeys - Introduction

  • بررسی سریع معماری Redshift Quick Review of Redshift Architecture

  • ایجاد چند گره Redshift Cluster Create multi-node Redshift Cluster

  • با استفاده از ویرایشگر Query به Redshift Cluster متصل شوید Connect to Redshift Cluster using Query Editor

  • پایگاه داده Redshift ایجاد کنید Create Redshift Database

  • کاربر پایگاه داده Redshift ایجاد کنید Create Redshift Database User

  • ایجاد طرحواره پایگاه داده Redshift Create Redshift Database Schema

  • سبک توزیع پیش‌فرض جدول Redshift Default Distribution Style of Redshift Table

  • اجازه انتخاب کاتالوگ را به کاربر پایگاه داده Redshift بدهید Grant Select Permissions on Catalog to Redshift Database User

  • مسیر جستجو را برای درخواست جداول سیستم Redshift به روز کنید Update Search Path to query Redshift system tables

  • اعتبار سنجی جدول با DISTSTYLE AUTO Validate table with DISTSTYLE AUTO

  • Cluster را از Snapshot به حالت اولیه ایجاد کنید Create Cluster from Snapshot to the original state

  • نمای کلی Node Slices در Redshift Cluster Overview of Node Slices in Redshift Cluster

  • مروری بر سبک های توزیع Overview of Distribution Styles

  • استراتژی های توزیع برای جداول خرده فروشی در Redshift Distribution Strategies for retail tables in Redshift

  • جداول Redshift را با سبک توزیع همه ایجاد کنید Create Redshift tables with distribution style all

  • عیب یابی و رفع خطاهای بارگذاری یا کپی کردن Troubleshoot and Fix Load or Copy Errors

  • جدول Redshift را با Distribution Style Auto ایجاد کنید Create Redshift Table with Distribution Style Auto

  • جداول Redshift را با استفاده از Distribution Style Key ایجاد کنید Create Redshift Tables using Distribution Style Key

  • حذف خوشه با عکس فوری دستی Delete Cluster with manual snapshot

پرس و جوها و طیف فدرال Redshift Redshift Federated Queries and Spectrum

  • Redshift Federated Queries and Spectrum - مقدمه Redshift Federated Queries and Spectrum - Introduction

  • مروری بر ادغام RDS و Redshift برای جستجوهای فدرال Overview of integrating RDS and Redshift for Federated Queries

  • نقش IAM را برای Redshift Cluster ایجاد کنید Create IAM Role for Redshift Cluster

  • راه اندازی سرور پایگاه داده Postgres برای پرس و جوهای فدرال Redshift Setup Postgres Database Server for Redshift Federated Queries

  • جداول را در پایگاه داده Postgres برای Queries فدرال Redshift ایجاد کنید Create tables in Postgres Database for Redshift Federated Queries

  • ایجاد راز با استفاده از Secrets Manager برای پایگاه داده Postgres Creating Secret using Secrets Manager for Postgres Database

  • دسترسی به جزئیات مخفی با استفاده از Python Boto3 Accessing Secret Details using Python Boto3

  • خواندن داده‌های Json در Dataframe با استفاده از پاندا Reading Json Data to Dataframe using Pandas

  • با استفاده از پاندا، داده های JSON را در جداول پایگاه داده بنویسید Write JSON Data to Database Tables using Pandas

  • سیاست IAM را برای Secret ایجاد کنید و با Redshift Role ارتباط برقرار کنید Create IAM Policy for Secret and associate with Redshift Role

  • Redshift Cluster را با استفاده از IAM Role با مجوزهای مخفی ایجاد کنید Create Redshift Cluster using IAM Role with permissions on secret

  • طرحواره خارجی Redshift را در پایگاه داده Postgres ایجاد کنید Create Redshift External Schema to Postgres Database

  • به روز رسانی Redshift Cluster Network Settings for Federated Queries Update Redshift Cluster Network Settings for Federated Queries

  • انجام ETL با استفاده از Redshift Federated Queries Performing ETL using Redshift Federated Queries

  • پاک کردن منابع اضافه شده برای Redshift Federated Queries Clean up resources added for Redshift Federated Queries

  • اعطای دسترسی به کاتالوگ داده های چسب به Redshift Cluster for Spectrum Grant Access on Glue Data Catalog to Redshift Cluster for Spectrum

  • Redshift Cluster ها را برای اجرای پرس و جوها با استفاده از Spectrum راه اندازی کنید Setup Redshift Clusters to run queries using Spectrum

  • خلاصه سریع پایگاه داده و جداول کاتالوگ چسب برای طیف Redshift Quick Recap of Glue Catalog Database and Tables for Redshift Spectrum

  • طرحواره خارجی را با استفاده از Redshift Spectrum ایجاد کنید Create External Schema using Redshift Spectrum

  • Queries را با استفاده از Redshift Spectrum اجرا کنید Run Queries using Redshift Spectrum

  • Redshift Cluster را پاک کنید Cleanup the Redshift Cluster

نمایش نظرات

آموزش مهندسی داده با استفاده از AWS Data Analytics
جزییات دوره
25.5 hours
434
Udemy (یودمی) Udemy (یودمی)
(آخرین آپدیت)
14,235
4.4 از 5
دارد
دارد
دارد
جهت دریافت آخرین اخبار و آپدیت ها در کانال تلگرام عضو شوید.

Google Chrome Browser

Internet Download Manager

Pot Player

Winrar

Durga Viswanatha Raju Gadiraju Durga Viswanatha Raju Gadiraju

مشاور فناوری و Evangelist 13 سال تجربه در اجرای پروژه های پیچیده با استفاده از مجموعه گسترده ای از فناوری ها از جمله Big Data و Cloud. Iversity، llc - یک شرکت مستقر در ایالات متحده برای ارائه آموزش با کیفیت برای متخصصان فناوری اطلاعات و کارکنان و همچنین راه حل های مشاوره ای برای مشتریان سازمانی ، پیدا کردم. من هزاران نفر از متخصصان فناوری اطلاعات را در زمینه فن آوری های زیادی از جمله Big Data و Cloud آموزش داده ام. ایجاد حرفه ای فناوری اطلاعات برای افراد و ارائه خدمات با کیفیت به مشتریان از اهمیت بالاتری در سازمان ما برخوردار است. به عنوان یک استراتژی ورود ، ارائه آموزش با کیفیت در زمینه های ABCD خواهد بود * توسعه برنامه * داده های بزرگ و هوش تجاری * ابر * پایگاه داده ، پایگاه داده

Asasri Manthena Asasri Manthena

Perraju Vegiraju Perraju Vegiraju