🔔 با توجه به بهبود نسبی اینترنت، آمادهسازی دورهها آغاز شده است. به دلیل تداوم برخی اختلالات، بارگذاری دورهها ممکن است با کمی تأخیر انجام شود. مدت اشتراکهای تهیهشده محفوظ است.
لطفا جهت اطلاع از آخرین دوره ها و اخبار سایت در
کانال تلگرام
عضو شوید.
آموزش مهندسی داده با دیتابریکس در ابر AWS
- آخرین آپدیت
دانلود Learn Data Engineering with Databricks on AWS Cloud
نکته:
ممکن هست محتوای این صفحه بروز نباشد ولی دانلود دوره آخرین آپدیت می باشد.
نمونه ویدیوها:
توضیحات دوره:
آموزش مهندسی داده با دیتابریکس در AWS: ساخت پایپلاینهای داده قدرتمند
با این دوره جامع، مهندسی داده را با استفاده از ویژگیهای اصلی دیتابریکس مانند Spark و Delta Lake بر روی AWS بیاموزید. با ویژگیهای دیتابریکس در حوزه مهندسی داده آشنا شوید و مهارتهای لازم برای موفقیت را کسب کنید.
این دوره جامع برای تجهیز شما به مهارتها و دانش مورد نیاز برای برتری در مهندسی داده با استفاده از دو پلتفرم قدرتمند: دیتابریکس و Amazon Web Services (AWS) طراحی شده است. مهندسی داده ستون فقرات هر ابتکار دادهمحور موفق است و دیتابریکس، به عنوان یک پلتفرم تحلیل یکپارچه، به انتخابی پیشرو برای مهندسان داده و دانشمندان داده در سراسر جهان تبدیل شده است. هنگامی که با AWS، یک ابر قدرت رایانش ابری، ترکیب میشود، یک اکوسیستم قوی در اختیار خواهید داشت که میتواند دادهها را در مقیاس مدیریت کند، قابلیتهای تحلیل پیشرفته را ارائه دهد و از طیف گستردهای از منابع و فرمتهای داده پشتیبانی کند.
یادگیری مهندسی داده با دیتابریکس در AWS همراه با لابراتوارهای عملی
یادگیری مهندسی داده با دیتابریکس در AWS Cloud یک دوره تمرین عملی است که برای آشنایی شما با عملکرد اصلی دیتابریکس با اتصال آن به AWS برای انجام مهندسی داده طراحی شده است. از طریق تمرینهای عملی، درک کاملی از معماری دیتابریکس و نحوه انقلابی که در مهندسی داده در ابر ایجاد میکند، به دست خواهید آورد. شما ادغام بینقص دیتابریکس با سرویسهای AWS، مانند Amazon S3 و Glue را بررسی خواهید کرد و دنیایی از امکانات را برای مدیریت و تجزیه و تحلیل دادههای خود باز خواهید کرد.
این دوره به دقت طراحی شده است تا هم یک پایه نظری محکم و هم تمرینات عملی گسترده در حوزههای پویا مهندسی داده، دیتابریکس و Amazon Web Services (AWS) را به شما ارائه دهد.
این دوره شامل تقریباً 50 لابراتوار است که از مبانی شروع شده و از نظر پیچیدگی به سطوح بالا میرسد.
چه کسانی باید در این دوره شرکت کنند؟
دوره "یادگیری مهندسی داده با دیتابریکس در AWS Cloud" برای طیف گستردهای از افرادی که علاقهمند به ایجاد تخصص در مهندسی داده با استفاده از دیتابریکس در AWS Cloud هستند، طراحی شده است. اگر به دنبال شروع شغلی در مهندسی داده هستید، این دوره انتخابی عالی است. این دوره دانش پایه و مهارتهای عملی مورد نیاز برای تبدیل شدن به یک مهندس داده موفق را در اختیار شما قرار میدهد. دانشمندان داده و تحلیلگران که میخواهند مجموعه مهارتهای خود را گسترش دهند و بتوانند با پردازش دادههای در مقیاس بزرگ، پایپلاینهای داده و دریاچههای داده کار کنند، میتوانند از این دوره بهره زیادی ببرند. متخصصان IT که میخواهند به نقشهای متمرکز بر مهندسی داده و رایانش ابری منتقل شوند، میتوانند از این دوره به عنوان یک سکوی پرتاب برای کسب مهارتها و دانش لازم استفاده کنند. افرادی که به رایانش ابری، به ویژه AWS، و کاربردهای آن در مهندسی داده علاقهمند هستند، درک عمیقی از راهحلهای مهندسی داده مبتنی بر ابر به دست خواهند آورد.
پیشنیازها
تجربه برنامهنویسی قبلی در SQL و Python ضروری است.
تجربه برنامهنویسی در Spark الزامی است.
تجربه یا درک اولیه از خدمات ابری مانند AWS مهم است.
دانش پایه SQL یا نوشتن کوئری به هر زبان.
اسکریپتنویسی در پایتون.
تمایل به کاوش، یادگیری و تلاش اضافی برای موفقیت.
حساب فعال AWS و دانش اصول اولیه رایانش ابری.
ساخت پایپلاینهای مهندسی داده بر روی AWS با استفاده از ویژگیهای اصلی دیتابریکس مانند Spark و Delta Lake.
مدیریت فایلها، وظایف مهندسی داده و خوشهها برای پایپلاینهای مهندسی داده با استفاده از Databricks CLI.
استقرار برنامههای مهندسی داده توسعهیافته با PySpark بر روی خوشههای وظیفه (job clusters).
استقرار برنامههای مهندسی داده توسعهیافته با PySpark با استفاده از نوتبوکها بر روی خوشههای وظیفه.
ساخت پایپلاینهای مهندسی داده با استفاده از Spark Structured Streaming بر روی خوشههای دیتابریکس.
راهاندازی محیط توسعه برای توسعه برنامههای مهندسی داده با استفاده از دیتابریکس.
سرفصل ها و درس ها
شروع کار با Databricks در AWS
Getting Startted with Databricks on AWS
مقدمه ای بر شروع کار با Databricks در AWS
Introduction to Getting Started with Databricks on AWS
ثبت نام برای حساب رایگان AWS
Signing up for aws free account
ورود به کنسول مدیریت AWS
Logging in into AWS Management Console
راهاندازی فضای کاری Databricks در AWS با استفاده از Quickstart
Setting up Databricks workspace on AWS using Quickstart
ورود به فضای کاری Databricks در AWS
Logging in into Databricks Workspace on AWS
پاکسازی فضای کاری و منابع
Cleaning up the workspace and resources
مرور سریع رابط کاربری Databricks در AWS
Quick Walkthrough of Databricks UI on AWS
ایجاد خوشه Databricks تک گره ای در AWS
Creating Single-Node Databricks cluster on AWS
بارگذاری داده با استفاده از رابط کاربری Databricks AWS
Upload Data using AWS Databricks UI
توسعه برنامه اسپارک با استفاده از نوت بوک Databricks AWS
Develop spark Application using AWS Databricks Notebook
نوشتن DataFrame در DBFS
Writing dataframe to DBFS
صادر کردن و وارد کردن نوت بوک های Databricks AWS
Export and Import AWS Databricks Notebooks
راهکارهای ذخیره سازی AWS
AWS Storage Solutions
شروع کار با AWS S3
Getting Started with AWS S3
مروری بر AWS S3 Glacier
Overview of AWS S3 Glacier
ایجاد سطل S3 و افزودن اشیاء
Creating S3 Bucket and adding Objects
کنترل نسخه در AWS S3
Version Control in AWS S3
تکثیر بین منطقه ای AWS S3 برای تحمل خطا
AWS S3 Cross-Region Replication for Fault Tolerance
راه اندازی و پیکربندی AWS S3 CLI با استفاده از اعتبارنامه کاربر IAM
Setup and configure AWS S3 CLI using IAM user credentials
مدیریت اشیاء در AWS S3 با استفاده از CLI
Managing Objects in AWS S3 using CLI
نقش AWS S3 و IAM
AWS S3 and IAM Role
مروری بر IAM برای Databricks در AWS
Overview of IAM for Databricks on AWS
ایجاد کاربر IAM در AWS
Creating AWS IAM User
ورود به کنسول مدیریت AWS با استفاده از کاربر IAM
Logging into AWS Management Console using IAM User
اعتبارسنجی دسترسی برنامه ای به کاربر IAM در AWS
Validate Programmatic Access to AWS IAM User3
سیاست های مبتنی بر هویت IAM در AWS
AWS IAM Identity-based policies
گروه های کاربر IAM در AWS
AWS IAM User Groups
سیاست های سفارشی IAM در AWS
AWS IAM Custom Policies
ادغام S3 و Glue Catalog
Integration S3 and Glue Catalog
مقدمه ای بر ادغام AWS S3 و Glue Catalog با Databricks
Introduction to Integrating AWS s3 and Glue Catalog with Databricks
ایجاد گروه IAM در AWS برای توسعه دهندگان Databricks
Create AWS IAM Group for Databricks Developers
ایجاد کاربران IAM در AWS و اضافه کردن آنها به گروه
Creating AWS IAM Users and adding to group
ایجاد سطل AWS S3 برای توسعه دهندگان Databricks
Creating AWS s3 Bucket for Databricks Developers
اعطای مجوزها بر روی سطل AWS S3 به کاربران در گروه
Grant Permissions on AWS S3 Bucket to the users in group
پیوست کردن سیاست IAM در AWS برای اعطای دسترسی به Glue
Attach AWS IAM Policy to grant access to Glue
بارگذاری مجموعه داده JSON به S3 برای خزیدن با استفاده از AWS Glue Crawler
Upload JSON Dataset to s3 to crawl using AWS Glue Crawler
ایجاد نقش سرویس سفارشی IAM در AWS برای Glue Crawlers
Create AWS IAM Custom Service Role for Glue Crawlers
ایجاد و اجرای Glue Crawler برای ایجاد چندین جدول Glue Catalog
Create and Run Glue Crawler to Create Multiple Glue Catalog Tables
مروری بر ادغام خوشه های Databricks و نمونه های EC2 در AWS
Overview of Integration of Databricks Clusters and AWS EC2 Instances
ایجاد نقش IAM یا پروفایل نمونه در AWS
Create AWS IAM Role or Instance Profile
ثبت پروفایل نمونه IAM در AWS در حساب Databricks
Registering AWS IAM Instance Profile with Databricks Account
پیوست کردن پروفایل نمونه IAM در AWS به خوشه Databricks
Attach AWS IAM Instance Profile to Databricks Cluster
اعطای مجوزها بر روی S3 به خوشه های Databricks
Grant Permissions on S3 to Databricks Clusters
ادغام خوشه Databricks با Glue Catalog از طریق پروفایل نمونه
Integrate Databricks Cluster with Glue Catalog via Instance Profile
راه اندازی محیط توسعه محلی برای Databricks
Setup local development environment for databricks
راه اندازی خوشه تک گره ای Databricks
Setup single node databricks cluster
نمایش نظرات