لطفا جهت اطلاع از آخرین دوره ها و اخبار سایت در
کانال تلگرام
عضو شوید.
آموزش ساخت خطوط لوله مهندسی داده با کارخانه داده Azure
Build Data Engineering Pipelines with Azure Data Factory
نکته:
آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
نمونه ویدیوها:
توضیحات دوره:
دست به دست شوید و با Azure Data Factory (ADF)، Data Lake Storage، Azure SQL و موارد دیگر یک دریاچه داده مدرن بسازید! (DP203) بررسی اجمالی و پیشینه راه حل های تجزیه و تحلیل داده های بزرگ Azure Azure Data Factory Azure Storage Accounts Azure SQL Databases and Upsert Operations ادغام داده ها از فرمت های فایل مختلف احراز هویت و دسترسی: اصول سرویس، هویت های مدیریت شده و Azure Key Vault Data Pipelines جریان ها، کنترل جریان و فعالیت های تبدیل پیاده سازی یک جریان کنترل دریاچه داده مدرن، پارامترها و متغیرها کاربرد دنیای واقعی کارخانه داده Azure پیش نیازها:Microsoft Azure Subscription Basic SQL
سلام دانش آموزان!
من خوشحالم که این دوره آموزشی را در یکی از پر تقاضاترین ابزارهای مهندسی داده در سراسر ... Azure Data Factory!
از آنجایی که تقاضا برای سرویسهای یکپارچهسازی دادههای مبتنی بر فضای ابری به شدت افزایش مییابد، تقاضای زیادی برای متخصصان با دانش خدماتی مانند Azure Data Factory وجود دارد. با یادگیری Azure Data Factory، کاربران می توانند مهارت های خود را افزایش دهند و آینده شغلی خود را در زمینه مهندسی داده و تجزیه و تحلیل افزایش دهند.
در این دوره شما در درجه اول از Azure Data Factory در Microsoft Azure علاوه بر خدمات دیگری مانند Azure Blob Storage، Azure Data Lake Storage Gen 2 و Azure SQL Database استفاده خواهید کرد.
این دوره مملو از سخنرانیها، ویدیوهای همراه با کد و پروژه دوره اختصاصی است. به عنوان یک مزیت اضافی، شما همچنین دسترسی مادام العمر به همه سخنرانی ها خواهید داشت...
این دوره موضوعات زیر را پوشش می دهد:
راهحلهای ذخیرهسازی Azure مانند Azure Blob Storage و Azure Data Lake Gen2 Storage
مبانی Azure Data Factory شامل اجزای اصلی مانند سرویسهای پیوندی، مجموعه دادهها، فعالیتها، جریانهای داده، خطوط لوله و زمانهای اجرا یکپارچه
یکپارچه سازی داده ها از فرمت های مختلف فایل مانند CSV، JSON و پارکت
فعالیت کپی در Azure Data Factory
جریان های داده، کنترل جریان و فعالیت های تبدیل در کارخانه داده Azure
سازماندهی جریانهای کاری یکپارچهسازی دادهها
نحوه ایجاد برنامهها و محرکها برای اجرای خطوط لوله خود
نحوه استفاده از پارامترها و متغیرها با سرویسها، مجموعه دادهها و خطوط لوله مرتبط خود
نحوه استفاده از Azure Data Factory با پایگاه های داده SQL
احراز هویت و دسترسی از جمله هویت های مدیریت شده، اصول سرویس و خزانه کلید Azure
سرفصل ها و درس ها
بررسی اجمالی دوره و راه اندازی
Course Overview and Set Up
بررسی اجمالی دوره
Course Overview
تجزیه و تحلیل داده های بزرگ Azure
Azure Big Data Analytics
راه اندازی حساب Azure
Azure Account Set Up
مروری بر رابط کاربری Azure و ایجاد اشتراک شما
Azure UI Overview and Creating Your Subscription
خدمات و مناطق
Services and Regions
نامگذاری قراردادها و ایجاد گروه منابع دوره
Naming Conventions and Creating the Course Resource Group
مدیریت هزینه و قیمت گذاری
Cost Management and Pricing
پیوندها و منابع
Links and Resources
بررسی اجمالی دوره و راه اندازی
Course Overview and Set Up
Azure Storage
Azure Storage
بررسی اجمالی راه حل های ذخیره سازی Azure
Azure Storage Solutions Overview
طبقه بندی داده ها
Classification of Data
فرمت های فایل پشتیبانی شده از ADF
ADF Supported File Formats
دانلود و مرور کلی مجموعه داده سفارشات مشتری
Customer Orders Dataset Download and Overview
طرحی برای دریاچه داده
Blueprint for the Data Lake
ایجاد حساب ذخیره سازی
Storage Account Creation
ایجاد کانتینر و آپلود فایل
Container Creation and File Upload
پیوندها و منابع
Links and Resources
Azure Storage
Azure Storage
ADF - نمای کلی و تنظیم
ADF - Overview and Set Up
بررسی اجمالی کارخانه داده Azure
Azure Data Factory Overview
ایجاد منبع ADF
ADF Resource Creation
نمای کلی رابط کاربری و اجزای ADF
ADF User Interface and Components Overview
پیوندها و منابع
Links and Resources
ADF - نمای کلی و تنظیم
ADF - Overview and Set Up
حرکت داده ها
Data Movement
کپی نمای کلی فعالیت
Copy Activity Overview
هدف بخش
Section Objective
فعالیت کپی - سفارش موارد قسمت 1 (سرویسهای مرتبط و مجموعه دادههای منبع/سینک)
Copy Activity - Order Items Part 1 (Linked Services and Source/Sink Datasets)
Copy Activity - Order Items Part 2 (Copy Activity and Pipeline)
Copy Activity - Order Items Part 2 (Copy Activity and Pipeline)
فعالیت کپی - مشتریان JSON
Copy Activity - Customers JSON
فعالیت کپی - سفارش پارکت
Copy Activity - Orders Parquet
فعالیت کپی - فروشگاه ها و محصولات JSON
Copy Activity - Stores and Products JSON
سازماندهی اشیاء کارخانه داده در پوشه ها
Organising Data Factory Objects in Folders
فعالیت های زنجیره ای
Chaining Activities
کار با چندین فایل به عنوان منبع و رفتار کپی
Working with Multiple Files as a Source and Copy Behaviour
پیوندها و منابع
Links and Resources
حرکت داده ها
Data Movement
تبدیل داده ها
Data Transformation
بررسی اجمالی جریان داده
Data Flow Overview
هدف بخش
Section Objective
دمو جریان داده و رابط کاربری
Data Flow Demo and User Interface
اشکال زدایی جریان داده (قیمت گذاری)
Data Flow Debug (Pricing)
اشکال زدایی جریان داده (محدودیت ردیف)
Data Flow Debug (Row Limit)
پارتیشن بندی منبع و سینک
Source and Sink Partitioning
Transformation را انتخاب کنید
Select Transformation
تبدیل بازیگران
Cast Transformation
پیش بینی واردات
Import Projection
تبدیل ستون مشتق شده
Derived Column Transformation
نیاز به جریان داده خام تا پاک شده
Raw to Cleansed Data Flow Requirement
بررسی جریان داده خام تا پاکسازی شده
Raw to Cleansed Data Flow Walkthrough
مجموعه داده های پارتیشن بندی شده
Partitioned Datasets
تبدیل ها را فیلتر و مرتب کنید
Filter and Sort Transformations
تبدیل کل
Aggregate Transformation
به Transformation بپیوندید
Join Transformation
انشعاب شرطی و تبدیل اتحادیه
Conditional Split and Union Transformations
به نیاز جریان داده ساختاریافته پاک شده است
Cleansed to Structured Data Flow Requirement
پاکسازی شده به مرور جریان داده ساختاریافته
Cleansed to Structured Data Flow Walkthrough
ساختاری برای تجزیه و تحلیل جریان داده مورد نیاز
Structured to Analytics Data Flow Requirement
ساختار یافته به تجزیه و تحلیل گردش داده ها
Structured to Analytics Data Flow Walkthrough
پیوندها و منابع
Links and Resources
تبدیل داده ها
Data Transformation
برنامه ریزی و زنجیربندی خطوط لوله برای اجرا
Scheduling and Chaining Pipelines for Execution
اجرای فعالیت خط لوله
Execute Pipeline Activity
جلسه اشکال زدایی جریان داده در مقابل زمان اجرا فعالیت
Data Flow Debug Session vs Activity Runtime
یودمی یکی از بزرگترین پلتفرمهای آموزشی آنلاین است که به میلیونها کاربر در سراسر جهان امکان دسترسی به دورههای متنوع و کاربردی را فراهم میکند. این پلتفرم امکان آموزش در زمینههای مختلف از فناوری اطلاعات و برنامهنویسی گرفته تا زبانهای خارجی، مدیریت، و هنر را به کاربران ارائه میدهد. با استفاده از یودمی، کاربران میتوانند به صورت انعطافپذیر و بهینه، مهارتهای جدیدی را یاد بگیرند و خود را برای بازار کار آماده کنند.
یکی از ویژگیهای برجسته یودمی، کیفیت بالای دورهها و حضور استادان مجرب و با تجربه در هر حوزه است. این امر به کاربران اعتماد میدهد که در حال دریافت آموزش از منابع قابل اعتماد و معتبر هستند و میتوانند به بهترین شکل ممکن از آموزشها بهره ببرند. به طور خلاصه، یودمی به عنوان یکی از معتبرترین و موثرترین پلتفرمهای آموزشی آنلاین، به افراد امکان میدهد تا به راحتی و با کیفیت، مهارتهای مورد نیاز خود را ارتقا دهند و به دنبال رشد و پیشرفت شغلی خود باشند.
مالویک بیش از 10 سال کار و مشاوره با تعدادی از شرکت های فهرست شده در لیست/لیست نشده به عنوان متخصص داده و BI را گذرانده است. در طول زندگی حرفه ای خود ، مالویک یک مهارت در تجزیه و تحلیل داده ها و تجسم ، با مهارت در مورد تعدادی از زبان های برنامه نویسی از جمله SQL ، Python و R. ایجاد کرده است. او به طور گسترده با تعدادی از سیستم عامل های نرم افزاری پیشرو از جمله Hadoop ، Oracle ، MySQL ، MS SQL Server ، Qlik و Microsoft Power Platforms. وی دارای تعدادی گواهینامه از جمله: · کارشناس راه حل های مجاز مایکروسافت: مدیریت داده و تجزیه و تحلیل · Microsoft Certified Solutions Associate: گزارشگری BI · مجوز Qlik Sense Data Architect
نمایش نظرات