تنظیم عملکرد یادگیری عمیق در پایتون - یک کلاس مستر [ویدئو]

Performance Tuning Deep Learning in Python - A Masterclass [Video]

نکته: آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
نمونه ویدیوها:
توضیحات دوره: ایجاد شبکه های عصبی یادگیری عمیق آسان شده است. با این حال، تنظیم این مدل‌ها برای حداکثر کارایی همچنان برای اکثر مدل‌سازان یک چالش است. این دوره به شما یاد می دهد که چگونه به عنوان یک متخصص یادگیری ماشینی به نتیجه برسید. دوره با مقدمه ای بر مشکل بیش از حد برازش و گشت و گذار در تکنیک های منظم شروع می شود. از طریق پیکربندی بهتر اندازه دسته ای شیب تصادفی، توابع از دست دادن، نرخ یادگیری، و جلوگیری از انفجار شیب ها از طریق برش گرادیان، یاد بگیرید. پس از آن، تکنیک‌های منظم‌سازی را یاد می‌گیرید و با به‌روزرسانی عملکرد کاهش با استفاده از تکنیک‌هایی مانند تنظیم وزن، محدودیت‌های وزن و تنظیم فعال‌سازی، بیش از حد برازش را کاهش می‌دهید. آن را ارسال کنید، به طور موثری از ترک تحصیل، اضافه کردن نویز و توقف زودهنگام استفاده می‌کنید و پیش‌بینی‌های چندین مدل را ترکیب می‌کنید. شما همچنین به تکنیک های یادگیری گروهی نگاه خواهید کرد و آموزش مدل ضعیف و مشکلاتی مانند همگرایی زودرس را تشخیص داده و روند آموزش مدل را تسریع خواهید کرد. سپس، پیش‌بینی‌های چند مدل ذخیره‌شده در طول یک دوره آموزشی را با تکنیک‌هایی مانند مجموعه‌های افقی و مجموعه‌های عکس فوری ترکیب می‌کنید. در نهایت، واریانس بالا را در مدل نهایی تشخیص داده و میانگین مهارت پیش‌بینی را بهبود می‌بخشید. در پایان این دوره، تکنیک های مختلفی را برای گرفتن نتایج بهتر با مدل های یادگیری عمیق یاد خواهید گرفت. همه فایل های منبع در مخزن GitHub در https://github.com/PacktPublishing/Performance-Tuning-Deep-Learning-Models-Master-Class آپلود می شوند. به اندازه دسته ای شیب نزولی تصادفی و مفاهیم دیگر نگاه کنید مبارزه با بیش از حد تناسب و معرفی تکنیک های منظم سازی را بیاموزید با به‌روزرسانی عملکرد تلفات با استفاده از تکنیک‌ها، اضافه برازش را کاهش دهید ترک تحصیل، اضافه کردن نویز و توقف زودهنگام را به طور موثر اعمال کنید تشخیص واریانس بالا در مدل نهایی و بهبود میانگین مهارت پیش بینی این دوره برای توسعه دهندگان، مهندسان یادگیری ماشین و دانشمندان داده است که می خواهند عملکرد مدل های یادگیری عمیق خود را افزایش دهند. این دوره از سطح متوسط ​​تا پیشرفته است. به شدت توصیه می شود که زبان آموز در پایتون، کراس و یادگیری ماشین مهارت داشته باشد. برای کسب نتایج بهتر از این دوره، یک پایه محکم در یادگیری ماشین، یادگیری عمیق و پایتون لازم است. همچنین به شما توصیه می شود که کتابخانه های اصلی یادگیری ماشین را در پایتون داشته باشید. یک دوره عملی و جامع برای گرفتن نتایج بهتر با مدل‌های یادگیری عمیق * فایل‌های منبع برای تقویت یادگیری از یک متخصص صنعت * درک نحوه ترکیب پیش‌بینی‌های چند مدل ذخیره‌شده در طول یک دوره آموزشی

سرفصل ها و درس ها

مقدمه دوره Introduction to the Course

  • معرفی Introduction

  • بررسی اجمالی دوره Course Overview

  • آیا این دوره برای شما مناسب است؟ Is This Course Right for You?

  • ساختار دوره Course Structure

  • شبکه عصبی تعریف شده است Neural Network Defined

  • چارچوبی برای یادگیری اختیاری Framework for Optional Learning

  • تکنیک های تعمیم بهینه Optimal Generalization Techniques

  • تکنیک های پیش بینی بهینه Optimal Prediction Techniques

  • برنامه چارچوب Framework Application

  • منحنی های یادگیری تشخیصی Diagnostic Learning Curves

  • تناسب مدل The Fit of the Model

  • مجموعه داده غیرنماینده Unrepresentative Dataset

یادگیری بهینه Optimal Learning

  • شبکه های عصبی: یک تابع نقشه برداری را بیاموزید Neural Networks: Learn a Mapping Function

  • سطح خطا Error Surface

  • ویژگی های Error Surface Features of the Error Surface

  • سطح خطای غیر محدب Non-Convex Error Surface

  • اجزای شبکه عصبی یادگیری عمیق: بخش 1 Deep Learning Neural Network Components: Part 1

  • اجزای شبکه عصبی یادگیری عمیق: بخش 2 Deep Learning Neural Network Components: Part 2

  • ظرفیت مدل شبکه عصبی Neural Network Model Capacity

  • آناتومی یک مدل کراس Anatomy of a Keras Model

  • نسخه ی نمایشی: مطالعه موردی ظرفیت مدل: قسمت 1 Demo: Case Study on Model Capacity: Part 1

  • نسخه ی نمایشی: مطالعه موردی ظرفیت مدل: قسمت 2 Demo: Case Study on Model Capacity: Part 2

  • نسخه ی نمایشی: مطالعه موردی ظرفیت مدل: قسمت 3 Demo: Case Study on Model Capacity: Part 3

  • دقت گرادیان با اندازه دسته ای Gradient Precision with Batch Size

  • نسخه ی نمایشی: مطالعه موردی در مورد اندازه دسته: قسمت 1 Demo: Case Study on Batch Size: Part 1

  • نسخه ی نمایشی: مطالعه موردی در مورد اندازه دسته: قسمت 2 Demo: Case Study on Batch Size: Part 2

  • نسخه ی نمایشی: مطالعه موردی در اندازه دسته: قسمت 3 Demo: Case Study on Batch Size: Part 3

  • عملکرد از دست دادن تعریف شده است Loss Function Defined

  • انتخاب تابع ضرر Choosing a Loss Function

  • نسخه ی نمایشی: مطالعه موردی در مورد توابع از دست دادن رگرسیون: قسمت 1 Demo: Case Study on Regression Loss Functions: Part 1

  • نسخه ی نمایشی: مطالعه موردی در مورد توابع از دست دادن رگرسیون: قسمت 2 Demo: Case Study on Regression Loss Functions: Part 2

  • نسخه ی نمایشی: مطالعه موردی در مورد توابع از دست دادن طبقه بندی باینری: قسمت 1 Demo: Case Study on Binary Classification Loss Functions: Part 1

  • نسخه ی نمایشی: مطالعه موردی در مورد توابع از دست دادن طبقه بندی باینری: قسمت 2 Demo: Case Study on Binary Classification Loss Functions: Part 2

  • نسخه ی نمایشی: مطالعه موردی در مورد توابع از دست دادن طبقه بندی باینری: قسمت 3 Demo: Case Study on Binary Classification Loss Functions: Part 3

  • نسخه ی نمایشی: مطالعه موردی در مورد توابع از دست دادن طبقه بندی چند طبقه: قسمت 1 Demo: Case Study on Multiclass Classification Loss Functions: Part 1

  • نسخه ی نمایشی: مطالعه موردی در مورد توابع از دست دادن طبقه بندی چند طبقه: قسمت 2 Demo: Case Study on Multiclass Classification Loss Functions: Part 2

  • نرخ یادگیری تعریف شده است Learning Rate Defined

  • پیکربندی نرخ یادگیری Configuring the Learning Rate

  • زمان‌بندی نرخ یادگیری و نرخ‌های یادگیری تطبیقی Learning Rate Schedules and Adaptive Learning Rates

  • تعریف نرخ یادگیری در کراس Defining Learning Rates in Keras

  • نسخه ی نمایشی: مطالعه موردی نرخ یادگیری: قسمت 1 Demo: Case Study on Learning Rates: Part 1

  • نسخه ی نمایشی: مطالعه موردی در مورد میزان یادگیری: قسمت 2 Demo: Case Study on Learning Rates: Part 2

  • نسخه ی نمایشی: مطالعه موردی در مورد میزان یادگیری: قسمت 3 Demo: Case Study on Learning Rates: Part 3

  • نسخه ی نمایشی: مطالعه موردی در مورد میزان یادگیری: قسمت 4 Demo: Case Study on Learning Rates: Part 4

  • مقیاس بندی داده ها Data Scaling

  • مقیاس بندی متغیرهای ورودی و خروجی Scaling the Input and Output Variables

  • عادی سازی و استانداردسازی (تغییر مقیاس) Normalize and Standardize (Rescaling)

  • نسخه ی نمایشی: مطالعه موردی در مقیاس داده ها: قسمت 1 Demo: Case Study on Data Scaling: Part 1

  • نسخه ی نمایشی: مطالعه موردی در مقیاس داده ها: قسمت 2 Demo: Case Study on Data Scaling: Part 2

  • نسخه ی نمایشی: مطالعه موردی در مقیاس داده ها: قسمت 3 Demo: Case Study on Data Scaling: Part 3

  • نسخه ی نمایشی: مطالعه موردی در مقیاس داده ها: قسمت 4 Demo: Case Study on Data Scaling: Part 4

  • توابع فعال سازی و گرادیان های ناپدید شونده Activation Functions and Vanishing Gradients

  • تابع فعال سازی خطی اصلاح شده در پایتون تعریف و پیاده سازی شده است Rectified Linear Activation Function Defined and Implemented in Python

  • هنگامی که ReLU انتخاب مناسب است When ReLU is the Appropriate Choice

  • نسخه ی نمایشی: مطالعه موردی در مورد گرادیان های محو شده: قسمت 1 Demo: Case Study on Vanishing Gradients: Part 1

  • نسخه ی نمایشی: مطالعه موردی در مورد گرادیان های محو شده: قسمت 2 Demo: Case Study on Vanishing Gradients: Part 2

  • اصلاح گرادیان های انفجاری با برش Correct Exploding Gradients with Clipping

  • برش گرادیان در کراس Gradient Clipping in Keras

  • نسخه ی نمایشی: مطالعه موردی در مورد گرادیان های انفجاری قسمت 1 Demo: Case Study on Exploding Gradients Part 1

  • نسخه ی نمایشی: مطالعه موردی در مورد گرادیان های انفجاری قسمت 2 Demo: Case Study on Exploding Gradients Part 2

  • عادی سازی دسته ای Batch Normalization

  • نکاتی برای اعمال عادی سازی دسته ای Tips for Applying Batch Normalization

  • نسخه ی نمایشی: مطالعه موردی در مورد عادی سازی دسته ای: قسمت 1 Demo: Case Study on Batch Normalization: Part 1

  • نسخه ی نمایشی: مطالعه موردی در مورد عادی سازی دسته ای: قسمت 2 Demo: Case Study on Batch Normalization: Part 2

  • نسخه ی نمایشی: مطالعه موردی Pretraining Layer-Wise Greedy: قسمت 1 Demo: Greedy Layer-Wise Pretraining Case Study: Part 1

  • نسخه ی نمایشی: مطالعه موردی Pretraining Layer-Wise Greedy: قسمت 2 Demo: Greedy Layer-Wise Pretraining Case Study: Part 2

تعمیم بهینه Optimal Generalization

  • مشکل بیش از حد برازش The Problem of Overfitting

  • کاهش بیش از حد برازش با محدود کردن پیچیدگی Reduce Overfitting by Constraining Complexity

  • رویکردهای منظم سازی برای شبکه های عصبی Regularization Approaches for Neural Networks

  • وزنه های بزرگ را از طریق منظم کردن جریمه کنید Penalize Large Weights via Regularization

  • نحوه تنبیه وزنه های بزرگ How to Penalize Large Weights

  • نکاتی برای استفاده از تنظیم وزن Tips for Using Weight Regularization

  • نمونه آزمایشی: مطالعه موردی تنظیم وزن: قسمت 1 Demo: Weight Regularization Case Study: Part 1

  • نسخه ی نمایشی: مطالعه موردی تنظیم وزن: قسمت 2 Demo: Weight Regularization Case Study: Part 2

  • تنظیم فعالیت Activity Regularization

  • تشویق فعال سازی های کوچکتر Encouraging Smaller Activations

  • نکاتی برای منظم کردن فعالیت Tips for Activity Regularization

  • تنظیم فعالیت در کراس Activity Regularization in Keras

  • آزمایشی: مطالعه موردی تنظیم فعالیت Demo: Activity Regularization Case Study

  • اجبار وزنه های کوچک Forcing Small Weights

  • نحوه استفاده از محدودیت وزن How to Use a Weight Constraint

  • نکاتی برای اعمال محدودیت های وزن Tips for Applying Weight Constraints

  • محدودیت وزن در کراس Weight Constraints in Keras

  • نسخه ی نمایشی: مطالعه موردی محدودیت وزن Demo: Weight Constraint Case Study

  • ترک تحصیل Dropout

  • مکانیک ترک تحصیل Dropout Mechanics

  • نکات ترک تحصیل Dropout Tips

  • ترک تحصیل در کراس Dropout in Keras

  • نسخه ی نمایشی: مطالعه موردی ترک تحصیل Demo: Dropout Case Study

  • تنظیم نویز Noise Regularization

  • نحوه اضافه کردن نویز How to Add Noise

  • نکات نویز Noise Tips

  • اضافه کردن نویز در Keras Adding Noise in Keras

  • نسخه ی نمایشی: مطالعه موردی تنظیم نویز Demo: Noise Regularization Case Study

پیش بینی های بهینه Optimal Predictions

  • آموزش گروهی Ensemble Learning

  • مجموعه مدل های شبکه عصبی Ensemble Neural Network Models

  • تغییر عناصر اصلی Varying the Major Elements

  • گروه های میانگین گیری مدل Model Averaging Ensembles

  • گروه ها در کراس Ensembles in Keras

  • نسخه ی نمایشی: مدل میانگین گیری گروه مطالعه موردی: قسمت 1 Demo: Model Averaging Ensemble Case Study: Part 1

  • نسخه ی نمایشی: مدل میانگین گیری گروه مطالعه موردی: قسمت 2 Demo: Model Averaging Ensemble Case Study: Part 2

  • نسخه ی نمایشی: مدل میانگین گیری گروه مطالعه موردی: قسمت 3 Demo: Model Averaging Ensemble Case Study: Part 3

  • گروه های میانگین وزنی Weighted Average Ensembles

  • نسخه ی نمایشی: میانگین وزنی گروه مطالعه موردی: قسمت 1 Demo: Weighted Average Ensemble Case Study: Part 1

  • نسخه ی نمایشی: میانگین وزنی گروه مطالعه موردی: قسمت 2 Demo: Weighted Average Ensemble Case Study: Part 2

  • نسخه ی نمایشی: میانگین وزنی گروه مطالعه موردی: قسمت 3 Demo: Weighted Average Ensemble Case Study: Part 3

  • نسخه ی نمایشی: میانگین وزنی گروه مطالعه موردی: قسمت 4 Demo: Weighted Average Ensemble Case Study: Part 4

  • نمونه برداری مجدد از گروه ها Resampling Ensembles

  • نسخه ی نمایشی: نمونه برداری مجدد گروه مطالعه موردی: قسمت 1 Demo: Resampling Ensemble Case Study: Part 1

  • نسخه ی نمایشی: نمونه برداری مجدد گروه مطالعه موردی: قسمت 2 Demo: Resampling Ensemble Case Study: Part 2

  • نسخه ی نمایشی: نمونه برداری مجدد گروه مطالعه موردی: قسمت 3 Demo: Resampling Ensemble Case Study: Part 3

  • نسخه ی نمایشی: نمونه برداری مجدد گروه مطالعه موردی: قسمت 4 Demo: Resampling Ensemble Case Study: Part 4

  • گروه های رای گیری افقی Horizontal Voting Ensembles

  • نسخه ی نمایشی: مطالعه موردی گروه افقی: قسمت 1 Demo: Horizontal Ensemble Case Study: Part 1

  • نسخه ی نمایشی: مطالعه موردی گروه افقی: قسمت 2 Demo: Horizontal Ensemble Case Study: Part 2

نمایش نظرات

تنظیم عملکرد یادگیری عمیق در پایتون - یک کلاس مستر [ویدئو]
جزییات دوره
5 h 0 m
115
Packtpub Packtpub
(آخرین آپدیت)
از 5
ندارد
دارد
دارد
Mike West
جهت دریافت آخرین اخبار و آپدیت ها در کانال تلگرام عضو شوید.

Google Chrome Browser

Internet Download Manager

Pot Player

Winrar

Mike West Mike West

سازنده LogikBot