آموزش یادگیری ماشینی با داده های نامتعادل

Machine Learning with Imbalanced Data

نکته: آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
نمونه ویدیوها:
توضیحات دوره: یاد بگیرید که از داده های خود نمونه برداری بیش از حد و کم نمونه برداری کنید، از SMOTE، روش های گروهی و یادگیری حساس به هزینه استفاده کنید. برای حذف مشاهدات از طبقات اکثریت، کم نمونه‌گیری تصادفی را اعمال کنید. با حذف مشاهداتی که طبقه‌بندی آن‌ها سخت است، نمونه‌گیری کم را انجام دهید. با حفظ مشاهدات در مرز جداسازی کلاس، نمونه‌گیری بیش از حد تصادفی را برای تقویت کلاس اقلیت اعمال کنید. ایجاد داده‌های مصنوعی برای افزایش مثال‌های کلاس اقلیت پیاده‌سازی SMOTE و انواع آن برای تولید مصنوعی داده‌ها استفاده از روش‌های مجموعه با تکنیک‌های نمونه‌گیری برای بهبود عملکرد مدل تغییر هزینه طبقه‌بندی از دست رفته بهینه‌شده توسط مدل‌ها برای تطبیق با کلاس‌های اقلیت تعیین عملکرد مدل با مناسب‌ترین معیارها برای مجموعه داده‌های نامتعادل پیش نیازها: دانش الگوریتم‌های پایه یادگیری ماشین، یعنی رگرسیون، درخت‌های تصمیم‌گیری و نزدیک‌ترین همسایگان برنامه‌نویسی پایتون، از جمله آشنایی با NumPy، Pandas و Scikit-learn A Python و نصب نوت‌بوک Jupyter

به یادگیری ماشین با مجموعه داده های نامتعادل خوش آمدید. در این دوره، تکنیک های متعددی را یاد می گیرید که می توانید با مجموعه داده های نامتعادل برای بهبود عملکرد مدل های یادگیری ماشین خود استفاده کنید.


اگر در حال حاضر با مجموعه داده‌های نامتعادل کار می‌کنید و می‌خواهید عملکرد مدل‌های خود را بهبود ببخشید، یا فقط می‌خواهید درباره نحوه مقابله با عدم تعادل داده اطلاعات بیشتری کسب کنید، این دوره به شما نشان می‌دهد که چگونه.


ما شما را گام به گام از طریق آموزش‌های ویدیویی جذاب راهنمایی می‌کنیم و هر آنچه را که باید در مورد کار با مجموعه داده‌های نامتعادل بدانید، به شما آموزش می‌دهیم. در طول این دوره جامع، تقریباً تمام روش‌های موجود برای کار با مجموعه داده‌های نامتعادل را پوشش می‌دهیم، در مورد منطق آنها، پیاده‌سازی آن‌ها در پایتون، مزایا و کاستی‌های آن‌ها و ملاحظاتی که باید هنگام استفاده از این تکنیک داشته باشیم، بحث می‌کنیم. به طور خاص، شما یاد خواهید گرفت:


  • روش‌های نمونه‌گیری به صورت تصادفی یا متمرکز بر برجسته کردن جمعیت‌های نمونه خاص

  • روش های نمونه برداری بیش از حد به صورت تصادفی و آنهایی که نمونه های جدیدی بر اساس مشاهدات موجود ایجاد می کنند

  • روش‌های مجموعه‌ای که از قدرت چند زبان‌آموز ضعیف در ارتباط با تکنیک‌های نمونه‌گیری برای افزایش عملکرد مدل استفاده می‌کنند

  • روش های حساس به هزینه که تصمیمات اشتباه را برای طبقات اقلیت به شدت جریمه می کند

  • معیارهای مناسب برای ارزیابی عملکرد مدل در مجموعه داده‌های نامتعادل


در پایان دوره، می‌توانید تصمیم بگیرید که کدام تکنیک برای مجموعه داده‌های شما مناسب است، و/یا بهبود عملکردی را که با روش‌های مختلف در مجموعه‌های داده‌های متعدد برمی‌گردد اعمال و مقایسه کنید.


این دوره جامع یادگیری ماشینی شامل بیش از 50 سخنرانی است که بیش از 10 ساعت ویدئو را شامل می شود، و همه موضوعات شامل نمونه های عملی کد پایتون است که می توانید برای مرجع و تمرین و استفاده مجدد در پروژه های خود استفاده کنید.


علاوه بر این، کد به‌طور مرتب به‌روزرسانی می‌شود تا با روندهای جدید و نسخه‌های جدید کتابخانه پایتون همگام شود.


پس منتظر چه چیزی هستید؟ همین امروز ثبت نام کنید، یاد بگیرید که چگونه با مجموعه داده های نامتعادل کار کنید و مدل های یادگیری ماشینی بهتری بسازید.


سرفصل ها و درس ها

معرفی Introduction

  • کد | نوت بوک های Jupyter Code | Jupyter notebooks

  • مطالب ارائه شده در دوره Presentations covered in the course

  • بسته Python Imbalanced-learn Python package Imbalanced-learn

  • منابع اضافی برای یادگیری ماشین و برنامه نویسی پایتون Additional resources for Machine Learning and Python programming

معرفی Introduction

  • مروری بر برنامه درسی دوره Course Curriculum Overview

  • مروری بر برنامه درسی دوره Course Curriculum Overview

  • مواد درسی Course Material

  • مواد درسی Course Material

  • کد | نوت بوک های Jupyter Code | Jupyter notebooks

  • مطالب ارائه شده در دوره Presentations covered in the course

  • بسته Python Imbalanced-learn Python package Imbalanced-learn

  • مجموعه داده ها را دانلود کنید Download Datasets

  • مجموعه داده ها را دانلود کنید Download Datasets

  • منابع اضافی برای یادگیری ماشین و برنامه نویسی پایتون Additional resources for Machine Learning and Python programming

یادگیری ماشین با داده های نامتعادل: بررسی اجمالی Machine Learning with Imbalanced Data: Overview

  • منابع خواندنی اضافی (اختیاری) Additional Reading Resources (Optional)

یادگیری ماشین با داده های نامتعادل: بررسی اجمالی Machine Learning with Imbalanced Data: Overview

  • کلاس های نامتعادل - مقدمه Imbalanced classes - Introduction

  • کلاس های نامتعادل - مقدمه Imbalanced classes - Introduction

  • ماهیت طبقه نامتعادل Nature of the imbalanced class

  • ماهیت طبقه نامتعادل Nature of the imbalanced class

  • رویکردهای کار با مجموعه داده های نامتعادل - نمای کلی Approaches to work with imbalanced datasets - Overview

  • رویکردهای کار با مجموعه داده های نامتعادل - نمای کلی Approaches to work with imbalanced datasets - Overview

  • منابع خواندنی اضافی (اختیاری) Additional Reading Resources (Optional)

معیارهای ارزیابی Evaluation Metrics

  • مقدمه ای بر معیارهای عملکرد Introduction to Performance Metrics

  • دقت، فراخوانی و اندازه گیری F Precision, Recall and F-measure

  • دقت، فراخوان و اندازه گیری F - نسخه ی نمایشی Precision, Recall and F-measure - Demo

  • دقت متعادل - نسخه ی نمایشی Balanced accuracy - Demo

  • میانگین هندسی، تسلط، شاخص دقت نامتعادل - نسخه نمایشی Geometric Mean, Dominance, Index of Imbalanced Accuracy - Demo

  • ROC-AUC - نسخه ی نمایشی ROC-AUC - Demo

  • مقایسه منحنی های ROC و PR - اختیاری Comparison of ROC and PR curves - Optional

  • احتمال Probability

  • متریک برای Mutliclass Metrics for Mutliclass

  • منحنی های PR و ROC برای چند کلاسه PR and ROC Curves for Multiclass

  • منحنی های روابط عمومی در چند کلاس - نسخه ی نمایشی PR Curves in Multiclass - Demo

  • منحنی ROC در چند کلاس - نسخه ی نمایشی ROC Curve in Multiclass - Demo

معیارهای ارزیابی Evaluation Metrics

  • مقدمه ای بر معیارهای عملکرد Introduction to Performance Metrics

  • دقت Accuracy

  • دقت Accuracy

  • دقت - نسخه ی نمایشی Accuracy - Demo

  • دقت - نسخه ی نمایشی Accuracy - Demo

  • دقت، فراخوانی و اندازه گیری F Precision, Recall and F-measure

  • Yellowbrick را نصب کنید Install Yellowbrick

  • Yellowbrick را نصب کنید Install Yellowbrick

  • دقت، فراخوان و اندازه گیری F - نسخه ی نمایشی Precision, Recall and F-measure - Demo

  • جداول سردرگمی، FPR و FNR Confusion tables, FPR and FNR

  • جداول سردرگمی، FPR و FNR Confusion tables, FPR and FNR

  • جداول سردرگمی، FPR و FNR - نسخه ی نمایشی Confusion tables, FPR and FNR - Demo

  • جداول سردرگمی، FPR و FNR - نسخه ی نمایشی Confusion tables, FPR and FNR - Demo

  • دقت متعادل Balanced Accuracy

  • دقت متعادل Balanced Accuracy

  • دقت متعادل - نسخه ی نمایشی Balanced accuracy - Demo

  • میانگین هندسی، تسلط، شاخص دقت نامتعادل Geometric Mean, Dominance, Index of Imbalanced Accuracy

  • میانگین هندسی، تسلط، شاخص دقت نامتعادل Geometric Mean, Dominance, Index of Imbalanced Accuracy

  • میانگین هندسی، تسلط، شاخص دقت نامتعادل - نسخه نمایشی Geometric Mean, Dominance, Index of Imbalanced Accuracy - Demo

  • ROC-AUC ROC-AUC

  • ROC-AUC ROC-AUC

  • ROC-AUC - نسخه ی نمایشی ROC-AUC - Demo

  • منحنی فراخوان دقیق Precision-Recall Curve

  • منحنی فراخوان دقیق Precision-Recall Curve

  • منحنی فراخوان دقیق - نسخه ی نمایشی Precision-Recall Curve - Demo

  • منحنی فراخوان دقیق - نسخه ی نمایشی Precision-Recall Curve - Demo

  • مقایسه منحنی های ROC و PR - اختیاری Comparison of ROC and PR curves - Optional

  • منابع خواندنی اضافی (اختیاری) Additional reading resources (Optional)

  • منابع خواندنی اضافی (اختیاری) Additional reading resources (Optional)

  • احتمال Probability

  • متریک برای Mutliclass Metrics for Mutliclass

  • معیارهای چند کلاسه - نسخه ی نمایشی Metrics for Multiclass - Demo

  • معیارهای چند کلاسه - نسخه ی نمایشی Metrics for Multiclass - Demo

  • منحنی های PR و ROC برای چند کلاسه PR and ROC Curves for Multiclass

  • منحنی های روابط عمومی در چند کلاس - نسخه ی نمایشی PR Curves in Multiclass - Demo

  • منحنی ROC در چند کلاس - نسخه ی نمایشی ROC Curve in Multiclass - Demo

نمونه برداری اولیه Udersampling

  • روش های نمونه گیری زیر - مقدمه Under-Sampling Methods - Introduction

  • زیر نمونه گیری تصادفی - مقدمه Random Under-Sampling - Intro

  • نزدیکترین همسایگان فشرده - مقدمه Condensed Nearest Neighbours - Intro

  • نزدیکترین همسایگان فشرده - نسخه ی نمایشی Condensed Nearest Neighbours - Demo

  • پیوندهای Tomek - نسخه ی نمایشی Tomek Links - Demo

  • انتخاب یک طرفه - مقدمه One Sided Selection - Intro

  • ویرایش نزدیکترین همسایگان - مقدمه Edited Nearest Neighbours - Intro

  • ویرایش نزدیکترین همسایگان - نسخه ی نمایشی Edited Nearest Neighbours - Demo

  • ویرایش مکرر نزدیکترین همسایگان - مقدمه Repeated Edited Nearest Neighbours - Intro

  • همه KNN - نسخه ی نمایشی All KNN - Demo

  • قانون تمیز کردن محله - مقدمه Neighbourhood Cleaning Rule - Intro

  • قانون تمیز کردن محله - نسخه ی نمایشی Neighbourhood Cleaning Rule - Demo

  • NearMiss - نسخه ی نمایشی NearMiss - Demo

  • نمونه آزمایشی چند کلاسه آستانه سختی Instance Hardness Threshold Multiclass Demo

  • مقایسه روش کم نمونه گیری Undersampling Method Comparison

  • بسته بندی بخش Wrapping up the section

  • جدول جمع بندی Summary Table

نمونه برداری اولیه Udersampling

  • روش های نمونه گیری زیر - مقدمه Under-Sampling Methods - Introduction

  • زیر نمونه گیری تصادفی - مقدمه Random Under-Sampling - Intro

  • زیر نمونه گیری تصادفی - نسخه ی نمایشی Random Under-Sampling - Demo

  • زیر نمونه گیری تصادفی - نسخه ی نمایشی Random Under-Sampling - Demo

  • نزدیکترین همسایگان فشرده - مقدمه Condensed Nearest Neighbours - Intro

  • نزدیکترین همسایگان فشرده - نسخه ی نمایشی Condensed Nearest Neighbours - Demo

  • پیوندهای Tomek - معرفی Tomek Links - Intro

  • پیوندهای Tomek - معرفی Tomek Links - Intro

  • پیوندهای Tomek - نسخه ی نمایشی Tomek Links - Demo

  • انتخاب یک طرفه - مقدمه One Sided Selection - Intro

  • انتخاب یک طرفه - نسخه ی نمایشی One Sided Selection - Demo

  • انتخاب یک طرفه - نسخه ی نمایشی One Sided Selection - Demo

  • ویرایش نزدیکترین همسایگان - مقدمه Edited Nearest Neighbours - Intro

  • ویرایش نزدیکترین همسایگان - نسخه ی نمایشی Edited Nearest Neighbours - Demo

  • ویرایش مکرر نزدیکترین همسایگان - مقدمه Repeated Edited Nearest Neighbours - Intro

  • ویرایش مکرر نزدیکترین همسایگان - نسخه ی نمایشی Repeated Edited Nearest Neighbours - Demo

  • ویرایش مکرر نزدیکترین همسایگان - نسخه ی نمایشی Repeated Edited Nearest Neighbours - Demo

  • همه KNN - مقدمه All KNN - Intro

  • همه KNN - مقدمه All KNN - Intro

  • همه KNN - نسخه ی نمایشی All KNN - Demo

  • قانون تمیز کردن محله - مقدمه Neighbourhood Cleaning Rule - Intro

  • قانون تمیز کردن محله - نسخه ی نمایشی Neighbourhood Cleaning Rule - Demo

  • NearMiss - معرفی NearMiss - Intro

  • NearMiss - معرفی NearMiss - Intro

  • NearMiss - نسخه ی نمایشی NearMiss - Demo

  • سختی نمونه - مقدمه Instance Hardness - Intro

  • سختی نمونه - مقدمه Instance Hardness - Intro

  • آستانه سختی نمونه - نسخه ی نمایشی Instance Hardness Threshold - Demo

  • آستانه سختی نمونه - نسخه ی نمایشی Instance Hardness Threshold - Demo

  • نمونه آزمایشی چند کلاسه آستانه سختی Instance Hardness Threshold Multiclass Demo

  • مقایسه روش کم نمونه گیری Undersampling Method Comparison

  • بسته بندی بخش Wrapping up the section

  • بسته بندی بخش Wrapping up the section

  • راه اندازی یک طبقه بندی کننده با نمونه برداری کمتر و اعتبارسنجی متقابل Setting up a classifier with under-sampling and cross-validation

  • راه اندازی یک طبقه بندی کننده با نمونه برداری کمتر و اعتبارسنجی متقابل Setting up a classifier with under-sampling and cross-validation

  • جدول جمع بندی Summary Table

نمونه برداری بیش از حد Oversampling

  • ROS با صاف کردن - مقدمه ROS with smoothing - Intro

  • SMOTE SMOTE

  • SMOTE - نسخه ی نمایشی SMOTE - Demo

  • SMOTE-NC SMOTE-NC

  • ADASYN ADASYN

  • SMOTE مرزی Borderline SMOTE

  • SVM SMOTE SVM SMOTE

  • منابع در SVM ها Resources on SVMs

  • K-Means SMOTE K-Means SMOTE

  • بسته بندی بخش Wrapping up the section

  • نحوه صحیح تنظیم یک طبقه بندی کننده با نمونه برداری بیش از حد How to Correctly Set Up a Classifier with Over-sampling

  • راه اندازی یک طبقه بندی کننده - نسخه ی نمایشی Setting Up a Classifier - Demo

  • جدول جمع بندی Summary Table

نمونه برداری بیش از حد Oversampling

  • روش های نمونه گیری بیش از حد - مقدمه Over-Sampling Methods - Introduction

  • روش های نمونه گیری بیش از حد - مقدمه Over-Sampling Methods - Introduction

  • نمونه گیری بیش از حد تصادفی Random Over-Sampling

  • نمونه گیری بیش از حد تصادفی Random Over-Sampling

  • نمونه برداری تصادفی بیش از حد - نسخه ی نمایشی Random Over-Sampling - Demo

  • نمونه برداری تصادفی بیش از حد - نسخه ی نمایشی Random Over-Sampling - Demo

  • ROS با صاف کردن - مقدمه ROS with smoothing - Intro

  • ROS با صاف کردن - نسخه ی نمایشی ROS with smoothing - Demo

  • ROS با صاف کردن - نسخه ی نمایشی ROS with smoothing - Demo

  • SMOTE SMOTE

  • SMOTE - نسخه ی نمایشی SMOTE - Demo

  • SMOTE-NC SMOTE-NC

  • SMOTE-NC - نسخه ی نمایشی SMOTE-NC - Demo

  • SMOTE-NC - نسخه ی نمایشی SMOTE-NC - Demo

  • SMOTE-N SMOTE-N

  • SMOTE-N SMOTE-N

  • نسخه ی نمایشی SMOTE-N SMOTE-N Demo

  • نسخه ی نمایشی SMOTE-N SMOTE-N Demo

  • ADASYN ADASYN

  • ADASYN - نسخه ی نمایشی ADASYN - Demo

  • ADASYN - نسخه ی نمایشی ADASYN - Demo

  • SMOTE مرزی Borderline SMOTE

  • مرزی SMOTE - نسخه ی نمایشی Borderline SMOTE - Demo

  • مرزی SMOTE - نسخه ی نمایشی Borderline SMOTE - Demo

  • SVM SMOTE SVM SMOTE

  • منابع در SVM ها Resources on SVMs

  • SVM SMOTE - نسخه ی نمایشی SVM SMOTE - Demo

  • SVM SMOTE - نسخه ی نمایشی SVM SMOTE - Demo

  • K-Means SMOTE K-Means SMOTE

  • K-Means SMOTE - نسخه ی نمایشی K-Means SMOTE - Demo

  • K-Means SMOTE - نسخه ی نمایشی K-Means SMOTE - Demo

  • مقایسه روش نمونه گیری بیش از حد Over-Sampling Method Comparison

  • مقایسه روش نمونه گیری بیش از حد Over-Sampling Method Comparison

  • بسته بندی بخش Wrapping up the section

  • بسته بندی بخش Wrapping up the section

  • نحوه صحیح تنظیم یک طبقه بندی کننده با نمونه برداری بیش از حد How to Correctly Set Up a Classifier with Over-sampling

  • راه اندازی یک طبقه بندی کننده - نسخه ی نمایشی Setting Up a Classifier - Demo

  • جدول جمع بندی Summary Table

بیش و کم نمونه گیری Over and Undersampling

  • ترکیب بیش از حد و کمتر از نمونه - مقدمه Combining Over and Under-sampling - Intro

  • مقایسه روش های نمونه گیری بیش از حد و کم نمونه Comparison of Over and Under-sampling Methods

  • نمونه برداری بیش از حد و کم نمونه را به صورت دستی ترکیب کنید Combine over and under-sampling manually

  • بسته شدن Wrapping up

بیش و کم نمونه گیری Over and Undersampling

  • ترکیب بیش از حد و کمتر از نمونه - مقدمه Combining Over and Under-sampling - Intro

  • ترکیب بیش از و کمتر نمونه - نسخه ی نمایشی Combining Over and Under-sampling - Demo

  • ترکیب بیش از و کمتر نمونه - نسخه ی نمایشی Combining Over and Under-sampling - Demo

  • مقایسه روش های نمونه گیری بیش از حد و کم نمونه Comparison of Over and Under-sampling Methods

  • نمونه برداری بیش از حد و کم نمونه را به صورت دستی ترکیب کنید Combine over and under-sampling manually

  • بسته شدن Wrapping up

روش های گروه Ensemble Methods

  • روش های مجموعه ای با داده های نامتعادل Ensemble methods with Imbalanced Data

  • مبانی یادگیری گروهی Foundations of Ensemble Learning

  • کوله بری Bagging

  • روش های ترکیبی Hybdrid Methods

  • روش های گروه - نسخه ی نمایشی Ensemble Methods - Demo

  • بسته شدن Wrapping up

  • منابع خواندنی اضافی Additional Reading Resources

روش های گروه Ensemble Methods

  • روش های مجموعه ای با داده های نامتعادل Ensemble methods with Imbalanced Data

  • مبانی یادگیری گروهی Foundations of Ensemble Learning

  • کوله بری Bagging

  • بسته بندی به اضافه نمونه برداری بیش از حد یا کمتر Bagging plus Over- or Under-Sampling

  • بسته بندی به اضافه نمونه برداری بیش از حد یا کمتر Bagging plus Over- or Under-Sampling

  • افزایش Boosting

  • افزایش Boosting

  • تقویت به علاوه نمونه برداری مجدد Boosting plus Re-Sampling

  • تقویت به علاوه نمونه برداری مجدد Boosting plus Re-Sampling

  • روش های ترکیبی Hybdrid Methods

  • روش های گروه - نسخه ی نمایشی Ensemble Methods - Demo

  • بسته شدن Wrapping up

  • منابع خواندنی اضافی Additional Reading Resources

یادگیری حساس به هزینه Cost Sensitive Learning

  • انواع هزینه Types of Cost

  • هزینه طبقه بندی اشتباه در رگرسیون لجستیک Misclassification Cost in Logistic Regression

  • یادگیری حساس به هزینه با Scikit-learn Cost Sensitive Learning with Scikit-learn

  • با تنظیم هایپرپارامتر، هزینه بهینه را پیدا کنید Find Optimal Cost with hyperparameter tuning

  • ریسک شرطی بیز Bayes Conditional Risk

  • MetaCost - نسخه ی نمایشی MetaCost - Demo

یادگیری حساس به هزینه Cost Sensitive Learning

  • یادگیری حساس به هزینه - مقدمه Cost-sensitive Learning - Intro

  • یادگیری حساس به هزینه - مقدمه Cost-sensitive Learning - Intro

  • انواع هزینه Types of Cost

  • به دست آوردن هزینه Obtaining the Cost

  • به دست آوردن هزینه Obtaining the Cost

  • رویکردهای حساس به هزینه Cost Sensitive Approaches

  • رویکردهای حساس به هزینه Cost Sensitive Approaches

  • هزینه طبقه بندی اشتباه در رگرسیون لجستیک Misclassification Cost in Logistic Regression

  • هزینه طبقه بندی اشتباه در درختان تصمیم Misclassification Cost in Decision Trees

  • هزینه طبقه بندی اشتباه در درختان تصمیم Misclassification Cost in Decision Trees

  • یادگیری حساس به هزینه با Scikit-learn Cost Sensitive Learning with Scikit-learn

  • با تنظیم هایپرپارامتر، هزینه بهینه را پیدا کنید Find Optimal Cost with hyperparameter tuning

  • ریسک شرطی بیز Bayes Conditional Risk

  • متاکاست MetaCost

  • متاکاست MetaCost

  • MetaCost - نسخه ی نمایشی MetaCost - Demo

  • اختیاری: کد پایه MetaCost Optional: MetaCost Base Code

  • اختیاری: کد پایه MetaCost Optional: MetaCost Base Code

  • منابع خواندنی اضافی Additional Reading Resources

  • منابع خواندنی اضافی Additional Reading Resources

کالیبراسیون احتمال Probability Calibration

  • کالیبراسیون احتمال Probability Calibration

  • منحنی های کالیبراسیون احتمال - نسخه ی نمایشی Probability Calibration Curves - Demo

  • امتیاز بریر Brier Score

  • امتیاز Brier - نسخه ی نمایشی Brier Score - Demo

  • کم و بیش نمونه گیری و یادگیری حساس به هزینه در کالیبراسیون احتمال Under- and Over-sampling and Cost-sensitive learning on Probability Calibration

  • کالیبره کردن یک طبقه بندی کننده Calibrating a Classifier

  • کالیبره کردن یک طبقه بندی کننده - نسخه ی نمایشی Calibrating a Classifier - Demo

  • احتمال: منابع خواندنی اضافی Probability: Additional reading resources

کالیبراسیون احتمال Probability Calibration

  • کالیبراسیون احتمال Probability Calibration

  • منحنی های کالیبراسیون احتمال Probability Calibration Curves

  • منحنی های کالیبراسیون احتمال Probability Calibration Curves

  • منحنی های کالیبراسیون احتمال - نسخه ی نمایشی Probability Calibration Curves - Demo

  • امتیاز بریر Brier Score

  • امتیاز Brier - نسخه ی نمایشی Brier Score - Demo

  • کم و بیش نمونه گیری و یادگیری حساس به هزینه در کالیبراسیون احتمال Under- and Over-sampling and Cost-sensitive learning on Probability Calibration

  • کالیبره کردن یک طبقه بندی کننده Calibrating a Classifier

  • کالیبره کردن یک طبقه بندی کننده - نسخه ی نمایشی Calibrating a Classifier - Demo

  • کالیبره کردن یک Classfiier پس از SMOTE یا نمونه برداری کمتر Calibrating a Classfiier after SMOTE or Under-sampling

  • کالیبره کردن یک Classfiier پس از SMOTE یا نمونه برداری کمتر Calibrating a Classfiier after SMOTE or Under-sampling

  • کالیبره کردن یک طبقه‌بندی کننده با یادگیری حساس به هزینه Calibrating a Classifier with Cost-sensitive Learning

  • کالیبره کردن یک طبقه‌بندی کننده با یادگیری حساس به هزینه Calibrating a Classifier with Cost-sensitive Learning

  • احتمال: منابع خواندنی اضافی Probability: Additional reading resources

همه اش را بگذار کنار هم Putting it all together

همه اش را بگذار کنار هم Putting it all together

  • مثال ها Examples

  • مثال ها Examples

مراحل بعدی Next steps

  • تبریک می گویم Congratulations

مراحل بعدی Next steps

  • به دوره بعدی رای دهید Vote for the next course!

  • به دوره بعدی رای دهید Vote for the next course!

  • تبریک می گویم Congratulations

  • سخنرانی پاداش Bonus Lecture

  • سخنرانی پاداش Bonus Lecture

نمایش نظرات

آموزش یادگیری ماشینی با داده های نامتعادل
جزییات دوره
11.5 hours
129
Udemy (یودمی) Udemy (یودمی)
(آخرین آپدیت)
6,428
4.6 از 5
دارد
دارد
دارد
Soledad Galli
جهت دریافت آخرین اخبار و آپدیت ها در کانال تلگرام عضو شوید.

Google Chrome Browser

Internet Download Manager

Pot Player

Winrar

Soledad Galli Soledad Galli

دانشمند داده | مربی | توسعه دهنده نرم افزار