آموزش انتخاب ویژگی برای یادگیری ماشین

Feature Selection for Machine Learning

نکته: آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
نمونه ویدیوها:
توضیحات دوره: روش‌های فیلتر، بسته‌بندی و تعبیه‌شده، حذف ویژگی‌های بازگشتی، جستجوی جامع، به هم ریختن ویژگی‌ها و موارد دیگر را بیاموزید. درباره روش‌های فیلتر، جاسازی شده و بسته‌بندی برای انتخاب ویژگی اطلاعات کسب کنید درباره روش‌های ترکیبی برای انتخاب ویژگی اطلاعاتی کسب کنید. مدل‌های یادگیری ماشین ساده‌تر، سریع‌تر و مطمئن‌تر تجزیه و تحلیل و درک ویژگی‌های انتخاب‌شده کشف تکنیک‌های انتخاب ویژگی مورد استفاده در مسابقات علم داده پیش نیازها: نصب پایتون نصب نوت‌بوک Jupyter مهارت‌های کدگذاری پایتون مقداری تجربه با Numpy و Pandas آشنایی با الگوریتم‌های یادگیری ماشین آشنایی با scikit -فرا گرفتن

به Feature Selection for Machine Learning، جامع ترین دوره آموزشی در مورد انتخاب ویژگی که به صورت آنلاین موجود است، خوش آمدید.

در این دوره آموزشی، نحوه انتخاب متغیرها در مجموعه داده‌های خود و ساخت مدل‌های یادگیری ماشینی ساده‌تر، سریع‌تر، قابل اعتمادتر و قابل تفسیرتر را خواهید آموخت.


این دوره برای چه کسانی است؟

شما اولین قدم‌های خود را در علم داده برداشته‌اید، متداول‌ترین مدل‌های یادگیری ماشین را می‌شناسید، احتمالاً چند مدل رگرسیون خطی یا مبتنی بر درخت تصمیم ساخته‌اید. شما با تکنیک های پیش پردازش داده ها مانند حذف داده های از دست رفته، تبدیل متغیرها، رمزگذاری متغیرهای طبقه ای آشنا هستید. در این مرحله احتمالاً متوجه شده اید که بسیاری از مجموعه های داده حاوی مقدار زیادی ویژگی هستند، و برخی از آنها یکسان یا بسیار مشابه هستند، برخی از آنها اصلاً پیش بینی کننده نیستند، و برای برخی دیگر گفتن آن دشوارتر است. p>

شما تعجب می کنید که چگونه می توانید پیش بینی ترین ویژگی ها را بیابید. نگه داشتن کدام یک خوب است و بدون کدام یک می توانید انجام دهید؟ شما همچنین تعجب می کنید که چگونه روش ها را به شیوه ای حرفه ای کدنویسی کنید. احتمالاً شما جستجوی آنلاین خود را انجام داده اید و متوجه شده اید که چیز زیادی در مورد انتخاب ویژگی وجود ندارد. بنابراین شما شروع به تعجب می کنید: واقعاً کارها در شرکت های فناوری چگونه انجام می شود؟

این دوره به شما کمک خواهد کرد! این جامع ترین دوره آنلاین در انتخاب متغیر است. شما طیف وسیعی از روش‌های انتخاب ویژگی را که در سراسر جهان در سازمان‌های مختلف و در مسابقات علم داده استفاده می‌شود، یاد خواهید گرفت تا پیش‌بینی‌کننده‌ترین ویژگی‌ها را انتخاب کنید.


چه چیزی یاد خواهید گرفت؟

من مجموعه فوق‌العاده‌ای از تکنیک‌های انتخاب ویژگی را بر اساس مقالات علمی، مسابقات علم داده و البته تجربه خودم به عنوان یک دانشمند داده گردآوری کرده‌ام.

به طور خاص، یاد خواهید گرفت:

  • نحوه حذف ویژگی‌ها با واریانس کم

  • نحوه شناسایی ویژگی های اضافی

  • نحوه انتخاب ویژگی ها بر اساس آزمون های آماری

  • نحوه انتخاب ویژگی ها بر اساس تغییرات در عملکرد مدل

  • نحوه یافتن ویژگی های پیش بینی بر اساس اهمیت نسبت داده شده توسط مدل ها

  • نحوه کدنویسی رویه ها به شیوه ای زیبا و حرفه ای

  • نحوه استفاده از قدرت کتابخانه های پایتون موجود برای انتخاب ویژگی


در طول دوره، شما قصد دارید چندین تکنیک را برای هر یک از وظایف ذکر شده یاد بگیرید و با استفاده از Python، Scikit-learn، pandas و mlxtend، پیاده سازی این تکنیک ها را به شیوه ای زیبا، کارآمد و حرفه ای یاد خواهید گرفت.


در پایان دوره، ابزارهای مختلفی برای انتخاب و مقایسه زیرمجموعه‌های ویژگی‌های مختلف و شناسایی آنهایی خواهید داشت که ساده‌ترین و در عین حال پیش‌بینی‌کننده‌ترین مدل یادگیری ماشین را نشان می‌دهند. این به شما امکان می دهد زمان تولید مدل های پیش بینی خود را به حداقل برسانید.


این دوره جامع انتخاب ویژگی شامل حدود 70 سخنرانی است که حدود 8 ساعت ویدئو را شامل می شود و همه موضوعات شامل نمونه های عملی کد پایتون است که می توانید برای مرجع و تمرین از آنها استفاده کنید و در پروژه های خود دوباره استفاده کنید.


علاوه بر این، من دوره را به‌طور مرتب به‌روزرسانی می‌کنم تا با نسخه‌های جدید کتابخانه‌های پایتون همگام باشم و تکنیک‌های جدیدی را در هنگام ظاهر شدن درج کنم.

پس منتظر چه چیزی هستید؟ همین امروز ثبت نام کنید، از قدرت انتخاب ویژگی استفاده کنید و مدل‌های یادگیری ماشینی ساده‌تر، سریع‌تر و مطمئن‌تر بسازید.


سرفصل ها و درس ها

معرفی Introduction

  • مروری بر برنامه درسی دوره Course Curriculum Overview

  • الزامات دوره Course requirements

  • هدف دوره Course Aim

  • اختیاری: چگونه به این دوره نزدیک شویم Optional: How to approach this course

  • مواد دوره Course Material

  • کد | نوت بوک های Jupyter The code | Jupyter notebooks

  • مطالب ارائه شده در این دوره Presentations covered in this course

  • مجموعه داده ها را دانلود کنید Download the data sets

  • سوالات متداول: علم داده و برنامه نویسی پایتون FAQ: Data Science and Python programming

انتخاب ویژگی Feature Selection

  • انتخاب ویژگی چیست؟ What is feature selection?

  • روش های انتخاب ویژگی | بررسی اجمالی Feature selection methods | Overview

  • روش های فیلتر Filter Methods

  • روش های لفاف دار Wrapper methods

  • روش های تعبیه شده Embedded Methods

  • حرکت رو به جلو Moving Forward

  • بسته های منبع باز برای انتخاب ویژگی Open-source packages for feature selection

روش های فیلتر | مبانی Filter Methods | Basics

  • ویژگی های ثابت، شبه ثابت و تکراری - مقدمه Constant, quasi constant, and duplicated features – Intro

  • ویژگی های ثابت Constant features

  • ویژگی های شبه ثابت Quasi-constant features

  • ویژگی های تکراری Duplicated features

  • Feature-engine را نصب کنید Install Feature-engine

  • افت ثابت و شبه ثابت با Feature-engine Drop constant and quasi-constant with Feature-engine

  • موارد تکراری را با Feature-engine رها کنید Drop duplicates with Feature-engine

روش های فیلتر | همبستگی Filter methods | Correlation

  • همبستگی - مقدمه Correlation - Intro

  • انتخاب ویژگی همبستگی Correlation Feature Selection

  • رویه های همبستگی برای انتخاب ویژگی ها Correlation procedures to select features

  • همبستگی | نسخه ی نمایشی نوت بوک Correlation | Notebook demo

  • روش های اساسی به اضافه خط لوله همبستگی Basic methods plus Correlation pipeline

  • همبستگی با ویژگی-موتور Correlation with Feature-engine

  • خط لوله انتخاب ویژگی با موتور ویژه Feature Selection Pipeline with Feature-engine

  • منابع خواندنی اضافی Additional reading resources

روش های فیلتر | اقدامات آماری Filter methods | Statistical measures

  • روش های آماری - مقدمه Statistical methods – Intro

  • اطلاعات متقابل Mutual information

  • نسخه ی نمایشی اطلاعات متقابل Mutual information demo

  • آزمون Chi-Square Chi-square test

  • Chi-square | نسخه ی نمایشی Chi-square | Demo

  • ملاحظات Chi-square Chi-square considerations

  • Chi2 - محاسبه فرکانس های مورد انتظار (اختیاری) Chi2 - calculating the expected frequencies (Optional)

  • مسابقه Chi-square Chi-square quiz

  • آنوا Anova

  • Anova | نسخه ی نمایشی Anova | Demo

  • ویژگی ها را بر اساس مقادیر p انتخاب کنید Select features based of p-values

  • آیا می خواهید در مورد آمار بیشتر بدانید؟ Do you want to learn more about stats?

  • روش های اساسی + همبستگی + فیلتر با خط لوله آمار Basic methods + Correlation + Filter with stats pipeline

روش های فیلتر | سایر روش ها و معیارها Filter Methods | Other methods and metrics

  • روش‌ها را با سایر معیارها فیلتر کنید Filter Methods with other metrics

  • معیارهای عملکرد مدل تک متغیره Univariate model performance metrics

  • معیارهای عملکرد مدل تک متغیره | نسخه ی نمایشی Univariate model performance metrics | Demo

  • KDD 2009: ویژگی ها را با رمزگذاری میانگین هدف انتخاب کنید KDD 2009: Select features by target mean encoding

  • KDD 2009: انتخاب ویژگی ها با استفاده از کدگذاری | نسخه ی نمایشی KDD 2009: Select features by mean encoding | Demo

  • عملکرد مدل تک متغیره با ویژگی موتور Univariate model performance with Feature-engine

  • هدف انتخاب رمزگذاری میانگین با ویژگی موتور Target Mean Encoding Selection with Feature-engine

روش های لفاف دار Wrapper methods

  • روش های لفاف – مقدمه Wrapper methods – Intro

  • MLXtend MLXtend

  • قدم به جلو در انتخاب ویژگی Step forward feature selection

  • SFS - MLXtend در مقابل Sklearn SFS - MLXtend vs Sklearn

  • گام به جلو انتخاب ویژگی | MLXtend Step forward feature selection | MLXtend

  • گام به جلو انتخاب ویژگی | sklearn Step forward feature selection | sklearn

  • انتخاب ویژگی به عقب برگردید Step backward feature selection

  • گام به عقب انتخاب ویژگی | MLXtend Step backward feature selection | MLXtend

  • گام به عقب انتخاب ویژگی | Sklearn Step backward feature selection | Sklearn

  • جستجوی جامع Exhaustive search

  • جستجوی جامع | نسخه ی نمایشی Exhaustive search | Demo

روش های تعبیه شده | مدل های خطی Embedded methods | Linear models

  • ضرایب رگرسیون - مقدمه Regression Coefficients – Intro

  • انتخاب با ضرایب رگرسیون لجستیک Selection by Logistic Regression Coefficients

  • انتخاب با ضرایب رگرسیون خطی Selection by Linear Regression Coefficients

  • ضرایب با پنالتی تغییر می کند Coefficients change with penalty

  • روش های پایه + همبستگی + روش تعبیه شده با استفاده از ضرایب Basic methods + Correlation + Embedded method using coefficients

روش های تعبیه شده - تنظیم کمند Embedded methods – Lasso regularisation

  • منظم سازی - مقدمه Regularisation – Intro

  • کمند Lasso

  • یادداشتی در مورد SelectFromModel A note on SelectFromModel

  • روش های اصلی فیلتر + خط لوله LASSO Basic filter methods + LASSO pipeline

روش های تعبیه شده | درختان Embedded methods | Trees

  • انتخاب ویژگی بر اساس اهمیت درخت | مقدمه Feature Selection by Tree importance | Intro

  • انتخاب ویژگی بر اساس اهمیت درخت | نسخه ی نمایشی Feature Selection by Tree importance | Demo

  • انتخاب ویژگی بر اساس اهمیت درخت | به صورت بازگشتی Feature Selection by Tree importance | Recursively

  • انتخاب ویژگی با درختان تصمیم | مرور Feature selection with decision trees | review

روش های انتخاب ویژگی ترکیبی Hybrid feature selection methods

  • مقدمه ای بر روش های ترکیبی Introduction to hybrid methods

  • به هم زدن ویژگی - مقدمه Feature Shuffling - Intro

  • ویژگی های مخلوط کردن | نسخه ی نمایشی Shuffling features | Demo

  • حذف ویژگی بازگشتی - مقدمه Recursive feature elimination - Intro

  • حذف ویژگی بازگشتی | نسخه ی نمایشی Recursive feature elimination | Demo

  • افزودن ویژگی بازگشتی - مقدمه Recursive feature addition - Intro

  • افزودن ویژگی بازگشتی | نسخه ی نمایشی Recursive feature addition | Demo

  • مخلوط کردن ویژگی با موتور ویژگی Feature Shuffling with Feature-engine

  • حذف ویژگی بازگشتی با Feature-engine Recursive feature elimination with Feature-engine

  • افزودن ویژگی بازگشتی با Feature-engine Recursive feature addition with Feature-engine

بخش پایانی | مراحل بعدی Final section | Next steps

  • منابع خواندنی اضافی Additional reading resources

  • تبریک می گویم Congratulations

  • سخنرانی پاداش Bonus lecture

نمایش نظرات

آموزش انتخاب ویژگی برای یادگیری ماشین
جزییات دوره
5.5 hours
87
Udemy (یودمی) Udemy (یودمی)
(آخرین آپدیت)
13,621
4.6 از 5
دارد
دارد
دارد
Soledad Galli
جهت دریافت آخرین اخبار و آپدیت ها در کانال تلگرام عضو شوید.

Google Chrome Browser

Internet Download Manager

Pot Player

Winrar

Soledad Galli Soledad Galli

دانشمند داده | مربی | توسعه دهنده نرم افزار