لطفا جهت اطلاع از آخرین دوره ها و اخبار سایت در
کانال تلگرام
عضو شوید.
آموزش یادگیری ماشین و پایه های AI: تولید AI قابل توضیح AI (Xai) و راه حل های یادگیری ماشین قابل تفسیر
Machine Learning and AI Foundations: Producing Explainable AI (XAI) and Interpretable Machine Learning Solutions
نکته:
آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
نمونه ویدیوها:
توضیحات دوره:
دانشمندان داده ها و متخصصان آموزش ماشین باید با آخرین تکنیک ها و رویکردهای این زمینه بایستند. در این دوره، مربی Keith McCormick به شما نشان می دهد که چگونه برای تولید راه حل های قابل توضیح AI (Xai) و تفسیر ماشین (IML) قابل تفسیر.
یاد بگیرید که چرا نیاز به XAI در سال های اخیر به سرعت در حال افزایش است. کاوش روش های موجود و تکنیک های مشترک XAI و IML، و همچنین زمانی و نحوه استفاده از هر کدام. کیت شما را از طریق چالش ها و فرصت های مدل های جعبه سیاه به شما می دهد، به شما نشان می دهد که چگونه شفافیت را به مدل های خود و استفاده از نمونه های دنیای واقعی که ترفندهای تجارت را بر روی پلت فرم تجزیه و تحلیل آسان برای یادگیری، باز کردن منبع باز می کند، نشان می دهد. در پایان این دوره، شما درک بهتر تکنیک های XAI و IML برای هر دو توضیح جهانی و محلی خواهید داشت.
سرفصل ها و درس ها
معرفی
Introduction
بررسی دنیای AI قابل توضیح و یادگیری قابل تفسیر ماشین
Exploring the world of explainable AI and interpretable machine learning
مخاطب هدف
Target audience
آنچه شما باید بدانید
What you should know
1. XAI و IML چیست؟
1. What Are XAI and IML?
درک آنچه و چرا مدل های شما پیش بینی می کنند
Understanding the what and why your models predict
اهمیت متغیر و کدهای دلیل
Variable importance and reason codes
مقایسه IML و XAI
Comparing IML and XAI
روند در AI ایجاد مشکل Xai بیشتر برجسته است
Trends in AI making the XAI problem more prominent
توضیحات محلی و جهانی
Local and global explanations
Xai برای مدل های اشکال زدایی
XAI for debugging models
پشتیبانی Knime از توضیحات جهانی و محلی
KNIME support of global and local explanations
فصلنامه
Chapter Quiz
2. چرا جداسازی یک متغیر متغیر دشوار است
2. Why Isolating a Variable’s Contribution Is Difficult
چالش های متغیر متغیر با رگرسیون خطی
Challenges of variable attribution with linear regression
چالش های متغیر متغیر با شبکه های عصبی
Challenges of variable attribution with neural networks
اثر رشیومون
Rashomon effect
3. مدل جعبه سیاه 101
3. Black Box Model 101
چه چیزی به عنوان جعبه سیاه واجد شرایط است؟
What qualifies as a black box?
چرا ما مدل های جعبه سیاه داریم؟
Why do we have black box models?
تعاونی دقت دقیق چیست؟
What is the accuracy interpretability tradeoff?
استدلال علیه Xai
The argument against XAI
4. مقدمه ای بر Knime برای Xai و IML
4. Introduction to KNIME for XAI and IML
معرفی Knime
Introducing KNIME
مدل های ساختمانی در Knime
Building models in KNIME
درک حلقه در Knime
Understanding looping in KNIME
از کجا برای پیدا کردن پشتیبانی Knime در دسترس برای Xai
Where to find available KNIME support for XAI
5. تکنیک های Xai: توضیحات جهانی
5. XAI Techniques: Global Explanations
ارائه توضیحات جهانی با توطئه های وابستگی جزئی
Providing global explanations with partial dependence plots
با استفاده از مدل های جایگزین برای توضیحات جهانی
Using surrogate models for global explanations
توسعه و تفسیر یک مدل جایگزین با Knime
Developing and interpreting a surrogate model with KNIME
تعویض اهمیت اهمیت
Permutation feature importance
ویژگی جهانی اهمیت جهانی
Global feature importance demo
فصلنامه
Chapter Quiz
6. تکنیک های توضیحات محلی
6. Techniques for Local Explanations
توسعه شهود برای ارزش های شپلی
Developing an intuition for Shapley values
معرفی شکل
Introducing SHAP
با استفاده از آهک برای ارائه توضیحات محلی برای شبکه های عصبی
Using LIME to provide local explanations for neural networks
مخالفان چیست؟
What are counterfactuals?
فهرست محلی توضیح محلی Knime
KNIME's Local Explanation View node
داده کاو ، مربی ، سخنران ، نویسنده
کیت مک کورمیک یک کاوشگر اطلاعات ، مربی ، سخنران و نویسنده مستقل است.
کیت در توضیح روشهای پیچیده برای کاربران جدید یا تصمیم گیرندگان در سطوح مختلف از جزئیات فنی مهارت دارد. وی متخصص در مدل های پیش بینی و تجزیه و تحلیل تقسیم بندی از جمله درختان طبقه بندی ، شبکه های عصبی ، مدل خطی کلی ، تجزیه خوشه و قوانین ارتباط است.
نمایش نظرات