Beginning of dialog window. Escape will cancel and close the window.
End of dialog window.
نکته:
آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
نمونه ویدیویی برای نمایش وجود ندارد.
توضیحات دوره:
این دوره چندین تکنیک را برای ساده سازی بهینه داده های مورد استفاده در برنامه های یادگیری ماشین تحت نظارت استفاده می کند ، از تکنیک های نسبتاً ساده انتخاب ویژگی گرفته تا برنامه های بسیار پیچیده خوشه بندی با استفاده از شبکه های عصبی عمیق ، شامل این دوره است: مسیر مهندسی ویژگی همه را بزرگ کنید بررسی اجمالی دوره 2m 16s درک نیاز به کاهش ابعاد 51 متر مکعب استفاده از تکنیک های آماری برای انتخاب ویژگی ها 44m 57s کاهش پیچیدگی در داده های خطی 36m 21s کاهش پیچیدگی در داده های غیرخطی 32 متر 43s کاهش ابعاد با استفاده از روش های خوشه بندی و رمزگذاری خودکار 33 متر 8 ثانیه علائم تجاری و نام تجاری اشخاص ثالث ذکر شده در این دوره متعلق به صاحبان مربوطه می باشند و Pluralsight وابسته یا تأیید شده توسط این احزاب نیست.
سرفصل ها و درس ها
بررسی اجمالی دوره
Course Overview
بررسی اجمالی دوره
Course Overview
درک نیاز به کاهش ابعاد
Understanding the Need for Dimensionality Reduction
بررسی اجمالی ماژول
Module Overview
پیش نیازها و طرح کلی دوره
Prerequisites and Course Outline
نفرین بعد
The Curse of Dimensionality
نصب بیش از حد و واریانس تعصب
Overfitting and the Bias-variance Trade-off
تکنیک هایی برای کاهش پیچیدگی
Techniques to Reduce Complexity
انتخاب تکنیک مناسب
Choosing the Right Technique
اشکالاتی در کاهش پیچیدگی
Drawbacks of Reducing Complexity
نسخه ی نمایشی: مجموعه داده های دیابت - کاوش
Demo: The Diabetes Dataset - Exploration
نسخه ی نمایشی: ایجاد یک مدل پایه
Demo: Establishing a Baseline Model
نسخه ی نمایشی: مجموعه قیمت مسکن بوستون - کاوش
Demo: The Boston Housing Prices Dataset - Exploration
نسخه ی نمایشی: رگرسیون سینک ظرفشویی آشپزخانه برای ایجاد یک مدل پایه
Demo: Kitchen Sink Regression to Establish a Baseline Model
خلاصه
Summary
استفاده از تکنیک های آماری برای انتخاب ویژگی ها
Using Statistical Techniques for Feature Selection
بررسی اجمالی ماژول
Module Overview
تکنیک های آماری برای انتخاب ویژگی ها
Statistical Techniques for Feature Selection
بررسی اجمالی مفهومی روشهای مختلف انتخاب ویژگی
Conceptual Overview of Different Feature Selection Techniques
نسخه ی نمایشی: انتخاب ویژگی ها با استفاده از آستانه واریانس
Demo: Selecting Features Using a Variance Threshold
نسخه ی نمایشی: انتخاب K بهترین ویژگی ها با استفاده از تجزیه و تحلیل Chi2
Demo: Selecting K Best Features Using Chi2 Analysis
نسخه ی نمایشی: تنظیم عملکردهای کمکی برای انتخاب ویژگی
Demo: Setting up Helper Functions for Feature Selection
نسخه ی نمایشی: با استفاده از تجزیه و تحلیل Chi2 مقدار مناسب K را پیدا کنید
Demo: Find the Right Value for K Using Chi2 Analysis
نسخه ی نمایشی: با استفاده از ANOVA مقدار مناسب K را پیدا کنید
Demo: Find the Right Value for K Using ANOVA
نسخه ی نمایشی: با استفاده از درصد و تجزیه و تحلیل اطلاعات متقابل ، ویژگی ها را انتخاب کنید
Demo: Select Features Using Percentiles and Mutual Information Analysis
نسخه ی نمایشی: آموزش فرهنگ لغت در ارقام دست نویس
Demo: Dictionary Learning on Handwritten Digits
خلاصه
Summary
کاهش پیچیدگی در داده های خطی
Reducing Complexity in Linear Data
بررسی اجمالی ماژول
Module Overview
درک تجزیه و تحلیل مincipلفه های اصلی
Understanding Principal Components Analysis
نسخه ی نمایشی: انجام PCA برای کاهش ابعاد
Demo: Performing PCA to Reduce Dimensionality
نسخه ی نمایشی: ساخت مدل های خطی با استفاده از اجزای اصلی
Demo: Building Linear Models Using Principal Components
درک تحلیل عامل
Understanding Factor Analysis
نسخه ی نمایشی: استفاده از تحلیل عاملی برای کاهش ابعاد
Demo: Applying Factor Analysis to Reduce Dimensionality
درک تحلیل تفکیک خطی
Understanding Linear Discriminant Analysis
نسخه ی نمایشی: انجام تجزیه و تحلیل خطی تبعیض آمیز برای تغییر جهت داده ها
Demo: Performing Linear Discriminant Analysis to Reorient Data
خلاصه
Summary
کاهش پیچیدگی در داده های غیرخطی
Reducing Complexity in Nonlinear Data
نسخه ی نمایشی: تولید منیفولد و تنظیم عملکردهای کمکی
Demo: Generate Manifold and Set up Helper Functions
نسخه ی نمایشی: یادگیری چندگانه با استفاده از مقیاس گذاری چند بعدی و جاسازی طیفی
Demo: Manifold Learning Using Multidimensional Scaling and Spectral Embedding
نسخه ی نمایشی: یادگیری چندگانه با استفاده از t-SNE و Isomap
Demo: Manifold Learning Using t-SNE and Isomap
نسخه ی نمایشی: یادگیری منیفولد با استفاده از تعبیه محلی و خطی
Demo: Manifold Learning Using Locally Linear Embedding
نسخه ی نمایشی: انجام PCA هسته برای کاهش پیچیدگی در داده های غیرخطی
Demo: Performing Kernel PCA to Reduce Complexity in Nonlinear Data
خلاصه
Summary
کاهش ابعاد با استفاده از روش های خوشه بندی و رمزگذاری خودکار
Dimensionality Reduction Using Clustering and Autoencoding Techniques
بررسی اجمالی ماژول
Module Overview
K- به معنای انباشت مدل است
K-means Model Stacking
نسخه ی نمایشی: طبقه بندی تصویر با ویژگی های اصلی
Demo: Classifying Image with Original Features
نسخه ی نمایشی: تبدیل داده ها با استفاده از مراکز خوشه K-means
Demo: Transforming Data Using K-means Cluster Centers
رمزگذاری خودکار
Autoencoding
نسخه ی نمایشی: داده های تصویر را برای تغذیه رمزگذار خودکار آماده کنید
Demo: Prepare Image Data to Feed an Autoencoder
نسخه ی نمایشی: استفاده از رمزگذاران خودکار برای یادگیری نمایش کارآمد داده ها
Demo: Using Autoencoders to Learn Efficient Representations of Data
Janani Ravi یک معمار و مهندس داده خبره Google cloud است.
جنانی مدرک کارشناسی ارشد خود را در رشته مهندسی برق از دانشگاه استنفورد دریافت کرد و برای مایکروسافت، گوگل و فلیپ کارت کار کرده است. او یکی از بنیانگذاران Loonycorn است، یک استودیوی محتوا که بر ارائه محتوای با کیفیت بالا برای توسعه مهارت های فنی متمرکز است، جایی که او عشق خود را به فناوری با اشتیاق خود به تدریس ترکیب می کند.
نمایش نظرات