آموزش علم داده: یادگیری عمیق مدرن در پایتون

Data Science: Modern Deep Learning in Python

نکته: آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
نمونه ویدیوها:
توضیحات دوره: با کتابخانه های مدرن مانند Tensorflow، Theano، Keras، PyTorch، CNTK، MXNet بسازید. با GPU در AWS سریع تر تمرین کنید. برای آموزش شبکه‌های عصبی، تکانه‌ای را برای انتشار پس‌پشتی اعمال کنید. رویه‌های نرخ یادگیری تطبیقی ​​مانند AdaGrad، RMSprop و Adam را برای آموزش شبکه‌های عصبی در پس انتشار به کار ببرید. PyTorch درک تفاوت بین نزول کامل گرادیان، نزول گرادیان دسته ای و نزول گرادیان تصادفی درک و پیاده سازی منظم سازی حذفی درک و پیاده سازی نرمال سازی دسته ای درک بلوک های ساختمان اصلی Theano ساخت یک شبکه عصبی در Theano نوشتن یک شبکه عصبی با استفاده از CNTK نوشتن یک شبکه عصبی استفاده از MXNet پیش نیازها: با Python، Numpy و Matplotlib راحت باشید اگر هنوز در مورد gradient descent، backprop و softmax اطلاعاتی ندارید، دوره قبلی من، Deep Learning در Python را بخوانید و سپس به این دوره بازگردید.

این دوره از جایی ادامه می یابد که اولین دوره من، یادگیری عمیق در پایتون، متوقف شد. شما قبلاً می دانید که چگونه یک شبکه عصبی مصنوعی در پایتون بسازید و یک اسکریپت plug-and-play دارید که می توانید برای TensorFlow از آن استفاده کنید. شبکه های عصبی یکی از عناصر اصلی یادگیری ماشینی هستند و همیشه یکی از رقبای برتر در مسابقات Kaggle هستند. اگر می خواهید مهارت های خود را با شبکه های عصبی و یادگیری عمیق بهبود بخشید، این دوره برای شما مناسب است.

شما قبلاً در مورد پس انتشار یاد گرفته اید، اما سؤالات بی پاسخ زیادی وجود دارد. چگونه می توانید آن را برای بهبود سرعت تمرین تغییر دهید؟ در این دوره آموزشی در مورد نزول گرادیان دسته‌ای و تصادفی، دو تکنیک رایج مورد استفاده که به شما امکان می‌دهد در هر تکرار فقط بر روی نمونه کوچکی از داده‌ها آموزش دهید، خواهید آموخت که زمان آموزش را بسیار افزایش می‌دهد.

همچنین در مورد شتاب خواهید آموخت که می تواند برای عبور شما از حداقل های محلی مفید باشد و از محافظه کاری بیش از حد در میزان یادگیری خود جلوگیری کند. همچنین با تکنیک‌های نرخ یادگیری تطبیقی ​​مانند AdaGrad، RMSprop و Adam آشنا خواهید شد که می‌توانند به سرعت بخشیدن به آموزش شما کمک کنند.

از آنجایی که شما قبلاً در مورد اصول شبکه های عصبی می دانید، می خواهیم در مورد تکنیک های مدرن تری مانند تنظیم حذف و نرمال سازی دسته ای صحبت کنیم که در TensorFlow و Theano اجرا خواهیم کرد. این دوره به طور مداوم در حال به روز رسانی است و تکنیک های منظم سازی پیشرفته تری در آینده نزدیک ارائه می شود.

در آخرین دوره آموزشی، من فقط می‌خواستم به شما کمی اوج در TensorFlow بدهم. در این دوره ما از اصول اولیه شروع می کنیم تا دقیقاً بفهمید که چه اتفاقی می افتد - متغیرها و عبارات TensorFlow چیست و چگونه می توانید از این بلوک های سازنده برای ایجاد یک شبکه عصبی استفاده کنید؟ ما همچنین به کتابخانه‌ای نگاه می‌کنیم که مدت طولانی‌تری وجود داشته و برای یادگیری عمیق بسیار محبوب است - Theano. با استفاده از این کتابخانه، ما بلوک‌های ساختمان اصلی - متغیرها، عبارات و توابع - را نیز بررسی خواهیم کرد تا بتوانید با اطمینان شبکه‌های عصبی را در Theano بسازید.

Theano سلف همه کتابخانه های مدرن یادگیری عمیق امروزی بود. امروز، ما تقریباً گزینه های بسیار زیادی داریم. Keras، PyTorch، CNTK (مایکروسافت)، MXNet (Amazon/Apache)، و غیره. در این دوره، همه اینها را پوشش می دهیم! یکی را که بیشتر دوست دارید انتخاب و انتخاب کنید.

از آنجایی که یکی از مزایای اصلی TensorFlow و Theano توانایی استفاده از GPU برای افزایش سرعت آموزش است، من به شما نشان خواهم داد که چگونه یک نمونه GPU را در AWS راه اندازی کنید و سرعت CPU را در مقابل GPU برای آموزش مقایسه کنید. شبکه عصبی عمیق.

با این همه سرعت اضافی، ما به یک مجموعه داده واقعی - مجموعه داده معروف MNIST (تصاویر ارقام دست‌نویس) نگاه می‌کنیم و با معیارهای مختلف مقایسه می‌کنیم. زمانی که محققان می‌خواهند این سؤال را بپرسند، "آیا این چیز کار می‌کند؟"

، ابتدا به این مجموعه داده نگاه می‌کنند

این تصاویر بخش مهمی از تاریخچه یادگیری عمیق هستند و امروزه هنوز برای آزمایش استفاده می شوند. هر متخصص یادگیری عمیق باید آنها را به خوبی بشناسد.

این دوره بر "چگونگی ساخت و درک" تمرکز دارد، نه فقط "نحوه استفاده". هر کسی می تواند پس از خواندن برخی از اسناد، استفاده از API را در 15 دقیقه یاد بگیرد. این در مورد "به خاطر سپردن حقایق" نیست، بلکه در مورد "خود دیدن" از طریق آزمایش است. این به شما یاد می دهد که چگونه آنچه را که در مدل اتفاق می افتد در داخل تجسم کنید. اگر بیش از یک نگاه سطحی به مدل های یادگیری ماشین می خواهید، این دوره برای شما مناسب است.

"اگر نمی توانید آن را پیاده سازی کنید، آن را درک نمی کنید"

  • یا همانطور که فیزیکدان بزرگ ریچارد فاینمن گفت: "آنچه را که نمی توانم خلق کنم، نمی فهمم".

  • دوره‌های من تنها دوره‌هایی هستند که در آنها نحوه پیاده‌سازی الگوریتم‌های یادگیری ماشین را از ابتدا یاد خواهید گرفت

  • دوره‌های دیگر به شما یاد می‌دهند که چگونه داده‌های خود را به کتابخانه وصل کنید، اما آیا واقعاً برای 3 خط کد به کمک نیاز دارید؟

  • پس از انجام همان کار با 10 مجموعه داده، متوجه می شوید که 10 چیز را یاد نگرفته اید. شما یک چیز یاد گرفتید و فقط همان 3 خط کد را 10 بار تکرار کردید...


پیش نیازهای پیشنهادی:

  • درباره نزول گرادیان بدانید

  • احتمال و آمار

  • کدنویسی پایتون: if/else، حلقه‌ها، فهرست‌ها، دستورات، مجموعه‌ها

  • کدگذاری Numpy: عملیات ماتریس و برداری، بارگیری یک فایل CSV

  • با نحوه نوشتن یک شبکه عصبی با Numpy آشنا شوید


به چه ترتیبی باید در دوره های شما شرکت کنم؟:

  • سخنرانی "نقشه راه پیش نیاز یادگیری ماشین و هوش مصنوعی" (در پرسش‌های متداول هر یک از دوره‌های من، از جمله دوره رایگان Numpy موجود است) را بررسی کنید.


سرفصل ها و درس ها

مقدمه و طرح کلی Introduction and Outline

  • مقدمه و طرح کلی Introduction and Outline

  • کد را از کجا دریافت کنیم Where to get the Code

  • چگونه در این دوره موفق شویم How to Succeed in this Course

مرور Review

  • بررسی (نقطه 1): پیش بینی های عصبی Review (pt 1): Neuron Predictions

  • مرور (پشت 2): یادگیری نورون Review (pt 2): Neuron Learning

  • بررسی (بخش 3): شبکه های عصبی مصنوعی Review (pt 3): Artificial Neural Networks

  • اعلان تمرین را مرور کنید Review Exercise Prompt

  • کد بازبینی (نقطه 1) Review Code (pt 1)

  • کد بازبینی (نقطه 2) Review Code (pt 2)

  • خلاصه مرور Review Summary

نزول گرادیان تصادفی و نزول گرادیان دسته ای کوچک Stochastic Gradient Descent and Mini-Batch Gradient Descent

  • نزول گرادیان تصادفی و نزول گرادیان دسته ای کوچک (تئوری) Stochastic Gradient Descent and Mini-Batch Gradient Descent (Theory)

  • اعلان تمرین SGD SGD Exercise Prompt

  • نزول گرادیان تصادفی و نزول گرادیان دسته ای کوچک (کد pt 1) Stochastic Gradient Descent and Mini-Batch Gradient Descent (Code pt 1)

  • نزول گرادیان تصادفی و نزول گرادیان دسته ای کوچک (کد pt 2) Stochastic Gradient Descent and Mini-Batch Gradient Descent (Code pt 2)

سرعت و سرعت یادگیری تطبیقی Momentum and adaptive learning rates

  • استفاده از مومنتوم برای افزایش سرعت تمرین Using Momentum to Speed Up Training

  • حرکت نستروف Nesterov Momentum

  • حرکت در کد Momentum in Code

  • نرخ یادگیری متغیر و انطباقی Variable and adaptive learning rates

  • نرخ یادگیری ثابت در مقابل RMSProp در کد Constant learning rate vs. RMSProp in Code

  • Adam Optimization (pt 1) Adam Optimization (pt 1)

  • Adam Optimization (pt 2) Adam Optimization (pt 2)

  • آدم در کد Adam in Code

  • صندوق پیشنهادات Suggestion Box

انتخاب فراپارامترها Choosing Hyperparameters

  • بهینه سازی هایپرپارامتر: اعتبارسنجی متقابل، جستجوی شبکه ای و جستجوی تصادفی Hyperparameter Optimization: Cross-validation, Grid Search, and Random Search

  • نمونه برداری لگاریتمی Sampling Logarithmically

  • جستجوی شبکه در کد Grid Search in Code

  • اصلاح جستجوی شبکه Modifying Grid Search

  • جستجوی تصادفی در کد Random Search in Code

مقدار اولیه وزن Weight Initialization

  • مقدمه بخش اولیه سازی وزن Weight Initialization Section Introduction

  • ناپدید شدن و انفجار گرادیان Vanishing and Exploding Gradients

  • مقدار اولیه وزن Weight Initialization

  • حداقل های محلی در مقابل جهانی Local vs. Global Minima

  • خلاصه بخش اولیه سازی وزن Weight Initialization Section Summary

تیانو Theano

  • مبانی Theano: متغیرها، توابع، عبارات، بهینه سازی Theano Basics: Variables, Functions, Expressions, Optimization

  • ساخت شبکه عصبی در Theano Building a neural network in Theano

  • آیا تیانو مرده است؟ Is Theano Dead?

TensorFlow TensorFlow

  • مبانی TensorFlow: متغیرها، توابع، عبارات، بهینه سازی TensorFlow Basics: Variables, Functions, Expressions, Optimization

  • ساخت شبکه عصبی در تنسورفلو Building a neural network in TensorFlow

  • Session چیست؟ (و بیشتر) What is a Session? (And more)

افزایش سرعت پردازنده گرافیکی، تکالیف خانگی و سایر موضوعات متفرقه GPU Speedup, Homework, and Other Misc Topics

  • راه اندازی یک نمونه GPU در خدمات وب آمازون Setting up a GPU Instance on Amazon Web Services

  • در حال نصب کتابخانه‌های یادگیری عمیق NVIDIA-GPU Accelerated در رایانه خانگی خود Installing NVIDIA GPU-Accelerated Deep Learning Libraries on your Home Computer

  • آیا می توان از داده های بزرگ برای سرعت بخشیدن به پس انتشار استفاده کرد؟ Can Big Data be used to Speed Up Backpropagation?

  • چگونه مهارت های Theano و Tensorflow خود را بهبود بخشید How to Improve your Theano and Tensorflow Skills

  • Theano در مقابل TensorFlow Theano vs. TensorFlow

انتقال به نیمه دوم دوره Transition to the 2nd Half of the Course

  • انتقال به نیمه دوم دوره Transition to the 2nd Half of the Course

پروژه: تشخیص حالت چهره Project: Facial Expression Recognition

  • معرفی پروژه تشخیص حالت چهره Facial Expression Recognition Project Introduction

  • شرح مشکل تشخیص حالت چهره Facial Expression Recognition Problem Description

  • مشکل عدم تعادل طبقاتی The class imbalance problem

  • راهنمايي آب و برق Utilities walkthrough

  • ANN مبتنی بر کلاس در Theano Class-Based ANN in Theano

  • ANN مبتنی بر کلاس در TensorFlow Class-Based ANN in TensorFlow

  • خلاصه پروژه تشخیص حالت چهره Facial Expression Recognition Project Summary

تکنیک های منظم سازی مدرن Modern Regularization Techniques

  • مقدمه بخش تکنیک های منظم سازی مدرن Modern Regularization Techniques Section Introduction

  • تنظیم ترک تحصیل Dropout Regularization

  • شهود ترک تحصیل Dropout Intuition

  • تزریق نویز Noise Injection

  • خلاصه بخش تکنیک های منظم سازی مدرن Modern Regularization Techniques Section Summary

عادی سازی دسته ای Batch Normalization

  • مقدمه عادی سازی دسته ای Batch Normalization Introduction

  • میانگین های هموار نمایی Exponentially-Smoothed Averages

  • تئوری عادی سازی دسته ای Batch Normalization Theory

  • نرمال سازی دسته ای Tensorflow (قسمت 1) Batch Normalization Tensorflow (part 1)

  • نرمال سازی دسته ای Tensorflow (قسمت 2) Batch Normalization Tensorflow (part 2)

  • نرمال سازی دسته ای Theano (قسمت 1) Batch Normalization Theano (part 1)

  • نرمال سازی دسته ای Theano (قسمت 2) Batch Normalization Theano (part 2)

  • چشم انداز نویز Noise Perspective

  • خلاصه نرمال سازی دسته ای Batch Normalization Summary

کراس Keras

  • بحث کراس Keras Discussion

  • کراس در کد Keras in Code

  • Keras Functional API Keras Functional API

  • چگونه به راحتی Keras را به کد Tensorflow 2.0 تبدیل کنیم How to easily convert Keras into Tensorflow 2.0 code

PyTorch PyTorch

  • مبانی PyTorch PyTorch Basics

  • خروج PyTorch PyTorch Dropout

  • هنجار دسته ای PyTorch PyTorch Batch Norm

PyTorch، CNTK و MXNet PyTorch, CNTK, and MXNet

  • PyTorch، CNTK و MXNet PyTorch, CNTK, and MXNet

مباحث مرور یادگیری عمیق Deep Learning Review Topics

  • تفاوت بین "شبکه های عصبی" و "یادگیری عمیق" چیست؟ What's the difference between "neural networks" and "deep learning"?

  • انتخاب دستی نرخ یادگیری و جریمه منظم سازی Manually Choosing Learning Rate and Regularization Penalty

تنظیم محیط شما (سؤالات متداول بر اساس درخواست دانشجو) Setting Up Your Environment (FAQ by Student Request)

  • تنظیم محیط آناکوندا Anaconda Environment Setup

  • نحوه نصب Numpy، Scipy، Matplotlib، Pandas، IPython، Theano و TensorFlow How to install Numpy, Scipy, Matplotlib, Pandas, IPython, Theano, and TensorFlow

کمک اضافی برای کدنویسی پایتون برای مبتدیان (سؤالات متداول بر اساس درخواست دانشجو) Extra Help With Python Coding for Beginners (FAQ by Student Request)

  • نحوه کدنویسی توسط خودتان (قسمت 1) How to Code by Yourself (part 1)

  • نحوه کدنویسی توسط خودتان (قسمت 2) How to Code by Yourself (part 2)

  • اثبات اینکه استفاده از نوت بوک Jupyter همان استفاده نکردن از آن است Proof that using Jupyter Notebook is the same as not using it

  • چگونه یک فایل .tar.gz را از حالت فشرده خارج کنیم How to Uncompress a .tar.gz file

  • پایتون 2 در مقابل پایتون 3 Python 2 vs Python 3

استراتژی‌های یادگیری مؤثر برای یادگیری ماشین (سؤالات متداول بر اساس درخواست دانشجو) Effective Learning Strategies for Machine Learning (FAQ by Student Request)

  • چگونه در این دوره موفق شویم (نسخه طولانی) How to Succeed in this Course (Long Version)

  • این برای مبتدیان است یا متخصصان؟ علمی یا عملی؟ سریع یا کند؟ Is this for Beginners or Experts? Academic or Practical? Fast or slow-paced?

  • نقشه راه پیش نیاز یادگیری ماشین و هوش مصنوعی (نقطه 1) Machine Learning and AI Prerequisite Roadmap (pt 1)

  • نقشه راه پیش نیاز یادگیری ماشین و هوش مصنوعی (نقطه 2) Machine Learning and AI Prerequisite Roadmap (pt 2)

ضمیمه/پرسش و پاسخ نهایی Appendix / FAQ Finale

  • آپاندیس چیست؟ What is the Appendix?

  • جایزه BONUS

نمایش نظرات

آموزش علم داده: یادگیری عمیق مدرن در پایتون
جزییات دوره
11.5 hours
89
Udemy (یودمی) Udemy (یودمی)
(آخرین آپدیت)
33,534
4.7 از 5
ندارد
دارد
دارد
جهت دریافت آخرین اخبار و آپدیت ها در کانال تلگرام عضو شوید.

Google Chrome Browser

Internet Download Manager

Pot Player

Winrar

Lazy Programmer Inc. Lazy Programmer Inc.

امروز ، بیشتر وقتم را به عنوان یک مهندس هوش مصنوعی و یادگیری ماشین با تمرکز بر یادگیری عمیق می گذرانم ، اگرچه همچنین به عنوان دانشمند داده ، مهندس داده های بزرگ و مهندس نرم افزار کامل پشته نیز شناخته شده ام. من مدرک کارشناسی ارشد خود را در رشته مهندسی کامپیوتر با گرایش یادگیری ماشین و تشخیص الگو دریافت کردم. این تجربه شامل تبلیغات آنلاین و رسانه های دیجیتالی به عنوان دانشمند داده (بهینه سازی نرخ کلیک و تبدیل) و مهندس داده های بزرگ (ساخت خطوط لوله پردازش داده) است. برخی از فناوری های کلان داده ای که من مرتباً استفاده می کنم ، Hadoop ، Pig ، Hive ، MapReduce و Spark هستند. من مدل های یادگیری عمیق را برای پیش بینی میزان کلیک و رفتار کاربر و همچنین برای پردازش تصویر و سیگنال و مدل سازی متن ایجاد کرده ام. کار من در سیستم های پیشنهادی از آموزش تقویت و فیلتر کردن مشارکتی استفاده کرده است و ما نتایج را با استفاده از تست A / B معتبر کردیم.