لطفا جهت اطلاع از آخرین دوره ها و اخبار سایت در
کانال تلگرام
عضو شوید.
آموزش علم داده: یادگیری عمیق مدرن در پایتون
Data Science: Modern Deep Learning in Python
نکته:
آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
نمونه ویدیوها:
توضیحات دوره:
با کتابخانه های مدرن مانند Tensorflow، Theano، Keras، PyTorch، CNTK، MXNet بسازید. با GPU در AWS سریع تر تمرین کنید. برای آموزش شبکههای عصبی، تکانهای را برای انتشار پسپشتی اعمال کنید. رویههای نرخ یادگیری تطبیقی مانند AdaGrad، RMSprop و Adam را برای آموزش شبکههای عصبی در پس انتشار به کار ببرید. PyTorch درک تفاوت بین نزول کامل گرادیان، نزول گرادیان دسته ای و نزول گرادیان تصادفی درک و پیاده سازی منظم سازی حذفی درک و پیاده سازی نرمال سازی دسته ای درک بلوک های ساختمان اصلی Theano ساخت یک شبکه عصبی در Theano نوشتن یک شبکه عصبی با استفاده از CNTK نوشتن یک شبکه عصبی استفاده از MXNet پیش نیازها: با Python، Numpy و Matplotlib راحت باشید اگر هنوز در مورد gradient descent، backprop و softmax اطلاعاتی ندارید، دوره قبلی من، Deep Learning در Python را بخوانید و سپس به این دوره بازگردید.
این دوره از جایی ادامه می یابد که اولین دوره من، یادگیری عمیق در پایتون، متوقف شد. شما قبلاً می دانید که چگونه یک شبکه عصبی مصنوعی در پایتون بسازید و یک اسکریپت plug-and-play دارید که می توانید برای TensorFlow از آن استفاده کنید. شبکه های عصبی یکی از عناصر اصلی یادگیری ماشینی هستند و همیشه یکی از رقبای برتر در مسابقات Kaggle هستند. اگر می خواهید مهارت های خود را با شبکه های عصبی و یادگیری عمیق بهبود بخشید، این دوره برای شما مناسب است.
شما قبلاً در مورد پس انتشار یاد گرفته اید، اما سؤالات بی پاسخ زیادی وجود دارد. چگونه می توانید آن را برای بهبود سرعت تمرین تغییر دهید؟ در این دوره آموزشی در مورد نزول گرادیان دستهای و تصادفی، دو تکنیک رایج مورد استفاده که به شما امکان میدهد در هر تکرار فقط بر روی نمونه کوچکی از دادهها آموزش دهید، خواهید آموخت که زمان آموزش را بسیار افزایش میدهد.
همچنین در مورد شتاب خواهید آموخت که می تواند برای عبور شما از حداقل های محلی مفید باشد و از محافظه کاری بیش از حد در میزان یادگیری خود جلوگیری کند. همچنین با تکنیکهای نرخ یادگیری تطبیقی مانند AdaGrad، RMSprop و Adam آشنا خواهید شد که میتوانند به سرعت بخشیدن به آموزش شما کمک کنند.
از آنجایی که شما قبلاً در مورد اصول شبکه های عصبی می دانید، می خواهیم در مورد تکنیک های مدرن تری مانند تنظیم حذف و نرمال سازی دسته ای صحبت کنیم که در TensorFlow و Theano اجرا خواهیم کرد. این دوره به طور مداوم در حال به روز رسانی است و تکنیک های منظم سازی پیشرفته تری در آینده نزدیک ارائه می شود.
در آخرین دوره آموزشی، من فقط میخواستم به شما کمی اوج در TensorFlow بدهم. در این دوره ما از اصول اولیه شروع می کنیم تا دقیقاً بفهمید که چه اتفاقی می افتد - متغیرها و عبارات TensorFlow چیست و چگونه می توانید از این بلوک های سازنده برای ایجاد یک شبکه عصبی استفاده کنید؟ ما همچنین به کتابخانهای نگاه میکنیم که مدت طولانیتری وجود داشته و برای یادگیری عمیق بسیار محبوب است - Theano. با استفاده از این کتابخانه، ما بلوکهای ساختمان اصلی - متغیرها، عبارات و توابع - را نیز بررسی خواهیم کرد تا بتوانید با اطمینان شبکههای عصبی را در Theano بسازید.
Theano سلف همه کتابخانه های مدرن یادگیری عمیق امروزی بود. امروز، ما تقریباً گزینه های بسیار زیادی داریم. Keras، PyTorch، CNTK (مایکروسافت)، MXNet (Amazon/Apache)، و غیره. در این دوره، همه اینها را پوشش می دهیم! یکی را که بیشتر دوست دارید انتخاب و انتخاب کنید.
از آنجایی که یکی از مزایای اصلی TensorFlow و Theano توانایی استفاده از GPU برای افزایش سرعت آموزش است، من به شما نشان خواهم داد که چگونه یک نمونه GPU را در AWS راه اندازی کنید و سرعت CPU را در مقابل GPU برای آموزش مقایسه کنید. شبکه عصبی عمیق.
با این همه سرعت اضافی، ما به یک مجموعه داده واقعی - مجموعه داده معروف MNIST (تصاویر ارقام دستنویس) نگاه میکنیم و با معیارهای مختلف مقایسه میکنیم. زمانی که محققان میخواهند این سؤال را بپرسند، "آیا این چیز کار میکند؟"
، ابتدا به این مجموعه داده نگاه میکنند
این تصاویر بخش مهمی از تاریخچه یادگیری عمیق هستند و امروزه هنوز برای آزمایش استفاده می شوند. هر متخصص یادگیری عمیق باید آنها را به خوبی بشناسد.
این دوره بر "چگونگی ساخت و درک" تمرکز دارد، نه فقط "نحوه استفاده". هر کسی می تواند پس از خواندن برخی از اسناد، استفاده از API را در 15 دقیقه یاد بگیرد. این در مورد "به خاطر سپردن حقایق" نیست، بلکه در مورد "خود دیدن" از طریق آزمایش است. این به شما یاد می دهد که چگونه آنچه را که در مدل اتفاق می افتد در داخل تجسم کنید. اگر بیش از یک نگاه سطحی به مدل های یادگیری ماشین می خواهید، این دوره برای شما مناسب است.
"اگر نمی توانید آن را پیاده سازی کنید، آن را درک نمی کنید"
یا همانطور که فیزیکدان بزرگ ریچارد فاینمن گفت: "آنچه را که نمی توانم خلق کنم، نمی فهمم".
دورههای من تنها دورههایی هستند که در آنها نحوه پیادهسازی الگوریتمهای یادگیری ماشین را از ابتدا یاد خواهید گرفت
دورههای دیگر به شما یاد میدهند که چگونه دادههای خود را به کتابخانه وصل کنید، اما آیا واقعاً برای 3 خط کد به کمک نیاز دارید؟
پس از انجام همان کار با 10 مجموعه داده، متوجه می شوید که 10 چیز را یاد نگرفته اید. شما یک چیز یاد گرفتید و فقط همان 3 خط کد را 10 بار تکرار کردید...
کدگذاری Numpy: عملیات ماتریس و برداری، بارگیری یک فایل CSV
با نحوه نوشتن یک شبکه عصبی با Numpy آشنا شوید
به چه ترتیبی باید در دوره های شما شرکت کنم؟:
سخنرانی "نقشه راه پیش نیاز یادگیری ماشین و هوش مصنوعی" (در پرسشهای متداول هر یک از دورههای من، از جمله دوره رایگان Numpy موجود است) را بررسی کنید.
سرفصل ها و درس ها
مقدمه و طرح کلی
Introduction and Outline
مقدمه و طرح کلی
Introduction and Outline
کد را از کجا دریافت کنیم
Where to get the Code
چگونه در این دوره موفق شویم
How to Succeed in this Course
مرور
Review
بررسی (نقطه 1): پیش بینی های عصبی
Review (pt 1): Neuron Predictions
مرور (پشت 2): یادگیری نورون
Review (pt 2): Neuron Learning
بررسی (بخش 3): شبکه های عصبی مصنوعی
Review (pt 3): Artificial Neural Networks
اعلان تمرین را مرور کنید
Review Exercise Prompt
کد بازبینی (نقطه 1)
Review Code (pt 1)
کد بازبینی (نقطه 2)
Review Code (pt 2)
خلاصه مرور
Review Summary
نزول گرادیان تصادفی و نزول گرادیان دسته ای کوچک
Stochastic Gradient Descent and Mini-Batch Gradient Descent
نزول گرادیان تصادفی و نزول گرادیان دسته ای کوچک (تئوری)
Stochastic Gradient Descent and Mini-Batch Gradient Descent (Theory)
اعلان تمرین SGD
SGD Exercise Prompt
نزول گرادیان تصادفی و نزول گرادیان دسته ای کوچک (کد pt 1)
Stochastic Gradient Descent and Mini-Batch Gradient Descent (Code pt 1)
نزول گرادیان تصادفی و نزول گرادیان دسته ای کوچک (کد pt 2)
Stochastic Gradient Descent and Mini-Batch Gradient Descent (Code pt 2)
سرعت و سرعت یادگیری تطبیقی
Momentum and adaptive learning rates
استفاده از مومنتوم برای افزایش سرعت تمرین
Using Momentum to Speed Up Training
حرکت نستروف
Nesterov Momentum
حرکت در کد
Momentum in Code
نرخ یادگیری متغیر و انطباقی
Variable and adaptive learning rates
نرخ یادگیری ثابت در مقابل RMSProp در کد
Constant learning rate vs. RMSProp in Code
Adam Optimization (pt 1)
Adam Optimization (pt 1)
Adam Optimization (pt 2)
Adam Optimization (pt 2)
آدم در کد
Adam in Code
صندوق پیشنهادات
Suggestion Box
انتخاب فراپارامترها
Choosing Hyperparameters
بهینه سازی هایپرپارامتر: اعتبارسنجی متقابل، جستجوی شبکه ای و جستجوی تصادفی
Hyperparameter Optimization: Cross-validation, Grid Search, and Random Search
نمونه برداری لگاریتمی
Sampling Logarithmically
جستجوی شبکه در کد
Grid Search in Code
اصلاح جستجوی شبکه
Modifying Grid Search
جستجوی تصادفی در کد
Random Search in Code
مقدار اولیه وزن
Weight Initialization
مقدمه بخش اولیه سازی وزن
Weight Initialization Section Introduction
ناپدید شدن و انفجار گرادیان
Vanishing and Exploding Gradients
مقدار اولیه وزن
Weight Initialization
حداقل های محلی در مقابل جهانی
Local vs. Global Minima
خلاصه بخش اولیه سازی وزن
Weight Initialization Section Summary
ساخت شبکه عصبی در تنسورفلو
Building a neural network in TensorFlow
Session چیست؟ (و بیشتر)
What is a Session? (And more)
افزایش سرعت پردازنده گرافیکی، تکالیف خانگی و سایر موضوعات متفرقه
GPU Speedup, Homework, and Other Misc Topics
راه اندازی یک نمونه GPU در خدمات وب آمازون
Setting up a GPU Instance on Amazon Web Services
در حال نصب کتابخانههای یادگیری عمیق NVIDIA-GPU Accelerated در رایانه خانگی خود
Installing NVIDIA GPU-Accelerated Deep Learning Libraries on your Home Computer
آیا می توان از داده های بزرگ برای سرعت بخشیدن به پس انتشار استفاده کرد؟
Can Big Data be used to Speed Up Backpropagation?
چگونه مهارت های Theano و Tensorflow خود را بهبود بخشید
How to Improve your Theano and Tensorflow Skills
Theano در مقابل TensorFlow
Theano vs. TensorFlow
انتقال به نیمه دوم دوره
Transition to the 2nd Half of the Course
انتقال به نیمه دوم دوره
Transition to the 2nd Half of the Course
پروژه: تشخیص حالت چهره
Project: Facial Expression Recognition
معرفی پروژه تشخیص حالت چهره
Facial Expression Recognition Project Introduction
شرح مشکل تشخیص حالت چهره
Facial Expression Recognition Problem Description
مشکل عدم تعادل طبقاتی
The class imbalance problem
راهنمايي آب و برق
Utilities walkthrough
ANN مبتنی بر کلاس در Theano
Class-Based ANN in Theano
ANN مبتنی بر کلاس در TensorFlow
Class-Based ANN in TensorFlow
خلاصه پروژه تشخیص حالت چهره
Facial Expression Recognition Project Summary
تکنیک های منظم سازی مدرن
Modern Regularization Techniques
مقدمه بخش تکنیک های منظم سازی مدرن
Modern Regularization Techniques Section Introduction
تنظیم ترک تحصیل
Dropout Regularization
شهود ترک تحصیل
Dropout Intuition
تزریق نویز
Noise Injection
خلاصه بخش تکنیک های منظم سازی مدرن
Modern Regularization Techniques Section Summary
عادی سازی دسته ای
Batch Normalization
مقدمه عادی سازی دسته ای
Batch Normalization Introduction
تئوری عادی سازی دسته ای
Batch Normalization Theory
نرمال سازی دسته ای Tensorflow (قسمت 1)
Batch Normalization Tensorflow (part 1)
نرمال سازی دسته ای Tensorflow (قسمت 2)
Batch Normalization Tensorflow (part 2)
نرمال سازی دسته ای Theano (قسمت 1)
Batch Normalization Theano (part 1)
نرمال سازی دسته ای Theano (قسمت 2)
Batch Normalization Theano (part 2)
چشم انداز نویز
Noise Perspective
خلاصه نرمال سازی دسته ای
Batch Normalization Summary
کراس
Keras
بحث کراس
Keras Discussion
کراس در کد
Keras in Code
Keras Functional API
Keras Functional API
چگونه به راحتی Keras را به کد Tensorflow 2.0 تبدیل کنیم
How to easily convert Keras into Tensorflow 2.0 code
PyTorch
PyTorch
مبانی PyTorch
PyTorch Basics
خروج PyTorch
PyTorch Dropout
هنجار دسته ای PyTorch
PyTorch Batch Norm
PyTorch، CNTK و MXNet
PyTorch, CNTK, and MXNet
PyTorch، CNTK و MXNet
PyTorch, CNTK, and MXNet
مباحث مرور یادگیری عمیق
Deep Learning Review Topics
تفاوت بین "شبکه های عصبی" و "یادگیری عمیق" چیست؟
What's the difference between "neural networks" and "deep learning"?
انتخاب دستی نرخ یادگیری و جریمه منظم سازی
Manually Choosing Learning Rate and Regularization Penalty
تنظیم محیط شما (سؤالات متداول بر اساس درخواست دانشجو)
Setting Up Your Environment (FAQ by Student Request)
تنظیم محیط آناکوندا
Anaconda Environment Setup
نحوه نصب Numpy، Scipy، Matplotlib، Pandas، IPython، Theano و TensorFlow
How to install Numpy, Scipy, Matplotlib, Pandas, IPython, Theano, and TensorFlow
کمک اضافی برای کدنویسی پایتون برای مبتدیان (سؤالات متداول بر اساس درخواست دانشجو)
Extra Help With Python Coding for Beginners (FAQ by Student Request)
نحوه کدنویسی توسط خودتان (قسمت 1)
How to Code by Yourself (part 1)
نحوه کدنویسی توسط خودتان (قسمت 2)
How to Code by Yourself (part 2)
اثبات اینکه استفاده از نوت بوک Jupyter همان استفاده نکردن از آن است
Proof that using Jupyter Notebook is the same as not using it
چگونه یک فایل .tar.gz را از حالت فشرده خارج کنیم
How to Uncompress a .tar.gz file
پایتون 2 در مقابل پایتون 3
Python 2 vs Python 3
استراتژیهای یادگیری مؤثر برای یادگیری ماشین (سؤالات متداول بر اساس درخواست دانشجو)
Effective Learning Strategies for Machine Learning (FAQ by Student Request)
چگونه در این دوره موفق شویم (نسخه طولانی)
How to Succeed in this Course (Long Version)
این برای مبتدیان است یا متخصصان؟ علمی یا عملی؟ سریع یا کند؟
Is this for Beginners or Experts? Academic or Practical? Fast or slow-paced?
نقشه راه پیش نیاز یادگیری ماشین و هوش مصنوعی (نقطه 1)
Machine Learning and AI Prerequisite Roadmap (pt 1)
نقشه راه پیش نیاز یادگیری ماشین و هوش مصنوعی (نقطه 2)
Machine Learning and AI Prerequisite Roadmap (pt 2)
امروز ، بیشتر وقتم را به عنوان یک مهندس هوش مصنوعی و یادگیری ماشین با تمرکز بر یادگیری عمیق می گذرانم ، اگرچه همچنین به عنوان دانشمند داده ، مهندس داده های بزرگ و مهندس نرم افزار کامل پشته نیز شناخته شده ام.
من مدرک کارشناسی ارشد خود را در رشته مهندسی کامپیوتر با گرایش یادگیری ماشین و تشخیص الگو دریافت کردم.
این تجربه شامل تبلیغات آنلاین و رسانه های دیجیتالی به عنوان دانشمند داده (بهینه سازی نرخ کلیک و تبدیل) و مهندس داده های بزرگ (ساخت خطوط لوله پردازش داده) است. برخی از فناوری های کلان داده ای که من مرتباً استفاده می کنم ، Hadoop ، Pig ، Hive ، MapReduce و Spark هستند.
من مدل های یادگیری عمیق را برای پیش بینی میزان کلیک و رفتار کاربر و همچنین برای پردازش تصویر و سیگنال و مدل سازی متن ایجاد کرده ام.
کار من در سیستم های پیشنهادی از آموزش تقویت و فیلتر کردن مشارکتی استفاده کرده است و ما نتایج را با استفاده از تست A / B معتبر کردیم.
نمایش نظرات