آموزش درک عمیق از یادگیری عمیق (با مقدمه پایتون)

A deep understanding of deep learning (with Python intro)

نکته: آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
نمونه ویدیوها:
توضیحات دوره: به یادگیری عمیق در PyTorch با استفاده از رویکرد علمی تجربی، با مثال‌ها و مشکلات تمرینی فراوان، مسلط شوید. تئوری و ریاضی زیربنای یادگیری عمیق نحوه ساخت شبکه‌های عصبی مصنوعی معماری شبکه‌های پیش‌خور و کانولوشن مدل‌های ساخت در PyTorch محاسبات و کد نزول گرادیان تنظیم دقیق مدل‌های شبکه عمیق یادگیری پایتون از ابتدا (بدون تجربه کدنویسی قبلی) چگونه و چرا رمزگذارهای خودکار کار می کنند چگونه از یادگیری انتقال استفاده کنیم بهبود عملکرد مدل با استفاده از منظم سازی بهینه سازی مقدار دهی اولیه وزن درک پیچیدگی تصویر با استفاده از هسته های از پیش تعریف شده و آموخته شده آیا مدل های یادگیری عمیق جعبه های سیاه قابل درک یا مرموز هستند! استفاده از پردازنده‌های گرافیکی برای یادگیری عمیق (بسیار سریع‌تر از پردازنده‌ها!) پیش نیازها:علاقه به یادگیری یادگیری عمیق! مهارت‌های پایتون/پایتورچ در دوره حساب کاربری گوگل (google-colab به عنوان IDE پایتون استفاده می‌شود) آموزش داده می‌شود.

یادگیری عمیق به طور فزاینده ای بر فناوری تسلط یافته و پیامدهای عمده ای برای جامعه دارد.

از خودروهای خودران تا تشخیص‌های پزشکی، از تشخیص چهره تا تقلبی‌های عمیق، و از ترجمه زبان تا تولید موسیقی، یادگیری عمیق مانند آتش‌سوزی در تمام حوزه‌های فناوری مدرن در حال گسترش است.

اما یادگیری عمیق تنها در مورد برنامه های کاربردی فوق العاده شیک، پیشرفته و بسیار پیچیده نیست. یادگیری عمیق به طور فزاینده ای به یک ابزار استاندارد در یادگیری ماشینی، علم داده و آمار تبدیل می شود. یادگیری عمیق توسط استارت‌آپ‌های کوچک برای داده‌کاوی و کاهش ابعاد، توسط دولت‌ها برای تشخیص فرار مالیاتی، و توسط دانشمندان برای شناسایی الگوها در داده‌های تحقیقاتی‌شان استفاده می‌شود.

یادگیری عمیق اکنون در بیشتر زمینه های فناوری، تجارت و سرگرمی استفاده می شود. و هر سال اهمیت بیشتری پیدا می کند.


یادگیری عمیق چگونه کار می کند؟

یادگیری عمیق بر اساس یک اصل بسیار ساده ساخته شده است: یک الگوریتم بسیار ساده (مجموع وزنی و غیرخطی) را در نظر بگیرید و آن را چندین بار تکرار کنید تا زمانی که نتیجه یک نمایش آموخته شده فوق العاده پیچیده و پیچیده از داده ها باشد.

>

آیا واقعاً به همین سادگی است؟ بسیار خوب، این در واقع کمی پیچیده تر از آن است؛) اما این ایده اصلی است، و هر چیز دیگری - به معنای واقعی کلمه هر چیز دیگری در یادگیری عمیق - فقط روش های هوشمندانه ای برای کنار هم قرار دادن این بلوک های ساختمانی اساسی است. این بدان معنا نیست که درک شبکه‌های عصبی عمیق بی‌اهمیت است: تفاوت‌های معماری مهمی بین شبکه‌های پیش‌خور، شبکه‌های کانولوشنال و شبکه‌های تکراری وجود دارد.

با توجه به تنوع طرح‌ها، پارامترها و برنامه‌های مدل یادگیری عمیق، شما فقط می‌توانید یادگیری عمیق را یاد بگیرید -- منظورم این است که واقعاً یادگیری عمیق را یاد بگیرید، نه فقط دانش سطحی از یک ویدیوی یوتیوب -- با داشتن راهنمای معلم با تجربه شما از طریق ریاضیات، پیاده سازی ها و استدلال. و البته، شما باید مثال‌های عملی زیادی داشته باشید و مشکلات را تمرین کنید. یادگیری عمیق اساساً فقط ریاضی کاربردی است و همانطور که همه می‌دانند، ریاضی یک ورزش تماشاچی نیست!


این دوره در مورد چیست؟

به زبان ساده: هدف از این دوره ارائه یک فرو رفتن عمیق در یادگیری عمیق است. شما تخصص انعطاف پذیر، اساسی و پایدار در زمینه یادگیری عمیق به دست خواهید آورد. شما درک عمیقی از مفاهیم اساسی در یادگیری عمیق خواهید داشت، به طوری که می توانید موضوعات و گرایش های جدیدی را که در آینده ظاهر می شوند، یاد بگیرید.

لطفاً توجه داشته باشید: این دوره آموزشی برای کسی نیست که می خواهد مروری سریع بر یادگیری عمیق با چند مثال حل شده داشته باشد. در عوض، این دوره برای افرادی طراحی شده است که واقعاً می خواهند بفهمند یادگیری عمیق چگونه و چرا کار می کند. زمان و نحوه انتخاب متاپارامترهایی مانند بهینه سازها، نرمال سازی ها و نرخ یادگیری. نحوه ارزیابی عملکرد مدل های شبکه عصبی عمیق و نحوه اصلاح و تطبیق مدل های موجود برای حل مشکلات جدید.


در این دوره می توانید همه چیز را در مورد یادگیری عمیق بیاموزید.

در این دوره،

را خواهید آموخت
  • تئوری: چرا مدل های یادگیری عمیق به همان شکلی که هستند ساخته شده اند؟

  • ریاضی: فرمول ها و مکانیسم های یادگیری عمیق چیست؟

  • پیاده‌سازی: مدل‌های یادگیری عمیق چگونه در پایتون (با استفاده از کتابخانه PyTorch) ساخته می‌شوند؟

  • شهود: چرا این یا آن فراپارامتر انتخاب درستی است؟ چگونه اثرات منظم سازی را تفسیر کنیم؟ و غیره.

  • Python : اگر با پایتون کاملاً تازه کار هستید، به ضمیمه آموزش کدنویسی 8 ساعته بروید. اگر قبلاً یک کدنویس آگاه هستید، هنوز هم ترفندهای جدید و بهینه سازی کد را یاد خواهید گرفت.

  • Google-colab : Colab یک ابزار آنلاین شگفت انگیز برای اجرای کدهای پایتون، شبیه سازی ها و محاسبات سنگین با استفاده از سرویس های ابری گوگل است. نیازی به نصب چیزی روی رایانه شما نیست.


جنبه های منحصر به فرد این دوره

  • توضیحات واضح و قابل فهم مفاهیم در یادگیری عمیق.

  • چند توضیح متمایز از ایده های مشابه، که یک تکنیک اثبات شده برای یادگیری است.

  • تجسم با استفاده از نمودارها، اعداد و فضاهایی که شهودی از شبکه‌های عصبی مصنوعی را ارائه می‌دهند.

  • بسیاری از تمرین‌ها، پروژه‌ها، چالش‌های کد، پیشنهادات برای کاوش کد. با انجام این کار خودتان بهتر یاد می گیرید!

  • تالار گفتمان Q فعالی که در آن می‌توانید سؤال بپرسید، بازخورد دریافت کنید و به انجمن کمک کنید.

  • 8+ ساعت آموزش پایتون. این بدان معناست که قبل از ثبت نام در این دوره، نیازی به تسلط بر پایتون ندارید.


پس منتظر چی هستی؟؟

ویدئوی مقدماتی دوره و ویدئوهای نمونه رایگان را تماشا کنید تا با محتویات این دوره و سبک تدریس من بیشتر آشنا شوید. اگر مطمئن نیستید که آیا این دوره برای شما مناسب است و می‌خواهید بیشتر بیاموزید، قبل از ثبت نام با من در تماس باشید.

امیدوارم به زودی شما را در دوره ببینم!

مایک


سرفصل ها و درس ها

معرفی Introduction

  • چگونه از این دوره یاد بگیریم How to learn from this course

  • استفاده از Udemy مانند یک حرفه ای Using Udemy like a pro

  • استفاده از Udemy مانند یک حرفه ای Using Udemy like a pro

معرفی Introduction

  • چگونه از این دوره یاد بگیریم How to learn from this course

دانلود تمامی مطالب دوره Download all course materials

  • دانلود و استفاده از کد Downloading and using the code

  • خط مشی من در مورد اشتراک گذاری کد My policy on code-sharing

دانلود تمامی مطالب دوره Download all course materials

  • دانلود و استفاده از کد Downloading and using the code

  • خط مشی من در مورد اشتراک گذاری کد My policy on code-sharing

مفاهیم در یادگیری عمیق Concepts in deep learning

  • شبکه عصبی مصنوعی چیست؟ What is an artificial neural network?

  • مدل ها چگونه "یاد می گیرند" How models "learn"

  • مدل ها چگونه "یاد می گیرند" How models "learn"

  • نقش DL در علم و دانش The role of DL in science and knowledge

  • نقش DL در علم و دانش The role of DL in science and knowledge

  • اجرای آزمایش برای درک DL Running experiments to understand DL

  • آیا «نورون‌های» مصنوعی مانند نورون‌های بیولوژیکی هستند؟ Are artificial "neurons" like biological neurons?

مفاهیم در یادگیری عمیق Concepts in deep learning

  • شبکه عصبی مصنوعی چیست؟ What is an artificial neural network?

  • اجرای آزمایش برای درک DL Running experiments to understand DL

  • آیا «نورون‌های» مصنوعی مانند نورون‌های بیولوژیکی هستند؟ Are artificial "neurons" like biological neurons?

درباره آموزش پایتون About the Python tutorial

  • آیا باید آموزش پایتون را تماشا کنید؟ Should you watch the Python tutorial?

  • آیا باید آموزش پایتون را تماشا کنید؟ Should you watch the Python tutorial?

درباره آموزش پایتون About the Python tutorial

ریاضی، numpy، PyTorch Math, numpy, PyTorch

  • PyTorch یا TensorFlow؟ PyTorch or TensorFlow?

  • PyTorch یا TensorFlow؟ PyTorch or TensorFlow?

  • معرفی این بخش Introduction to this section

  • نظریه های طیفی در ریاضیات Spectral theories in mathematics

  • اصطلاحات و انواع داده ها در ریاضیات و کامپیوتر Terms and datatypes in math and computers

  • اصطلاحات و انواع داده ها در ریاضیات و کامپیوتر Terms and datatypes in math and computers

  • تبدیل واقعیت به اعداد Converting reality to numbers

  • انتقال وکتور و ماتریس Vector and matrix transpose

  • OMG این محصول نقطه است! OMG it's the dot product!

  • OMG این محصول نقطه است! OMG it's the dot product!

  • ضرب ماتریس Matrix multiplication

  • ضرب ماتریس Matrix multiplication

  • سافت مکس Softmax

  • سافت مکس Softmax

  • لگاریتم ها Logarithms

  • لگاریتم ها Logarithms

  • آنتروپی و آنتروپی متقابل Entropy and cross-entropy

  • آنتروپی و آنتروپی متقابل Entropy and cross-entropy

  • حداقل/حداکثر و آرگمین/آرگمکس Min/max and argmin/argmax

  • میانگین و واریانس Mean and variance

  • نمونه گیری تصادفی و تنوع نمونه گیری Random sampling and sampling variability

  • تصادفی بودن قابل تکرار از طریق بذر Reproducible randomness via seeding

  • آزمون t The t-test

  • آزمون t The t-test

  • مشتقات: شهود و چند جمله ای Derivatives: intuition and polynomials

  • مشتقات: شهود و چند جمله ای Derivatives: intuition and polynomials

  • مشتقات حداقل ها را پیدا می کنند Derivatives find minima

  • مشتقات حداقل ها را پیدا می کنند Derivatives find minima

  • مشتقات: قوانین محصول و زنجیره Derivatives: product and chain rules

ریاضی، numpy، PyTorch Math, numpy, PyTorch

  • معرفی این بخش Introduction to this section

  • نظریه های طیفی در ریاضیات Spectral theories in mathematics

  • تبدیل واقعیت به اعداد Converting reality to numbers

  • انتقال وکتور و ماتریس Vector and matrix transpose

  • حداقل/حداکثر و آرگمین/آرگمکس Min/max and argmin/argmax

  • میانگین و واریانس Mean and variance

  • نمونه گیری تصادفی و تنوع نمونه گیری Random sampling and sampling variability

  • تصادفی بودن قابل تکرار از طریق بذر Reproducible randomness via seeding

  • مشتقات: قوانین محصول و زنجیره Derivatives: product and chain rules

نزول گرادیان Gradient descent

  • نمای کلی از شیب نزول Overview of gradient descent

  • حداقل های محلی چطور؟ What about local minima?

  • نزول گرادیان در 1 بعدی Gradient descent in 1D

  • نزول گرادیان در 1 بعدی Gradient descent in 1D

  • CodeChallenge: ارزش شروع تاسف بار CodeChallenge: unfortunate starting value

  • CodeChallenge: ارزش شروع تاسف بار CodeChallenge: unfortunate starting value

  • نزول گرادیان به صورت دو بعدی Gradient descent in 2D

  • CodeChallenge: صعود شیب دوبعدی CodeChallenge: 2D gradient ascent

  • آزمایشات پارامتریک روی g.d. Parametric experiments on g.d.

  • CodeChallenge: نرخ یادگیری ثابت در مقابل پویا CodeChallenge: fixed vs. dynamic learning rate

  • CodeChallenge: نرخ یادگیری ثابت در مقابل پویا CodeChallenge: fixed vs. dynamic learning rate

  • ناپدید شدن و انفجار شیب Vanishing and exploding gradients

  • مماس: تاریخچه ویرایش نوت بوک Tangent: Notebook revision history

نزول گرادیان Gradient descent

  • نمای کلی از شیب نزول Overview of gradient descent

  • حداقل های محلی چطور؟ What about local minima?

  • نزول گرادیان به صورت دو بعدی Gradient descent in 2D

  • CodeChallenge: صعود شیب دوبعدی CodeChallenge: 2D gradient ascent

  • آزمایشات پارامتریک روی g.d. Parametric experiments on g.d.

  • ناپدید شدن و انفجار شیب Vanishing and exploding gradients

  • مماس: تاریخچه ویرایش نوت بوک Tangent: Notebook revision history

شبکه های عصبی مصنوعی (ANN) ANNs (Artificial Neural Networks)

  • معماری پرسپترون و ANN The perceptron and ANN architecture

  • معماری پرسپترون و ANN The perceptron and ANN architecture

  • نمای هندسی شبکه های عصبی مصنوعی A geometric view of ANNs

  • نمای هندسی شبکه های عصبی مصنوعی A geometric view of ANNs

  • ANN ریاضی قسمت 1 (سرپایی رو به جلو) ANN math part 1 (forward prop)

  • ANN ریاضی قسمت 2 (خطاها، ضرر، هزینه) ANN math part 2 (errors, loss, cost)

  • ANN ریاضی قسمت 2 (خطاها، ضرر، هزینه) ANN math part 2 (errors, loss, cost)

  • ANN ریاضی قسمت 3 (پشتیبان) ANN math part 3 (backprop)

  • ANN ریاضی قسمت 3 (پشتیبان) ANN math part 3 (backprop)

  • ANN برای رگرسیون ANN for regression

  • CodeChallenge: شیب های رگرسیون را دستکاری کنید CodeChallenge: manipulate regression slopes

  • CodeChallenge: شیب های رگرسیون را دستکاری کنید CodeChallenge: manipulate regression slopes

  • ANN برای طبقه بندی qwerties ANN for classifying qwerties

  • ANN برای طبقه بندی qwerties ANN for classifying qwerties

  • مقایسه میزان یادگیری Learning rates comparison

  • مقایسه میزان یادگیری Learning rates comparison

  • ANN چند لایه Multilayer ANN

  • راه حل های خطی برای مسائل خطی Linear solutions to linear problems

  • راه حل های خطی برای مسائل خطی Linear solutions to linear problems

  • چرا مدل های خطی چندلایه وجود ندارند؟ Why multilayer linear models don't exist

  • چرا مدل های خطی چندلایه وجود ندارند؟ Why multilayer linear models don't exist

  • ANN چند خروجی (مجموعه داده عنبیه) Multi-output ANN (iris dataset)

  • ANN چند خروجی (مجموعه داده عنبیه) Multi-output ANN (iris dataset)

  • CodeChallenge: qwerties بیشتر! CodeChallenge: more qwerties!

  • CodeChallenge: qwerties بیشتر! CodeChallenge: more qwerties!

  • مقایسه تعداد واحدهای پنهان Comparing the number of hidden units

  • مقایسه تعداد واحدهای پنهان Comparing the number of hidden units

  • عمق در مقابل وسعت: تعداد پارامترها Depth vs. breadth: number of parameters

  • عمق در مقابل وسعت: تعداد پارامترها Depth vs. breadth: number of parameters

  • تعریف مدل ها با استفاده از کلاس ترتیبی در مقابل Defining models using sequential vs. class

  • تعریف مدل ها با استفاده از کلاس ترتیبی در مقابل Defining models using sequential vs. class

  • عمق مدل در مقابل وسعت Model depth vs. breadth

  • CodeChallenge: تبدیل ترتیبی به کلاس CodeChallenge: convert sequential to class

  • تنوع نمایش های بصری ANN Diversity of ANN visual representations

  • بازتاب: آیا مدل های DL هنوز قابل درک هستند؟ Reflection: Are DL models understandable yet?

شبکه های عصبی مصنوعی (ANN) ANNs (Artificial Neural Networks)

  • ANN ریاضی قسمت 1 (سرپایی رو به جلو) ANN math part 1 (forward prop)

  • ANN برای رگرسیون ANN for regression

  • ANN چند لایه Multilayer ANN

  • عمق مدل در مقابل وسعت Model depth vs. breadth

  • CodeChallenge: تبدیل ترتیبی به کلاس CodeChallenge: convert sequential to class

  • تنوع نمایش های بصری ANN Diversity of ANN visual representations

  • بازتاب: آیا مدل های DL هنوز قابل درک هستند؟ Reflection: Are DL models understandable yet?

اضافه برازش و اعتبارسنجی متقابل Overfitting and cross-validation

  • overfitting چیست و آیا آنقدر که می گویند بد است؟ What is overfitting and is it as bad as they say?

  • overfitting چیست و آیا آنقدر که می گویند بد است؟ What is overfitting and is it as bad as they say?

  • اعتبار سنجی متقابل Cross-validation

  • اعتبار سنجی متقابل Cross-validation

  • تعمیم Generalization

  • تعمیم Generalization

  • اعتبار سنجی متقابل -- جداسازی دستی Cross-validation -- manual separation

  • اعتبار سنجی متقابل -- جداسازی دستی Cross-validation -- manual separation

  • اعتبار متقابل -- scikitlearn Cross-validation -- scikitlearn

  • اعتبار متقابل -- scikitlearn Cross-validation -- scikitlearn

  • اعتبار سنجی متقابل -- DataLoader Cross-validation -- DataLoader

  • تقسیم داده ها به قطار، برنامه نویس، تست Splitting data into train, devset, test

  • اعتبار سنجی متقابل بر روی رگرسیون Cross-validation on regression

  • اعتبار سنجی متقابل بر روی رگرسیون Cross-validation on regression

اضافه برازش و اعتبارسنجی متقابل Overfitting and cross-validation

  • اعتبار سنجی متقابل -- DataLoader Cross-validation -- DataLoader

  • تقسیم داده ها به قطار، برنامه نویس، تست Splitting data into train, devset, test

منظم سازی Regularization

  • منظم سازی: مفهوم و روش ها Regularization: Concept and methods

  • منظم سازی: مفهوم و روش ها Regularization: Concept and methods

  • حالت های train() و eval(). train() and eval() modes

  • حالت های train() و eval(). train() and eval() modes

  • تنظیم ترک تحصیل Dropout regularization

  • تنظیم ترک تحصیل در عمل Dropout regularization in practice

  • تنظیم ترک تحصیل در عمل Dropout regularization in practice

  • مثال انصراف 2 Dropout example 2

  • مثال انصراف 2 Dropout example 2

  • تنظیم وزن (L1/L2): ریاضی Weight regularization (L1/L2): math

  • تنظیم وزن (L1/L2): ریاضی Weight regularization (L1/L2): math

  • تنظیم L2 در عمل L2 regularization in practice

  • تنظیم L1 در عمل L1 regularization in practice

  • آموزش مینی بچ Training in mini-batches

  • آموزش دسته ای در عمل Batch training in action

  • اهمیت اندازه دسته های مساوی The importance of equal batch sizes

  • CodeChallenge: اثرات اندازه کوچک دسته ای CodeChallenge: Effects of mini-batch size

  • CodeChallenge: اثرات اندازه کوچک دسته ای CodeChallenge: Effects of mini-batch size

منظم سازی Regularization

  • تنظیم ترک تحصیل Dropout regularization

  • تنظیم L2 در عمل L2 regularization in practice

  • تنظیم L1 در عمل L1 regularization in practice

  • آموزش مینی بچ Training in mini-batches

  • آموزش دسته ای در عمل Batch training in action

  • اهمیت اندازه دسته های مساوی The importance of equal batch sizes

متاپارامترها (فعال سازی ها، بهینه سازها) Metaparameters (activations, optimizers)

  • "متاپارامترها" چیست؟ What are "metaparameters"?

  • مجموعه داده "کیفیت شراب". The "wine quality" dataset

  • CodeChallenge: اندازه کوچک در مجموعه داده شراب CodeChallenge: Minibatch size in the wine dataset

  • نرمال سازی داده ها Data normalization

  • نرمال سازی داده ها Data normalization

  • اهمیت نرمال سازی داده ها The importance of data normalization

  • اهمیت نرمال سازی داده ها The importance of data normalization

  • نرمال سازی دسته ای Batch normalization

  • نرمال سازی دسته ای در عمل Batch normalization in practice

  • نرمال سازی دسته ای در عمل Batch normalization in practice

  • CodeChallenge: به صورت دسته ای، qwerties را عادی کنید CodeChallenge: Batch-normalize the qwerties

  • CodeChallenge: به صورت دسته ای، qwerties را عادی کنید CodeChallenge: Batch-normalize the qwerties

  • توابع فعال سازی Activation functions

  • توابع فعال سازی Activation functions

  • توابع فعال سازی در PyTorch Activation functions in PyTorch

  • توابع فعال سازی در PyTorch Activation functions in PyTorch

  • مقایسه توابع فعال سازی Activation functions comparison

  • مقایسه توابع فعال سازی Activation functions comparison

  • CodeChallenge: انواع relu را مقایسه کنید CodeChallenge: Compare relu variants

  • CodeChallenge: قند را پیش بینی کنید CodeChallenge: Predict sugar

  • CodeChallenge: قند را پیش بینی کنید CodeChallenge: Predict sugar

  • توابع از دست دادن Loss functions

  • توابع از دست دادن در PyTorch Loss functions in PyTorch

  • توابع از دست دادن در PyTorch Loss functions in PyTorch

  • تمرین بیشتر با ANN های چند خروجی More practice with multioutput ANNs

  • بهینه سازها (مینی دسته، مومنتوم) Optimizers (minibatch, momentum)

  • بهینه سازها (مینی دسته، مومنتوم) Optimizers (minibatch, momentum)

  • SGD با حرکت SGD with momentum

  • SGD با حرکت SGD with momentum

  • بهینه سازها (RMSprop، Adam) Optimizers (RMSprop, Adam)

  • مقایسه بهینه سازها Optimizers comparison

  • CodeChallenge: بهینه سازها و... چیزی CodeChallenge: Optimizers and... something

  • CodeChallenge: Adam با تنظیم L2 CodeChallenge: Adam with L2 regularization

  • کاهش نرخ یادگیری Learning rate decay

  • کاهش نرخ یادگیری Learning rate decay

  • نحوه انتخاب متاپارامترهای مناسب How to pick the right metaparameters

متاپارامترها (فعال سازی ها، بهینه سازها) Metaparameters (activations, optimizers)

  • "متاپارامترها" چیست؟ What are "metaparameters"?

  • مجموعه داده "کیفیت شراب". The "wine quality" dataset

  • CodeChallenge: اندازه کوچک در مجموعه داده شراب CodeChallenge: Minibatch size in the wine dataset

  • نرمال سازی دسته ای Batch normalization

  • CodeChallenge: انواع relu را مقایسه کنید CodeChallenge: Compare relu variants

  • توابع از دست دادن Loss functions

  • تمرین بیشتر با ANN های چند خروجی More practice with multioutput ANNs

  • بهینه سازها (RMSprop، Adam) Optimizers (RMSprop, Adam)

  • مقایسه بهینه سازها Optimizers comparison

  • CodeChallenge: بهینه سازها و... چیزی CodeChallenge: Optimizers and... something

  • CodeChallenge: Adam با تنظیم L2 CodeChallenge: Adam with L2 regularization

  • نحوه انتخاب متاپارامترهای مناسب How to pick the right metaparameters

FFN (شبکه‌های پیش‌خور) FFNs (Feed-Forward Networks)

  • شبکه های کاملا متصل و فید فوروارد چیست؟ What are fully-connected and feedforward networks?

  • شبکه های کاملا متصل و فید فوروارد چیست؟ What are fully-connected and feedforward networks?

  • مجموعه داده MNIST The MNIST dataset

  • FFN برای طبقه بندی ارقام FFN to classify digits

  • FFN برای طبقه بندی ارقام FFN to classify digits

  • CodeChallenge: تصاویر باینریزه شده MNIST CodeChallenge: Binarized MNIST images

  • CodeChallenge: عادی سازی داده ها CodeChallenge: Data normalization

  • CodeChallenge: عادی سازی داده ها CodeChallenge: Data normalization

  • توزیع وزن قبل و بعد از یادگیری Distributions of weights pre- and post-learning

  • CodeChallenge: MNIST و وسعت در مقابل عمق CodeChallenge: MNIST and breadth vs. depth

  • CodeChallenge: بهینه سازها و MNIST CodeChallenge: Optimizers and MNIST

  • MNIST درهم Scrambled MNIST

  • تغییر MNIST Shifted MNIST

  • تغییر MNIST Shifted MNIST

  • CodeChallenge: رمز و راز گمشده 7 CodeChallenge: The mystery of the missing 7

  • CodeChallenge: رمز و راز گمشده 7 CodeChallenge: The mystery of the missing 7

  • قضیه تقریب جهانی Universal approximation theorem

FFN (شبکه‌های پیش‌خور) FFNs (Feed-Forward Networks)

  • مجموعه داده MNIST The MNIST dataset

  • CodeChallenge: تصاویر باینریزه شده MNIST CodeChallenge: Binarized MNIST images

  • توزیع وزن قبل و بعد از یادگیری Distributions of weights pre- and post-learning

  • CodeChallenge: MNIST و وسعت در مقابل عمق CodeChallenge: MNIST and breadth vs. depth

  • CodeChallenge: بهینه سازها و MNIST CodeChallenge: Optimizers and MNIST

  • MNIST درهم Scrambled MNIST

  • قضیه تقریب جهانی Universal approximation theorem

اطلاعات بیشتر More on data

  • آناتومی مجموعه داده مشعل و بارگذار داده Anatomy of a torch dataset and dataloader

  • اندازه داده و اندازه شبکه Data size and network size

  • اندازه داده و اندازه شبکه Data size and network size

  • CodeChallenge: داده های نامتعادل CodeChallenge: unbalanced data

  • در مورد طرح های نامتعادل چه باید کرد؟ What to do about unbalanced designs?

  • نمونه برداری بیش از حد داده ها در MNIST Data oversampling in MNIST

  • افزایش نویز داده (با devset+test) Data noise augmentation (with devset+test)

  • افزایش ویژگی داده ها Data feature augmentation

  • افزایش ویژگی داده ها Data feature augmentation

  • دریافت داده ها در colab Getting data into colab

  • مدل های آموزش دیده را ذخیره و بارگذاری کنید Save and load trained models

  • مدل های آموزش دیده را ذخیره و بارگذاری کنید Save and load trained models

  • بهترین مدل را ذخیره کنید Save the best-performing model

  • بهترین مدل را ذخیره کنید Save the best-performing model

  • کجا می توان مجموعه داده های آنلاین را پیدا کرد Where to find online datasets

  • کجا می توان مجموعه داده های آنلاین را پیدا کرد Where to find online datasets

اطلاعات بیشتر More on data

  • آناتومی مجموعه داده مشعل و بارگذار داده Anatomy of a torch dataset and dataloader

  • CodeChallenge: داده های نامتعادل CodeChallenge: unbalanced data

  • در مورد طرح های نامتعادل چه باید کرد؟ What to do about unbalanced designs?

  • نمونه برداری بیش از حد داده ها در MNIST Data oversampling in MNIST

  • افزایش نویز داده (با devset+test) Data noise augmentation (with devset+test)

  • دریافت داده ها در colab Getting data into colab

اندازه گیری عملکرد مدل Measuring model performance

  • دو دیدگاه از جهان Two perspectives of the world

  • دو دیدگاه از جهان Two perspectives of the world

  • دقت، دقت، فراخوانی، F1 Accuracy, precision, recall, F1

  • APRF در کد APRF in code

  • مثال 1 APRF: کیفیت شراب APRF example 1: wine quality

  • مثال 2 APRF: MNIST APRF example 2: MNIST

  • CodeChallenge: MNIST با گروه های نابرابر CodeChallenge: MNIST with unequal groups

  • CodeChallenge: MNIST با گروه های نابرابر CodeChallenge: MNIST with unequal groups

  • زمان محاسبه Computation time

  • عملکرد بهتر در آزمون نسبت به قطار؟ Better performance in test than train?

اندازه گیری عملکرد مدل Measuring model performance

  • دقت، دقت، فراخوانی، F1 Accuracy, precision, recall, F1

  • APRF در کد APRF in code

  • مثال 1 APRF: کیفیت شراب APRF example 1: wine quality

  • مثال 2 APRF: MNIST APRF example 2: MNIST

  • زمان محاسبه Computation time

  • عملکرد بهتر در آزمون نسبت به قطار؟ Better performance in test than train?

پروژه های نقطه عطف FFN FFN milestone projects

  • پروژه 1: یک ماشین اضافه کردن پیچیده به صورت رایگان Project 1: A gratuitously complex adding machine

  • پروژه 1: راه حل من Project 1: My solution

  • پروژه 2: پیش بینی بیماری قلبی Project 2: Predicting heart disease

  • پروژه 2: راه حل من Project 2: My solution

  • پروژه 2: راه حل من Project 2: My solution

  • پروژه 3: FFN برای درونیابی داده های گمشده Project 3: FFN for missing data interpolation

  • پروژه 3: FFN برای درونیابی داده های گمشده Project 3: FFN for missing data interpolation

  • پروژه 3: راه حل من Project 3: My solution

  • پروژه 3: راه حل من Project 3: My solution

پروژه های نقطه عطف FFN FFN milestone projects

  • پروژه 1: یک ماشین اضافه کردن پیچیده به صورت رایگان Project 1: A gratuitously complex adding machine

  • پروژه 1: راه حل من Project 1: My solution

  • پروژه 2: پیش بینی بیماری قلبی Project 2: Predicting heart disease

شروع وزن و بررسی Weight inits and investigations

  • نسخه ی نمایشی شگفت انگیزی از مقداردهی اولیه وزن A surprising demo of weight initializations

  • مقداردهی اولیه Xavier و Kaiming Xavier and Kaiming initializations

  • CodeChallenge: وزن‌های تصادفی یکسان CodeChallenge: Identically random weights

  • تغییرات وزنی مرتبط با یادگیری Learning-related changes in weights

شروع وزن و بررسی Weight inits and investigations

  • توضیح اندازه های ماتریس وزن Explanation of weight matrix sizes

  • توضیح اندازه های ماتریس وزن Explanation of weight matrix sizes

  • نسخه ی نمایشی شگفت انگیزی از مقداردهی اولیه وزن A surprising demo of weight initializations

  • تئوری: چرا و چگونه وزن ها را مقداردهی اولیه کنیم Theory: Why and how to initialize weights

  • تئوری: چرا و چگونه وزن ها را مقداردهی اولیه کنیم Theory: Why and how to initialize weights

  • CodeChallenge: واریانس وزن شروع می شود CodeChallenge: Weight variance inits

  • CodeChallenge: واریانس وزن شروع می شود CodeChallenge: Weight variance inits

  • مقداردهی اولیه Xavier و Kaiming Xavier and Kaiming initializations

  • CodeChallenge: خاویر در مقابل کایمینگ CodeChallenge: Xavier vs. Kaiming

  • CodeChallenge: خاویر در مقابل کایمینگ CodeChallenge: Xavier vs. Kaiming

  • CodeChallenge: وزن‌های تصادفی یکسان CodeChallenge: Identically random weights

  • انجماد وزنه ها در حین یادگیری Freezing weights during learning

  • انجماد وزنه ها در حین یادگیری Freezing weights during learning

  • تغییرات وزنی مرتبط با یادگیری Learning-related changes in weights

  • از init های پیش فرض استفاده کنید یا خودتان را اعمال کنید؟ Use default inits or apply your own?

  • از init های پیش فرض استفاده کنید یا خودتان را اعمال کنید؟ Use default inits or apply your own?

رمزگذارهای خودکار Autoencoders

  • رمزگذارهای خودکار چیست و چه کاری انجام می دهند؟ What are autoencoders and what do they do?

  • کد پنهان MNIST The latent code of MNIST

رمزگذارهای خودکار Autoencoders

  • رمزگذارهای خودکار چیست و چه کاری انجام می دهند؟ What are autoencoders and what do they do?

  • حذف نویز MNIST Denoising MNIST

  • حذف نویز MNIST Denoising MNIST

  • CodeChallenge: چند واحد؟ CodeChallenge: How many units?

  • CodeChallenge: چند واحد؟ CodeChallenge: How many units?

  • AE برای انسداد AEs for occlusion

  • AE برای انسداد AEs for occlusion

  • کد پنهان MNIST The latent code of MNIST

  • رمزگذار خودکار با وزنه های گره خورده Autoencoder with tied weights

  • رمزگذار خودکار با وزنه های گره خورده Autoencoder with tied weights

در حال اجرا مدل ها بر روی یک GPU Running models on a GPU

  • پیاده سازی Implementation

در حال اجرا مدل ها بر روی یک GPU Running models on a GPU

  • GPU چیست و چرا باید از آن استفاده کرد؟ What is a GPU and why use it?

  • GPU چیست و چرا باید از آن استفاده کرد؟ What is a GPU and why use it?

  • پیاده سازی Implementation

  • CodeChallenge: آزمایشی را روی GPU اجرا کنید CodeChallenge: Run an experiment on the GPU

  • CodeChallenge: آزمایشی را روی GPU اجرا کنید CodeChallenge: Run an experiment on the GPU

پیچیدگی و تحولات Convolution and transformations

  • پیچیدگی: مفاهیم Convolution: concepts

  • ویژگی نقشه ها و هسته های کانولوشن Feature maps and convolution kernels

  • کلاس Conv2 در PyTorch The Conv2 class in PyTorch

  • انتقال پیچیدگی Transpose convolution

  • ایجاد و استفاده از DataLoader های سفارشی Creating and using custom DataLoaders

پیچیدگی و تحولات Convolution and transformations

  • پیچیدگی: مفاهیم Convolution: concepts

  • ویژگی نقشه ها و هسته های کانولوشن Feature maps and convolution kernels

  • پیچیدگی در کد Convolution in code

  • پیچیدگی در کد Convolution in code

  • پارامترهای پیچیدگی (گام، بالشتک) Convolution parameters (stride, padding)

  • پارامترهای پیچیدگی (گام، بالشتک) Convolution parameters (stride, padding)

  • کلاس Conv2 در PyTorch The Conv2 class in PyTorch

  • CodeChallenge: پارامترها را انتخاب کنید CodeChallenge: Choose the parameters

  • CodeChallenge: پارامترها را انتخاب کنید CodeChallenge: Choose the parameters

  • انتقال پیچیدگی Transpose convolution

  • حداکثر/میانگین تجمیع Max/mean pooling

  • حداکثر/میانگین تجمیع Max/mean pooling

  • ادغام در PyTorch Pooling in PyTorch

  • ادغام در PyTorch Pooling in PyTorch

  • استخر گرفتن یا قدم زدن؟ To pool or to stride?

  • استخر گرفتن یا قدم زدن؟ To pool or to stride?

  • تصویر تبدیل می شود Image transforms

  • تصویر تبدیل می شود Image transforms

  • ایجاد و استفاده از DataLoader های سفارشی Creating and using custom DataLoaders

CNN ها را درک و طراحی کنید Understand and design CNNs

  • معماری متعارف CNN The canonical CNN architecture

  • CNN در MNIST تغییر یافته CNN on shifted MNIST

  • تاری های گاوسی را طبقه بندی کنید Classify Gaussian blurs

  • آیا رمزگذارهای خودکار گاوسی ها را تمیز می کنند؟ Do autoencoders clean Gaussians?

  • CodeChallenge: توابع از دست دادن سفارشی CodeChallenge: Custom loss functions

  • CodeChallenge: چقدر می توانید پایین بیایید؟ CodeChallenge: How low can you go?

  • CodeChallenge: تعداد کانال های مختلف CodeChallenge: Varying number of channels

  • خیلی احتمالات! چگونه یک CNN ایجاد کنیم؟ So many possibilities! How to create a CNN?

CNN ها را درک و طراحی کنید Understand and design CNNs

  • معماری متعارف CNN The canonical CNN architecture

  • CNN برای طبقه بندی ارقام MNIST CNN to classify MNIST digits

  • CNN برای طبقه بندی ارقام MNIST CNN to classify MNIST digits

  • CNN در MNIST تغییر یافته CNN on shifted MNIST

  • تاری های گاوسی را طبقه بندی کنید Classify Gaussian blurs

  • فعال سازی نقشه ویژگی را بررسی کنید Examine feature map activations

  • فعال سازی نقشه ویژگی را بررسی کنید Examine feature map activations

  • CodeChallenge: پارامترهای داخلی Softcode CodeChallenge: Softcode internal parameters

  • CodeChallenge: پارامترهای داخلی Softcode CodeChallenge: Softcode internal parameters

  • CodeChallenge: پهنای FC چقدر است؟ CodeChallenge: How wide the FC?

  • CodeChallenge: پهنای FC چقدر است؟ CodeChallenge: How wide the FC?

  • آیا رمزگذارهای خودکار گاوسی ها را تمیز می کنند؟ Do autoencoders clean Gaussians?

  • CodeChallenge: AEs و Gaussians مسدود شده CodeChallenge: AEs and occluded Gaussians

  • CodeChallenge: AEs و Gaussians مسدود شده CodeChallenge: AEs and occluded Gaussians

  • CodeChallenge: توابع از دست دادن سفارشی CodeChallenge: Custom loss functions

  • پارامترهای گاوسی را کشف کنید Discover the Gaussian parameters

  • پارامترهای گاوسی را کشف کنید Discover the Gaussian parameters

  • مجموعه داده EMNIST (تشخیص حروف) The EMNIST dataset (letter recognition)

  • مجموعه داده EMNIST (تشخیص حروف) The EMNIST dataset (letter recognition)

  • انصراف در CNN ها Dropout in CNNs

  • انصراف در CNN ها Dropout in CNNs

  • CodeChallenge: چقدر می توانید پایین بیایید؟ CodeChallenge: How low can you go?

  • CodeChallenge: تعداد کانال های مختلف CodeChallenge: Varying number of channels

  • خیلی احتمالات! چگونه یک CNN ایجاد کنیم؟ So many possibilities! How to create a CNN?

پروژه های مهم CNN CNN milestone projects

  • پروژه 1: واردات و طبقه بندی CIFAR10 Project 1: Import and classify CIFAR10

  • پروژه 3: FMNIST Project 3: FMNIST

پروژه های مهم CNN CNN milestone projects

  • پروژه 1: واردات و طبقه بندی CIFAR10 Project 1: Import and classify CIFAR10

  • پروژه 1: راه حل من Project 1: My solution

  • پروژه 1: راه حل من Project 1: My solution

  • پروژه 2: رمزگذار خودکار CIFAR Project 2: CIFAR-autoencoder

  • پروژه 2: رمزگذار خودکار CIFAR Project 2: CIFAR-autoencoder

  • پروژه 3: FMNIST Project 3: FMNIST

  • پروژه 4: عملکردهای روان سنجی در CNN Project 4: Psychometric functions in CNNs

  • پروژه 4: عملکردهای روان سنجی در CNN Project 4: Psychometric functions in CNNs

انتقال یادگیری Transfer learning

  • یادگیری انتقالی: چه، چرا و چه زمانی؟ Transfer learning: What, why, and when?

  • آموزش انتقال: MNIST -> FMNIST Transfer learning: MNIST -> FMNIST

  • CodeChallenge: حروف به اعداد CodeChallenge: letters to numbers

  • معماری های معروف CNN Famous CNN architectures

  • انتقال یادگیری با ResNet-18 Transfer learning with ResNet-18

  • پیش آموزش با رمزگذارهای خودکار Pretraining with autoencoders

انتقال یادگیری Transfer learning

  • یادگیری انتقالی: چه، چرا و چه زمانی؟ Transfer learning: What, why, and when?

  • آموزش انتقال: MNIST -> FMNIST Transfer learning: MNIST -> FMNIST

  • CodeChallenge: حروف به اعداد CodeChallenge: letters to numbers

  • معماری های معروف CNN Famous CNN architectures

  • انتقال یادگیری با ResNet-18 Transfer learning with ResNet-18

  • CodeChallenge: VGG-16 CodeChallenge: VGG-16

  • CodeChallenge: VGG-16 CodeChallenge: VGG-16

  • پیش آموزش با رمزگذارهای خودکار Pretraining with autoencoders

  • CIFAR10 با مدل از پیش آموزش داده شده توسط رمزگذار خودکار CIFAR10 with autoencoder-pretrained model

  • CIFAR10 با مدل از پیش آموزش داده شده توسط رمزگذار خودکار CIFAR10 with autoencoder-pretrained model

انتقال سبک Style transfer

  • انتقال سبک چیست و چگونه کار می کند؟ What is style transfer and how does it work?

انتقال سبک Style transfer

  • انتقال سبک چیست و چگونه کار می کند؟ What is style transfer and how does it work?

  • ماتریس گرم (کوواریانس فعال سازی ویژگی) The Gram matrix (feature activation covariance)

  • ماتریس گرم (کوواریانس فعال سازی ویژگی) The Gram matrix (feature activation covariance)

  • الگوریتم انتقال سبک The style transfer algorithm

  • الگوریتم انتقال سبک The style transfer algorithm

  • انتقال وان جیغ Transferring the screaming bathtub

  • انتقال وان جیغ Transferring the screaming bathtub

  • CodeChallenge: انتقال سبک با AlexNet CodeChallenge: Style transfer with AlexNet

  • CodeChallenge: انتقال سبک با AlexNet CodeChallenge: Style transfer with AlexNet

شبکه های متخاصم مولد Generative adversarial networks

  • GAN خطی با MNIST Linear GAN with MNIST

  • CodeChallenge: GAN خطی با FMNIST CodeChallenge: Linear GAN with FMNIST

  • CNN GAN با گاوسی ها CNN GAN with Gaussians

  • CNN GAN با FMNIST CNN GAN with FMNIST

  • CodeChallenge: CNN GAN با CIFAR CodeChallenge: CNN GAN with CIFAR

شبکه های متخاصم مولد Generative adversarial networks

  • گان: چه، چرا و چگونه GAN: What, why, and how

  • گان: چه، چرا و چگونه GAN: What, why, and how

  • GAN خطی با MNIST Linear GAN with MNIST

  • CodeChallenge: GAN خطی با FMNIST CodeChallenge: Linear GAN with FMNIST

  • CNN GAN با گاوسی ها CNN GAN with Gaussians

  • CodeChallenge: گوسی ها با لایه های کمتر CodeChallenge: Gaussians with fewer layers

  • CodeChallenge: گوسی ها با لایه های کمتر CodeChallenge: Gaussians with fewer layers

  • CNN GAN با FMNIST CNN GAN with FMNIST

  • CodeChallenge: CNN GAN با CIFAR CodeChallenge: CNN GAN with CIFAR

RNN (شبکه های عصبی مکرر) (و GRU/LSTM) RNNs (Recurrent Neural Networks) (and GRU/LSTM)

  • CodeChallenge: برون یابی موج سینوسی CodeChallenge: sine wave extrapolation

  • کلاس های LSTM و GRU The LSTM and GRU classes

  • لورم اپیسوم Lorem ipsum

RNN (شبکه های عصبی مکرر) (و GRU/LSTM) RNNs (Recurrent Neural Networks) (and GRU/LSTM)

  • استفاده از توالی در یادگیری عمیق Leveraging sequences in deep learning

  • استفاده از توالی در یادگیری عمیق Leveraging sequences in deep learning

  • نحوه کار RNN ها How RNNs work

  • نحوه کار RNN ها How RNNs work

  • کلاس RNN در PyTorch The RNN class in PyTorch

  • کلاس RNN در PyTorch The RNN class in PyTorch

  • پیش بینی توالی متناوب Predicting alternating sequences

  • پیش بینی توالی متناوب Predicting alternating sequences

  • CodeChallenge: برون یابی موج سینوسی CodeChallenge: sine wave extrapolation

  • اطلاعات بیشتر در مورد RNN: حالت های پنهان، جاسازی ها More on RNNs: Hidden states, embeddings

  • اطلاعات بیشتر در مورد RNN: حالت های پنهان، جاسازی ها More on RNNs: Hidden states, embeddings

  • GRU و LSTM GRU and LSTM

  • GRU و LSTM GRU and LSTM

  • کلاس های LSTM و GRU The LSTM and GRU classes

  • لورم اپیسوم Lorem ipsum

اخلاق یادگیری عمیق Ethics of deep learning

  • آیا یادگیری عمیق شغل ما را خواهد گرفت؟ Will deep learning take our jobs?

  • مسئولیت پذیری و ایجاد هوش مصنوعی اخلاقی Accountability and making ethical AI

اخلاق یادگیری عمیق Ethics of deep learning

  • آیا هوش مصنوعی ما را نجات می دهد یا نابود می کند؟ Will AI save us or destroy us?

  • آیا هوش مصنوعی ما را نجات می دهد یا نابود می کند؟ Will AI save us or destroy us?

  • نمونه مطالعات موردی Example case studies

  • نمونه مطالعات موردی Example case studies

  • برخی دیگر از سناریوهای اخلاقی احتمالی Some other possible ethical scenarios

  • برخی دیگر از سناریوهای اخلاقی احتمالی Some other possible ethical scenarios

  • آیا یادگیری عمیق شغل ما را خواهد گرفت؟ Will deep learning take our jobs?

  • مسئولیت پذیری و ایجاد هوش مصنوعی اخلاقی Accountability and making ethical AI

از اینجا به کجا برویم؟ Where to go from here?

  • چگونه در یادگیری عمیق مبحث _X_ را یاد بگیریم؟ How to learn topic _X_ in deep learning?

از اینجا به کجا برویم؟ Where to go from here?

  • چگونه در یادگیری عمیق مبحث _X_ را یاد بگیریم؟ How to learn topic _X_ in deep learning?

  • نحوه خواندن مقالات DL آکادمیک How to read academic DL papers

  • نحوه خواندن مقالات DL آکادمیک How to read academic DL papers

مقدمه پایتون: انواع داده Python intro: Data types

  • چگونه از آموزش پایتون یاد بگیریم How to learn from the Python tutorial

  • متغیرها Variables

  • لیست ها (1 از 2) Lists (1 of 2)

  • لیست ها (2 از 2) Lists (2 of 2)

  • بولین ها Booleans

  • لغت نامه ها Dictionaries

مقدمه پایتون: انواع داده Python intro: Data types

  • چگونه از آموزش پایتون یاد بگیریم How to learn from the Python tutorial

  • متغیرها Variables

  • ریاضی و چاپ Math and printing

  • ریاضی و چاپ Math and printing

  • لیست ها (1 از 2) Lists (1 of 2)

  • لیست ها (2 از 2) Lists (2 of 2)

  • تاپل ها Tuples

  • تاپل ها Tuples

  • بولین ها Booleans

  • لغت نامه ها Dictionaries

مقدمه پایتون: نمایه سازی، برش Python intro: Indexing, slicing

مقدمه پایتون: نمایه سازی، برش Python intro: Indexing, slicing

  • نمایه سازی Indexing

  • نمایه سازی Indexing

  • برش دادن Slicing

  • برش دادن Slicing

مقدمه پایتون: توابع Python intro: Functions

  • ورودی ها و خروجی ها Inputs and outputs

  • کتابخانه های پایتون (numpy) Python libraries (numpy)

  • کتابخانه های پایتون (پاندا) Python libraries (pandas)

  • ایجاد توابع Creating functions

  • دامنه متغیر جهانی و محلی Global and local variable scopes

  • کپی و ارجاع متغیرها Copies and referents of variables

مقدمه پایتون: توابع Python intro: Functions

  • ورودی ها و خروجی ها Inputs and outputs

  • کتابخانه های پایتون (numpy) Python libraries (numpy)

  • کتابخانه های پایتون (پاندا) Python libraries (pandas)

  • دریافت کمک در مورد توابع Getting help on functions

  • دریافت کمک در مورد توابع Getting help on functions

  • ایجاد توابع Creating functions

  • دامنه متغیر جهانی و محلی Global and local variable scopes

  • کپی و ارجاع متغیرها Copies and referents of variables

  • کلاس ها و برنامه نویسی شی گرا Classes and object-oriented programming

  • کلاس ها و برنامه نویسی شی گرا Classes and object-oriented programming

مقدمه پایتون: کنترل جریان Python intro: Flow control

  • بیانیه های اگر-دیگر، قسمت 2 If-else statements, part 2

  • برای حلقه ها For loops

  • مقداردهی اولیه متغیرها Initializing variables

  • حلقه های تک خطی (درک لیست) Single-line loops (list comprehension)

  • در حالی که حلقه ها while loops

  • پخش در numpy Broadcasting in numpy

  • بررسی و مدیریت خطای عملکرد Function error checking and handling

مقدمه پایتون: کنترل جریان Python intro: Flow control

  • اگر غیر از این اظهارات If-else statements

  • اگر غیر از این اظهارات If-else statements

  • بیانیه های اگر-دیگر، قسمت 2 If-else statements, part 2

  • برای حلقه ها For loops

  • شمارش و زیپ کنید Enumerate and zip

  • شمارش و زیپ کنید Enumerate and zip

  • ادامه هید Continue

  • ادامه هید Continue

  • مقداردهی اولیه متغیرها Initializing variables

  • حلقه های تک خطی (درک لیست) Single-line loops (list comprehension)

  • در حالی که حلقه ها while loops

  • پخش در numpy Broadcasting in numpy

  • بررسی و مدیریت خطای عملکرد Function error checking and handling

مقدمه پایتون: متن و نمودار Python intro: Text and plots

  • چاپ و درون یابی رشته ای Printing and string interpolation

  • زیباتر جلوه دادن نمودارها Making the graphs look nicer

  • متولد دریا Seaborn

  • تصاویر Images

مقدمه پایتون: متن و نمودار Python intro: Text and plots

  • چاپ و درون یابی رشته ای Printing and string interpolation

  • ترسیم نقاط و خطوط Plotting dots and lines

  • ترسیم نقاط و خطوط Plotting dots and lines

  • هندسه طرح فرعی Subplot geometry

  • هندسه طرح فرعی Subplot geometry

  • زیباتر جلوه دادن نمودارها Making the graphs look nicer

  • متولد دریا Seaborn

  • تصاویر Images

  • نمودارها را با وضوح کم و بالا صادر کنید Export plots in low and high resolution

  • نمودارها را با وضوح کم و بالا صادر کنید Export plots in low and high resolution

بخش پاداش Bonus section

  • محتوای جایزه Bonus content

بخش پاداش Bonus section

  • محتوای جایزه Bonus content

نمایش نظرات

آموزش درک عمیق از یادگیری عمیق (با مقدمه پایتون)
جزییات دوره
57.5 hours
265
Udemy (یودمی) Udemy (یودمی)
(آخرین آپدیت)
15,757
4.8 از 5
دارد
دارد
دارد
Mike X Cohen
جهت دریافت آخرین اخبار و آپدیت ها در کانال تلگرام عضو شوید.

Google Chrome Browser

Internet Download Manager

Pot Player

Winrar

Mike X Cohen Mike X Cohen

من دانشیار علوم اعصاب در دانشگاه رادبود (هلند) هستم. آزمایشگاه تحقیقاتی من از روش های علوم اعصاب پیشرفته برای اندازه گیری فعالیت الکتریکی مغز استفاده می کند و ما برای درک همه داده ها از روش های پیشرفته پردازش سیگنال چند متغیره و روش یادگیری ماشین یادگیری استفاده می کنیم! من چندین کتاب درسی درباره برنامه نویسی علمی در MATLAB ، پردازش سیگنال و آمار نوشته ام. من همچنین معتقد به اهمیت ادامه تحصیل در سطح حرفه ای هستم. تمرکز آموزش Pluralsight من تجزیه و تحلیل داده های عملی در MATLAB است. آموزش مباحث فنی می تواند یک چالش برای دوره های آنلاین باشد که تعاملات رو در رو در زمان واقعی ندارند. من تمام تلاشم را می کنم تا تعادل درستی بین درک و دقت ریاضی و بین تئوری و اجرا پیدا کنم. امیدوارم موافقت کنید و مشتاقانه منتظر دیدن شما در کلاس هستم!