آموزش بوت کمپ کامل شبکه های عصبی: تئوری، کاربردها

The Complete Neural Networks Bootcamp: Theory, Applications

نکته: آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
نمونه ویدیوها:
توضیحات دوره: تئوری و کاربردهای یادگیری عمیق و شبکه های عصبی با PyTorch! از جمله ترانسفورماتور، BERT و GPT! درک نحوه عملکرد شبکه های عصبی (تئوری و کاربردها) درک نحوه عملکرد شبکه های کانولوشنال (تئوری و کاربردها) درک نحوه عملکرد شبکه های تکراری و LSTM (تئوری و کاربردها) نحوه استفاده از PyTorch را به طور عمیق بیاموزید درک نحوه عملکرد الگوریتم Backpropagation درک عملکردهای از دست دادن در عصبی شبکه‌ها تکنیک‌های اولیه‌سازی و منظم‌سازی وزن را درک می‌کنند کدگذاری یک شبکه عصبی از ابتدا با استفاده از Numpy اعمال آموزش انتقال به CNN تجسم CNN معماری‌های CNN که امروزه به طور گسترده استفاده می‌شوند را بیاموزید. شبکه ها یاد بگیرید چگونه مدل های آموزش دیده را ذخیره و بارگذاری کنید یادگیری مدل سازی دنباله ای با مکانیسم های توجه ساخت ربات چت با ترانسفورماتورهای توجه ساخت ربات چت با ترانسفورماتور BERT ساخت یک مدل زیرنویس تصویری

این دوره راهنمای جامع یادگیری عمیق و شبکه های عصبی است. تئوری ها به صورت عمیق و دوستانه توضیح داده می شوند. پس از آن، جلسه عملی را خواهیم داشت، که در آن یاد می گیریم چگونه شبکه های عصبی را در PyTorch کدنویسی کنیم، یک چارچوب یادگیری عمیق بسیار پیشرفته و قدرتمند!

این دوره شامل بخش های زیر است:

---------------------------------------------- ------------------------------------------------ -------

بخش 1 - نحوه عملکرد شبکه های عصبی و انتشار پس زمینه

در این بخش، تئوری‌های نحوه عملکرد شبکه‌های عصبی و الگوریتم انتشار پس‌انداز را عمیقاً به صورت دوستانه درک خواهید کرد. ما یک مثال را مرور می کنیم و محاسبات را گام به گام انجام می دهیم. همچنین در مورد توابع فعال سازی مورد استفاده در شبکه های عصبی با مزایا و معایب آنها صحبت خواهیم کرد!

بخش 2 - توابع از دست دادن

در این قسمت به معرفی توابع از دست دادن معروفی که در یادگیری عمیق و شبکه های عصبی استفاده می شود می پردازیم. ما در مورد زمان استفاده از آنها و نحوه عملکرد آنها توضیح خواهیم داد.

بخش 3 - بهینه سازی

در این بخش، تکنیک‌های بهینه‌سازی مورد استفاده در شبکه‌های عصبی را برای رسیدن به نقطه بهینه مورد بحث قرار می‌دهیم، از جمله Gradient Descent، Stochastic Gradient Descent، Momentum، RMSProp، Adam، AMSGrad، Weight Decay و Decoupling Weight Decay، LR Scheduler و دیگران.

بخش 4 - وزن اولیه

در این بخش، شما را با مفاهیم اولیه وزن در شبکه‌های عصبی آشنا می‌کنیم و برخی از تکنیک‌های اولیه‌سازی وزن‌ها از جمله اولیه‌سازی Xavier و مقداردهی اولیه او را مورد بحث قرار می‌دهیم.

بخش 5 - تکنیک های منظم سازی

در این بخش شما را با تکنیک های منظم سازی در شبکه های عصبی آشنا می کنیم. ابتدا اضافه کردن را معرفی می کنیم و سپس نحوه جلوگیری از اضافه برازش را با استفاده از تکنیک های منظم سازی شامل L1، L2 و Dropout معرفی می کنیم. ما همچنین در مورد نرمال سازی و همچنین عادی سازی دسته ای و عادی سازی لایه صحبت خواهیم کرد.

بخش 6- مقدمه ای بر PyTorch

در این بخش، چارچوب یادگیری عمیقی که در این دوره از آن استفاده خواهیم کرد، یعنی PyTorch را معرفی خواهیم کرد. ما به شما نشان خواهیم داد که چگونه آن را نصب کنید، چگونه کار می کند و چرا خاص است، و سپس برخی از تانسورهای PyTorch را کدنویسی می کنیم و برخی از عملیات روی تانسورها را به شما نشان می دهیم، همچنین Autograd را به صورت کد به شما نشان می دهیم!

بخش 7 - شبکه های عصبی کاربردی در PyTorch - برنامه 1

در این بخش، آنچه را که آموخته‌اید برای ایجاد یک شبکه عصبی فید فوروارد برای طبقه‌بندی ارقام دست‌نویس اعمال خواهید کرد. این اولین کاربرد شبکه‌های فید فوروارد است که نشان خواهیم داد.

بخش 8 - شبکه های عصبی کاربردی در PyTorch - برنامه 2

در این بخش، ما یک شبکه عصبی فید فوروارد برای طبقه بندی آب و هوای یک فرد دیابتی یا غیر دیابتی ایجاد می کنیم. ما شبکه را بر روی مجموعه داده بزرگی از دیابت آموزش خواهیم داد!

بخش 9 - فرآیند یادگیری را تجسم کنید

در این بخش، نحوه یادگیری شبکه‌های عصبی و میزان توانایی آنها در جداسازی داده‌های غیرخطی را تجسم خواهیم کرد!

بخش 10 - پیاده سازی یک شبکه عصبی از ابتدا با پایتون و Numpy

در این بخش، یک شبکه عصبی را بدون استفاده از هیچ کتابخانه یادگیری عمیق (از ابتدا با استفاده از پایتون و numpy) درک و کدگذاری خواهیم کرد. این برای درک نحوه عملکرد ساختار اساسی ضروری است.

بخش 11 - شبکه های عصبی کانولوشنال

در این بخش شبکه‌های Convolutional که برای تصاویر استفاده می‌شوند را به شما معرفی می‌کنیم. ما ابتدا رابطه با شبکه های فید فوروارد را به شما نشان می دهیم و سپس مفاهیم شبکه های کانولوشن را یکی یکی به شما معرفی می کنیم!

بخش 12 - شبکه های کانولوشن عملی در PyTorch

در این بخش، شبکه‌های Convolutional را برای طبقه‌بندی ارقام دست‌نویس اعمال می‌کنیم. این اولین کاربرد CNN است که ما انجام خواهیم داد.

بخش 13- عمیق تر به CNN: بهبود و ترسیم

در این بخش، CNN را که در بخش قبل ساخته‌ایم بهبود می‌دهیم، همچنین به شما نشان می‌دهیم که چگونه نتایج آموزش و آزمایش را ترسیم کنید! علاوه بر این، ما به شما نشان خواهیم داد که چگونه تصاویر دست نویس خود را از طریق شبکه طبقه بندی کنید!

بخش 14 - معماری CNN

در این بخش، معماری‌های CNN را معرفی می‌کنیم که به طور گسترده در همه برنامه‌های یادگیری عمیق استفاده می‌شوند. این معماری ها عبارتند از: AlexNet، VGG net، Inception Net، Residual Networks و Densely Connected Networks. همچنین در مورد برخی از معماری‌های تشخیص شی بحث خواهیم کرد.

بخش 15- شبکه های باقیمانده

در این بخش، به جزئیات و تئوری شبکه‌های باقی‌مانده می‌پردازیم و سپس یک شبکه باقی‌مانده را در PyTorch از ابتدا می‌سازیم!

بخش 16 - آموزش انتقال در PyTorch - طبقه بندی تصویر

در این بخش، آموزش انتقال را در شبکه باقیمانده برای طبقه بندی مورچه ها و زنبورها اعمال می کنیم. ما همچنین به شما نشان خواهیم داد که چگونه از مجموعه داده خود استفاده کنید و از تقویت تصویر استفاده کنید. پس از تکمیل این بخش، می توانید هر تصویری را که می خواهید طبقه بندی کنید!

بخش 17- تجسم شبکه های کانولوشن

در این بخش، آنچه را که شبکه‌های عصبی خروجی می‌دهند و واقعاً در حال یادگیری هستند، تجسم خواهیم کرد. ما نقشه های ویژگی شبکه هر لایه را مشاهده خواهیم کرد!

بخش 18 - تشخیص شیء YOLO (نظریه)

در این بخش یکی از معروف ترین فریمورک های تشخیص اشیا را یاد می گیریم: YOLO!! این بخش نظریه YOLO را به طور عمیق پوشش می دهد.

بخش 19 - رمزگذارهای خودکار و رمزگذارهای خودکار متغیر

در این بخش، Autoencoder و Autoencoder Denoising را پوشش خواهیم داد. سپس مشکلی که آنها با آن روبرو هستند را خواهیم دید و نحوه کاهش آن را با رمزگذارهای خودکار متغیر می‌آموزیم.

بخش 20 - شبکه های عصبی مکرر

در این قسمت شما را با شبکه های عصبی بازگشتی و تمامی مفاهیم آن آشنا می کنیم. سپس در مورد پس انتشار در طول زمان، مشکل گرادیان ناپدید شدن، و در نهایت در مورد حافظه کوتاه مدت بلند مدت (LSTM) که مشکلاتی را که RNN از آن رنج می‌برد حل می‌کند، بحث خواهیم کرد.

بخش 21 - جاسازی های کلمه

در این بخش، نحوه نمایش کلمات به عنوان ویژگی را مورد بحث قرار خواهیم داد. سپس چند مدل تعبیه Word را به شما نشان خواهیم داد. ما همچنین به شما نشان خواهیم داد که چگونه جاسازی کلمه را در PyTorch پیاده سازی کنید!

بخش 22 - شبکه های تکراری عملی در PyTorch

در این بخش، شبکه‌های عصبی تکراری را با استفاده از LSTM در PyTorch برای تولید متنی شبیه به داستان آلیس در سرزمین عجایب اعمال می‌کنیم! شما فقط می توانید داستان را با هر متن دیگری که می خواهید جایگزین کنید و RNN می تواند متنی مشابه آن تولید کند!

بخش 23 - مدل‌سازی توالی

در این بخش با مدلسازی ترتیب به دنباله آشنا خواهیم شد. خواهیم دید که مدل‌های Seq2Seq چگونه کار می‌کنند و کجا اعمال می‌شوند. همچنین در مورد مکانیسم های توجه صحبت خواهیم کرد و نحوه عملکرد آنها را مشاهده خواهیم کرد.

بخش 24 - مدلسازی توالی عملی در PyTorch - ساخت یک ربات چت

در این بخش، آنچه را که در مورد مدل‌سازی توالی آموخته‌ایم اعمال می‌کنیم و یک Chatbot با مکانیسم توجه می‌سازیم.

بخش 25 - ذخیره و بارگیری مدل ها

در این بخش، نحوه ذخیره و بارگذاری مدل‌ها در PyTorch را به شما نشان می‌دهیم، بنابراین می‌توانید از این مدل‌ها برای آزمایش بعدی یا برای از سرگیری آموزش استفاده کنید!

بخش 26 - ترانسفورماتورها

در این بخش، Transformer را پوشش خواهیم داد، که مدل پیشرفته فعلی برای کارهای NLP و مدلسازی زبان است. ما هر یک از اجزای یک ترانسفورماتور را بررسی خواهیم کرد.

بخش 27 - ساخت یک چت بات با ترانسفورماتور

در این بخش، همه چیزهایی را که در بخش قبل یاد گرفتیم برای ساختن یک چت بات با استفاده از ترانسفورماتورها پیاده سازی می کنیم.


سرفصل ها و درس ها

نحوه عملکرد شبکه های عصبی و پس انتشار How Neural Networks and Backpropagation Works

  • قبل از شروع...لطفاً این را بخوانید BEFORE STARTING...PLEASE READ THIS

  • قبل از شروع...لطفاً این را بخوانید BEFORE STARTING...PLEASE READ THIS

  • یادگیری عمیق چه کاری می تواند انجام دهد؟ What Can Deep Learning Do?

  • یادگیری عمیق چه کاری می تواند انجام دهد؟ What Can Deep Learning Do?

  • ظهور یادگیری عمیق The Rise of Deep Learning

  • ماهیت شبکه های عصبی The Essence of Neural Networks

  • ماهیت شبکه های عصبی The Essence of Neural Networks

  • پرسپترون The Perceptron

  • پرسپترون The Perceptron

  • گرادیان نزول Gradient Descent

  • گرادیان نزول Gradient Descent

  • انتشار رو به جلو The Forward Propagation

  • انتشار رو به جلو The Forward Propagation

  • قبل از اینکه به پس انتشار ادامه دهید Before Proceeding with the Backpropagation

  • قبل از اینکه به پس انتشار ادامه دهید Before Proceeding with the Backpropagation

  • پس انتشار قسمت 1 Backpropagation Part 1

  • پس انتشار قسمت 1 Backpropagation Part 1

  • پس انتشار قسمت 2 Backpropagation Part 2

  • پس انتشار قسمت 2 Backpropagation Part 2

نحوه عملکرد شبکه های عصبی و پس انتشار How Neural Networks and Backpropagation Works

  • ظهور یادگیری عمیق The Rise of Deep Learning

توابع از دست دادن Loss Functions

  • میانگین مربعات خطا (MSE) Mean Squared Error (MSE)

  • میانگین مربعات خطا (MSE) Mean Squared Error (MSE)

  • ضرر L1 (MAE) L1 Loss (MAE)

  • ضرر L1 (MAE) L1 Loss (MAE)

  • ضرر هوبر Huber Loss

  • ضرر هوبر Huber Loss

  • از دست دادن آنتروپی متقاطع باینری Binary Cross Entropy Loss

  • از دست دادن آنتروپی متقاطع Cross Entropy Loss

  • عملکرد سافت مکس Softmax Function

  • عملکرد سافت مکس Softmax Function

  • Softmax با دما: کنترل توزیع شما Softmax with Temperature: Controlling your distribution

  • Softmax با دما: کنترل توزیع شما Softmax with Temperature: Controlling your distribution

  • ضرر واگرایی KL KL divergence Loss

  • از دست دادن متضاد Contrastive Loss

  • از دست دادن لولا Hinge Loss

  • از دست دادن لولا Hinge Loss

  • از دست دادن رتبه سه گانه Triplet Ranking Loss

  • از دست دادن رتبه سه گانه Triplet Ranking Loss

  • توجه داشته باشید توابع از دست دادن عملی Practical Loss Functions Note

  • توجه داشته باشید توابع از دست دادن عملی Practical Loss Functions Note

توابع از دست دادن Loss Functions

  • از دست دادن آنتروپی متقاطع باینری Binary Cross Entropy Loss

  • از دست دادن آنتروپی متقاطع Cross Entropy Loss

  • ضرر واگرایی KL KL divergence Loss

  • از دست دادن متضاد Contrastive Loss

توابع فعال سازی Activation Functions

  • چرا ما به توابع فعال سازی نیاز داریم Why we need activation functions

  • چرا ما به توابع فعال سازی نیاز داریم Why we need activation functions

  • فعال سازی سیگموئید Sigmoid Activation

  • فعال سازی سیگموئید Sigmoid Activation

  • فعال سازی تنها Tanh Activation

  • فعال سازی تنها Tanh Activation

  • ReLU و PReLU ReLU and PReLU

  • ReLU و PReLU ReLU and PReLU

  • واحدهای خطی نمایی (ELU) Exponentially Linear Units (ELU)

  • واحدهای خطی دروازه ای (GLU) Gated Linear Units (GLU)

  • واحدهای خطی دروازه ای (GLU) Gated Linear Units (GLU)

  • Swish Activation Swish Activation

  • فعال سازی میش Mish Activation

توابع فعال سازی Activation Functions

  • واحدهای خطی نمایی (ELU) Exponentially Linear Units (ELU)

  • Swish Activation Swish Activation

  • فعال سازی میش Mish Activation

منظم سازی و عادی سازی Regularization and Normalization

  • بیش از حد برازش Overfitting

  • بیش از حد برازش Overfitting

  • تنظیم L1 و L2 L1 and L2 Regularization

  • ترک تحصیل Dropout

  • DropConnect DropConnect

  • عادی سازی Normalization

  • عادی سازی دسته ای Batch Normalization

  • عادی سازی دسته ای Batch Normalization

  • عادی سازی لایه ها Layer Normalization

  • عادی سازی گروه Group Normalization

  • عادی سازی گروه Group Normalization

  • عادی سازی لایه ها Layer Normalization

  • ترک تحصیل Dropout

منظم سازی و عادی سازی Regularization and Normalization

  • تنظیم L1 و L2 L1 and L2 Regularization

  • DropConnect DropConnect

  • عادی سازی Normalization

  • عادی سازی لایه ها Layer Normalization

بهينه سازي Optimization

  • نزول گرادیان دسته ای Batch Gradient Descent

  • نزول گرادیان تصادفی Stochastic Gradient Descent

  • نزول گرادیان تصادفی Stochastic Gradient Descent

  • مینی دسته ای نزول گرادیان Mini-Batch Gradient Descent

  • مینی دسته ای نزول گرادیان Mini-Batch Gradient Descent

  • شهود میانگین وزنی نمایی Exponentially Weighted Average Intuition

  • اجرای میانگین وزنی نمایی Exponentially Weighted Average Implementation

  • اجرای میانگین وزنی نمایی Exponentially Weighted Average Implementation

  • تصحیح سوگیری در میانگین های وزنی نمایی Bias Correction in Exponentially Weighted Averages

  • تکانه Momentum

  • تکانه Momentum

  • RMSProp RMSProp

  • RMSProp RMSProp

  • بهینه سازی آدام Adam Optimization

  • بهینه سازی آدام Adam Optimization

  • SWATS - تغییر از Adam به SGD SWATS - Switching from Adam to SGD

  • SWATS - تغییر از Adam به SGD SWATS - Switching from Adam to SGD

  • کاهش وزن Weight Decay

  • کاهش وزن Weight Decay

  • جداسازی کاهش وزن Decoupling Weight Decay

  • AMSGrad AMSGrad

بهينه سازي Optimization

  • نزول گرادیان دسته ای Batch Gradient Descent

  • شهود میانگین وزنی نمایی Exponentially Weighted Average Intuition

  • تصحیح سوگیری در میانگین های وزنی نمایی Bias Correction in Exponentially Weighted Averages

  • جداسازی کاهش وزن Decoupling Weight Decay

  • AMSGrad AMSGrad

تنظیم فراپارامتر و زمان‌بندی نرخ یادگیری Hyperparameter Tuning and Learning Rate Scheduling

  • مقدمه ای بر تنظیم Hyperparameter و Recap نرخ یادگیری Introduction to Hyperparameter Tuning and Learning Rate Recap

  • کاهش سرعت یادگیری مرحله ای Step Learning Rate Decay

  • کاهش سرعت یادگیری مرحله ای Step Learning Rate Decay

  • نرخ یادگیری چرخه ای Cyclic Learning Rate

  • میزان یادگیری چرخه ای Cyclic Learning Rate

  • بازپخت کسینوس با شروع مجدد گرم Cosine Annealing with Warm Restarts

  • اندازه دسته در مقابل نرخ یادگیری Batch Size vs Learning Rate

  • اندازه دسته در مقابل نرخ یادگیری Batch Size vs Learning Rate

تنظیم فراپارامتر و زمان‌بندی نرخ یادگیری Hyperparameter Tuning and Learning Rate Scheduling

  • مقدمه ای بر تنظیم Hyperparameter و Recap نرخ یادگیری Introduction to Hyperparameter Tuning and Learning Rate Recap

  • بازپخت کسینوس با شروع مجدد گرم Cosine Annealing with Warm Restarts

مقدار اولیه وزن Weight Initialization

  • توزیع نرمال Normal Distribution

  • چه اتفاقی می‌افتد وقتی همه وزن‌ها به یک مقدار مقداردهی اولیه شوند؟ What happens when all weights are initialized to the same value?

  • چه اتفاقی می‌افتد وقتی همه وزن‌ها به یک مقدار مقداردهی اولیه شوند؟ What happens when all weights are initialized to the same value?

  • Xavier Initialization Xavier Initialization

  • Xavier Initialization Xavier Initialization

  • او هنجار اولیه سازی He Norm Initialization

  • یادداشت اولیه وزن عملی Practical Weight Initialization Note

مقدار اولیه وزن Weight Initialization

  • توزیع نرمال Normal Distribution

  • او هنجار اولیه سازی He Norm Initialization

  • یادداشت اولیه وزن عملی Practical Weight Initialization Note

مقدمه ای بر PyTorch Introduction to PyTorch

  • کد برای این دوره CODE FOR THIS COURSE

  • نمودارهای محاسباتی و چارچوب های یادگیری عمیق Computation Graphs and Deep Learning Frameworks

  • نمودارهای محاسباتی و چارچوب های یادگیری عمیق Computation Graphs and Deep Learning Frameworks

  • نصب PyTorch و مقدمه Installing PyTorch and an Introduction

  • PyTorch چگونه کار می کند How PyTorch Works

  • تانسورهای مشعل - قسمت 1 Torch Tensors - Part 1

  • تانسورهای مشعل - قسمت 1 Torch Tensors - Part 1

  • تانسورهای مشعل - قسمت 2 Torch Tensors - Part 2

  • پل Numpy، الحاق تانسور و افزودن ابعاد Numpy Bridge, Tensor Concatenation and Adding Dimensions

  • پل Numpy، الحاق تانسور و افزودن ابعاد Numpy Bridge, Tensor Concatenation and Adding Dimensions

  • تمایز خودکار Automatic Differentiation

  • توابع از دست دادن در PyTorch Loss Functions in PyTorch

  • توابع از دست دادن در PyTorch Loss Functions in PyTorch

  • وزن اولیه در PyTorch Weight Initialization in PyTorch

مقدمه ای بر PyTorch Introduction to PyTorch

  • کد برای این دوره CODE FOR THIS COURSE

  • نصب PyTorch و مقدمه Installing PyTorch and an Introduction

  • PyTorch چگونه کار می کند How PyTorch Works

  • تانسورهای مشعل - قسمت 2 Torch Tensors - Part 2

  • تمایز خودکار Automatic Differentiation

  • وزن اولیه در PyTorch Weight Initialization in PyTorch

افزایش داده ها Data Augmentation

  • 1_مقدمه ای بر افزایش داده ها 1_Introduction to Data Augmentation

  • 2_تکنیک های افزایش داده قسمت 1 2_Data Augmentation Techniques Part 1

  • 2_تکنیک های افزایش داده ها قسمت 2 2_Data Augmentation Techniques Part 2

  • 2_تکنیک های افزایش داده قسمت 3 2_Data Augmentation Techniques Part 3

افزایش داده ها Data Augmentation

  • 1_مقدمه ای بر افزایش داده ها 1_Introduction to Data Augmentation

  • 2_تکنیک های افزایش داده قسمت 1 2_Data Augmentation Techniques Part 1

  • 2_تکنیک های افزایش داده ها قسمت 2 2_Data Augmentation Techniques Part 2

  • 2_تکنیک های افزایش داده قسمت 3 2_Data Augmentation Techniques Part 3

شبکه های عصبی کاربردی در PyTorch - کاربرد 1: دیابت Practical Neural Networks in PyTorch - Application 1: Diabetes

  • مجموعه داده را دانلود کنید Download the Dataset

  • بخش 1: پیش پردازش داده ها Part 1: Data Preprocessing

  • بخش 2: عادی سازی داده ها Part 2: Data Normalization

  • قسمت 3: ایجاد و بارگذاری مجموعه داده Part 3: Creating and Loading the Dataset

  • بخش 4: ساخت شبکه Part 4: Building the Network

  • بخش 5: آموزش شبکه Part 5: Training the Network

شبکه های عصبی کاربردی در PyTorch - کاربرد 1: دیابت Practical Neural Networks in PyTorch - Application 1: Diabetes

  • مجموعه داده را دانلود کنید Download the Dataset

  • بخش 1: پیش پردازش داده ها Part 1: Data Preprocessing

  • بخش 2: عادی سازی داده ها Part 2: Data Normalization

  • قسمت 3: ایجاد و بارگذاری مجموعه داده Part 3: Creating and Loading the Dataset

  • بخش 4: ساخت شبکه Part 4: Building the Network

  • بخش 5: آموزش شبکه Part 5: Training the Network

فرآیند یادگیری را تجسم کنید Visualize the Learning Process

  • تجسم یادگیری قسمت 1 Visualize Learning Part 1

  • تجسم یادگیری قسمت 1 Visualize Learning Part 1

  • تجسم یادگیری قسمت 2 Visualize Learning Part 2

  • تجسم یادگیری قسمت 2 Visualize Learning Part 2

  • تجسم یادگیری قسمت 3 Visualize Learning Part 3

  • تجسم یادگیری قسمت 4 Visualize Learning Part 4

  • تجسم یادگیری قسمت 4 Visualize Learning Part 4

  • تجسم یادگیری قسمت 5 Visualize Learning Part 5

  • تجسم یادگیری قسمت 5 Visualize Learning Part 5

  • تجسم یادگیری قسمت 6 Visualize Learning Part 6

  • تجسم یادگیری قسمت 6 Visualize Learning Part 6

  • زمین بازی شبکه های عصبی Neural Networks Playground

فرآیند یادگیری را تجسم کنید Visualize the Learning Process

  • تجسم یادگیری قسمت 3 Visualize Learning Part 3

  • زمین بازی شبکه های عصبی Neural Networks Playground

پیاده سازی شبکه عصبی از ابتدا با Numpy Implementing a Neural Network from Scratch with Numpy

  • مجموعه داده و فراپارامترها The Dataset and Hyperparameters

  • درک پیاده سازی Understanding the Implementation

  • انتشار رو به جلو Forward Propagation

  • انتشار رو به جلو Forward Propagation

  • عملکرد از دست دادن Loss Function

  • پیش بینی Prediction

  • پیش بینی Prediction

  • دفترچه یادداشت برای سخنرانی زیر Notebook for the following Lecture

  • دفترچه یادداشت برای سخنرانی زیر Notebook for the following Lecture

  • معادلات پس انتشار Backpropagation Equations

  • معادلات پس انتشار Backpropagation Equations

  • پس انتشار Backpropagation

  • پس انتشار Backpropagation

  • راه اندازی شبکه Initializing the Network

  • راه اندازی شبکه Initializing the Network

  • آموزش مدل Training the Model

  • آموزش مدل Training the Model

پیاده سازی شبکه عصبی از ابتدا با Numpy Implementing a Neural Network from Scratch with Numpy

  • مجموعه داده و فراپارامترها The Dataset and Hyperparameters

  • درک پیاده سازی Understanding the Implementation

  • عملکرد از دست دادن Loss Function

شبکه های عصبی کاربردی در PyTorch - برنامه 2: اعداد دست نویس Practical Neural Networks in PyTorch - Application 2: Handwritten Digits

  • مجموعه داده های MNIST The MNIST Dataset

  • جزئیات کد Code Details

  • جزئیات کد Code Details

  • وارد کردن و تعریف پارامترها Importing and Defining Parameters

  • وارد کردن و تعریف پارامترها Importing and Defining Parameters

  • تعریف کلاس شبکه Defining the Network Class

  • ایجاد کلاس شبکه و توابع شبکه Creating the network class and the network functions

  • آموزش شبکه Training the Network

  • آموزش شبکه Training the Network

  • تست شبکه Testing the Network

شبکه های عصبی کاربردی در PyTorch - برنامه 2: اعداد دست نویس Practical Neural Networks in PyTorch - Application 2: Handwritten Digits

  • مجموعه داده های MNIST The MNIST Dataset

  • تعریف کلاس شبکه Defining the Network Class

  • ایجاد کلاس شبکه و توابع شبکه Creating the network class and the network functions

  • آموزش شبکه Training the Network

  • تست شبکه Testing the Network

شبکه های عصبی کانولوشنال Convolutional Neural Networks

  • پیش نیاز: فیلترها Prerequisite: Filters

  • پیش نیاز: فیلترها Prerequisite: Filters

  • مقدمه ای بر شبکه های کانولوشن و نیاز به آنها Introduction to Convolutional Networks and the need for them

  • فیلترها و ویژگی ها Filters and Features

  • پیچیدگی بر روی منبع انیمیشن حجمی Convolution over Volume Animation Resource

  • پیچیدگی بر روی منبع انیمیشن حجمی Convolution over Volume Animation Resource

  • پیچیدگی روی انیمیشن حجمی Convolution over Volume Animation

  • بیشتر در مورد Convolutions More on Convolutions

  • درک خود را آزمایش کنید Test your Understanding

  • درک خود را آزمایش کنید Test your Understanding

  • بحث حل امتحان Quiz Solution Discussion

  • ابزاری برای تجسم کانولوشن A Tool for Convolution Visualization

  • فعال سازی، ادغام و FC Activation, Pooling and FC

  • تجسم CNN CNN Visualization

  • تجسم CNN CNN Visualization

  • فرمول های مهم Important formulas

  • فرمول های مهم Important formulas

  • ویژگی های CNN CNN Characteristics

  • ویژگی های CNN CNN Characteristics

  • منظم سازی و عادی سازی دسته ای در CNN ها Regularization and Batch Normalization in CNNs

  • DropBlock: خروج در CNN ها DropBlock: Dropout in CNNs

  • DropBlock: خروج در CNN ها DropBlock: Dropout in CNNs

  • سافت مکس با دما Softmax with Temperature

  • سافت مکس با دما Softmax with Temperature

شبکه های عصبی کانولوشنال Convolutional Neural Networks

  • مقدمه ای بر شبکه های کانولوشن و نیاز به آنها Introduction to Convolutional Networks and the need for them

  • فیلترها و ویژگی ها Filters and Features

  • پیچیدگی روی انیمیشن حجمی Convolution over Volume Animation

  • بیشتر در مورد Convolutions More on Convolutions

  • ابزاری برای تجسم کانولوشن A Tool for Convolution Visualization

  • فعال سازی، ادغام و FC Activation, Pooling and FC

  • منظم سازی و عادی سازی دسته ای در CNN ها Regularization and Batch Normalization in CNNs

شبکه های کانولوشن عملی در PyTorch - طبقه بندی تصویر Practical Convolutional Networks in PyTorch - Image Classification

  • بارگذاری و عادی سازی مجموعه داده Loading and Normalizing the Dataset

  • تجسم و بارگذاری مجموعه داده Visualizing and Loading the Dataset

  • ساخت CNN Building the CNN

  • ساخت CNN Building the CNN

  • تعریف مدل Defining the Model

  • تعریف مدل Defining the Model

  • درک انتشار Understanding the Propagation

  • آموزش CNN Training the CNN

  • آموزش CNN Training the CNN

  • تست CNN Testing the CNN

  • نقشه کشی و عملی کردن Plotting and Putting into Action

  • پیش بینی یک تصویر Predicting an image

  • طبقه بندی تصاویر دست نویس خود Classifying your own Handwritten images

شبکه های کانولوشن عملی در PyTorch - طبقه بندی تصویر Practical Convolutional Networks in PyTorch - Image Classification

  • بارگذاری و عادی سازی مجموعه داده Loading and Normalizing the Dataset

  • تجسم و بارگذاری مجموعه داده Visualizing and Loading the Dataset

  • تعریف مدل Defining the Model

  • درک انتشار Understanding the Propagation

  • تست CNN Testing the CNN

  • نقشه کشی و عملی کردن Plotting and Putting into Action

  • پیش بینی یک تصویر Predicting an image

  • طبقه بندی تصاویر دست نویس خود Classifying your own Handwritten images

معماری CNN CNN Architectures

  • CNN Architectures قسمت 1 CNN Architectures Part 1

  • CNN Architectures قسمت 1 CNN Architectures Part 1

  • شبکه های باقیمانده قسمت 1 Residual Networks Part 1

  • شبکه های باقیمانده قسمت 2 Residual Networks Part 2

  • یادداشت در مورد پیاده سازی شبکه های باقیمانده Note on Residual Networks Implementation

  • یادداشت در مورد پیاده سازی شبکه های باقیمانده Note on Residual Networks Implementation

  • عمق تصادفی Stochastic Depth

  • عمق تصادفی Stochastic Depth

  • CNN Architectures قسمت 2 CNN Architectures Part 2

  • CNN Architectures قسمت 2 CNN Architectures Part 2

  • شبکه های متراکم متصل Densely Connected Networks

  • شبکه های متراکم متصل Densely Connected Networks

  • شبکه ها را فشار دهید Squeeze-Excite Networks

  • پیچیدگی های قابل جداسازی Seperable Convolutions

  • پیچیدگی های قابل جداسازی Seperable Convolutions

  • یادگیری انتقالی Transfer Learning

  • یادگیری انتقالی Transfer Learning

  • آیا فیلتر کانولوشنال 1x1 معادل لایه FC است؟ Is a 1x1 convolutional filter equivalent to a FC layer?

معماری CNN CNN Architectures

  • شبکه های باقیمانده قسمت 1 Residual Networks Part 1

  • شبکه های باقیمانده قسمت 2 Residual Networks Part 2

  • شبکه ها را فشار دهید Squeeze-Excite Networks

  • آیا فیلتر کانولوشنال 1x1 معادل لایه FC است؟ Is a 1x1 convolutional filter equivalent to a FC layer?

شبکه های باقیمانده عملی در PyTorch Practical Residual Networks in PyTorch

  • ResNet عملی قسمت 1 Practical ResNet Part 1

  • ResNet عملی قسمت 1 Practical ResNet Part 1

  • ResNet عملی قسمت 2 Practical ResNet Part 2

  • ResNet عملی قسمت 3 Practical ResNet Part 3

  • ResNet عملی قسمت 3 Practical ResNet Part 3

  • ResNet عملی قسمت 4 Practical ResNet Part 4

شبکه های باقیمانده عملی در PyTorch Practical Residual Networks in PyTorch

  • ResNet عملی قسمت 2 Practical ResNet Part 2

  • ResNet عملی قسمت 4 Practical ResNet Part 4

کانولوشن های جابجا شده Transposed Convolutions

  • مقدمه ای بر کانولوشن های انتقال یافته Introduction to Transposed Convolutions

  • مقدمه ای بر کانولوشن های انتقال یافته Introduction to Transposed Convolutions

  • عملیات کانولوشن به عنوان ضرب ماتریس Convolution Operation as Matrix Multiplication

  • کانولوشن های جابجا شده Transposed Convolutions

  • کانولوشن های جابجا شده Transposed Convolutions

کانولوشن های جابجا شده Transposed Convolutions

  • عملیات کانولوشن به عنوان ضرب ماتریس Convolution Operation as Matrix Multiplication

آموزش انتقال در PyTorch - طبقه بندی تصاویر Transfer Learning in PyTorch - Image Classification

  • افزایش داده ها Data Augmentation

  • در حال بارگیری مجموعه داده Loading the Dataset

  • اصلاح شبکه Modifying the Network

  • درک داده ها Understanding the data

  • درک داده ها Understanding the data

  • تنظیم دقیق شبکه Finetuning the Network

  • آزمایش و تجسم نتایج Testing and Visualizing the results

  • آزمایش و تجسم نتایج Testing and Visualizing the results

آموزش انتقال در PyTorch - طبقه بندی تصاویر Transfer Learning in PyTorch - Image Classification

  • افزایش داده ها Data Augmentation

  • در حال بارگیری مجموعه داده Loading the Dataset

  • اصلاح شبکه Modifying the Network

  • تنظیم دقیق شبکه Finetuning the Network

تجسم شبکه های کانولوشنال Convolutional Networks Visualization

  • داده ها و مدل Data and the Model

  • داده ها و مدل Data and the Model

  • پردازش مدل Processing the Model

  • پردازش مدل Processing the Model

  • تجسم نقشه های ویژگی Visualizing the Feature Maps

  • تجسم نقشه های ویژگی Visualizing the Feature Maps

تجسم شبکه های کانولوشنال Convolutional Networks Visualization

تشخیص شی YOLO (نظریه) YOLO Object Detection (Theory)

  • نظریه YOLO قسمت 1 YOLO Theory Part 1

  • نظریه YOLO قسمت 2 YOLO Theory Part 2

  • نظریه YOLO قسمت 2 YOLO Theory Part 2

  • نظریه YOLO قسمت 3 YOLO Theory Part 3

  • نظریه یولو قسمت 4 YOLO Theory Part 4

  • نظریه YOLO قسمت 5 YOLO Theory Part 5

  • نظریه یولو قسمت 6 YOLO Theory Part 6

  • نظریه یولو قسمت 7 YOLO Theory Part 7

  • تئوری یولو قسمت 7 YOLO Theory Part 7

  • نظریه یولو قسمت 8 YOLO Theory Part 8

  • نظریه YOLO قسمت 9 YOLO Theory Part 9

  • نظریه YOLO قسمت 9 YOLO Theory Part 9

  • نظریه یولو قسمت 10 YOLO Theory Part 10

  • نظریه یولو قسمت 10 YOLO Theory Part 10

  • نظریه یولو قسمت 11 YOLO Theory Part 11

  • نظریه یولو قسمت 11 YOLO Theory Part 11

  • نظریه یولو قسمت 12 YOLO Theory Part 12

  • نظریه یولو قسمت 12 YOLO Theory Part 12

  • یادداشت کد YOLO YOLO Code Note

  • یادداشت کد YOLO YOLO Code Note

تشخیص شی YOLO (نظریه) YOLO Object Detection (Theory)

  • نظریه YOLO قسمت 1 YOLO Theory Part 1

  • نظریه YOLO قسمت 3 YOLO Theory Part 3

  • نظریه یولو قسمت 4 YOLO Theory Part 4

  • نظریه YOLO قسمت 5 YOLO Theory Part 5

  • نظریه یولو قسمت 6 YOLO Theory Part 6

  • نظریه یولو قسمت 8 YOLO Theory Part 8

رمزگذارهای خودکار و رمزگذارهای خودکار متغیر Autoencoders and Variational Autoencoders

  • رمزگذارهای خودکار Autoencoders

  • حذف نویز از رمزگذارهای خودکار Denoising Autoencoders

  • مشکل در رمزگذارهای خودکار The Problem in Autoencoders

  • مشکل در رمزگذارهای خودکار The Problem in Autoencoders

  • رمزگذارهای خودکار متغیر Variational Autoencoders

  • رمزگذارهای خودکار متغیر Variational Autoencoders

  • خلاصه توزیع احتمالات Probability Distributions Recap

  • استخراج تابع ضرر برای VAE Loss Function Derivation for VAE

  • استخراج تابع ضرر برای VAE Loss Function Derivation for VAE

  • جعلی عمیق Deep Fake

رمزگذارهای خودکار و رمزگذارهای خودکار متغیر Autoencoders and Variational Autoencoders

  • رمزگذارهای خودکار Autoencoders

  • حذف نویز از رمزگذارهای خودکار Denoising Autoencoders

  • خلاصه توزیع احتمالات Probability Distributions Recap

  • جعلی عمیق Deep Fake

رمزگذارهای خودکار متغیر عملی در PyTorch Practical Variational Autoencoders in PyTorch

  • عملی VAE قسمت 1 Practical VAE Part 1

  • عملی VAE قسمت 1 Practical VAE Part 1

  • عملی VAE قسمت 2 Practical VAE Part 2

  • عملی VAE قسمت 3 Practical VAE Part 3

  • عملی VAE قسمت 3 Practical VAE Part 3

رمزگذارهای خودکار متغیر عملی در PyTorch Practical Variational Autoencoders in PyTorch

  • عملی VAE قسمت 2 Practical VAE Part 2

انتقال سبک عصبی Neural Style Transfer

  • نظریه NST قسمت 1 NST Theory Part 1

  • نظریه NST قسمت 1 NST Theory Part 1

  • نظریه NST قسمت 2 NST Theory Part 2

  • نظریه NST قسمت 2 NST Theory Part 2

  • نظریه NST قسمت 3 NST Theory Part 3

  • نظریه NST قسمت 3 NST Theory Part 3

انتقال سبک عصبی Neural Style Transfer

انتقال عملی سبک عصبی در PyTorch Practical Neural Style Transfer in PyTorch

  • بخش عملی NST 1 NST Practical Part 1

  • بخش عملی NST 2 NST Practical Part 2

  • بخش عملی NST 2 NST Practical Part 2

  • بخش عملی NST 3 NST Practical Part 3

  • بخش عملی NST 3 NST Practical Part 3

  • بخش عملی NST 4 NST Practical Part 4

  • بخش عملی NST 4 NST Practical Part 4

  • انتقال سریع سبک عصبی Fast Neural Style Transfer

انتقال عملی سبک عصبی در PyTorch Practical Neural Style Transfer in PyTorch

  • بخش عملی NST 1 NST Practical Part 1

  • انتقال سریع سبک عصبی Fast Neural Style Transfer

شبکه های عصبی مکرر Recurrent Neural Networks

  • چرا به RNN نیاز داریم؟ Why do we need RNNs

  • RNN های وانیلی Vanilla RNNs

  • درک خود را بیازمایید Test your understanding

  • بحث حل امتحان Quiz Solution Discussion

  • بحث حل امتحان Quiz Solution Discussion

  • پس انتشار در طول زمان Backpropagation Through Time

  • RNN های انباشته شده Stacked RNNs

  • مشکل گرادیان ناپدید شدن و انفجار Vanishing and Exploding Gradient Problem

  • LSTMs LSTMs

  • RNN های دو طرفه Bidirectional RNNs

  • GRU ها GRUs

  • GRU ها GRUs

  • CNN-LSTM CNN-LSTM

  • CNN-LSTM CNN-LSTM

شبکه های عصبی مکرر Recurrent Neural Networks

  • چرا به RNN نیاز داریم؟ Why do we need RNNs

  • RNN های وانیلی Vanilla RNNs

  • درک خود را بیازمایید Test your understanding

  • بحث حل امتحان Quiz Solution Discussion

  • پس انتشار در طول زمان Backpropagation Through Time

  • RNN های انباشته شده Stacked RNNs

  • مشکل گرادیان ناپدید شدن و انفجار Vanishing and Exploding Gradient Problem

  • LSTMs LSTMs

  • RNN های دو طرفه Bidirectional RNNs

جاسازی های کلمه Word Embeddings

  • جاسازی ورد چیست؟ What are Word Embeddings

  • جاسازی ورد چیست؟ What are Word Embeddings

  • تجسم جاسازی های کلمه Visualizing Word Embeddings

  • تجسم جاسازی های کلمه Visualizing Word Embeddings

  • اندازه گیری جاسازی های کلمه Measuring Word Embeddings

  • اندازه گیری جاسازی های کلمه Measuring Word Embeddings

  • مدل های جاسازی کلمه Word Embeddings Models

  • جاسازی کلمه در PyTorch Word Embeddings in PyTorch

جاسازی های کلمه Word Embeddings

  • مدل های جاسازی کلمه Word Embeddings Models

  • جاسازی کلمه در PyTorch Word Embeddings in PyTorch

شبکه های تکراری عملی در PyTorch Practical Recurrent Networks in PyTorch

  • مجموعه داده را دانلود کنید Download the Dataset

  • ایجاد فرهنگ لغت Creating the Dictionary

  • پردازش متن Processing the Text

  • پردازش متن Processing the Text

  • تعریف و تجسم پارامترها Defining and Visualizing the Parameters

  • تعریف و تجسم پارامترها Defining and Visualizing the Parameters

  • ایجاد شبکه Creating the Network

  • ایجاد شبکه Creating the Network

  • آموزش شبکه Training the Network

  • آموزش شبکه Training the Network

  • تولید متن Generating Text

  • تولید متن Generating Text

شبکه های تکراری عملی در PyTorch Practical Recurrent Networks in PyTorch

  • مجموعه داده را دانلود کنید Download the Dataset

  • ایجاد فرهنگ لغت Creating the Dictionary

  • آموزش شبکه Training the Network

ذخیره و بارگذاری مدل ها Saving and Loading Models

  • ذخیره و بارگیری قسمت 1 Saving and Loading Part 1

  • ذخیره و بارگیری قسمت 1 Saving and Loading Part 1

  • ذخیره و بارگیری قسمت 2 Saving and Loading Part 2

  • ذخیره و بارگیری قسمت 2 Saving and Loading Part 2

  • ذخیره و بارگیری قسمت 3 Saving and Loading Part 3

ذخیره و بارگذاری مدل ها Saving and Loading Models

  • ذخیره و بارگیری قسمت 3 Saving and Loading Part 3

مدلسازی دنباله ای Sequence Modelling

  • مدلسازی دنباله ای Sequence Modeling

  • زیرنویس تصویر Image Captioning

  • مکانیسم های توجه Attention Mechanisms

  • مکانیسم های توجه Attention Mechanisms

  • نحوه عملکرد مکانیسم های توجه How Attention Mechanisms Work

مدلسازی دنباله ای Sequence Modelling

  • مدلسازی دنباله ای Sequence Modeling

  • زیرنویس تصویر Image Captioning

  • نحوه عملکرد مکانیسم های توجه How Attention Mechanisms Work

مدل سازی توالی عملی در PyTorch: برنامه Chatbot Practical Sequence Modelling in PyTorch: Chatbot Application

  • مجموعه داده را دانلود کنید Download the Dataset

  • مجموعه داده را دانلود کنید Download the Dataset

  • معرفی Introduction

  • معرفی Introduction

  • درک رمزگذار Understanding the Encoder

  • درک رمزگذار Understanding the Encoder

  • تعریف رمزگذار Defining the Encoder

  • درک توالی پک padded Understanding Pack Padded Sequence

  • طراحی مدل توجه Designing the Attention Model

  • طراحی رسیور قسمت 1 Designing the Decoder Part 1

  • طراحی رسیور قسمت 2 Designing the Decoder Part 2

  • طراحی رسیور قسمت 2 Designing the Decoder Part 2

  • معلم اجباری Teacher Forcing

مدل سازی توالی عملی در PyTorch: برنامه Chatbot Practical Sequence Modelling in PyTorch: Chatbot Application

  • تعریف رمزگذار Defining the Encoder

  • درک توالی پک padded Understanding Pack Padded Sequence

  • طراحی مدل توجه Designing the Attention Model

  • طراحی رسیور قسمت 1 Designing the Decoder Part 1

  • معلم اجباری Teacher Forcing

مدل سازی توالی عملی در PyTorch: شرح تصویر Practical Sequence Modelling in PyTorch: Image Captioning

  • جزئیات پیاده سازی Implementation Details

  • جزئیات پیاده سازی Implementation Details

  • توابع سودمند Utility Functions

  • توابع سودمند Utility Functions

  • محاسبه دقت Accuracy Calculation

  • ساخت مجموعه داده قسمت 1 Constructing the Dataset Part 1

  • ساخت مجموعه داده قسمت 1 Constructing the Dataset Part 1

  • ساخت مجموعه داده قسمت 2 Constructing the Dataset Part 2

  • ایجاد رمزگذار Creating the Encoder

  • ایجاد رمزگذار Creating the Encoder

  • ایجاد رمزگشا قسمت 1 Creating the Decoder Part 1

  • ایجاد رمزگشا قسمت 2 Creating the Decoder Part 2

  • ایجاد رمزگشا قسمت 3 Creating the Decoder Part 3

  • عملکرد قطار Train Function

  • عملکرد قطار Train Function

  • تعریف فراپارامترها Defining Hyperparameters

  • تعریف فراپارامترها Defining Hyperparameters

  • عملکرد ارزیابی Evaluation Function

  • آموزش Training

  • آموزش Training

  • نتایج Results

  • عملکرد ارزیابی Evaluation Function

مدل سازی توالی عملی در PyTorch: شرح تصویر Practical Sequence Modelling in PyTorch: Image Captioning

  • محاسبه دقت Accuracy Calculation

  • ساخت مجموعه داده قسمت 2 Constructing the Dataset Part 2

  • ایجاد رمزگشا قسمت 1 Creating the Decoder Part 1

  • ایجاد رمزگشا قسمت 2 Creating the Decoder Part 2

  • ایجاد رمزگشا قسمت 3 Creating the Decoder Part 3

  • نتایج Results

مبدل ها Transformers

  • بررسی سلامت در بخش های قبلی SANITY CHECK ON PREVIOUS SECTIONS

  • مقدمه ای بر ترانسفورماتورها Introduction to Transformers

  • جاسازی های ورودی Input Embeddings

  • رمزگذاری موقعیتی Positional Encoding

  • توجه چند سر قسمت 1 MultiHead Attention Part 1

  • توجه چند سر قسمت 2 MultiHead Attention Part 2

  • توجه چند سر قسمت 2 MultiHead Attention Part 2

  • Concat و Linear Concat and Linear

  • Concat و Linear Concat and Linear

  • یادگیری باقیمانده Residual Learning

  • عادی سازی لایه ها Layer Normalization

  • فید فوروارد Feed Forward

  • فید فوروارد Feed Forward

  • توجه چند سر ماسک شده Masked MultiHead Attention

  • توجه چند سر ماسک شده Masked MultiHead Attention

  • توجه چند سر در رسیور MultiHead Attention in Decoder

  • از دست دادن آنتروپی متقاطع Cross Entropy Loss

  • ضرر واگرایی KL KL Divergence Loss

  • ضرر واگرایی KL KL Divergence Loss

  • صاف کردن برچسب Label Smoothing

  • صاف کردن برچسب Label Smoothing

  • ترک تحصیل Dropout

  • گرم کردن نرخ یادگیری Learning Rate Warmup

  • گرم کردن نرخ یادگیری Learning Rate Warmup

مبدل ها Transformers

  • بررسی سلامت در بخش های قبلی SANITY CHECK ON PREVIOUS SECTIONS

  • مقدمه ای بر ترانسفورماتورها Introduction to Transformers

  • جاسازی های ورودی Input Embeddings

  • رمزگذاری موقعیتی Positional Encoding

  • توجه چند سر قسمت 1 MultiHead Attention Part 1

  • یادگیری باقیمانده Residual Learning

  • توجه چند سر در رسیور MultiHead Attention in Decoder

  • از دست دادن آنتروپی متقاطع Cross Entropy Loss

  • ترک تحصیل Dropout

یک چت بات با ترانسفورماتور بسازید Build a Chatbot with Transformers

  • کد CODE

  • کد CODE

  • پیش پردازش مجموعه داده قسمت 1 Dataset Preprocessing Part 1

  • پیش پردازش مجموعه داده قسمت 2 Dataset Preprocessing Part 2

  • پیش پردازش مجموعه داده قسمت 2 Dataset Preprocessing Part 2

  • پیش پردازش مجموعه داده قسمت 3 Dataset Preprocessing Part 3

  • پیش پردازش مجموعه داده قسمت 3 Dataset Preprocessing Part 3

  • پیش پردازش مجموعه داده قسمت 4 Dataset Preprocessing Part 4

  • پیش پردازش مجموعه داده قسمت 5 Dataset Preprocessing Part 5

  • پیش پردازش مجموعه داده قسمت 5 Dataset Preprocessing Part 5

  • بارگذاری و پوشش داده ها Data Loading and Masking

  • بارگذاری و پوشش داده ها Data Loading and Masking

  • جاسازی ها Embeddings

  • اجرای MultiHead Attention قسمت 1 MultiHead Attention Implementation Part 1

  • اجرای MultiHead Attention قسمت 2 MultiHead Attention Implementation Part 2

  • اجرای MultiHead Attention قسمت 3 MultiHead Attention Implementation Part 3

  • فید فوروارد پیاده سازی Feed Forward Implementation

  • فید فوروارد پیاده سازی Feed Forward Implementation

  • لایه رمزگذار Encoder Layer

  • لایه رمزگشا Decoder Layer

  • تبدیل کننده Transformer

  • تبدیل کننده Transformer

  • AdamWarmup AdamWarmup

  • ضرر با صاف کردن برچسب Loss with Label Smoothing

  • ضرر با صاف کردن برچسب Loss with Label Smoothing

  • تعریف مدل Defining the Model

  • تعریف مدل Defining the Model

  • تابع آموزش Training Function

  • تابع آموزش Training Function

  • عملکرد ارزیابی Evaluation Function

  • عملکرد اصلی و ارزیابی کاربر Main Function and User Evaluation

  • عمل Action

یک چت بات با ترانسفورماتور بسازید Build a Chatbot with Transformers

  • پیش پردازش مجموعه داده قسمت 1 Dataset Preprocessing Part 1

  • پیش پردازش مجموعه داده قسمت 4 Dataset Preprocessing Part 4

  • جاسازی ها Embeddings

  • اجرای MultiHead Attention قسمت 1 MultiHead Attention Implementation Part 1

  • اجرای MultiHead Attention قسمت 2 MultiHead Attention Implementation Part 2

  • اجرای MultiHead Attention قسمت 3 MultiHead Attention Implementation Part 3

  • لایه رمزگذار Encoder Layer

  • لایه رمزگشا Decoder Layer

  • AdamWarmup AdamWarmup

  • تعریف مدل Defining the Model

  • عملکرد ارزیابی Evaluation Function

  • عملکرد اصلی و ارزیابی کاربر Main Function and User Evaluation

  • عمل Action

ترانسفورماتورهای جهانی Universal Transformers

  • ترانسفورماتورهای جهانی Universal Transformers

  • ترانسفورماتورهای جهانی Universal Transformers

  • ترانسفورماتورهای جهانی عملی: اصلاح کد ترانسفورماتورها Practical Universal Transformers: Modifying the Transformers code

  • ترانسفورماتور برای کارهای دیگر Transformers for other tasks

ترانسفورماتورهای جهانی Universal Transformers

  • ترانسفورماتورهای جهانی عملی: اصلاح کد ترانسفورماتورها Practical Universal Transformers: Modifying the Transformers code

  • ترانسفورماتور برای کارهای دیگر Transformers for other tasks

Google Colab و Gradient Acuulation Google Colab and Gradient Accumulation

  • اجرای مدل های خود در Google Colab Running your models on Google Colab

  • اجرای مدل های خود در Google Colab Running your models on Google Colab

  • انباشت گرادیان Gradient Accumulation

Google Colab و Gradient Acuulation Google Colab and Gradient Accumulation

  • انباشت گرادیان Gradient Accumulation

برت BERT

  • BERT چیست و ساختار آن What is BERT and its structure

  • مدل سازی زبان نقاب دار Masked Language Modelling

  • مدل سازی زبان نقاب دار Masked Language Modelling

  • پیش بینی جمله بعدی Next Sentence Prediction

  • تنظیم دقیق BERT Fine-tuning BERT

  • کاوش در ترانسفورماتورها Exploring Transformers

  • کاوش در ترانسفورماتورها Exploring Transformers

برت BERT

  • BERT چیست و ساختار آن What is BERT and its structure

  • پیش بینی جمله بعدی Next Sentence Prediction

  • تنظیم دقیق BERT Fine-tuning BERT

ترانسفورماتورهای بینایی Vision Transformers

  • Vision Transformer قسمت 1 Vision Transformer Part 1

  • Vision Transformer قسمت 2 Vision Transformer Part 2

  • Vision Transformer قسمت 3 Vision Transformer Part 3

ترانسفورماتورهای بینایی Vision Transformers

  • Vision Transformer قسمت 1 Vision Transformer Part 1

  • Vision Transformer قسمت 2 Vision Transformer Part 2

  • Vision Transformer قسمت 3 Vision Transformer Part 3

GPT GPT

  • GPT قسمت 1 GPT Part 1

  • GPT قسمت 2 GPT Part 2

  • GPT قسمت 2 GPT Part 2

  • پیش بینی شات صفر با GPT Zero-Shot Predictions with GPT

  • پیش بینی شات صفر با GPT Zero-Shot Predictions with GPT

  • رمزگذاری جفت بایت Byte-Pair Encoding

  • رمزگذاری جفت بایت Byte-Pair Encoding

  • جزئیات فنی GPT Technical Details of GPT

  • جزئیات فنی GPT Technical Details of GPT

  • بازی با مدل های HuggingFace Playing with HuggingFace models

  • پیاده سازی Implementation

  • پیاده سازی Implementation

  • (1) اجرای GPT قسمت 1 (1) GPT Implementation Part 1

  • (2) اجرای GPT قسمت 1 (2) GPT Implementation Part 1

  • (2) اجرای GPT قسمت 1 (2) GPT Implementation Part 1

  • (3) اجرای GPT قسمت 1 (3) GPT Implementation Part 1

  • (3) اجرای GPT قسمت 1 (3) GPT Implementation Part 1

  • (4) اجرای GPT قسمت 1 (4) GPT Implementation Part 1

  • (4) اجرای GPT قسمت 1 (4) GPT Implementation Part 1

  • (5) اجرای GPT قسمت 1 (5) GPT Implementation Part 1

  • (5) اجرای GPT قسمت 1 (5) GPT Implementation Part 1

  • (6) اجرای GPT قسمت 1 (6) GPT Implementation Part 1

  • (6) اجرای GPT قسمت 1 (6) GPT Implementation Part 1

  • (7) اجرای GPT قسمت 1 (7) GPT Implementation Part 1

  • (7) اجرای GPT قسمت 1 (7) GPT Implementation Part 1

GPT GPT

  • GPT قسمت 1 GPT Part 1

  • بازی با مدل های HuggingFace Playing with HuggingFace models

  • (1) اجرای GPT قسمت 1 (1) GPT Implementation Part 1

نمایش نظرات

آموزش بوت کمپ کامل شبکه های عصبی: تئوری، کاربردها
جزییات دوره
43.5 hours
306
Udemy (یودمی) Udemy (یودمی)
(آخرین آپدیت)
13,498
4.4 از 5
دارد
دارد
دارد
Fawaz Sammani
جهت دریافت آخرین اخبار و آپدیت ها در کانال تلگرام عضو شوید.

Google Chrome Browser

Internet Download Manager

Pot Player

Winrar

Fawaz Sammani Fawaz Sammani

محقق بینایی رایانه ای من یک محقق هستم که تحقیق خود را در زمینه چشم انداز رایانه انجام می دهم. در طول دوره تحقیق خود ، من به بسیاری از اهداف تحقیقاتی خود رسیده ام و چندین مقاله تحقیقاتی منتشر کرده ام. من سه دوره دارم ، یک دوره راهنمای کاملی برای پردازش تصویر با MATLAB ، که در آن شما به اصول پردازش تصویر تسلط خواهید یافت و برای آنها رابط ایجاد خواهید کرد ، دوره دیگری که یک راهنمای کامل برای شبکه های عصبی است ، جایی که بر شبکه های عصبی تسلط خواهید داشت و مباحث یادگیری عمیق به صورت تئوری و عملی در یکی از قدرتمندترین چارچوبهای یادگیری عمیق بصورت عمیق! من بسیار خوشحالم که دانش و تجربه خود را در طول دوره هایم به اشتراک می گذارم!