این دوره راهنمای جامع یادگیری عمیق و شبکه های عصبی است. تئوری ها به صورت عمیق و دوستانه توضیح داده می شوند. پس از آن، جلسه عملی را خواهیم داشت، که در آن یاد می گیریم چگونه شبکه های عصبی را در PyTorch کدنویسی کنیم، یک چارچوب یادگیری عمیق بسیار پیشرفته و قدرتمند!
این دوره شامل بخش های زیر است:
---------------------------------------------- ------------------------------------------------ -------
بخش 1 - نحوه عملکرد شبکه های عصبی و انتشار پس زمینه
در این بخش، تئوریهای نحوه عملکرد شبکههای عصبی و الگوریتم انتشار پسانداز را عمیقاً به صورت دوستانه درک خواهید کرد. ما یک مثال را مرور می کنیم و محاسبات را گام به گام انجام می دهیم. همچنین در مورد توابع فعال سازی مورد استفاده در شبکه های عصبی با مزایا و معایب آنها صحبت خواهیم کرد!
بخش 2 - توابع از دست دادن
در این قسمت به معرفی توابع از دست دادن معروفی که در یادگیری عمیق و شبکه های عصبی استفاده می شود می پردازیم. ما در مورد زمان استفاده از آنها و نحوه عملکرد آنها توضیح خواهیم داد.
بخش 3 - بهینه سازی
در این بخش، تکنیکهای بهینهسازی مورد استفاده در شبکههای عصبی را برای رسیدن به نقطه بهینه مورد بحث قرار میدهیم، از جمله Gradient Descent، Stochastic Gradient Descent، Momentum، RMSProp، Adam، AMSGrad، Weight Decay و Decoupling Weight Decay، LR Scheduler و دیگران.
بخش 4 - وزن اولیه
در این بخش، شما را با مفاهیم اولیه وزن در شبکههای عصبی آشنا میکنیم و برخی از تکنیکهای اولیهسازی وزنها از جمله اولیهسازی Xavier و مقداردهی اولیه او را مورد بحث قرار میدهیم.
بخش 5 - تکنیک های منظم سازی
در این بخش شما را با تکنیک های منظم سازی در شبکه های عصبی آشنا می کنیم. ابتدا اضافه کردن را معرفی می کنیم و سپس نحوه جلوگیری از اضافه برازش را با استفاده از تکنیک های منظم سازی شامل L1، L2 و Dropout معرفی می کنیم. ما همچنین در مورد نرمال سازی و همچنین عادی سازی دسته ای و عادی سازی لایه صحبت خواهیم کرد.
بخش 6- مقدمه ای بر PyTorch
در این بخش، چارچوب یادگیری عمیقی که در این دوره از آن استفاده خواهیم کرد، یعنی PyTorch را معرفی خواهیم کرد. ما به شما نشان خواهیم داد که چگونه آن را نصب کنید، چگونه کار می کند و چرا خاص است، و سپس برخی از تانسورهای PyTorch را کدنویسی می کنیم و برخی از عملیات روی تانسورها را به شما نشان می دهیم، همچنین Autograd را به صورت کد به شما نشان می دهیم!
بخش 7 - شبکه های عصبی کاربردی در PyTorch - برنامه 1
در این بخش، آنچه را که آموختهاید برای ایجاد یک شبکه عصبی فید فوروارد برای طبقهبندی ارقام دستنویس اعمال خواهید کرد. این اولین کاربرد شبکههای فید فوروارد است که نشان خواهیم داد.
بخش 8 - شبکه های عصبی کاربردی در PyTorch - برنامه 2
در این بخش، ما یک شبکه عصبی فید فوروارد برای طبقه بندی آب و هوای یک فرد دیابتی یا غیر دیابتی ایجاد می کنیم. ما شبکه را بر روی مجموعه داده بزرگی از دیابت آموزش خواهیم داد!
بخش 9 - فرآیند یادگیری را تجسم کنید
در این بخش، نحوه یادگیری شبکههای عصبی و میزان توانایی آنها در جداسازی دادههای غیرخطی را تجسم خواهیم کرد!
بخش 10 - پیاده سازی یک شبکه عصبی از ابتدا با پایتون و Numpy
در این بخش، یک شبکه عصبی را بدون استفاده از هیچ کتابخانه یادگیری عمیق (از ابتدا با استفاده از پایتون و numpy) درک و کدگذاری خواهیم کرد. این برای درک نحوه عملکرد ساختار اساسی ضروری است.
بخش 11 - شبکه های عصبی کانولوشنال
در این بخش شبکههای Convolutional که برای تصاویر استفاده میشوند را به شما معرفی میکنیم. ما ابتدا رابطه با شبکه های فید فوروارد را به شما نشان می دهیم و سپس مفاهیم شبکه های کانولوشن را یکی یکی به شما معرفی می کنیم!
بخش 12 - شبکه های کانولوشن عملی در PyTorch
در این بخش، شبکههای Convolutional را برای طبقهبندی ارقام دستنویس اعمال میکنیم. این اولین کاربرد CNN است که ما انجام خواهیم داد.
بخش 13- عمیق تر به CNN: بهبود و ترسیم
در این بخش، CNN را که در بخش قبل ساختهایم بهبود میدهیم، همچنین به شما نشان میدهیم که چگونه نتایج آموزش و آزمایش را ترسیم کنید! علاوه بر این، ما به شما نشان خواهیم داد که چگونه تصاویر دست نویس خود را از طریق شبکه طبقه بندی کنید!
بخش 14 - معماری CNN
در این بخش، معماریهای CNN را معرفی میکنیم که به طور گسترده در همه برنامههای یادگیری عمیق استفاده میشوند. این معماری ها عبارتند از: AlexNet، VGG net، Inception Net، Residual Networks و Densely Connected Networks. همچنین در مورد برخی از معماریهای تشخیص شی بحث خواهیم کرد.
بخش 15- شبکه های باقیمانده
در این بخش، به جزئیات و تئوری شبکههای باقیمانده میپردازیم و سپس یک شبکه باقیمانده را در PyTorch از ابتدا میسازیم!
بخش 16 - آموزش انتقال در PyTorch - طبقه بندی تصویر
در این بخش، آموزش انتقال را در شبکه باقیمانده برای طبقه بندی مورچه ها و زنبورها اعمال می کنیم. ما همچنین به شما نشان خواهیم داد که چگونه از مجموعه داده خود استفاده کنید و از تقویت تصویر استفاده کنید. پس از تکمیل این بخش، می توانید هر تصویری را که می خواهید طبقه بندی کنید!
بخش 17- تجسم شبکه های کانولوشن
در این بخش، آنچه را که شبکههای عصبی خروجی میدهند و واقعاً در حال یادگیری هستند، تجسم خواهیم کرد. ما نقشه های ویژگی شبکه هر لایه را مشاهده خواهیم کرد!
بخش 18 - تشخیص شیء YOLO (نظریه)
در این بخش یکی از معروف ترین فریمورک های تشخیص اشیا را یاد می گیریم: YOLO!! این بخش نظریه YOLO را به طور عمیق پوشش می دهد.
بخش 19 - رمزگذارهای خودکار و رمزگذارهای خودکار متغیر
در این بخش، Autoencoder و Autoencoder Denoising را پوشش خواهیم داد. سپس مشکلی که آنها با آن روبرو هستند را خواهیم دید و نحوه کاهش آن را با رمزگذارهای خودکار متغیر میآموزیم.
بخش 20 - شبکه های عصبی مکرر
در این قسمت شما را با شبکه های عصبی بازگشتی و تمامی مفاهیم آن آشنا می کنیم. سپس در مورد پس انتشار در طول زمان، مشکل گرادیان ناپدید شدن، و در نهایت در مورد حافظه کوتاه مدت بلند مدت (LSTM) که مشکلاتی را که RNN از آن رنج میبرد حل میکند، بحث خواهیم کرد.
بخش 21 - جاسازی های کلمه
در این بخش، نحوه نمایش کلمات به عنوان ویژگی را مورد بحث قرار خواهیم داد. سپس چند مدل تعبیه Word را به شما نشان خواهیم داد. ما همچنین به شما نشان خواهیم داد که چگونه جاسازی کلمه را در PyTorch پیاده سازی کنید!
بخش 22 - شبکه های تکراری عملی در PyTorch
در این بخش، شبکههای عصبی تکراری را با استفاده از LSTM در PyTorch برای تولید متنی شبیه به داستان آلیس در سرزمین عجایب اعمال میکنیم! شما فقط می توانید داستان را با هر متن دیگری که می خواهید جایگزین کنید و RNN می تواند متنی مشابه آن تولید کند!
بخش 23 - مدلسازی توالی
در این بخش با مدلسازی ترتیب به دنباله آشنا خواهیم شد. خواهیم دید که مدلهای Seq2Seq چگونه کار میکنند و کجا اعمال میشوند. همچنین در مورد مکانیسم های توجه صحبت خواهیم کرد و نحوه عملکرد آنها را مشاهده خواهیم کرد.
بخش 24 - مدلسازی توالی عملی در PyTorch - ساخت یک ربات چت
در این بخش، آنچه را که در مورد مدلسازی توالی آموختهایم اعمال میکنیم و یک Chatbot با مکانیسم توجه میسازیم.
بخش 25 - ذخیره و بارگیری مدل ها
در این بخش، نحوه ذخیره و بارگذاری مدلها در PyTorch را به شما نشان میدهیم، بنابراین میتوانید از این مدلها برای آزمایش بعدی یا برای از سرگیری آموزش استفاده کنید!
بخش 26 - ترانسفورماتورها
در این بخش، Transformer را پوشش خواهیم داد، که مدل پیشرفته فعلی برای کارهای NLP و مدلسازی زبان است. ما هر یک از اجزای یک ترانسفورماتور را بررسی خواهیم کرد.
بخش 27 - ساخت یک چت بات با ترانسفورماتور
در این بخش، همه چیزهایی را که در بخش قبل یاد گرفتیم برای ساختن یک چت بات با استفاده از ترانسفورماتورها پیاده سازی می کنیم.
محقق بینایی رایانه ای من یک محقق هستم که تحقیق خود را در زمینه چشم انداز رایانه انجام می دهم. در طول دوره تحقیق خود ، من به بسیاری از اهداف تحقیقاتی خود رسیده ام و چندین مقاله تحقیقاتی منتشر کرده ام. من سه دوره دارم ، یک دوره راهنمای کاملی برای پردازش تصویر با MATLAB ، که در آن شما به اصول پردازش تصویر تسلط خواهید یافت و برای آنها رابط ایجاد خواهید کرد ، دوره دیگری که یک راهنمای کامل برای شبکه های عصبی است ، جایی که بر شبکه های عصبی تسلط خواهید داشت و مباحث یادگیری عمیق به صورت تئوری و عملی در یکی از قدرتمندترین چارچوبهای یادگیری عمیق بصورت عمیق! من بسیار خوشحالم که دانش و تجربه خود را در طول دوره هایم به اشتراک می گذارم!
نمایش نظرات