آموزش ریاضیات پشت انتشار رو به عقب | نظریه و کد پایتون - آخرین آپدیت

دانلود Mathematics Behind Backpropagation | Theory and Python Code

نکته: ممکن هست محتوای این صفحه بروز نباشد ولی دانلود دوره آخرین آپدیت می باشد.
نمونه ویدیوها:
توضیحات دوره:

آموزش جامع بک‌پروپگیشن و گرادیان کاهشی در شبکه‌های عصبی: پیاده‌سازی کامل از ابتدا با پایتون و بدون کتابخانه

یادگیری بک‌پروپگیشن و گرادیان کاهشی از ابتدا: با پیاده‌سازی کامل الگوریتم‌های بک‌پروپگیشن و گرادیان کاهشی در شبکه‌های عصبی خود، نحوه یادگیری ماشین را به صورت عملی تجربه کنید. این دوره شما را قادر می‌سازد تا بدون استفاده از هیچ کتابخانه خارجی، کدنویسی کنید.

درک عمیق مبانی ریاضی شبکه‌های عصبی: به درک کامل مبانی ریاضی شبکه‌های عصبی، شامل مفاهیم مشتق، مشتق جزئی و گرادیان بپردازید.

ساخت و آموزش شبکه‌های عصبی پیشخور با پایتون: شبکه عصبی پیشخور خود را با پایتون بسازید و آن را بدون وابستگی به هیچ کتابخانه‌ای آموزش دهید.

بررسی چالش‌های رایج در بک‌پروپگیشن: با موانع و خطاهای متداول در مسیر پیاده‌سازی بک‌پروپگیشن آشنا شوید و راهکارهای آن‌ها را بیاموزید.

محاسبه عددی مشتق‌ها و گرادیان‌ها با مثال: نحوه محاسبه عددی مشتق‌ها، مشتق‌های جزئی و گرادیان‌ها را با مثال‌های کاربردی بیاموزید.

یافتن مشتق توابع هزینه و توابع فعال‌سازی: نحوه محاسبه مشتق توابع هزینه و توابع فعال‌سازی را یاد بگیرید.

درک مفهوم مشتق: به درک واقعی معنای مشتق و کاربرد آن در بهینه‌سازی بپردازید.

تجسم گرادیان کاهشی در عمل: فرآیند گرادیان کاهشی و نحوه عملکرد آن را به صورت بصری درک کنید.

پیاده‌سازی گرادیان کاهشی به صورت دستی: الگوریتم گرادیان کاهشی را گام به گام و با دست پیاده‌سازی کنید.

کدنویسی چندین شبکه عصبی با پایتون: با استفاده از پایتون، شبکه‌های عصبی مختلفی را طراحی و پیاده‌سازی کنید.

درک نحوه کار مشتق جزئی در بک‌پروپگیشن: نحوه عملکرد مشتق‌های جزئی را در الگوریتم بک‌پروپگیشن به طور کامل بیاموزید.

آشنایی با گرادیان‌ها و نقش آن‌ها در یادگیری ماشین: درک کنید که گرادیان‌ها چگونه ماشین‌ها را در مسیر یادگیری هدایت می‌کنند.

یادگیری چرایی استفاده از توابع فعال‌سازی: دلیل اهمیت و ضرورت استفاده از توابع فعال‌سازی در شبکه‌های عصبی را دریابید.

درک نقش نرخ یادگیری در گرادیان کاهشی: نقش کلیدی نرخ یادگیری (Learning Rate) را در فرآیند گرادیان کاهشی و بهینه‌سازی بیاموزید.

پیش‌نیازها:

  • دانش پایه پایتون
  • ریاضیات دوره دبیرستان

راز الگوریتمی که امروزه هوش مصنوعی مدرن را قدرتمند می‌سازد، یعنی بک‌پروپگیشن را کشف کنید. این مفهوم حیاتی، فرآیند یادگیری در شبکه‌های عصبی را هدایت می‌کند و فناوری‌هایی مانند خودروهای خودران، مدل‌های زبان بزرگ (LLMs)، پیشرفت‌های تصویربرداری پزشکی و بسیاری موارد دیگر را ممکن می‌سازد.

در دوره مبانی ریاضی بک‌پروپگیشن | تئوری و کد، شما را در سفری از صفر تا تسلط همراهی می‌کنیم و بک‌پروپگیشن را از طریق تئوری و پیاده‌سازی عملی کاوش می‌کنیم. با شروع از اصول اولیه، مبانی ریاضی بک‌پروپگیشن، از جمله مشتق، مشتق جزئی و گرادیان را خواهید آموخت. ما گرادیان کاهشی را رمزگشایی کرده و نشان می‌دهیم که چگونه ماشین‌ها خود را بهینه می‌کنند تا عملکرد خود را به طور موثر بهبود بخشند.

اما این دوره فقط تئوری نیست — شما آستین‌ها را بالا می‌زنید و بک‌پروپگیشن را از ابتدا پیاده‌سازی می‌کنید، ابتدا با محاسبه دستی همه چیز برای اطمینان از درک هر مرحله. سپس، به کدنویسی پایتون خواهید رفت و شبکه عصبی خود را بدون تکیه بر هیچ کتابخانه یا ابزار از پیش ساخته شده‌ای می‌سازید. در پایان، دقیقاً خواهید دانست که بک‌پروپگیشن چگونه کار می‌کند، از ریاضیات گرفته تا کد و فراتر از آن.

چه یک مهندس مشتاق یادگیری ماشین باشید، چه یک توسعه‌دهنده در حال گذار به حوزه هوش مصنوعی، یا یک دانشمند داده که به دنبال درک عمیق‌تر است، این دوره شما را به مهارت‌های نادری مجهز می‌کند که اکثر متخصصان ندارند. بک‌پروپگیشن را تسلط یابید، در حوزه هوش مصنوعی برجسته شوید، و اعتماد به نفس لازم برای ساخت شبکه‌های عصبی با دانش بنیادی که شما را در این عرصه رقابتی متمایز می‌کند، کسب کنید.


سرفصل ها و درس ها

آنچه یاد خواهیم گرفت What We're Going to Learn

  • این دوره چیست What is this Course

منابع دوره Course Resources

  • منابع دوره Course Resources

شبکه‌های عصبی، مشتق‌ها، گرادیان‌ها، قاعده زنجیره‌ای، نزول گرادیان و موارد دیگر Neural Networks, Derivatives, Gradients, Chain Rule, Gradient Descent and more

  • مقدمه‌ای بر شبکه عصبی ساده ما Introduction to Our Simple Neural Network

  • چرا از گراف‌های محاسباتی استفاده می‌کنیم Why We Use Computational Graphs

  • انجام پاس رو به جلو Conducting the Forward Pass

  • نقشه راه درک پس‌انتشار Roadmap to Understanding Backpropagation

  • نظریه مشتق‌ها Derivatives Theory

  • مثال عددی مشتق‌ها Numerical Example of Derivatives

  • درک مشتق‌های جزئی Understanding Partial Derivatives

  • درک گرادیان‌ها Understanding Gradients

  • درک کاری که مشتق‌های جزئی انجام می‌دهند (مثال) Understanding What Partial Derivatives Do (Example)

  • مقدمه‌ای بر پس‌انتشار Introduction to Backpropagation

  • درک قاعده زنجیره‌ای (اختیاری) Understanding the Chain Rule (Optional)

  • استخراج گرادیان تابع هزینه میانگین مربعات خطا Gradient Derivation of the Mean Squared Error Loss Function

  • تجسم تابع هزینه + گرادیان‌ها Visualizing the Loss Function + Gradients

  • استفاده از قاعده زنجیره‌ای برای محاسبه گرادیان w2 Using the Chain rule to Calculate the Gradient of w2

  • استفاده از قاعده زنجیره‌ای برای محاسبه گرادیان w1 Using the Chain Rule to Calculate the Gradient of w1

  • تجسم نزول گرادیان Visualizing Gradient Descent

  • مقدمه‌ای بر نزول گرادیان Introduction to Gradient Descent

  • درک نرخ یادگیری (آلفا) Understanding the Learning Rate (Alpha)

  • حرکت در جهت مخالف گرادیان Moving in the Opposite Direction of the Gradient

  • محاسبه نزول گرادیان با دست Calculating Gradient Descent by Hand

  • کدنویسی شبکه عصبی ساده ما بخش ۱ Coding our Simple Neural Network Part 1

  • کدنویسی شبکه عصبی ساده ما بخش ۲ Coding our Simple Neural Network Part 2

  • کدنویسی شبکه عصبی ساده ما بخش ۳ Coding our Simple Neural Network Part 3

  • کدنویسی شبکه عصبی ساده ما بخش ۴ Coding our Simple Neural Network Part 4

  • کدنویسی شبکه عصبی ساده ما بخش ۵ Coding our Simple Neural Network Part 5

پیاده‌سازی شبکه عصبی پیشرفته ما با دست + پایتون Implementing Our Advanced Neural Network By Hand + Python

  • مقدمه‌ای بر شبکه عصبی پیشرفته ما Introduction to Our Advanced Neural Network

  • انجام پاس رو به جلو Conducting the Forward Pass

  • شروع پس‌انتشار Getting Started with Backpropagation

  • دریافت مشتق تابع فعال‌سازی سیگموئید (اختیاری) Getting the Derivative of the Sigmoid Activation Function (Optional)

  • پیاده‌سازی پس‌انتشار با قاعده زنجیره‌ای Implementing Backpropagation with the Chain Rule

  • درک اینکه چگونه w3 بر هزینه نهایی تأثیر می‌گذارد Understanding How w3 Affects the Final Loss

  • محاسبه گرادیان‌ها برای Z1 Calculating Gradients For Z1

  • درک اینکه چگونه w1 و w2 بر هزینه تأثیر می‌گذارند Understanding How w1 & w2 Affect the Loss

  • پیاده‌سازی نزول گرادیان با دست Implementing Gradient Descent By Hand

  • کدنویسی شبکه عصبی پیشرفته ما بخش (پیاده‌سازی پاس رو به جلو + هزینه) Coding our Advanced Neural Network Part (Implementing Forward Pass + Loss)

  • کدنویسی شبکه عصبی پیشرفته ما بخش ۲ (پیاده‌سازی پس‌انتشار) Coding our Advanced Neural Network Part 2 (Implement Backpropagation)

  • کدنویسی شبکه عصبی پیشرفته ما بخش ۳ (پیاده‌سازی نزول گرادیان) Coding our Advanced Neural Network Part 3 (Implement Gradient Descent)

  • کدنویسی شبکه عصبی پیشرفته ما بخش ۴ (آموزش شبکه عصبی ما) Coding our Advanced Neural Network Part 4 (Training our Neural Network)

نمایش نظرات

آموزش ریاضیات پشت انتشار رو به عقب | نظریه و کد پایتون
جزییات دوره
4.5 hours
40
Udemy (یودمی) Udemy (یودمی)
(آخرین آپدیت)
220
4.7 از 5
ندارد
دارد
دارد
جهت دریافت آخرین اخبار و آپدیت ها در کانال تلگرام عضو شوید.

Google Chrome Browser

Internet Download Manager

Pot Player

Winrar

Patrik Szepesi Patrik Szepesi

مهندس یادگیری ماشین