🔔 با توجه به بهبود نسبی اینترنت، آمادهسازی دورهها آغاز شده است. به دلیل تداوم برخی اختلالات، بارگذاری دورهها ممکن است با کمی تأخیر انجام شود. مدت اشتراکهای تهیهشده محفوظ است.
لطفا جهت اطلاع از آخرین دوره ها و اخبار سایت در
کانال تلگرام
عضو شوید.
آموزش ریاضی بنیادی برای هوش مصنوعی تولید: درک LLM ها و ترانسفورماتورها از طریق برنامه های کاربردی
- آخرین آپدیت
دانلود Foundational Math for Generative AI: Understanding LLMs and Transformers through Practical Applications
نکته:
ممکن هست محتوای این صفحه بروز نباشد ولی دانلود دوره آخرین آپدیت می باشد.
نمونه ویدیوها:
توضیحات دوره:
اسرار پشت مدل های پیشرفته ترین برنامه های هوش مصنوعی امروز را باز کنید. در این دوره ، مربی Axel Sirota شما را فقط با استفاده از مدل های بزرگ زبان (LLM) مانند Bert یا GPT فراتر می برد و پایه های ریاضی AI تولید کننده را برجسته می کند. چالش تجزیه و تحلیل احساسات را با شبکه های عصبی مکرر ساده (RNN) کشف کنید و به تدریج رویکرد خود را با درک عمیق از مکانیسم های توجه ، ترانسفورماتورها و مدل ها به دست آورید. Axel از طریق توضیحات بصری و تمرینات کد نویسی دستی ، توضیح می دهد که چرا توجه به پردازش زبان طبیعی متحول شده و چگونه ترانسفورماتورها با از بین بردن نیاز به RNN ها به طور کلی ، این میدان را تغییر شکل دادند. در طول راه ، نکاتی را در مورد مدل های تنظیم دقیق تنظیم شده ، استفاده از تکنیک های برش مانند سازگاری با رتبه پایین (LORA) ، و استفاده از مهارت های تازه به دست آمده خود برای ساخت مدل های باهوش تر و کارآمدتر و نوآوری در دنیای سریع در حال تحول هوش مصنوعی دریافت کنید. بشر
سرفصل ها و درس ها
مقدمه
Introduction
بیشترین استفاده را از این دوره
Getting the most out of this course
معرفی ریاضیات بنیادی برای AI تولیدی
Intro to foundational math for generative AI
بررسی نسخه
Version check
1. مقدمه ای برای ریاضی برای Genai و اصول توجه
1. Introduction to Math for GenAI and Attention Basics
RNN ها و مشکل تنگنای زمینه
RNNs and the context bottleneck problem
نسخه ی نمایشی: اضافه کردن توجه به یک مدل RNN
Demo: Adding attention to an RNN model
مقدمه توجه: راه حل بهدانائو
Introduction to attention: Bahdanau’s solution
راه حل: توجه بهانائو را پیاده سازی کنید
Solution: Implement Bahdanau's attention
چرا LLMS و توجه
Why LLMs and attention matter
نسخه ی نمایشی: ساخت یک مدل RNN ساده برای تجزیه و تحلیل احساسات
Demo: Building a simple RNN model for sentiment analysis
2. ترانسفورماتورها: حذف RNN ها برای مدل های کارآمدتر
2. Transformers: Removing RNNs for More Efficient Models
از RNN به ترانسفورماتورها
From RNNs to transformers
راه حل: یک رمزگذار ترانسفورماتور دو لایه بسازید
Solution: Build a two-layer transformer encoder
درک توجه خود در ترانسفورماتورها
Understanding self-attention in transformers
ساختن یک مدل ترانسفورماتور برای تجزیه و تحلیل احساسات
Building a transformer model for sentiment analysis
توجه چند سر و رمزگذاری موقعیت
Multi-head attention and positional encoding
3. شیرجه عمیق به LLM ها و تنظیم دقیق مدل
3. Deep Dive into LLMs and Model Fine-Tuning
مدل های خاص فقط رمزگذار
Special decoder-only models
راه حل: طنز و مواضع آب و هوا را در Tweeteval تشخیص دهید
Solution: Detect irony and climate stance in TweetEval
توضیح مدل های رمزگذار فقط مانند برت
Explaining encoder-only models like BERT
سه نوع LLMS
The three types of LLMs
تنظیم دقیق Distilbert برای تجزیه و تحلیل احساسات
Fine-tuning DistilBERT for sentiment analysis
ماسک های توجه در ترانسفورماتورها
Attention masks in transformers
پایان
Conclusion
خلاصه دوره و مراحل بعدی
Course summary and next steps
آکسل سیروتا دارای مدرک کارشناسی ارشد ریاضیات است که علاقه زیادی به عملیات یادگیری عمیق و یادگیری ماشین دارد. وی پس از تحقیق در زمینه احتمال ، آمار و بهینه سازی یادگیری ماشین ، در حال حاضر در JAMPP به عنوان یک مهندس تحقیق در زمینه یادگیری ماشین مشغول به کار است که از داده های مشتری برای پیش بینی دقیق در زمان واقعی پیشنهاد استفاده می کند.
نمایش نظرات