آموزش ریاضی بنیادی برای هوش مصنوعی تولید: درک LLM ها و ترانسفورماتورها از طریق برنامه های کاربردی

دانلود Foundational Math for Generative AI: Understanding LLMs and Transformers through Practical Applications

در حال بارگزاری نمونه ویدیو، لطفا صبر کنید...
Video Player is loading.
Current Time 0:00
Duration 0:00
Loaded: 0%
Stream Type LIVE
Remaining Time 0:00
 
1x
    • Chapters
    • descriptions off, selected
    • subtitles off, selected
      نکته: آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
      نمونه ویدیوها:
      • در حال بارگزاری، لطفا صبر کنید...
      توضیحات دوره: اسرار پشت مدل های پیشرفته ترین برنامه های هوش مصنوعی امروز را باز کنید. در این دوره ، مربی Axel Sirota شما را فقط با استفاده از مدل های بزرگ زبان (LLM) مانند Bert یا GPT فراتر می برد و پایه های ریاضی AI تولید کننده را برجسته می کند. چالش تجزیه و تحلیل احساسات را با شبکه های عصبی مکرر ساده (RNN) کشف کنید و به تدریج رویکرد خود را با درک عمیق از مکانیسم های توجه ، ترانسفورماتورها و مدل ها به دست آورید. Axel از طریق توضیحات بصری و تمرینات کد نویسی دستی ، توضیح می دهد که چرا توجه به پردازش زبان طبیعی متحول شده و چگونه ترانسفورماتورها با از بین بردن نیاز به RNN ها به طور کلی ، این میدان را تغییر شکل دادند. در طول راه ، نکاتی را در مورد مدل های تنظیم دقیق تنظیم شده ، استفاده از تکنیک های برش مانند سازگاری با رتبه پایین (LORA) ، و استفاده از مهارت های تازه به دست آمده خود برای ساخت مدل های باهوش تر و کارآمدتر و نوآوری در دنیای سریع در حال تحول هوش مصنوعی دریافت کنید. بشر

      سرفصل ها و درس ها

      مقدمه Introduction

      • بیشترین استفاده را از این دوره Getting the most out of this course

      • معرفی ریاضیات بنیادی برای AI تولیدی Intro to foundational math for generative AI

      • بررسی نسخه Version check

      1. مقدمه ای برای ریاضی برای Genai و اصول توجه 1. Introduction to Math for GenAI and Attention Basics

      • RNN ها و مشکل تنگنای زمینه RNNs and the context bottleneck problem

      • نسخه ی نمایشی: اضافه کردن توجه به یک مدل RNN Demo: Adding attention to an RNN model

      • مقدمه توجه: راه حل بهدانائو Introduction to attention: Bahdanau’s solution

      • راه حل: توجه بهانائو را پیاده سازی کنید Solution: Implement Bahdanau's attention

      • چرا LLMS و توجه Why LLMs and attention matter

      • نسخه ی نمایشی: ساخت یک مدل RNN ساده برای تجزیه و تحلیل احساسات Demo: Building a simple RNN model for sentiment analysis

      2. ترانسفورماتورها: حذف RNN ها برای مدل های کارآمدتر 2. Transformers: Removing RNNs for More Efficient Models

      • از RNN به ترانسفورماتورها From RNNs to transformers

      • راه حل: یک رمزگذار ترانسفورماتور دو لایه بسازید Solution: Build a two-layer transformer encoder

      • درک توجه خود در ترانسفورماتورها Understanding self-attention in transformers

      • ساختن یک مدل ترانسفورماتور برای تجزیه و تحلیل احساسات Building a transformer model for sentiment analysis

      • توجه چند سر و رمزگذاری موقعیت Multi-head attention and positional encoding

      3. شیرجه عمیق به LLM ها و تنظیم دقیق مدل 3. Deep Dive into LLMs and Model Fine-Tuning

      • مدل های خاص فقط رمزگذار Special decoder-only models

      • راه حل: طنز و مواضع آب و هوا را در Tweeteval تشخیص دهید Solution: Detect irony and climate stance in TweetEval

      • توضیح مدل های رمزگذار فقط مانند برت Explaining encoder-only models like BERT

      • سه نوع LLMS The three types of LLMs

      • تنظیم دقیق Distilbert برای تجزیه و تحلیل احساسات Fine-tuning DistilBERT for sentiment analysis

      • ماسک های توجه در ترانسفورماتورها Attention masks in transformers

      پایان Conclusion

      • خلاصه دوره و مراحل بعدی Course summary and next steps

      نمایش نظرات

      آموزش ریاضی بنیادی برای هوش مصنوعی تولید: درک LLM ها و ترانسفورماتورها از طریق برنامه های کاربردی
      جزییات دوره
      3h 23m
      21
      Linkedin (لینکدین) Linkedin (لینکدین)
      (آخرین آپدیت)
      76
      - از 5
      دارد
      دارد
      دارد
      Axel Sirota
      جهت دریافت آخرین اخبار و آپدیت ها در کانال تلگرام عضو شوید.

      Google Chrome Browser

      Internet Download Manager

      Pot Player

      Winrar

      Axel Sirota Axel Sirota

      آکسل سیروتا دارای مدرک کارشناسی ارشد ریاضیات است که علاقه زیادی به عملیات یادگیری عمیق و یادگیری ماشین دارد. وی پس از تحقیق در زمینه احتمال ، آمار و بهینه سازی یادگیری ماشین ، در حال حاضر در JAMPP به عنوان یک مهندس تحقیق در زمینه یادگیری ماشین مشغول به کار است که از داده های مشتری برای پیش بینی دقیق در زمان واقعی پیشنهاد استفاده می کند.