🔔 با توجه به بهبود نسبی اینترنت، آمادهسازی دورهها آغاز شده است. به دلیل تداوم برخی اختلالات، بارگذاری دورهها ممکن است با کمی تأخیر انجام شود. مدت اشتراکهای تهیهشده محفوظ است.
لطفا جهت اطلاع از آخرین دوره ها و اخبار سایت در
کانال تلگرام
عضو شوید.
آموزش مدل های NLP و ترانسفورماتور
- آخرین آپدیت
NLP's and Transformer Models
نکته:
ممکن هست محتوای این صفحه بروز نباشد ولی دانلود دوره آخرین آپدیت می باشد.
نمونه ویدیوها:
توضیحات دوره:
ترانسفورماتورها NLP را از زمان آغاز به کار خود در سال 2017 متحول کرده اند. آنها می توانند زبان را در سطح عمیق تری درک کنند و همچنین به موازات آموزش GPU ها را انجام دهند. در این دوره آموزشی، نحوه ایجاد ترانسفورماتور برای NLP را یاد خواهید گرفت. پردازش زبان طبیعی مجموعه ای از ابزارها و تکنیک هایی است که ما را قادر می سازد تا قدرت متن را باز کنیم و ترانسفورماتورها از زمان پیدایش خود در سال 2017 انقلابی در NLP ایجاد کرده اند. آنها می توانند زبان را در سطح عمیق تر و همچنین موازی کردن آموزش در GPU. در این دوره NLP's and Transformer Models، شما توانایی استفاده و ایجاد Transformers و LLMs برای NLP را خواهید داشت. ابتدا، مکانیسم توجه را بررسی میکنید و یاد میگیرید که واقعاً چگونه کار میکند. در مرحله بعد، معماری ترانسفورماتور را کشف خواهید کرد و یکی از خود را می نویسید! در نهایت، یاد خواهید گرفت که چگونه از Hugging Face برای تنظیم دقیق یا اجرای «یادگیری انتقال» در LLM برای انجام کارهای بسیار شگفت انگیز استفاده کنید. وقتی این دوره را به پایان رساندید، مهارت ها و دانش Transformers در مورد پردازش زبان طبیعی را خواهید داشت که برای توسعه راه حل های برجسته لازم است.
سرفصل ها و درس ها
بررسی اجمالی دوره
Course Overview
بررسی اجمالی دوره
Course Overview
NLP چیست؟
What Is NLP?
NLP چیست؟
What Is NLP?
معرفی مطالعه موردی Globomantics
Introducing Globomantics Case Study
گرفتن بهترین نتیجه از این دوره
Getting the Best Out of This Course
بررسی نسخه
Version Check
در پایان این دوره چه کاری را می توانید انجام دهید؟
What Will You Be Able to Do When Finishing This Course?
طرح کلی دوره
Outline of the Course
توجه تنها چیزی است که نیاز دارید
Attention Is All You Need
معرفی توجه
Introducing Attention
نسخه ی نمایشی: محاسبه توجه با دست - قسمت 1
Demo: Calculating Attention by Hand - Part 1
نسخه ی نمایشی: محاسبه توجه با دست - قسمت 2
Demo: Calculating Attention by Hand - Part 2
نسخه ی نمایشی: محاسبه توجه به خود با دست
Demo: Calculating Self-attention by Hand
نسخه ی نمایشی: افزودن لایه های توجه با چارچوب - قسمت 1
Demo: Adding Attention Layers with Frameworks - Part 1
نسخه ی نمایشی: افزودن لایه های توجه با فریم ورک - قسمت 2
Demo: Adding Attention Layers with Frameworks - Part 2
خلاصه: Seq2Seq با توجه
Recap: Seq2Seq with Attention
نسخه ی نمایشی: پیاده سازی ترجمه ماشین عصبی با توجه - قسمت 1
Demo: Implementing Neural Machine Translation with Attention - Part 1
نسخه ی نمایشی: پیاده سازی ترجمه ماشین عصبی با توجه - قسمت 2
Demo: Implementing Neural Machine Translation with Attention - Part 2
نسخه ی نمایشی: پیاده سازی ترجمه ماشین عصبی با توجه - قسمت 3
Demo: Implementing Neural Machine Translation with Attention - Part 3
نسخه ی نمایشی: پیاده سازی ترجمه ماشین عصبی با توجه - قسمت 4
Demo: Implementing Neural Machine Translation with Attention - Part 4
نسخه ی نمایشی: پیاده سازی ترجمه ماشین عصبی با توجه - قسمت 5
Demo: Implementing Neural Machine Translation with Attention - Part 5
نسخه ی نمایشی: پیاده سازی ترجمه ماشین عصبی با توجه - قسمت 6
Demo: Implementing Neural Machine Translation with Attention - Part 6
نکات و نکات کلیدی
Key Takeaways and Tips
تبدیل NLP
Transforming NLP
توجه و ترانسفورماتورهای چند سر - قسمت 1
Multi-headed Attention and Transformers - Part 1
توجه و ترانسفورماتورهای چند سر - قسمت 2
Multi-headed Attention and Transformers - Part 2
نسخه ی نمایشی: اولین ترانسفورماتور ما - قسمت 1
Demo: Our First Transformer - Part 1
نسخه ی نمایشی: اولین ترانسفورماتور ما - قسمت 2
Demo: Our First Transformer - Part 2
نسخه ی نمایشی: اولین ترانسفورماتور ما - قسمت 3
Demo: Our First Transformer - Part 3
نسخه ی نمایشی: اولین ترانسفورماتور ما - قسمت 4
Demo: Our First Transformer - Part 4
نسخه ی نمایشی: اولین ترانسفورماتور ما - قسمت 5
Demo: Our First Transformer - Part 5
معرفی صورت در آغوش گرفته
Introducing Hugging Face
نسخه ی نمایشی: آموزش انتقال در ترانسفورماتورها با صورت در آغوش گرفته - قسمت 1
Demo: Transfer Learning on Transformers with Hugging Face - Part 1
نسخه ی نمایشی: آموزش انتقال در ترانسفورماتورها با صورت در آغوش گرفته - قسمت 2
Demo: Transfer Learning on Transformers with Hugging Face - Part 2
نسخه ی نمایشی: خلاصه سازی متن با تنظیم دقیق T5
Demo: Text Summarisation with Fine-tuned T5
آکسل سیروتا دارای مدرک کارشناسی ارشد ریاضیات است که علاقه زیادی به عملیات یادگیری عمیق و یادگیری ماشین دارد. وی پس از تحقیق در زمینه احتمال ، آمار و بهینه سازی یادگیری ماشین ، در حال حاضر در JAMPP به عنوان یک مهندس تحقیق در زمینه یادگیری ماشین مشغول به کار است که از داده های مشتری برای پیش بینی دقیق در زمان واقعی پیشنهاد استفاده می کند.
نمایش نظرات