آموزش مدل های NLP و ترانسفورماتور

NLP's and Transformer Models

نکته: آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
نمونه ویدیوها:
توضیحات دوره: ترانسفورماتورها NLP را از زمان آغاز به کار خود در سال 2017 متحول کرده اند. آنها می توانند زبان را در سطح عمیق تری درک کنند و همچنین به موازات آموزش GPU ها را انجام دهند. در این دوره آموزشی، نحوه ایجاد ترانسفورماتور برای NLP را یاد خواهید گرفت. پردازش زبان طبیعی مجموعه ای از ابزارها و تکنیک هایی است که ما را قادر می سازد تا قدرت متن را باز کنیم و ترانسفورماتورها از زمان پیدایش خود در سال 2017 انقلابی در NLP ایجاد کرده اند. آنها می توانند زبان را در سطح عمیق تر و همچنین موازی کردن آموزش در GPU. در این دوره NLP's and Transformer Models، شما توانایی استفاده و ایجاد Transformers و LLMs برای NLP را خواهید داشت. ابتدا، مکانیسم توجه را بررسی می‌کنید و یاد می‌گیرید که واقعاً چگونه کار می‌کند. در مرحله بعد، معماری ترانسفورماتور را کشف خواهید کرد و یکی از خود را می نویسید! در نهایت، یاد خواهید گرفت که چگونه از Hugging Face برای تنظیم دقیق یا اجرای «یادگیری انتقال» در LLM برای انجام کارهای بسیار شگفت انگیز استفاده کنید. وقتی این دوره را به پایان رساندید، مهارت ها و دانش Transformers در مورد پردازش زبان طبیعی را خواهید داشت که برای توسعه راه حل های برجسته لازم است.

سرفصل ها و درس ها

بررسی اجمالی دوره Course Overview

  • بررسی اجمالی دوره Course Overview

NLP چیست؟ What Is NLP?

  • NLP چیست؟ What Is NLP?

  • معرفی مطالعه موردی Globomantics Introducing Globomantics Case Study

  • گرفتن بهترین نتیجه از این دوره Getting the Best Out of This Course

  • بررسی نسخه Version Check

  • در پایان این دوره چه کاری را می توانید انجام دهید؟ What Will You Be Able to Do When Finishing This Course?

  • طرح کلی دوره Outline of the Course

توجه تنها چیزی است که نیاز دارید Attention Is All You Need

  • معرفی توجه Introducing Attention

  • نسخه ی نمایشی: محاسبه توجه با دست - قسمت 1 Demo: Calculating Attention by Hand - Part 1

  • نسخه ی نمایشی: محاسبه توجه با دست - قسمت 2 Demo: Calculating Attention by Hand - Part 2

  • نسخه ی نمایشی: محاسبه توجه به خود با دست Demo: Calculating Self-attention by Hand

  • نسخه ی نمایشی: افزودن لایه های توجه با چارچوب - قسمت 1 Demo: Adding Attention Layers with Frameworks - Part 1

  • نسخه ی نمایشی: افزودن لایه های توجه با فریم ورک - قسمت 2 Demo: Adding Attention Layers with Frameworks - Part 2

  • خلاصه: Seq2Seq با توجه Recap: Seq2Seq with Attention

  • نسخه ی نمایشی: پیاده سازی ترجمه ماشین عصبی با توجه - قسمت 1 Demo: Implementing Neural Machine Translation with Attention - Part 1

  • نسخه ی نمایشی: پیاده سازی ترجمه ماشین عصبی با توجه - قسمت 2 Demo: Implementing Neural Machine Translation with Attention - Part 2

  • نسخه ی نمایشی: پیاده سازی ترجمه ماشین عصبی با توجه - قسمت 3 Demo: Implementing Neural Machine Translation with Attention - Part 3

  • نسخه ی نمایشی: پیاده سازی ترجمه ماشین عصبی با توجه - قسمت 4 Demo: Implementing Neural Machine Translation with Attention - Part 4

  • نسخه ی نمایشی: پیاده سازی ترجمه ماشین عصبی با توجه - قسمت 5 Demo: Implementing Neural Machine Translation with Attention - Part 5

  • نسخه ی نمایشی: پیاده سازی ترجمه ماشین عصبی با توجه - قسمت 6 Demo: Implementing Neural Machine Translation with Attention - Part 6

  • نکات و نکات کلیدی Key Takeaways and Tips

تبدیل NLP Transforming NLP

  • توجه و ترانسفورماتورهای چند سر - قسمت 1 Multi-headed Attention and Transformers - Part 1

  • توجه و ترانسفورماتورهای چند سر - قسمت 2 Multi-headed Attention and Transformers - Part 2

  • نسخه ی نمایشی: اولین ترانسفورماتور ما - قسمت 1 Demo: Our First Transformer - Part 1

  • نسخه ی نمایشی: اولین ترانسفورماتور ما - قسمت 2 Demo: Our First Transformer - Part 2

  • نسخه ی نمایشی: اولین ترانسفورماتور ما - قسمت 3 Demo: Our First Transformer - Part 3

  • نسخه ی نمایشی: اولین ترانسفورماتور ما - قسمت 4 Demo: Our First Transformer - Part 4

  • نسخه ی نمایشی: اولین ترانسفورماتور ما - قسمت 5 Demo: Our First Transformer - Part 5

  • معرفی صورت در آغوش گرفته Introducing Hugging Face

  • نسخه ی نمایشی: آموزش انتقال در ترانسفورماتورها با صورت در آغوش گرفته - قسمت 1 Demo: Transfer Learning on Transformers with Hugging Face - Part 1

  • نسخه ی نمایشی: آموزش انتقال در ترانسفورماتورها با صورت در آغوش گرفته - قسمت 2 Demo: Transfer Learning on Transformers with Hugging Face - Part 2

  • نسخه ی نمایشی: خلاصه سازی متن با تنظیم دقیق T5 Demo: Text Summarisation with Fine-tuned T5

  • بعد کجا برویم؟ Where to Go Next?

نمایش نظرات

آموزش مدل های NLP و ترانسفورماتور
جزییات دوره
2h 35m
33
Pluralsight (پلورال سایت) Pluralsight (پلورال سایت)
(آخرین آپدیت)
از 5
دارد
دارد
دارد
Axel Sirota
جهت دریافت آخرین اخبار و آپدیت ها در کانال تلگرام عضو شوید.

Google Chrome Browser

Internet Download Manager

Pot Player

Winrar

Axel Sirota Axel Sirota

آکسل سیروتا دارای مدرک کارشناسی ارشد ریاضیات است که علاقه زیادی به عملیات یادگیری عمیق و یادگیری ماشین دارد. وی پس از تحقیق در زمینه احتمال ، آمار و بهینه سازی یادگیری ماشین ، در حال حاضر در JAMPP به عنوان یک مهندس تحقیق در زمینه یادگیری ماشین مشغول به کار است که از داده های مشتری برای پیش بینی دقیق در زمان واقعی پیشنهاد استفاده می کند.