لطفا جهت اطلاع از آخرین دوره ها و اخبار سایت در
کانال تلگرام
عضو شوید.
آموزش تسلط بر هوش مصنوعی مولد با LLM: راهنمای چهره در آغوش گرفته
Mastering Generative AI with LLMs: A Hugging Face Guide
نکته:
آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
نمونه ویدیوها:
توضیحات دوره:
LLMs & Transformers: Dive into Hugging Face, Fine Tuning, Tokenization, and Datasets چگونه با استفاده از کتابخانه Transformers Hugging Face خود توکنایزر بسازیم چگونه یک مجموعه داده سفارشی در Hugging Face ایجاد کنیم چگونه یک مدل GPT-2 را از ابتدا با استفاده از Hugging Face آموزش دهیم کتابخانه ترانسفورماتور نحوه آموزش تنظیم دقیق یک LLM با استفاده از PEFT پیش نیازها: تجربه پایتون مبتدی
به «تسلط بر هوش مصنوعی مولد با مدلهای زبان بزرگ: راهنمای صورت در آغوش گرفته» خوش آمدید. در دنیای امروزی مبتنی بر هوش مصنوعی، مدلهای زبان بزرگ (LLM) انقلابی در قلمرو هوش مصنوعی مولد ایجاد کردهاند و ماشینها را قادر میسازند متنی شبیه انسان تولید کنند، به سؤالات پاسخ دهند و حتی محتوای اصلی را بنویسند. این دوره با دقت طراحی شده است تا به شما درک عمیقی از این مدل ها و نحوه استفاده از قدرت آنها با استفاده از پلت فرم معروف Hugging Face ارائه دهد.
سفر ما با معرفی قوی به دنیای LLMها، رمزگشایی پیچیدگیهای آنها و کاوش در مدیریت نیازهای محاسباتی آنها آغاز میشود. از آنجا، ما به جهان Hugging Face منتقل میشویم، یک پلتفرم محوری که مجموعهای از مدلهای از پیش آموزشدیده را ارائه میدهد که آماده استفاده در برنامههای نوآورانه هستند.
اما درک این نظریه کافی نیست. دانش عملی حیاتی است. به همین دلیل است که بخش دوم ما عمیقاً به کار ترانسفورماتورها، یکی از اجزای اصلی پشت LLM می پردازد. با دستکاری مجموعه دادهها، ساخت مدلهای سفارشی خود و درک هنر توکنسازی عمل کنید.
در نهایت، تأکید ویژه ای بر آموزش و تنظیم دقیق است. بیاموزید که چگونه LLM ها را با نیازهای خاص خود تنظیم کنید، چه خلاصه سازی و چه تولید متن. با تکنیکهایی مانند Instruction Fine-tuning و PEFT، شما در هنر تغییر دادن مدلها تا حد کمال تسلط خواهید داشت. ما دوره را با آموزش کامل GPT-2 از ابتدا برای تولید متن در مجموعه داده سفارشی خود به پایان خواهیم رساند.
سرفصل ها و درس ها
مقدمه ای بر LLM و صورت در آغوش گرفته
Introduction to LLMs & Hugging Face
درک مدل های زبان بزرگ در صورت در آغوش گرفتن
Understanding Large Language Models In Hugging Face
مدیریت نیازهای محاسباتی برای LLM
Managing Compute Requirements For LLMs
صورت در آغوش گرفتن چیست؟
What Is Hugging Face?
دسترسی به مدل های از پیش آموزش دیده از صورت در آغوش کشیدن: مثال دستی
Accessing Pre-Trained Models From Hugging Face: Hands-On Example
کار با ترانسفورماتور در صورت در آغوش گرفتن
Working With Transformers in Hugging Face
دفترچه یادداشت برای 2 سخنرانی بعدی
Notebook for Next 2 Lectures
اصول توکن ساز
Tokenizer Fundamentals
کار با مدل ها در ترانسفورماتور
Working With Models In Transformers
ایجاد مجموعه داده های خودمان در صورت در آغوش گرفتن
Creating Our Own Dataset In Hugging Face
ایجاد توکنایزر خودمان در صورت در آغوش گرفتن
Creating Our Own Tokenizer In Hugging Face
آموزش و تنظیم دقیق LLM از Hugging Face
Training & Fine-tuning LLMs from Hugging Face
دستورالعمل تنظیم دقیق و PEFT
Instruction Fine-tuning & PEFT
تنظیم دقیق BART برای خلاصه سازی
Full Fine-tuning BART For Summarization
آموزش مدل خلاصه سازی با استفاده از PEFT
Training Our Summarization Model Using PEFT
آموزش GPT-2 از ابتدا در صورت در آغوش گرفتن
Training GPT-2 From Scratch In Hugging Face
نمایش نظرات