🔔 با توجه به بهبود نسبی اینترنت، آمادهسازی دورهها آغاز شده است. به دلیل تداوم برخی اختلالات، بارگذاری دورهها ممکن است با کمی تأخیر انجام شود. مدت اشتراکهای تهیهشده محفوظ است.
لطفا جهت اطلاع از آخرین دوره ها و اخبار سایت در
کانال تلگرام
عضو شوید.
آموزش مدلهای زبانی بزرگ متنباز: از صفر تا قهرمان
- آخرین آپدیت
دانلود Train OpenSource Large Language Models from Zero to Hero
نکته:
ممکن هست محتوای این صفحه بروز نباشد ولی دانلود دوره آخرین آپدیت می باشد.
نمونه ویدیوها:
توضیحات دوره:
آموزش جامع LLM های متن باز: LoRA، QLoRA، DPO و ORPO
یاد بگیرید چگونه مدلهای زبانی بزرگ (LLM) متن باز را با روشهای پیشرفته مانند LoRA، QLoRA، DPO و ORPO آموزش دهید. این راهنما برای توسعهدهندگان و دانشمندان دادهای طراحی شده است که میخواهند مهارتهای خود را در زمینه آموزش و بهینهسازی LLMها ارتقا دهند.
مدل زبانی چیست و فرآیند آموزش چگونه است؟
با درک عمیق مدلهای زبانی و معماری ترانسفورمر، نحوه عملکرد LLMها را بیاموزید. این دانش به شما کمک میکند تا مدلهای خود را از ابتدا آموزش دهید.
بهینهسازی LLM با تکنیکهای LoRA، QLoRA و DoRA
تکنیکهای پیشرفته بهینهسازی مانند LoRA، QLoRA و DoRA را برای بهبود عملکرد مدلهای زبانی بزرگ (LLM) فرا بگیرید. این روشها به شما کمک میکنند تا با کمترین منابع، بهترین نتایج را کسب کنید.
همراستا کردن LLM با ترجیحات انسانی با استفاده از DPO، KTO و ORPO
یاد بگیرید چگونه LLMها را با ترجیحات انسانی با استفاده از روشهای پیشرفتهای مانند DPO، KTO و ORPO همراستا کنید. این تکنیکها تضمین میکنند که مدلهای شما نه تنها عملکرد خوبی دارند، بلکه با انتظارات کاربران و استانداردهای اخلاقی نیز مطابقت دارند.
تسریع آموزش LLM با استفاده از GPU های متعدد و کتابخانه Unsloth
با استفاده از تنظیمات چند GPU، موازیسازی مدل، Fully Sharded Data Parallel (FSDP) و چارچوب Unsloth، سرعت آموزش LLM خود را افزایش دهید و مصرف VRAM را کاهش دهید.
پیش نیاز: بدون نیاز به دانش قبلی
با این دوره جامع، پتانسیل کامل مدلهای زبانی بزرگ (LLM) را کشف کنید. از اصول مدلهای زبانی و معماری ترانسفورمر شروع کنید و با روشهای بهینهسازی پیشرفته مانند Flash Attention و NEFTune آشنا شوید. با انجام پروژههای عملی، تجربه کسب کنید.
در پایان این دوره، درک عمیقی از آموزش، بهینهسازی و تنظیم LLM های متن باز به دست خواهید آورد و قادر خواهید بود مدلهای قدرتمندی را ایجاد کنید.
برای هرگونه مشکل یا درخواست، لطفا با این ایمیل با من در ارتباط باشید: gal@apriori.ai
آموزش خوبی داشته باشید!
سرفصل ها و درس ها
مدل زبان چیست و خط لوله آموزش چگونه است
What is a Language Model and how training pipeline looks like
مقدمه ای بر آموزش مدل های زبانی
Introduction to Training Language Models
مدل ترنسفورمر: باز کردن قدرت یادگیری عمیق
The Transformer Model: Unlocking the Power of Deep Learning
معماری ترنسفورمر برای مدل های زبانی بزرگ
Transformer Architectures for Large Language Models
مواد دوره
Course Materials
دانلود و استفاده از مواد دوره
Download and use the course materials
راه اندازی محیط و آموزش اولین مدل زبانی خود
Setup your environment and train you first Language Model
آموزش یک مدل زبانی از ابتدا
Training a Language Model from scratch
راه اندازی محیط توسعه خود
Setting up your development environment
تنظیم دقیق LLMها با تنظیم دقیق نظارت شده (LoRA، QLoRA، DoRA)
Fine tuning LLMs with supervised fine-tune (LoRA, QLoRA, DoRA)
تنظیم دقیق نظارت شده LLMها با LoRA و معرفی کوانتیزاسیون
Supervised Fine-Tuning of LLMs with LoRA and intro to quantization
آموزش تنظیم دقیق نظارت شده کامل LLM [کد]
Train LLM full supervised tuning [Code]
آموزش LLM با پارامترهای ثابت [کد]
Train LLM with freezed params [Code]
آموزش LLM با LoRA [کد]
Training LLM with LoRA [Code]
معرفی LoRA کوانتیزه شده (QLoRA)
Introducing Quantized LoRA (QLoRA)
آموزش LLM با QLoRA [کد]
Training LLM with QLoRA [Code]
معرفی تنظیم دقیق DoRA
Introduction to DoRA fine tuning
آموزش DoRA برای بهبود ثبات [کد]
DoRA training to improve stability [Code]
بهبود عملکرد LLM و قوی کردن آموزش در برابر داده های نویزی
Improve LLM performance and make training Robust to noisy data
افزایش سرعت با Flash Attention
Enhancing Speed with Flash Attention
NEFTune - قوی کردن آموزش LLM
NEFTune - Making LLM training Robust
بهبود استحکام LLM و سرعت آموزش [کد]
Enhancing LLM robustness and training speed [Code]
همسو کردن LLMها با ترجیحات انسانی با استفاده از DPO، KTO و ORPO
Align LLMs to human preference using DPO, KTO and ORPO
مقدمه ای بر بهینه سازی ترجیح مستقیم (DPO)
Introduction to Direct Preference Optimization (DPO)
همسو سازی آموزش DPO LLM با ترجیحات انسانی [کد]
DPO training align LLM to human preference [Code]
مرتب سازی آسان تر داده ها برای آموزش LLMها با KTO
Easier Data Curation for Training LLMs with KTO
آموزش KTO برای مرتب سازی بهتر داده ها [کد]
KTO training for better data curation [Code]
آموزش همه در یک با ORPO
All in one training with ORPO
آموزش همه در یک با ORPO [کد]
All in one training with ORPO [Code]
تسریع آموزش LLM
Accelerate LLM Training
آموزش چند GPU - تسریع یادگیری عمیق
Multi-GPU Training - Accelerate Deep Learning
موازی سازی مدل چند GPU [کد]
Multi GPU model parallel [Code]
آموزش FSDP GPU [کد]
FSDP GPU training [Code]
Unsloth - چارچوبی برای تنظیم دقیق سریعتر
Unsloth - A framework for faster fine tuning
آموزش Unsloth بهبود سرعت و VRAM [کد]
Unsloth training improve speed and VRAM [Code]
نمایش نظرات