آموزش مدل‌های زبانی بزرگ متن‌باز: از صفر تا قهرمان - آخرین آپدیت

دانلود Train OpenSource Large Language Models from Zero to Hero

نکته: ممکن هست محتوای این صفحه بروز نباشد ولی دانلود دوره آخرین آپدیت می باشد.
نمونه ویدیوها:
توضیحات دوره:

آموزش جامع LLM های متن باز: LoRA، QLoRA، DPO و ORPO

یاد بگیرید چگونه مدل‌های زبانی بزرگ (LLM) متن باز را با روش‌های پیشرفته مانند LoRA، QLoRA، DPO و ORPO آموزش دهید. این راهنما برای توسعه‌دهندگان و دانشمندان داده‌ای طراحی شده است که می‌خواهند مهارت‌های خود را در زمینه آموزش و بهینه‌سازی LLMها ارتقا دهند.

مدل زبانی چیست و فرآیند آموزش چگونه است؟

با درک عمیق مدل‌های زبانی و معماری ترانسفورمر، نحوه عملکرد LLMها را بیاموزید. این دانش به شما کمک می‌کند تا مدل‌های خود را از ابتدا آموزش دهید.

بهینه‌سازی LLM با تکنیک‌های LoRA، QLoRA و DoRA

تکنیک‌های پیشرفته بهینه‌سازی مانند LoRA، QLoRA و DoRA را برای بهبود عملکرد مدل‌های زبانی بزرگ (LLM) فرا بگیرید. این روش‌ها به شما کمک می‌کنند تا با کمترین منابع، بهترین نتایج را کسب کنید.

هم‌راستا کردن LLM با ترجیحات انسانی با استفاده از DPO، KTO و ORPO

یاد بگیرید چگونه LLMها را با ترجیحات انسانی با استفاده از روش‌های پیشرفته‌ای مانند DPO، KTO و ORPO هم‌راستا کنید. این تکنیک‌ها تضمین می‌کنند که مدل‌های شما نه تنها عملکرد خوبی دارند، بلکه با انتظارات کاربران و استانداردهای اخلاقی نیز مطابقت دارند.

تسریع آموزش LLM با استفاده از GPU های متعدد و کتابخانه Unsloth

با استفاده از تنظیمات چند GPU، موازی‌سازی مدل، Fully Sharded Data Parallel (FSDP) و چارچوب Unsloth، سرعت آموزش LLM خود را افزایش دهید و مصرف VRAM را کاهش دهید.

پیش نیاز: بدون نیاز به دانش قبلی

با این دوره جامع، پتانسیل کامل مدل‌های زبانی بزرگ (LLM) را کشف کنید. از اصول مدل‌های زبانی و معماری ترانسفورمر شروع کنید و با روش‌های بهینه‌سازی پیشرفته مانند Flash Attention و NEFTune آشنا شوید. با انجام پروژه‌های عملی، تجربه کسب کنید.

در پایان این دوره، درک عمیقی از آموزش، بهینه‌سازی و تنظیم LLM های متن باز به دست خواهید آورد و قادر خواهید بود مدل‌های قدرتمندی را ایجاد کنید.


برای هرگونه مشکل یا درخواست، لطفا با این ایمیل با من در ارتباط باشید: gal@apriori.ai


آموزش خوبی داشته باشید!


سرفصل ها و درس ها

مدل زبان چیست و خط لوله آموزش چگونه است What is a Language Model and how training pipeline looks like

  • مقدمه ای بر آموزش مدل های زبانی Introduction to Training Language Models

  • مدل ترنسفورمر: باز کردن قدرت یادگیری عمیق The Transformer Model: Unlocking the Power of Deep Learning

  • معماری ترنسفورمر برای مدل های زبانی بزرگ Transformer Architectures for Large Language Models

مواد دوره Course Materials

  • دانلود و استفاده از مواد دوره Download and use the course materials

راه اندازی محیط و آموزش اولین مدل زبانی خود Setup your environment and train you first Language Model

  • آموزش یک مدل زبانی از ابتدا Training a Language Model from scratch

  • راه اندازی محیط توسعه خود Setting up your development environment

تنظیم دقیق LLMها با تنظیم دقیق نظارت شده (LoRA، QLoRA، DoRA) Fine tuning LLMs with supervised fine-tune (LoRA, QLoRA, DoRA)

  • تنظیم دقیق نظارت شده LLMها با LoRA و معرفی کوانتیزاسیون Supervised Fine-Tuning of LLMs with LoRA and intro to quantization

  • آموزش تنظیم دقیق نظارت شده کامل LLM [کد] Train LLM full supervised tuning [Code]

  • آموزش LLM با پارامترهای ثابت [کد] Train LLM with freezed params [Code]

  • آموزش LLM با LoRA [کد] Training LLM with LoRA [Code]

  • معرفی LoRA کوانتیزه شده (QLoRA) Introducing Quantized LoRA (QLoRA)

  • آموزش LLM با QLoRA [کد] Training LLM with QLoRA [Code]

  • معرفی تنظیم دقیق DoRA Introduction to DoRA fine tuning

  • آموزش DoRA برای بهبود ثبات [کد] DoRA training to improve stability [Code]

بهبود عملکرد LLM و قوی کردن آموزش در برابر داده های نویزی Improve LLM performance and make training Robust to noisy data

  • افزایش سرعت با Flash Attention Enhancing Speed with Flash Attention

  • NEFTune - قوی کردن آموزش LLM NEFTune - Making LLM training Robust

  • بهبود استحکام LLM و سرعت آموزش [کد] Enhancing LLM robustness and training speed [Code]

همسو کردن LLMها با ترجیحات انسانی با استفاده از DPO، KTO و ORPO Align LLMs to human preference using DPO, KTO and ORPO

  • مقدمه ای بر بهینه سازی ترجیح مستقیم (DPO) Introduction to Direct Preference Optimization (DPO)

  • همسو سازی آموزش DPO LLM با ترجیحات انسانی [کد] DPO training align LLM to human preference [Code]

  • مرتب سازی آسان تر داده ها برای آموزش LLMها با KTO Easier Data Curation for Training LLMs with KTO

  • آموزش KTO برای مرتب سازی بهتر داده ها [کد] KTO training for better data curation [Code]

  • آموزش همه در یک با ORPO All in one training with ORPO

  • آموزش همه در یک با ORPO [کد] All in one training with ORPO [Code]

تسریع آموزش LLM Accelerate LLM Training

  • آموزش چند GPU - تسریع یادگیری عمیق Multi-GPU Training - Accelerate Deep Learning

  • موازی سازی مدل چند GPU [کد] Multi GPU model parallel [Code]

  • آموزش FSDP GPU [کد] FSDP GPU training [Code]

  • Unsloth - چارچوبی برای تنظیم دقیق سریعتر Unsloth - A framework for faster fine tuning

  • آموزش Unsloth بهبود سرعت و VRAM [کد] Unsloth training improve speed and VRAM [Code]

نمایش نظرات

آموزش مدل‌های زبانی بزرگ متن‌باز: از صفر تا قهرمان
جزییات دوره
2.5 hours
28
Udemy (یودمی) Udemy (یودمی)
(آخرین آپدیت)
444
4.5 از 5
دارد
دارد
دارد
Gal Peretz
جهت دریافت آخرین اخبار و آپدیت ها در کانال تلگرام عضو شوید.

Google Chrome Browser

Internet Download Manager

Pot Player

Winrar

Gal Peretz Gal Peretz

مشاور هوش مصنوعی و علاقه‌مند به مدل‌های زبانی بزرگ