🔔 با توجه به بهبود نسبی اینترنت، آمادهسازی دورهها آغاز شده است. به دلیل تداوم برخی اختلالات، بارگذاری دورهها ممکن است با کمی تأخیر انجام شود. مدت اشتراکهای تهیهشده محفوظ است.
لطفا جهت اطلاع از آخرین دوره ها و اخبار سایت در
کانال تلگرام
عضو شوید.
آموزش تسلط بر هوش مصنوعی مولد و استقرار LLM
- آخرین آپدیت
دانلود Mastering Generative AI and LLM Deployment.
نکته:
ممکن هست محتوای این صفحه بروز نباشد ولی دانلود دوره آخرین آپدیت می باشد.
نمونه ویدیوها:
توضیحات دوره:
یادگیری عمیق و هوش مصنوعی: دوره جامع برای متخصص شدن در OpenAI، LangChain، MidJourney و LLama3 با کاربردهای عملی JavaScript
این دوره به شما کمک میکند تا در زمینههای پیشرفته هوش مصنوعی، از جمله مدلهای زبانی بزرگ (LLM) و ابزارهای مرتبط، مهارت کسب کنید و برای فرصتهای شغلی جذاب آماده شوید.
آنچه در این دوره خواهید آموخت:
مفاهیم پایه و پیشرفته داکر (Docker):
داکر چیست و چگونه از آن استفاده کنیم؟
کاربردهای پیشرفته داکر
(LAB) نصب و پیکربندی TensorFlow و PyTorch با داکر
(LAB) پیکربندی DockerFile، کامپایل داکر و دیباگ فایل Docker Compose
آشنایی با OpenCL و OpenGL:
OpenCL و OpenGL چیستند و چه زمانی باید از آنها استفاده کرد؟
تسلط بر YOLO برای تشخیص اشیا:
(LAB) بررسی و مقایسه نسخههای مختلف YOLO و انتخاب نسخه مناسب برای مسئله شما
مهارتهای برنامهنویسی و توسعه:
(LAB) کار با ویرایشگرهای Jupyter Notebook و Visual Studio Code
(LAB) آمادگی برای تمرینهای برنامهنویسی Full-Stack و C++
بهینهسازی مدل با TensorRT:
(LAB) کوانتیزاسیون مدل TensorRT با دقتهای FLOAT32/16 و INT8
تفاوتهای کلیدی: اندازه بچ صریح در مقابل ضمنی
دیباگ پیشرفته با Visual Studio Code:
(LAB) راهاندازی Visual Studio Code و دیباگر داکر با VS و GDB
کار با فریمورکهای ONNX و TensorRT:
(LAB) فریمورک ONNX C++ چیست و چگونه میتوان آن را در مسائل C++ سفارشی به کار برد؟
(LAB) فریمورک TensorRT چیست و چگونه میتوان آن را در مسائل سفارشی به کار برد؟
حل مسائل عملی با C++:
(LAB) حل مسائل سفارشی تشخیص، طبقهبندی و سگمنتیشن و استنتاج روی تصاویر و ویدیوها
(LAB) برنامهنویسی شیءگرا پیشرفته C++
(LAB) حل مسائل یادگیری عمیق روی دستگاههای لبه و محاسبات ابری با زبان برنامهنویسی C++
(LAB) تولید مدلهای استنتاج با عملکرد بالا روی دستگاههای Embedded برای دقت بالا، تشخیص FPS بالا و مصرف کمتر حافظه GPU
ابزارهای توسعه و دیباگ:
(LAB) Visual Studio Code با داکر
(LAB) GDB Debugger با SonarLite و SonarCube Debuggers
استنتاج با YOLO و OpenCV:
(LAB) استنتاج yolov4 onnx با کتابخانههای opencv c++ dnn
(LAB) استنتاج yolov5 onnx با کتابخانههای opencv c++ dnn
(LAB) استنتاج yolov5 onnx با کتابخانههای Dynamic C++ TensorRT
تمرینهای برنامهنویسی C++:
(LAB) تمرینهای برنامهنویسی با کامپایلر C++(11/14/17)
تفاوتهای کلیدی: OpenCV و CUDA / OpenCV و TENSORRT
توسعه وب با React و Flask:
(LAB) بررسی عمیق توسعه React با Axios Front End Rest API
(LAB) بررسی عمیق Flask Rest API با REACT و MySql
تکنیکهای بهینهسازی مدل:
درک تکنیکهای بهینهسازی مدل: Pruning، Distillation و Quantization
پردازش زبان طبیعی و مدلهای زبانی بزرگ:
(LAB) بررسی عمیق استنتاج خلاصهسازی متن روی Web App
(LAB) Prompt Penetration Testing
(LAB) بررسی عمیق BERT (LLM) Fine tunning و Emotion Analysis روی Web App
(LAB) بررسی عمیق برنامهنویسی GPU توزیعشده با پردازش زبان طبیعی (مدلهای زبانی بزرگ))
(LAB) بررسی عمیق BERT (LLM) Fine tunning و Emotion Analysis روی Web App
(LAB) Prompt Engineering از اصول اولیه تا پیشرفته
(LAB) بررسی عمیق موارد استفاده Generative AI، چرخه حیات پروژه و پیشآموزش مدل
(LAB) مدلهای OPENAI GPT با تکنیکهای Prompt Engineering خاص
(LAB) Fine-tuning و ارزیابی مدلهای زبانی بزرگ
(LAB) یادگیری تقویتی و کاربردهای مجهز به LLM، ALIGN Fine tunning با بازخورد کاربر
(LAB) Quantization مدلهای زبانی بزرگ با مدرن Nvidia GPU's
(LAB) C++ OOP TensorRT Quantization و Fast Inference
(LAB) بررسی عمیق Hugging FACE Library
(LAB) Translation ● Text summarization ● Question answering
(LAB) Sequence-to-sequence models، ONLY Encoder Based Models، Only Decoder Based Models
(LAB) Define the terms Generative AI، large language models، prompt، and describe the transformer architecture that powers LLMs
(LAB) Discuss computational challenges during model pre-training and determine how to efficiently reduce memory footprint
(LAB) Describe how fine-tuning with instructions using prompt datasets can improve performance on one or more tasks
(LAB) Explain how PEFT decreases computational cost and overcomes catastrophic forgetting
(LAB) Describe how RLHF uses human feedback to improve the performance and alignment of large language models
(LAB) Discuss the challenges that LLMs face with knowledge cut-offs، and explain how information retrieval and augmentation techniques can overcome these challen
Fine-Tuning و بهینهسازی مدلهای زبانی:
Recognize and understand the various strategies and techniques used in fine-tuning language models for specialized applications.
Master the skills necessary to preprocess datasets effectively، ensuring they are in the ideal format for AI training.
Investigate the vast potential of fine-tuned AI models in practical، real-world scenarios across multiple industries.
Acquire knowledge on how to estimate and manage the costs associated with AI model training، making the process efficient and economic
محاسبات توزیعشده:
Distributing Computing for (DDP) Distributed Data Parallelization and Fully Shared Data Parallel across multi GPU/CPU with Pytorch together with Retrieval Augme
RoBERTa Model:
The RoBERTa model was proposed in RoBERTa: A Robustly Optimized BERT Pretraining Approach
Downcasting و Quantization:
Master downcasting from FP32 to BF16 and FP32 to INT8
Learn the difference between symmetric and asymmetric quantization
Implement quantization techniques in Python with real examples
Apply quantization to make models more efficient and deployment-ready
Learn the basics of data types like FP32، FP16، BFloat16، and INT8
Gain practical skills to optimize models for edge devices and resource-constrained environments
پیشرفته Image Generation و Editing:
Advance Image Generation and Editing
پیشنیازها:
برای درک این دوره، دانش پایهای در زمینههای زیر مورد نیاز است:
Tensorflow-Pytorch-TensorRT-ONNX-From Zero to Hero(YOLOVX)
دانش پایه برنامهنویسی C++
دانش پایه برنامهنویسی C
Nvidia GPU Device
دانش پایه پردازش زبان طبیعی
دانش پایه پایتون
دانش پایه HTML، CSS، BootStrap
این دوره به چالشهای علمی پیشرفته هوش مصنوعی مولد میپردازد و به شما کمک میکند تا مشکلات جاری را کشف کرده و برنامههای مدلهای بزرگ خود را توسعه یا سفارشی کنید. این دوره عمدتاً برای دانشجویان، مهندسان و متخصصانی مناسب است که انگیزه زیادی برای کار با مدلهای زبانی بزرگ با چالشهای امروزی و همچنین استقرار آنها با برنامههای وب مبتنی بر پایتون و جاوا اسکریپت و زبانهای برنامهنویسی C/C++ دارند. شرکتکنندگان دانش عمیقی در مورد TensorFlow، PyTorch، Keras و HuggingFace با سرویس Docker خواهند داشت.
علاوه بر این، شرکتکنندگان قادر خواهند بود فریمورکهای TensorRT را برای استقرار در بخشهای مختلف بهینهسازی و کوانتیزه کنند. همچنین، نحوه استقرار مدل کوانتیزهشده LLM را در صفحات وب توسعهیافته با React، جاوا اسکریپت و FLASK یاد خواهند گرفت. در اینجا همچنین یاد خواهید گرفت که چگونه یادگیری تقویتی (PPO) را در مدل زبانی بزرگ ادغام کنید تا با بازخورد مبتنی بر انسان، آنها را دقیقتر تنظیم کنید. شرکتکنندگان یاد خواهند گرفت که چگونه حداقل در سطح متوسط در زبانهای برنامهنویسی C/C++ کدنویسی و دیباگ کنند.
مدلهای LLM استفادهشده:
The Falcon
LLAMA2
BLOOM
MPT
Vicuna
FLAN-T5
GPT2/GPT3, GPT NEOX
BERT 101, Distil BERT
FINE-Tuning Small Models under supervision of BIG Models
Image Generation:
LLAMA models
Gemini
Dall-E OpenAI
Hugging face Models
یادگیری و نصب داکر از صفر
دانش Javascript، HTML، CSS، Bootstrap
React Hook، DOM و توسعه وب Javascript
بررسی عمیق پردازش زبان طبیعی مبتنی بر Deep Learning Transformer
Python FLASK Rest API به همراه MySql
تهیه DockerFiles، Docker Compose و Docker Compose Debug file
پیکربندی و نصب بستههای Plugin در Visual Studio Code
یادگیری، نصب و پیکربندی فریمورکهایی مانند Tensorflow، Pytorch، Keras با تصاویر داکر از صفر
پیشپردازش و آمادهسازی مجموعهدادههای یادگیری عمیق برای آموزش و آزمایش
OpenCV DNN با C++ Inference
آموزش، آزمایش و اعتبارسنجی فریمورکهای یادگیری عمیق
تبدیل مدلهای از پیش ساختهشده به Onnx و Onnx Inference روی تصاویر با برنامهنویسی C++
تبدیل مدل onnx به موتور TensorRT با C++ RunTime و Compile Time API
TensorRT engine Inference روی تصاویر و ویدیوها
مقایسه معیارها و نتایج بهدستآمده بین TensorRT و Onnx Inference
آماده شوید برای برنامهنویسی شیءگرا C++ Inference!
آماده حل هر چالش برنامهنویسی با C/C++ باشید
آماده مقابله با مسائل استقرار در دستگاههای Edge و همچنین Cloud Areas باشید
Large Language Models Fine Tunning
Large Language Models Hands-On-Practice: BLOOM, GPT3-GPT3.5, FLAN-T5 family
Large Language Models Training, Evaluation and User-Defined Prompt IN-Context Learning/On-Line Learning
Human FeedBack Alignment on LLM with Reinforcement Learning (PPO) with Large Language Model : BERT and FLAN-T5
How to Avoid Catastropich Forgetting Program on Large Multi-Task LLM Models.
How to prepare LLM for Multi-Task Problems such as Code Generation, Summarization, Content Analizer, Image Generation.
Quantization of Large Language Models with various existing state-of-art techniques
Importante Note: در این دوره، چیزی برای کپی و پیست کردن وجود ندارد، شما دستان خود را در هر خط پروژه قرار خواهید داد تا با موفقیت به توسعهدهنده LLM و Web Application تبدیل شوید!
شما به هیچ قطعه سختافزاری خاصی نیاز ندارید. شما پروژه را یا روی CLOUD یا روی کامپیوتر محلی خود تحویل خواهید داد.
راه اندازی تصاویر داکر، کانتینرها و ویژوال کد
Set up Docker Images,Containers, and Visual Code
نمودار وضعیت جریان کلی برای برنامه تحت وب استنتاج
Overall Flow State Diagram for Inference Web APP
پیکربندی فایل داکر
Docker File Configuration
ساخت و راه اندازی داکر
Docker Build and Set Up
نحوه اجرای Docker RUN
How to Run Docker RUN
پیکربندی کانتینر داکر با ویژوال کد
Configuration of Docker Container with Visual Code
آماده سازی سمت سرور دقت سریع YoloV7
Prepare YoloV7 Fast Precision Server Side
شروع پیاده سازی Yolov7
Yolov7 Start Implementation
پیاده سازی سرور Yolov7 2
Yolov7 Server Implementation 2
پیاده سازی سرور Yolov7 3
Yolov7 Server Implementation 3
پیاده سازی سرور Yolov7 4
Yolov7 Server Implementation 4
پیاده سازی سرور Yolov7 5
Yolov7 Server Implementation 5
پیاده سازی سرور Yolov7 6
Yolov7 Server Implementation 6
پیاده سازی سرور Flask برای برنامه تحت وب با امنیت بالا
Flask Server Implementation for High Security Web App
پیاده سازی سرور Flask 1
Flask Server Implementation 1
پیاده سازی سرور Flask 2
Flask Server Implementation 2
پیاده سازی ورود به سیستم سرور Flask
Flask Server Sign In Implementation
پیاده سازی ثبت نام سرور Flask
Flask Server Registration Implementation
سرور Flask با ادغام یادگیری عمیق YoloV7
Flask Server with YoloV7 Deep Learning Integration
ادغام سرور Flask و Yolov7
Flask Server & Yolov7 Integration
بخش 2 ادغام سرور Flask و Yolov7
Flask Server & Yolov7 Integration part 2
بخش 3 ادغام سرور Flask و Yolov7
Flask Server & Yolov7 Integration part 3
طراحی برنامه تحت وب سرور Flask
Flask Server Web APP Design
بخش 1 طراحی سرور Flask و برنامه تحت وب
Flask Server & Web APP design part 1
استنتاج DL برنامه تحت وب Flask
Flask Web App DL Inference
استنتاج تصویر DL برنامه تحت وب Flask
Flask Web App DL Image Inference
نمودار جریان برای Back-End و Front-End
Flow Diagram for Back-End&Front-End
استنتاج برنامه تحت وب React با تشخیص احساسات NLP
React Web App Inference with Emotion Detection NLP
تشخیص احساسات برنامه تحت وب سفارشی، BERT، Hugging FACE، React JS، Flask، MySql
Custom Web App Emotion Detection, BERT, Hugging FACE, React JS, Flask, MySql
چگونه نمونه سازی مدل زبانی بزرگ را با برنامه تحت وب و Flask شروع کنیم
How to start for Prototyping Large Language Model with Web APP and Flask
بخش 1 مهندسی ویژگی BERT و Hugging Face
BERT & Hugging Face Feature Engineering Part 1
بخش 2 مهندسی ویژگی و پیش پردازش
Feature Engineering and Preprocessing part 2
بخش 3 مهندسی ویژگی و پیش پردازش
Feature Engineering and Preprocessing part 3
بخش 4 مهندسی ویژگی و پیش پردازش
Feature Engineering and Preprocessing part 4
Pytorch Dataloader و چارچوب Hugging Face (مدل های زبانی بزرگ)
Pytorch Dataloader & Hugging Face Framework(Large Language Models)
ادغام Dataloader، Hugging Face
Dataloader,Hugging Face Integration
بخش 2 ادغام Dataloader، Hugging Face
Dataloader,Hugging Face Integration Part 2
بخش 3 ادغام Dataloader، Hugging Face
Dataloader,Hugging Face Integration Part 3
ترانسفورمر BERT NLP: فریز کردن مدل
BERT NLP Transformer : Model Freezing
بخش 1 BERT_FINE
BERT_FINE Part 1
آماده سازی مرحله آموزش و اعتبارسنجی با BERT
Prepare Training and Validation Step with BERT
بخش 1 آموزش و اعتبارسنجی مدل Bert
Bert Model Train&Val part 1
نتیجه گیری آزمایشگاه 1: غوطه وری عمیق در استنتاج Zero Shot، One Shot، Few Shots با LLM
Conclude Lab 1: Deep Dive Into Zero Shot, One Shot, Few Shots Inference With LLM
آزمایشگاه 1: استنتاج Zero Shot، One Shot، Few Shots با LLM
Lab 1: Zero Shot, One Shot, Few Shots Inference With LLM
علمی بخوانید و مطالعه کنید
Read and Study Scientifically
نتیجه گیری آزمایشگاه 2: غوطه وری عمیق در نحوه بهینه سازی FINE TUNNING بر روی LLM
Conclude Lab2: Deep Dive into How to FINE TUNNING Efficiently on LLM
جزئیات 1 LLM LAB_2
LLM LAB_2 Details 1
جزئیات 2 LLM LAB_2
LLM LAB_2 Details 2
جزئیات 3 LLM LAB_2
LLM LAB_2 Details 3
LLM-PEFT Hugging Face (آزمایشگاه 2)
LLM-PEFT Hugging Face(LAB 2)
آزمایشگاه مدل های خود رگرسیو GPT2
GPT2-AutoRegressive Models Lab
تولید و تکمیل متن GPT2-Medium و Distel GPT2
GPT2-Medium&Distel GPT2 Text Generation-Completion
تنظیم دقیق GPT-DIALO و GPT 2 LAB SESSION برای حرفه پزشکی
Fine tune GPT-DIALO AND GPT 2 LAB SESSION For DOCTOR Profession
تنظیم دقیق تولید متن End-TO-End GPT Distil AND GPT 2 LAB SESSION
Fine tune GPT Distil AND GPT 2 LAB SESSION End-TO-End Text Generation
چگونه مدل های بزرگ LLM می توانند مدل های کوچک LLM را برای تنظیم دقیق آموزش دهند
HOW LARGE LLM MODELS CAN TEACH SMALL LLM MODELS FOR FINE TUNING
مدل بزرگ به مدل های کوچک قسمت 1 آموزش می دهد
Large Model teachs Small Models Part 1
مدل بزرگ به مدل های کوچک قسمت 2 آموزش می دهد
Large Model teachs Small Models Part 2
مدل بزرگ به مدل های کوچک قسمت 3 آموزش می دهد
Large Model teachs Small Models Part 3
به طور مستقل انجام دهید
Do StandAlone
تکنیک های بهینه سازی LLM
LLM Optimization Techniques
تکنیک های بهینه سازی LLM-تقطیر
LLM Optimization Techniques-Distillation
تکنیک های بهینه سازی - کوانتیزه سازی پس از آموزش / LORA.mp4
Optimization Techniques-Post Training QUantization/LORA.mp4
تکنیک های بهینه سازی - تکنیک های هرس و طراحی چرخه عمر LLM با هدف.
Optimization Techniques-Prune Techniques and Design LLM Life Cycle with target.
RAG با مدل های LLM ادغام سفارشی
RAG WITH LLM MODELS CUSTOM INTEGRATION
مروری مختصر از RAG با LLM
Brief Overview of RAG with LLM
نمایش نظرات