آموزش تسلط بر هوش مصنوعی مولد و استقرار LLM - آخرین آپدیت

دانلود Mastering Generative AI and LLM Deployment.

نکته: ممکن هست محتوای این صفحه بروز نباشد ولی دانلود دوره آخرین آپدیت می باشد.
نمونه ویدیوها:
توضیحات دوره:

یادگیری عمیق و هوش مصنوعی: دوره جامع برای متخصص شدن در OpenAI، LangChain، MidJourney و LLama3 با کاربردهای عملی JavaScript

این دوره به شما کمک می‌کند تا در زمینه‌های پیشرفته هوش مصنوعی، از جمله مدل‌های زبانی بزرگ (LLM) و ابزارهای مرتبط، مهارت کسب کنید و برای فرصت‌های شغلی جذاب آماده شوید.

آنچه در این دوره خواهید آموخت:

  • مفاهیم پایه و پیشرفته داکر (Docker):
    • داکر چیست و چگونه از آن استفاده کنیم؟
    • کاربردهای پیشرفته داکر
    • (LAB) نصب و پیکربندی TensorFlow و PyTorch با داکر
    • (LAB) پیکربندی DockerFile، کامپایل داکر و دیباگ فایل Docker Compose
  • آشنایی با OpenCL و OpenGL:
    • OpenCL و OpenGL چیستند و چه زمانی باید از آن‌ها استفاده کرد؟
  • تسلط بر YOLO برای تشخیص اشیا:
    • (LAB) بررسی و مقایسه نسخه‌های مختلف YOLO و انتخاب نسخه مناسب برای مسئله شما
  • مهارت‌های برنامه‌نویسی و توسعه:
    • (LAB) کار با ویرایشگرهای Jupyter Notebook و Visual Studio Code
    • (LAB) آمادگی برای تمرین‌های برنامه‌نویسی Full-Stack و C++
  • بهینه‌سازی مدل با TensorRT:
    • (LAB) کوانتیزاسیون مدل TensorRT با دقت‌های FLOAT32/16 و INT8
    • تفاوت‌های کلیدی: اندازه بچ صریح در مقابل ضمنی
  • دیباگ پیشرفته با Visual Studio Code:
    • (LAB) راه‌اندازی Visual Studio Code و دیباگر داکر با VS و GDB
  • کار با فریم‌ورک‌های ONNX و TensorRT:
    • (LAB) فریم‌ورک ONNX C++ چیست و چگونه می‌توان آن را در مسائل C++ سفارشی به کار برد؟
    • (LAB) فریم‌ورک TensorRT چیست و چگونه می‌توان آن را در مسائل سفارشی به کار برد؟
  • حل مسائل عملی با C++:
    • (LAB) حل مسائل سفارشی تشخیص، طبقه‌بندی و سگمنتیشن و استنتاج روی تصاویر و ویدیوها
    • (LAB) برنامه‌نویسی شیءگرا پیشرفته C++
    • (LAB) حل مسائل یادگیری عمیق روی دستگاه‌های لبه و محاسبات ابری با زبان برنامه‌نویسی C++
    • (LAB) تولید مدل‌های استنتاج با عملکرد بالا روی دستگاه‌های Embedded برای دقت بالا، تشخیص FPS بالا و مصرف کمتر حافظه GPU
  • ابزارهای توسعه و دیباگ:
    • (LAB) Visual Studio Code با داکر
    • (LAB) GDB Debugger با SonarLite و SonarCube Debuggers
  • استنتاج با YOLO و OpenCV:
    • (LAB) استنتاج yolov4 onnx با کتابخانه‌های opencv c++ dnn
    • (LAB) استنتاج yolov5 onnx با کتابخانه‌های opencv c++ dnn
    • (LAB) استنتاج yolov5 onnx با کتابخانه‌های Dynamic C++ TensorRT
  • تمرین‌های برنامه‌نویسی C++:
    • (LAB) تمرین‌های برنامه‌نویسی با کامپایلر C++(11/14/17)
    • تفاوت‌های کلیدی: OpenCV و CUDA / OpenCV و TENSORRT
  • توسعه وب با React و Flask:
    • (LAB) بررسی عمیق توسعه React با Axios Front End Rest API
    • (LAB) بررسی عمیق Flask Rest API با REACT و MySql
  • تکنیک‌های بهینه‌سازی مدل:
    • درک تکنیک‌های بهینه‌سازی مدل: Pruning، Distillation و Quantization
  • پردازش زبان طبیعی و مدل‌های زبانی بزرگ:
    • (LAB) بررسی عمیق استنتاج خلاصه‌سازی متن روی Web App
    • (LAB) Prompt Penetration Testing
    • (LAB) بررسی عمیق BERT (LLM) Fine tunning و Emotion Analysis روی Web App
    • (LAB) بررسی عمیق برنامه‌نویسی GPU توزیع‌شده با پردازش زبان طبیعی (مدل‌های زبانی بزرگ))
    • (LAB) بررسی عمیق BERT (LLM) Fine tunning و Emotion Analysis روی Web App
    • (LAB) Prompt Engineering از اصول اولیه تا پیشرفته
    • (LAB) بررسی عمیق موارد استفاده Generative AI، چرخه حیات پروژه و پیش‌آموزش مدل
    • (LAB) مدل‌های OPENAI GPT با تکنیک‌های Prompt Engineering خاص
    • (LAB) Fine-tuning و ارزیابی مدل‌های زبانی بزرگ
    • (LAB) یادگیری تقویتی و کاربردهای مجهز به LLM، ALIGN Fine tunning با بازخورد کاربر
    • (LAB) Quantization مدل‌های زبانی بزرگ با مدرن Nvidia GPU's
    • (LAB) C++ OOP TensorRT Quantization و Fast Inference
    • (LAB) بررسی عمیق Hugging FACE Library
    • (LAB) Translation ● Text summarization ● Question answering
    • (LAB) Sequence-to-sequence models، ONLY Encoder Based Models، Only Decoder Based Models
    • (LAB) Define the terms Generative AI، large language models، prompt، and describe the transformer architecture that powers LLMs
    • (LAB) Discuss computational challenges during model pre-training and determine how to efficiently reduce memory footprint
    • (LAB) Describe how fine-tuning with instructions using prompt datasets can improve performance on one or more tasks
    • (LAB) Explain how PEFT decreases computational cost and overcomes catastrophic forgetting
    • (LAB) Describe how RLHF uses human feedback to improve the performance and alignment of large language models
    • (LAB) Discuss the challenges that LLMs face with knowledge cut-offs، and explain how information retrieval and augmentation techniques can overcome these challen
  • Fine-Tuning و بهینه‌سازی مدل‌های زبانی:
    • Recognize and understand the various strategies and techniques used in fine-tuning language models for specialized applications.
    • Master the skills necessary to preprocess datasets effectively، ensuring they are in the ideal format for AI training.
    • Investigate the vast potential of fine-tuned AI models in practical، real-world scenarios across multiple industries.
    • Acquire knowledge on how to estimate and manage the costs associated with AI model training، making the process efficient and economic
  • محاسبات توزیع‌شده:
    • Distributing Computing for (DDP) Distributed Data Parallelization and Fully Shared Data Parallel across multi GPU/CPU with Pytorch together with Retrieval Augme
  • RoBERTa Model:
    • The RoBERTa model was proposed in RoBERTa: A Robustly Optimized BERT Pretraining Approach
  • Downcasting و Quantization:
    • Master downcasting from FP32 to BF16 and FP32 to INT8
    • Learn the difference between symmetric and asymmetric quantization
    • Implement quantization techniques in Python with real examples
    • Apply quantization to make models more efficient and deployment-ready
    • Learn the basics of data types like FP32، FP16، BFloat16، and INT8
    • Gain practical skills to optimize models for edge devices and resource-constrained environments
  • پیشرفته Image Generation و Editing:
    • Advance Image Generation and Editing

پیش‌نیازها:

برای درک این دوره، دانش پایه‌ای در زمینه‌های زیر مورد نیاز است:

  • Tensorflow-Pytorch-TensorRT-ONNX-From Zero to Hero(YOLOVX)
  • دانش پایه برنامه‌نویسی C++
  • دانش پایه برنامه‌نویسی C
  • Nvidia GPU Device
  • دانش پایه پردازش زبان طبیعی
  • دانش پایه پایتون
  • دانش پایه HTML، CSS، BootStrap

این دوره به چالش‌های علمی پیشرفته هوش مصنوعی مولد می‌پردازد و به شما کمک می‌کند تا مشکلات جاری را کشف کرده و برنامه‌های مدل‌های بزرگ خود را توسعه یا سفارشی کنید. این دوره عمدتاً برای دانشجویان، مهندسان و متخصصانی مناسب است که انگیزه زیادی برای کار با مدل‌های زبانی بزرگ با چالش‌های امروزی و همچنین استقرار آنها با برنامه‌های وب مبتنی بر پایتون و جاوا اسکریپت و زبان‌های برنامه‌نویسی C/C++ دارند. شرکت‌کنندگان دانش عمیقی در مورد TensorFlow، PyTorch، Keras و HuggingFace با سرویس Docker خواهند داشت.

علاوه بر این، شرکت‌کنندگان قادر خواهند بود فریم‌ورک‌های TensorRT را برای استقرار در بخش‌های مختلف بهینه‌سازی و کوانتیزه‌ کنند. همچنین، نحوه استقرار مدل کوانتیزه‌شده LLM را در صفحات وب توسعه‌یافته با React، جاوا اسکریپت و FLASK یاد خواهند گرفت. در اینجا همچنین یاد خواهید گرفت که چگونه یادگیری تقویتی (PPO) را در مدل زبانی بزرگ ادغام کنید تا با بازخورد مبتنی بر انسان، آنها را دقیق‌تر تنظیم کنید. شرکت‌کنندگان یاد خواهند گرفت که چگونه حداقل در سطح متوسط در زبان‌های برنامه‌نویسی C/C++ کدنویسی و دیباگ کنند.

مدل‌های LLM استفاده‌شده:

  • The Falcon
  • LLAMA2
  • BLOOM
  • MPT
  • Vicuna
  • FLAN-T5
  • GPT2/GPT3, GPT NEOX
  • BERT 101, Distil BERT
  • FINE-Tuning Small Models under supervision of BIG Models

Image Generation:

  1. LLAMA models
  2. Gemini
  3. Dall-E OpenAI
  4. Hugging face Models
  1. یادگیری و نصب داکر از صفر
  2. دانش Javascript، HTML، CSS، Bootstrap
  3. React Hook، DOM و توسعه وب Javascript
  4. بررسی عمیق پردازش زبان طبیعی مبتنی بر Deep Learning Transformer
  5. Python FLASK Rest API به همراه MySql
  6. تهیه DockerFiles، Docker Compose و Docker Compose Debug file
  7. پیکربندی و نصب بسته‌های Plugin در Visual Studio Code
  8. یادگیری، نصب و پیکربندی فریم‌ورک‌هایی مانند Tensorflow، Pytorch، Keras با تصاویر داکر از صفر
  9. پیش‌پردازش و آماده‌سازی مجموعه‌داده‌های یادگیری عمیق برای آموزش و آزمایش
  10. OpenCV DNN با C++ Inference
  11. آموزش، آزمایش و اعتبارسنجی فریم‌ورک‌های یادگیری عمیق
  12. تبدیل مدل‌های از پیش ساخته‌شده به Onnx و Onnx Inference روی تصاویر با برنامه‌نویسی C++
  13. تبدیل مدل onnx به موتور TensorRT با C++ RunTime و Compile Time API
  14. TensorRT engine Inference روی تصاویر و ویدیوها
  15. مقایسه معیارها و نتایج به‌دست‌آمده بین TensorRT و Onnx Inference
  16. آماده شوید برای برنامه‌نویسی شیءگرا C++ Inference!
  17. آماده حل هر چالش برنامه‌نویسی با C/C++ باشید
  18. آماده مقابله با مسائل استقرار در دستگاه‌های Edge و همچنین Cloud Areas باشید
  19. Large Language Models Fine Tunning
  20. Large Language Models Hands-On-Practice: BLOOM, GPT3-GPT3.5, FLAN-T5 family
  21. Large Language Models Training, Evaluation and User-Defined Prompt IN-Context Learning/On-Line Learning
  22. Human FeedBack Alignment on LLM with Reinforcement Learning (PPO) with Large Language Model : BERT and FLAN-T5
  23. How to Avoid Catastropich Forgetting Program on Large Multi-Task LLM Models.
  24. How to prepare LLM for Multi-Task Problems such as Code Generation, Summarization, Content Analizer, Image Generation.
  25. Quantization of Large Language Models with various existing state-of-art techniques
  • Importante Note:
        در این دوره، چیزی برای کپی و پیست کردن وجود ندارد، شما دستان خود را در هر خط پروژه قرار خواهید داد تا با موفقیت به توسعه‌دهنده LLM و Web Application تبدیل شوید!

شما به هیچ قطعه سخت‌افزاری خاصی نیاز ندارید. شما پروژه را یا روی CLOUD یا روی کامپیوتر محلی خود تحویل خواهید داد.


سرفصل ها و درس ها

خلاصه کل دوره All course summary

  • خلاصه دوره Course Summary

  • React Hooks React Hooks

  • مروری بر دوره توسط من Course Overview by Me

  • React DOM React DOM

  • React Rest API و Axios React Rest API&Axios

  • Flask Rest API Flask Rest API

  • مفاهیم پایه جاوا اسکریپت Javascript Basics Concepts

  • مفاهیم پیشرفته جاوا اسکریپت Javascript Advance concepts

  • توضیحات دوره و آنچه خواهید آموخت Course Description and what you will learn

  • دوره پیشنهادی - یادگیری عمیق Recommed Course - DeepLearning

  • آشنایی با من و محتوای دوره Get to know me and course content

برخی از دموها Some Demos

  • دموی استنتاج سریع YoloV7 YoloV7 Fast Inference Demo

  • دموی تشخیص شیء WebApp WebApp-Object Detection Demo

راه اندازی تصاویر داکر، کانتینرها و ویژوال کد Set up Docker Images,Containers, and Visual Code

  • نمودار وضعیت جریان کلی برای برنامه تحت وب استنتاج Overall Flow State Diagram for Inference Web APP

  • پیکربندی فایل داکر Docker File Configuration

  • ساخت و راه اندازی داکر Docker Build and Set Up

  • نحوه اجرای Docker RUN How to Run Docker RUN

  • پیکربندی کانتینر داکر با ویژوال کد Configuration of Docker Container with Visual Code

آماده سازی سمت سرور دقت سریع YoloV7 Prepare YoloV7 Fast Precision Server Side

  • شروع پیاده سازی Yolov7 Yolov7 Start Implementation

  • پیاده سازی سرور Yolov7 2 Yolov7 Server Implementation 2

  • پیاده سازی سرور Yolov7 3 Yolov7 Server Implementation 3

  • پیاده سازی سرور Yolov7 4 Yolov7 Server Implementation 4

  • پیاده سازی سرور Yolov7 5 Yolov7 Server Implementation 5

  • پیاده سازی سرور Yolov7 6 Yolov7 Server Implementation 6

پیاده سازی سرور Flask برای برنامه تحت وب با امنیت بالا Flask Server Implementation for High Security Web App

  • پیاده سازی سرور Flask 1 Flask Server Implementation 1

  • پیاده سازی سرور Flask 2 Flask Server Implementation 2

  • پیاده سازی ورود به سیستم سرور Flask Flask Server Sign In Implementation

  • پیاده سازی ثبت نام سرور Flask Flask Server Registration Implementation

سرور Flask با ادغام یادگیری عمیق YoloV7 Flask Server with YoloV7 Deep Learning Integration

  • ادغام سرور Flask و Yolov7 Flask Server & Yolov7 Integration

  • بخش 2 ادغام سرور Flask و Yolov7 Flask Server & Yolov7 Integration part 2

  • بخش 3 ادغام سرور Flask و Yolov7 Flask Server & Yolov7 Integration part 3

طراحی برنامه تحت وب سرور Flask Flask Server Web APP Design

  • بخش 1 طراحی سرور Flask و برنامه تحت وب Flask Server & Web APP design part 1

  • استنتاج DL برنامه تحت وب Flask Flask Web App DL Inference

  • استنتاج تصویر DL برنامه تحت وب Flask Flask Web App DL Image Inference

  • نمودار جریان برای Back-End و Front-End Flow Diagram for Back-End&Front-End

استنتاج برنامه تحت وب React با تشخیص احساسات NLP React Web App Inference with Emotion Detection NLP

  • تشخیص احساسات برنامه تحت وب سفارشی، BERT، Hugging FACE، React JS، Flask، MySql Custom Web App Emotion Detection, BERT, Hugging FACE, React JS, Flask, MySql

  • چگونه نمونه سازی مدل زبانی بزرگ را با برنامه تحت وب و Flask شروع کنیم How to start for Prototyping Large Language Model with Web APP and Flask

  • بخش 1 مهندسی ویژگی BERT و Hugging Face BERT & Hugging Face Feature Engineering Part 1

  • بخش 2 مهندسی ویژگی و پیش پردازش Feature Engineering and Preprocessing part 2

  • بخش 3 مهندسی ویژگی و پیش پردازش Feature Engineering and Preprocessing part 3

  • بخش 4 مهندسی ویژگی و پیش پردازش Feature Engineering and Preprocessing part 4

Pytorch Dataloader و چارچوب Hugging Face (مدل های زبانی بزرگ) Pytorch Dataloader & Hugging Face Framework(Large Language Models)

  • ادغام Dataloader، Hugging Face Dataloader,Hugging Face Integration

  • بخش 2 ادغام Dataloader، Hugging Face Dataloader,Hugging Face Integration Part 2

  • بخش 3 ادغام Dataloader، Hugging Face Dataloader,Hugging Face Integration Part 3

ترانسفورمر BERT NLP: فریز کردن مدل BERT NLP Transformer : Model Freezing

  • بخش 1 BERT_FINE BERT_FINE Part 1

آماده سازی مرحله آموزش و اعتبارسنجی با BERT Prepare Training and Validation Step with BERT

  • بخش 1 آموزش و اعتبارسنجی مدل Bert Bert Model Train&Val part 1

  • بخش 2 آموزش training part 2

  • بخش 3 آموزش و اعتبارسنجی train and val part 3

  • موفقیت آموزش و اعتبارسنجی Train&Val successful

React، Flask، استنتاج احساسات Bert React, Flask, Bert Emotion Inference

  • دانلود مدل از پیش آموزش داده شده Bert و توکنایزر Pretrained Model Bert and Tokenizer download

  • کجا هستیم و به کجا باید برویم؟ Where we are and where we have to ??

  • راه اندازی پیش پردازش preprocessing setup

  • راه اندازی Model BackBone Model BackBone setup

  • بخش 1 استنتاج مدل Model Inference Part 1

  • بخش 2 استنتاج مدل Model Inference Part 2

ادغام سرور Flask با مدل از پیش آموزش داده شده Flask Server Integration with Model Pretrained

  • بخش 1 سرور Flask و استنتاج Flask Server & Inference Part 1

  • بخش 2 سرور Flask و استنتاج Flask Server & Inference Part 2

  • بخش 3 سرور Flask و استنتاج Flask Server & Inference Part 3

توسعه برنامه تحت وب React React Development Web App

  • آشنایی با React React Familiarity

  • نصب React React Installation

  • بخش 1 راه اندازی React React set up part 1

  • نصب موفقیت آمیز React react successful installation

  • کامپوننت اصلی React Main React Component

  • ارزیابی پیاده سازی Evaluate Implementation

  • کامپوننت تحلیل احساسات Emotion Analysis component

  • API مسیر بازخورد کاربر User FeedBackk Route API

  • API مسیر بازخورد غیر کاربر Non User Feedback Route API

  • بازگشت پیاده سازی تحلیل احساسات Emotion Analysis Implementation Return

  • پیاده سازی موفقیت آمیز دمو تحلیل احساسات Demo Emotion Analysis Successfully Implementated

پرسش و پاسخ React WEB و آنالیزگر PDF مبتنی بر LLM Transformer Question&Answering React WEB and LLM Transformer Based PDF Analizer

  • دموی Transformer-React Demo Transformer-React

  • کامپوننت پرسش و پاسخ React React Question Answer Component

  • کامپوننت 2 پرسش و پاسخ React React Question Answer Component 2

  • توضیح LLM Transformer LLM Transormer Explanation

  • پیاده سازی مبتنی بر مسیر Flask Flask Route Based Implementation

آموزش و دموی CPlus_Cplus TensorRT CPlus_Cplus TensorRT Tutorial & Demo

  • CPlus_Cplus TensorRT و Onnx با YoloV4 CPlus_Cplus TensorRT&Onnx With YoloV4

  • نحوه پیاده سازی Onnx Cplus_cplus با استنتاج YoloV5 How to implement Onnx Cplus_cplus with YoloV5 Inference

غوطه وری عمیق در هوش مصنوعی مولد و مدل های زبانی بزرگ قسمت 1 Deep Dive into Generative AI and Large Language Models PART 1

  • هوش مصنوعی مولد و LLM Generative AI & LLM

  • موارد استفاده و وظایف LLM LLM use cases and Tasks

  • تولید متن قبل از ترانسفورمرها Text generation before transformers

  • بخش 1 معماری ترانسفورمر Transformer Archiecture Part 1

  • بخش 2 معماری ترانسفورمر Transformer Archiecture Part 2

  • وظیفه ترجمه مبتنی بر ترانسفورمر Transform Based-Translation Task

  • ترانسفورمر-انکودر-دیکودر Transform-Encoder-Decoder

  • Prompt و مهندسی Prompt Prompt&Prompt Engineering

نتیجه گیری آزمایشگاه 1: غوطه وری عمیق در استنتاج Zero Shot، One Shot، Few Shots با LLM Conclude Lab 1: Deep Dive Into Zero Shot, One Shot, Few Shots Inference With LLM

  • آزمایشگاه 1: استنتاج Zero Shot، One Shot، Few Shots با LLM Lab 1: Zero Shot, One Shot, Few Shots Inference With LLM

  • علمی بخوانید و مطالعه کنید Read and Study Scientifically

نتیجه گیری آزمایشگاه 2: غوطه وری عمیق در نحوه بهینه سازی FINE TUNNING بر روی LLM Conclude Lab2: Deep Dive into How to FINE TUNNING Efficiently on LLM

  • جزئیات 1 LLM LAB_2 LLM LAB_2 Details 1

  • جزئیات 2 LLM LAB_2 LLM LAB_2 Details 2

  • جزئیات 3 LLM LAB_2 LLM LAB_2 Details 3

  • LLM-PEFT Hugging Face (آزمایشگاه 2) LLM-PEFT Hugging Face(LAB 2)

آزمایشگاه مدل های خود رگرسیو GPT2 GPT2-AutoRegressive Models Lab

  • تولید و تکمیل متن GPT2-Medium و Distel GPT2 GPT2-Medium&Distel GPT2 Text Generation-Completion

تنظیم دقیق GPT-DIALO و GPT 2 LAB SESSION برای حرفه پزشکی Fine tune GPT-DIALO AND GPT 2 LAB SESSION For DOCTOR Profession

  • تنظیم دقیق تولید متن End-TO-End GPT Distil AND GPT 2 LAB SESSION Fine tune GPT Distil AND GPT 2 LAB SESSION End-TO-End Text Generation

چگونه مدل های بزرگ LLM می توانند مدل های کوچک LLM را برای تنظیم دقیق آموزش دهند HOW LARGE LLM MODELS CAN TEACH SMALL LLM MODELS FOR FINE TUNING

  • مدل بزرگ به مدل های کوچک قسمت 1 آموزش می دهد Large Model teachs Small Models Part 1

  • مدل بزرگ به مدل های کوچک قسمت 2 آموزش می دهد Large Model teachs Small Models Part 2

  • مدل بزرگ به مدل های کوچک قسمت 3 آموزش می دهد Large Model teachs Small Models Part 3

  • به طور مستقل انجام دهید Do StandAlone

تکنیک های بهینه سازی LLM LLM Optimization Techniques

  • تکنیک های بهینه سازی LLM-تقطیر LLM Optimization Techniques-Distillation

  • تکنیک های بهینه سازی - کوانتیزه سازی پس از آموزش / LORA.mp4 Optimization Techniques-Post Training QUantization/LORA.mp4

  • تکنیک های بهینه سازی - تکنیک های هرس و طراحی چرخه عمر LLM با هدف. Optimization Techniques-Prune Techniques and Design LLM Life Cycle with target.

RAG با مدل های LLM ادغام سفارشی RAG WITH LLM MODELS CUSTOM INTEGRATION

  • مروری مختصر از RAG با LLM Brief Overview of RAG with LLM

  • دموی جلسه عملی آزمایشگاهی Practical LAB Session Demo

  • مشکلات LLM و معرفی RAG LLM Difficults & RAG Introduction

  • اصل مکانیسم RAG RAG Mechanis Principle

  • RAG سفارشی پزشکی خود را با Dialo GPT ایجاد کنید Create Your own Medical Custom RAG with Dialo GPT

بیایید با آزمایشگاه عملی به چارچوب پویا Pytorch بپردازیم Lets Dive Into Pytorch Dynamic Framework with Practical Lab

  • شیرجه در Pytorch API - آزمایشگاه عملی Dive in Pytorch API - Practical Lab

مهندسی Prompt ChatGPT برای توسعه دهندگان ChatGPT Prompt Engineering for Developers

  • مدل های ChatGPT ChatGPT Models

  • ترانسفورمرهای OpenAI ChatGPT - مهندسی Prompt OpenAI ChatGPT Transformers-Prompt Engineering

  • مهندسی Prompt - تاکتیک 1، تاکتیک 2، تاکتیک 3 Prompt Engineering - Tactic1, Tactic2, Tactic3

  • مهندسی Prompt تاکتیک 3 - استنتاج Few Shot Prompt Engineering Tactic3-Few Shot Inference

  • مهندسی Prompt تاکتیک 4 - مدل به خودی خود فکر می کند Prompt Engineering Tactic4-Model thinks on its own

  • نحوه استفاده صحیح از مدل های Chatgpt How to use Chatgpt Models Correctly

پارامترهای پیکربندی زمان اجرا پیشرفته هوش مصنوعی مولد Advance Generative AI Runtime-Configuration Parameters

  • هوش مصنوعی مولد - پارامتر استنتاج زمان اجرا Generative AI - Runtime Inference Parameter

  • هوش مصنوعی مولد - پارامترهای پیکربندی پیشرفته Generative AI - Advance Configuration Params

RAG مبتنی بر تولید متن پزشکی- Q&A نمایه Full Stack (به زودی...) RAG Based Medical-Text-Generation Q&A Profile Full Stack(Coming soon...)

  • توسعه دموی برنامه تحت وب سفارشی RAG-MEDICAL Develop Custom RAG-MEDICAL-WEB Application Demo

تنظیم دقیق مدل سفارشی LLM با الگوریتم های RLHF PPO (به زودی...) Fine tune Custom LLM Model with RLHF PPO Algorithms (Comin Soon...)

  • ربات چت تحت نظارت RLHF RLHF-SuperVised ChatBot

  • یادگیری تقویتی با PPO - شروع به سرگرمی! Reinforcement Learning with PPO-Start Entertaining!

چگونه ویرایش تصویر Snatpchat یا PhotoShop کار می کند؟ How Snatpchat or PhotoShop Image Editing Works??

  • ویرایش تصویر، برش، ادغام با LLM Image Editing, Cropping, Merging with LLM

  • بیایید با پروژه ها آشنا شویم Lets be Familiary with Projects

OpenAI Dall-E و Stable Diffusions OpenAI Dall-E and Stable Diffusions

  • شروع کنید! Start Up!

  • دمو Demo

  • چگونه prompt خلاقانه تر، تصویر خلاقانه تری ایجاد کنیم؟ How to create more Creative prompt, more creative Image?

  • چگونه و چه زمانی رقابت OpenAI و Midjourney how and when to OpenAI & Midjourney Competition

  • تمام مدل های Stable Diffusion All Stable Diffusion Models

  • بیایید مدل های Stable Diffusion را برای استفاده سفارشی خود سفارشی کنیم Lets customize Stable Diffusion Models for our custom use

نمونه اولیه CUSTOM خود را با مدل های Meta LLAMA3 توسعه دهید Develop your CUSTOM Prototype with Meta LLAMA3 Models

  • نمونه اولیه LLama 3.2 LLama 3.2 Prototype

به زودی: TensorRT LLM Coming SOON: TensorRT LLM

  • مروری بر TensorRT LLM TensorRT LLM Overview

نحوه استفاده از API پروژه های OpenAI به صورت عملی How to use OpenAI Projects API Practical

  • قسمت 1 پروژه های OpenAI OpenAI Projects Part 1

  • پروژه های OpenAi و دستورالعمل های مدل قسمت 2 OpenAi Projects & Model Instructions Part 2

  • پروژه های OpenAi و پاسخ مدل قسمت 3 OpenAi Projects & Model Response Part 3

مدل Nvidia Embedding با تنظیم دقیق نظارت شده و کوانتیزه سازی Lora Nvidia Embedding model with Supervised Fine tuning and Lora Quantization

  • قسمت 1 nvidia-embedding-finetunning nvidia-embedding-finetunning part 1

  • قسمت 2 nvidia-embedding-finetunning nvidia-embedding-finetunning part 2

  • قسمت 3 nvidia-embedding-finetunning nvidia-embedding-finetunning part 3

ارزیابی و قضاوت پیشرفته مدل زبانی بزرگ ADVANCE LARGE LANGUAGE MODEL EVALUATION AND JUDGEMENT

  • چه چیزی را در ارزیابی و آزمایش LLM تجربه خواهید کرد؟ What you will experience on LLM evaluation and testing?

  • متریک های ارزیابی LLM پیشرفته Advance LLM Evaluation metrics

  • متریک های ارزیابی LLM قسمت 2 LLM evaluation Metrices Part 2

  • قضاوت پیشرفته LLM قسمت 1 Advance LLM Judgement Part 1

  • قضاوت پیشرفته LLM قسمت 2 Advance LLM Judgement Part 2

بیایید انواع مختلف سیستم های RAG را کاوش و پیاده سازی کنیم LETS EXPLORE AND IMPLEMENT DIFFERENT TYPES OF RAG SYSTEMS

  • بیایید سیستم های RAG را کاوش کنیم قسمت 1 Lets Explore RAG systems Part 1

  • در بخش RAG چه خواهید دید؟ What you will see In RAG Section??

  • مکانیسم کارکرد RAGS سنتی Traditional RAGS Working Mechanism

  • مکانیسم Self-RAG چگونه کار می کند How works Self-RAG Mechanism

  • مکانیسم کارکرد RAG اصلاحی Corrective RAG working Mechanism

نمایش نظرات

آموزش تسلط بر هوش مصنوعی مولد و استقرار LLM
جزییات دوره
15 hours
142
Udemy (یودمی) Udemy (یودمی)
(آخرین آپدیت)
388
4.5 از 5
دارد
دارد
دارد
جهت دریافت آخرین اخبار و آپدیت ها در کانال تلگرام عضو شوید.

Google Chrome Browser

Internet Download Manager

Pot Player

Winrar

PhD Researcher AI   Robotics Scientist Fikrat Gasimov PhD Researcher AI Robotics Scientist Fikrat Gasimov

دکترای ارشد هوش مصنوعی و رباتیک دانشمند و نرم افزار جاسازی شده