آموزش معماری های هوش مصنوعی مولد با LLM، Prompt، RAG، Vector DB

دانلود Generative AI Architectures with LLM, Prompt, RAG, Vector DB

نکته: آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
نمونه ویدیوها:
توضیحات دوره: طراحی و ادغام S/LLM های مجهز به هوش مصنوعی در برنامه های سازمانی با استفاده از مهندسی سریع، RAG، تنظیم دقیق و DB های برداری. تولید متن، خلاصه سازی، پرسش و پاسخ، طبقه بندی، تجزیه و تحلیل احساسات، جاسازی جستجوی معنایی تولید متن با ChatGPT: درک قابلیت ها و محدودیت های فراخوانی عملکرد LLM (دستی) و خروجی های ساختاریافته در مدل های زبان بزرگ (LLM) ارائه دهندگان LLM: OpenAI، Meta Hugging، Microsoft، Anthropic، ، مدل های گوگل و میسترال AI LLM: مدل های OpenAI ChatGPT، Meta Llama، Anthropic Claude، Google Gemini، Mistral Mixral، xAI Grok SLM: OpenAI ChatGPT 4o mini، Meta Llama 3.2 mini، Google Gemma، Microsoft Phi 3.5 نحوه انتخاب مدل های LLM: کیفیت، سرعت، قیمت، Lat پنجره زمینه تعامل با LLM های مختلف با چت رابط کاربری: ChatGPT، LLama، Mixtral، Phi3 نصب و اجرای مدل‌های Llama و Gemma با استفاده از Ollama مدرن‌سازی برنامه‌های سازمانی با قابلیت‌های LLM مجهز به هوش مصنوعی طراحی «برنامه پشتیبانی EShop» با قابلیت‌های LLM مجهز به هوش مصنوعی Ze-ro-shot پیشرفته: شات، چند شات، طراحی COT درخواست‌های پیشرفته برای صفحه جزئیات بلیط در برنامه پشتیبانی EShop با چت پرسش و پاسخ و RAG معماری RAG: جذب با جاسازی‌ها و جستجوی برداری گردش کار E2E یک نسل افزایش‌یافته بازیابی (RAG) - جریان کار RAG End-to-End RAG مثال برای EShop پشتیبانی مشتری با استفاده از روش‌های تنظیم دقیق OpenAI Playground: کامل، تنظیم دقیق پارامترهای کارآمد (PEFT)، LoRA، Transfer End-to-End Fine-Tuning a LLM for EShop Customer Support with OpenAI Playground انتخاب بهینه سازی مناسب – مهندسی سریع، RAG و تنظیم دقیق پیش نیازها: مبانی نرم افزار معماری ها

در این دوره آموزشی، نحوه طراحی معماری‌های هوش مصنوعی مولد با ادغام S/LLM‌های مبتنی بر هوش مصنوعی در برنامه‌های سازمانی پشتیبانی EShop با استفاده از مهندسی سریع، RAG، تنظیم دقیق و DBهای برداری را خواهید آموخت.

ما معماری های هوش مصنوعی مولد را با اجزای زیر طراحی خواهیم کرد؛

  1. مدل‌های زبانی کوچک و بزرگ (S/LLM)

  2. مهندسی سریع

  3. بازیابی نسل افزوده (RAG)

  4. تنظیم دقیق

  5. پایگاه داده برداری

ما با اصول اولیه شروع می کنیم و به تدریج در هر موضوع عمیق تر می شویم. ما همچنین از LLM Augmentation Flow یک چارچوب قدرتمند است که نتایج LLM را پس از Prompt Engineering، RAG و Fine-Tuning تقویت می‌کند.

ماژول مدل های زبان بزرگ (LLMs).

  • مدل‌های زبان بزرگ (LLM) چگونه کار می‌کنند؟

  • قابلیت‌های LLM: تولید متن، خلاصه‌سازی، پرسش پاسخ، طبقه‌بندی، تحلیل احساسات، جاسازی جستجوی معنایی، تولید کد

  • تولید متن با ChatGPT: درک قابلیت ها و محدودیت های LLM (دستی)

  • فراخوانی تابع و خروجی ساختاریافته در مدل‌های زبان بزرگ (LLM)

  • مدل‌های LLM: OpenAI ChatGPT، Meta Llama، Anthropic Claude، Google Gemini، Mistral Mixral، xAI Grok

  • مدل‌های SLM: OpenAI ChatGPT 4o mini، Meta Llama 3.2 mini، Google Gemma، Microsoft Phi 3.5

  • تعامل با LLM های مختلف با رابط کاربری چت: ChatGPT، LLama، Mixtral، Phi3

  • تعامل نقطه پایانی تکمیل گپ OpenAI با کدگذاری

  • نصب و اجرای مدل های Llama و Gemma با استفاده از Ollama برای اجرای LLM به صورت محلی

  • مدرن سازی و طراحی برنامه های سازمانی پشتیبانی EShop با قابلیت های LLM مبتنی بر هوش مصنوعی

ماژول مهندسی سریع.

  • مراحل طراحی اعلان‌های مؤثر: تکرار، ارزیابی و الگوسازی

  • تکنیک‌های پیشنهادی پیشرفته: شات صفر، یک شلیک، چند تیر، زنجیره‌ای از فکر، دستورالعمل و مبتنی بر نقش

  • طراحی درخواست‌های پیشرفته برای پشتیبانی EShop - طبقه‌بندی، تجزیه و تحلیل احساسات، خلاصه‌سازی، QA Chat و تولید متن پاسخ

  • طراحی درخواست‌های پیشرفته برای صفحه جزئیات بلیط در برنامه پشتیبانی EShop با چت و RAG

ماژول Retrieval-Augmented Generation (RAG).

  • معماری RAG قسمت 1: جذب با جاسازی‌ها و جستجوی برداری

  • معماری RAG قسمت 2: بازیابی با رتبه‌بندی مجدد و درخواست‌های متن

  • معماری RAG قسمت 3: تولید با ژنراتور و خروجی

  • جریان کاری E2E یک نسل افزوده شده بازیابی (RAG) - گردش کار RAG

  • پشتیبانی مشتری EShop را با استفاده از RAG طراحی کنید

  • نمونه RAG سرتاسری برای پشتیبانی مشتری EShop با استفاده از OpenAI Playground

ماژول تنظیم دقیق.

  • تنظیم دقیق گردش کار

  • روش‌های تنظیم دقیق: تنظیم دقیق کامل، کارآمد پارامتر (PEFT)، LoRA، انتقال

  • پشتیبانی مشتری EShop را با استفاده از تنظیم دقیق طراحی کنید

  • تنظیم دقیق یک LLM برای پشتیبانی مشتری EShop با استفاده از OpenAI Playground

در آخر،

را مورد بحث قرار خواهیم داد
  • انتخاب بهینه سازی مناسب – مهندسی سریع، RAG و تنظیم دقیق

این دوره فراتر از یادگیری هوش مصنوعی مولد است، این دوره به دنیای طراحی راه‌حل‌های هوش مصنوعی پیشرفته با ادغام معماری‌های LLM در برنامه‌های کاربردی سازمانی می‌پردازد.

در طراحی یک برنامه کامل پشتیبانی مشتری EShop، از جمله قابلیت‌های LLM مانند خلاصه‌سازی، QA، طبقه‌بندی، تجزیه و تحلیل احساسات، جاسازی جستجوی معنایی، تولید کد، تجربه عملی خواهید داشت.


سرفصل ها و درس ها

مقدمه Introduction

  • مقدمه Introduction

  • ابزارها و منابع دوره - اسلایدهای دوره Tools and Resources for the Course - Course Slides

  • پروژه دوره: پشتیبانی مشتری EShop با قابلیت‌های مبتنی بر هوش مصنوعی با استفاده از LLM Course Project: EShop Customer Support with AI-Powered Capabilities using LLMs

هوش مصنوعی مولد چیست؟ What is Generative AI ?

  • تکامل هوش مصنوعی: هوش مصنوعی، یادگیری ماشینی، یادگیری عمیق و هوش مصنوعی مولد Evolution of AI: AI, Machine Learning, Deep Learning and Generative AI

  • هوش مصنوعی مولد چیست؟ What is Generative AI ?

  • هوش مصنوعی مولد چگونه کار می کند؟ How Generative AI works ?

  • معماری مدل های هوش مصنوعی (انواع مدل های هوش مصنوعی مولد) Generative AI Model Architectures (Types of Generative AI Models)

  • معماری ترانسفورماتور: توجه تنها چیزی است که نیاز دارید Transformer Architecture: Attention is All you Need

مدل های زبان بزرگ (LLM) چیست؟ What are Large Language Models (LLMs) ?

  • مدل های زبان بزرگ (LLM) چیست؟ What are Large Language Models (LLMs) ?

  • مدل های زبان بزرگ (LLM) چگونه کار می کنند؟ How Large Language Models (LLMs) works?

  • Token And Tokenization چیست؟ What is Token And Tokenization ?

  • چگونه LLM ها از توکن ها استفاده می کنند How LLMs Use Tokens

  • قابلیت های LLM: تولید متن، خلاصه سازی، پرسش و پاسخ، طبقه بندی Capabilities of LLMs: Text Generation, Summarization, Q&A, Classification

  • موارد استفاده LLM و برنامه های کاربردی در دنیای واقعی LLM Use Cases and Real-World Applications

  • محدودیت‌های مدل‌های زبان بزرگ (LLM) Limitations of Large Language Models (LLMs)

  • تولید متن با ChatGPT: درک قابلیت ها و محدودیت های LLM Generate Text with ChatGPT: Understand Capabilities and Limitations of LLMs

  • تنظیمات LLM: دما، حداکثر توکن، توالی توقف، بالا P، جریمه فرکانس LLM Settings: Temperature, Max Tokens, Stop sequences, Top P, Frequency Penalty

  • فراخوانی تابع در مدل های زبان بزرگ (LLM) Function Calling in Large Language Models (LLMs)

  • خروجی ساختاریافته در مدل های زبان بزرگ (LLM) Structured Output in Large Language Models (LLMs)

  • مدل های زبان کوچک (SLM) چیست؟ موارد استفاده/چگونه/چرا/چه زمانی What are Small Language Models (SLMs) ? Use Cases / How / Why / When

  • آزمون LLM LLM Quiz

کاوش و اجرای LLM های مختلف با HuggingFace و Olama Exploring and Running Different LLMs w/ HuggingFace and Ollama

  • ارائه دهندگان LLM: OpenAI، Meta AI، Anthropic، Hugging Face، Microsoft، Google LLM Providers: OpenAI, Meta AI, Anthropic, Hugging Face, Microsoft, Google

  • مدل های LLM: OpenAI ChatGPT، Meta Llama، Anthropic Claude، Google Gemini، Mistral LLM Models: OpenAI ChatGPT, Meta Llama, Anthropic Claude, Google Gemini, Mistral

  • مدل‌های SLM: OpenAI ChatGPT 4o mini، Meta Llama 3.2 mini، Gemma، Phi-3 SLM Models: OpenAI ChatGPT 4o mini, Meta Llama 3.2 mini, Gemma, Phi-3

  • نحوه انتخاب مدل های LLM: کیفیت، سرعت، قیمت، تاخیر و پنجره زمینه How to Choose LLM Models: Quality, Speed, Price, Latency and Context Window

  • متن باز در مقابل مدل های اختصاصی Open Source vs Proprietary Models

  • Hagging Face - GitHub مدل های یادگیری ماشین Hugging Face - The GitHub of Machine Learning Models

  • انواع تعامل LLM: بدون کد (ChatUI) یا با کد (کلیدهای API) LLM Interaction Types: No-Code (ChatUI) or With-Code (API Keys)

  • تعامل LLM های مختلف با رابط کاربری چت: ChatGPT، LLama، Mixtral، Phi3 Interacting Different LLMs with Chat UI: ChatGPT, LLama, Mixtral, Phi3

  • تعامل نقطه پایانی تکمیل گپ OpenAI با کدگذاری Interacting OpenAI Chat Completions Endpoint with Coding

  • اولاما - LLMs را به صورت محلی اجرا کنید Ollama – Run LLMs Locally

  • نصب و اجرای مدل های Llama و Gemma با استفاده از Ollama Installing and Running Llama and Gemma Models Using Ollama

  • ادغام اولاما با استفاده از هسته معنایی و سی شارپ با کدگذاری Ollama integration using Semantic Kernel and C# with coding

  • مدرن کردن برنامه‌های سازمانی با قابلیت‌های LLM مجهز به هوش مصنوعی Modernizing Enterprise Apps with AI-Powered LLM Capabilities

  • طراحی «برنامه پشتیبانی EShop» با قابلیت‌های LLM مجهز به هوش مصنوعی Designing the 'EShop Support App' with AI-Powered LLM Capabilities

  • LLMs Augmentation Flow: Prompt Engineering -> RAG -> Fine Tunning -> Trained LLMs Augmentation Flow: Prompt Engineering -> RAG -> Fine tunning -> Trained

مهندسی سریع Prompt Engineering

  • Prompt چیست؟ What is Prompt ?

  • عناصر و نقش های یک اعلان Elements and Roles of a Prompt

  • مهندسی سریع چیست؟ What is Prompt Engineering ?

  • مراحل طراحی اعلان های موثر: تکرار، ارزیابی و الگوسازی Steps of Designing Effective Prompts: Iterate, Evaluate and Templatize

  • تکنیک های پیشرفته اعلان Advanced Prompting Techniques

  • درخواست صفر شات Zero-Shot Prompting

  • درخواست تک شات One-shot Prompting

  • چند شات تحریک Few-shot Prompting

  • تحریک زنجیره ای از فکر Chain-of-Thought Prompting

  • اعلان مبتنی بر دستورالعمل و نقش محور Instruction-based and Role-based Prompting

  • درخواست‌های پیشرفته برای پشتیبانی EShop طراحی کنید - طبقه‌بندی، تجزیه و تحلیل احساسات Design Advanced Prompts for EShop Support – Classification, Sentiment Analysis

  • درخواست‌های پیشرفته برای صفحه جزئیات بلیط را در برنامه پشتیبانی EShop با چت پرسش و پاسخ طراحی کنید Design Advanced Prompts for Ticket Detail Page in EShop Support App w/ Q&A Chat

  • درخواست‌های تست برای بلیط مشتری پشتیبانی Eshop با زمین بازی Test Prompts for Eshop Support Customer Ticket w/ Playground

  • آزمون مهندسی سریع Prompt Engineering Quiz

Retrieval-Augmented Generation (RAG) Retrieval-Augmented Generation (RAG)

  • Retrieval-Augmented Generation (RAG) چیست؟ What is Retrieval-Augmented Generation (RAG) ?

  • چرا به نسل افزوده بازیابی (RAG) نیاز داریم؟ چرا RAG مهم است؟ Why Need Retrieval-Augmented Generation (RAG) ? Why is RAG Important?

  • چگونه Retrieval-Augmented Generation (RAG) کار می کند؟ How Does Retrieval-Augmented Generation (RAG) Work?

  • The RAG Architecture Part 1: Ingestion with Embeddings and Vector Search The RAG Architecture Part 1: Ingestion with Embeddings and Vector Search

  • The RAG Architecture Part 2: Retrieval with Reranking and Context Query Prompts The RAG Architecture Part 2: Retrieval with Reranking and Context Query Prompts

  • معماری RAG قسمت 3: تولید با ژنراتور و خروجی The RAG Architecture Part 3: Generation with Generator and Output

  • گردش کار E2E یک نسل افزایش یافته بازیابی (RAG) - گردش کار RAG E2E Workflow of a Retrieval-Augmented Generation (RAG) - The RAG Workflow

  • کاربردها موارد استفاده از RAG Applications Use Cases of RAG

  • چالش ها و ملاحظات کلیدی استفاده از RAG -- Retrieval-Augmented Generation Challenges and Key Considerations of Using RAG -- Retrieval-Augmented Generation

  • پشتیبانی مشتری EShop را با استفاده از RAG طراحی کنید Design EShop Customer Support using RAG

  • مثال RAG سرتاسری برای پشتیبانی مشتری EShop با استفاده از OpenAI Playground End-to-End RAG Example for EShop Customer Support using OpenAI Playground

  • مسابقه RAG RAG Quiz

Fine-Tuning LLMs Fine-Tuning LLMs

  • تنظیم دقیق چیست؟ What is Fine-Tuning ?

  • چرا به تنظیم دقیق نیاز داریم؟ Why Need Fine-Tuning ?

  • چه زمانی از Fine-Tuning استفاده کنیم؟ When to Use Fine-Tuning ?

  • تنظیم دقیق چگونه کار می کند؟ How Does Fine-Tuning Work?

  • روش‌های تنظیم دقیق: تنظیم دقیق کامل، کارآمد پارامتر (PEFT)، LoRA Fine-Tuning Methods: Full, Parameter-Efficient Fine-Tuning (PEFT), LoRA

  • کاربردها و موارد استفاده از تنظیم دقیق Applications & Use Cases of Fine-Tuning

  • چالش ها و ملاحظات کلیدی تنظیم دقیق Challenges and Key Considerations of Fine-Tuning

  • طراحی پشتیبانی مشتری EShop با استفاده از Fine-Tuning Design EShop Customer Support Using Fine-Tuning

  • تنظیم دقیق یک LLM برای پشتیبانی مشتری EShop با استفاده از OpenAI Playground End-to-End Fine-Tuning a LLM for EShop Customer Support using OpenAI Playground

  • مسابقه تنظیم دقیق Fine-Tuning Quiz

انتخاب بهینه سازی مناسب – مهندسی سریع، RAG و تنظیم دقیق Choosing the Right Optimization – Prompt Engineering, RAG, and Fine-Tuning

  • مقایسه مهندسی سریع، RAG و Fine-Tuning Comparison of Prompt Engineering, RAG, and Fine-Tuning

  • انتخاب بهینه سازی مناسب – مهندسی سریع، RAG و تنظیم دقیق Choosing the Right Optimization – Prompt Engineering, RAG, and Fine-Tuning

  • آموزش مدل خود برای بهینه سازی LLM Training Own Model for LLM Optimization

  • با تشکر Thanks

نمایش نظرات

آموزش معماری های هوش مصنوعی مولد با LLM، Prompt، RAG، Vector DB
جزییات دوره
5.5 hours
72
Udemy (یودمی) Udemy (یودمی)
(آخرین آپدیت)
399
4.6 از 5
دارد
دارد
دارد
Mehmet Ozkaya
جهت دریافت آخرین اخبار و آپدیت ها در کانال تلگرام عضو شوید.

Google Chrome Browser

Internet Download Manager

Pot Player

Winrar

Mehmet Ozkaya Mehmet Ozkaya

معمار نرم افزار | میکروسرویس | AWS Community Builder