لطفا جهت اطلاع از آخرین دوره ها و اخبار سایت در
کانال تلگرام
عضو شوید.
آموزش معماری های هوش مصنوعی مولد با LLM، Prompt، RAG، Vector DB
دانلود Generative AI Architectures with LLM, Prompt, RAG, Vector DB
نکته:
آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
نمونه ویدیوها:
توضیحات دوره:
طراحی و ادغام S/LLM های مجهز به هوش مصنوعی در برنامه های سازمانی با استفاده از مهندسی سریع، RAG، تنظیم دقیق و DB های برداری. تولید متن، خلاصه سازی، پرسش و پاسخ، طبقه بندی، تجزیه و تحلیل احساسات، جاسازی جستجوی معنایی تولید متن با ChatGPT: درک قابلیت ها و محدودیت های فراخوانی عملکرد LLM (دستی) و خروجی های ساختاریافته در مدل های زبان بزرگ (LLM) ارائه دهندگان LLM: OpenAI، Meta Hugging، Microsoft، Anthropic، ، مدل های گوگل و میسترال AI LLM: مدل های OpenAI ChatGPT، Meta Llama، Anthropic Claude، Google Gemini، Mistral Mixral، xAI Grok SLM: OpenAI ChatGPT 4o mini، Meta Llama 3.2 mini، Google Gemma، Microsoft Phi 3.5 نحوه انتخاب مدل های LLM: کیفیت، سرعت، قیمت، Lat پنجره زمینه تعامل با LLM های مختلف با چت رابط کاربری: ChatGPT، LLama، Mixtral، Phi3 نصب و اجرای مدلهای Llama و Gemma با استفاده از Ollama مدرنسازی برنامههای سازمانی با قابلیتهای LLM مجهز به هوش مصنوعی طراحی «برنامه پشتیبانی EShop» با قابلیتهای LLM مجهز به هوش مصنوعی Ze-ro-shot پیشرفته: شات، چند شات، طراحی COT درخواستهای پیشرفته برای صفحه جزئیات بلیط در برنامه پشتیبانی EShop با چت پرسش و پاسخ و RAG معماری RAG: جذب با جاسازیها و جستجوی برداری گردش کار E2E یک نسل افزایشیافته بازیابی (RAG) - جریان کار RAG End-to-End RAG مثال برای EShop پشتیبانی مشتری با استفاده از روشهای تنظیم دقیق OpenAI Playground: کامل، تنظیم دقیق پارامترهای کارآمد (PEFT)، LoRA، Transfer End-to-End Fine-Tuning a LLM for EShop Customer Support with OpenAI Playground انتخاب بهینه سازی مناسب – مهندسی سریع، RAG و تنظیم دقیق پیش نیازها: مبانی نرم افزار معماری ها
در این دوره آموزشی، نحوه طراحی معماریهای هوش مصنوعی مولد با ادغام S/LLMهای مبتنی بر هوش مصنوعی در برنامههای سازمانی پشتیبانی EShop با استفاده از مهندسی سریع، RAG، تنظیم دقیق و DBهای برداری را خواهید آموخت.
ما معماری های هوش مصنوعی مولد را با اجزای زیر طراحی خواهیم کرد؛
مدلهای زبانی کوچک و بزرگ (S/LLM)
مهندسی سریع
بازیابی نسل افزوده (RAG)
تنظیم دقیق
پایگاه داده برداری
ما با اصول اولیه شروع می کنیم و به تدریج در هر موضوع عمیق تر می شویم. ما همچنین از LLM Augmentation Flow یک چارچوب قدرتمند است که نتایج LLM را پس از Prompt Engineering، RAG و Fine-Tuning تقویت میکند.
ماژول مدل های زبان بزرگ (LLMs).
مدلهای زبان بزرگ (LLM) چگونه کار میکنند؟
قابلیتهای LLM: تولید متن، خلاصهسازی، پرسش پاسخ، طبقهبندی، تحلیل احساسات، جاسازی جستجوی معنایی، تولید کد
تولید متن با ChatGPT: درک قابلیت ها و محدودیت های LLM (دستی)
فراخوانی تابع و خروجی ساختاریافته در مدلهای زبان بزرگ (LLM)
مدلهای LLM: OpenAI ChatGPT، Meta Llama، Anthropic Claude، Google Gemini، Mistral Mixral، xAI Grok
مدلهای SLM: OpenAI ChatGPT 4o mini، Meta Llama 3.2 mini، Google Gemma، Microsoft Phi 3.5
تعامل با LLM های مختلف با رابط کاربری چت: ChatGPT، LLama، Mixtral، Phi3
تعامل نقطه پایانی تکمیل گپ OpenAI با کدگذاری
نصب و اجرای مدل های Llama و Gemma با استفاده از Ollama برای اجرای LLM به صورت محلی
مدرن سازی و طراحی برنامه های سازمانی پشتیبانی EShop با قابلیت های LLM مبتنی بر هوش مصنوعی
ماژول مهندسی سریع.
مراحل طراحی اعلانهای مؤثر: تکرار، ارزیابی و الگوسازی
تکنیکهای پیشنهادی پیشرفته: شات صفر، یک شلیک، چند تیر، زنجیرهای از فکر، دستورالعمل و مبتنی بر نقش
طراحی درخواستهای پیشرفته برای پشتیبانی EShop - طبقهبندی، تجزیه و تحلیل احساسات، خلاصهسازی، QA Chat و تولید متن پاسخ
طراحی درخواستهای پیشرفته برای صفحه جزئیات بلیط در برنامه پشتیبانی EShop با چت و RAG
ماژول Retrieval-Augmented Generation (RAG).
معماری RAG قسمت 1: جذب با جاسازیها و جستجوی برداری
معماری RAG قسمت 2: بازیابی با رتبهبندی مجدد و درخواستهای متن
معماری RAG قسمت 3: تولید با ژنراتور و خروجی
جریان کاری E2E یک نسل افزوده شده بازیابی (RAG) - گردش کار RAG
پشتیبانی مشتری EShop را با استفاده از RAG طراحی کنید
نمونه RAG سرتاسری برای پشتیبانی مشتری EShop با استفاده از OpenAI Playground
پشتیبانی مشتری EShop را با استفاده از تنظیم دقیق طراحی کنید
تنظیم دقیق یک LLM برای پشتیبانی مشتری EShop با استفاده از OpenAI Playground
در آخر،
را مورد بحث قرار خواهیم داد
انتخاب بهینه سازی مناسب – مهندسی سریع، RAG و تنظیم دقیق
این دوره فراتر از یادگیری هوش مصنوعی مولد است، این دوره به دنیای طراحی راهحلهای هوش مصنوعی پیشرفته با ادغام معماریهای LLM در برنامههای کاربردی سازمانی میپردازد.
در طراحی یک برنامه کامل پشتیبانی مشتری EShop، از جمله قابلیتهای LLM مانند خلاصهسازی، QA، طبقهبندی، تجزیه و تحلیل احساسات، جاسازی جستجوی معنایی، تولید کد، تجربه عملی خواهید داشت.
سرفصل ها و درس ها
مقدمه
Introduction
مقدمه
Introduction
ابزارها و منابع دوره - اسلایدهای دوره
Tools and Resources for the Course - Course Slides
پروژه دوره: پشتیبانی مشتری EShop با قابلیتهای مبتنی بر هوش مصنوعی با استفاده از LLM
Course Project: EShop Customer Support with AI-Powered Capabilities using LLMs
هوش مصنوعی مولد چیست؟
What is Generative AI ?
تکامل هوش مصنوعی: هوش مصنوعی، یادگیری ماشینی، یادگیری عمیق و هوش مصنوعی مولد
Evolution of AI: AI, Machine Learning, Deep Learning and Generative AI
هوش مصنوعی مولد چیست؟
What is Generative AI ?
هوش مصنوعی مولد چگونه کار می کند؟
How Generative AI works ?
معماری مدل های هوش مصنوعی (انواع مدل های هوش مصنوعی مولد)
Generative AI Model Architectures (Types of Generative AI Models)
معماری ترانسفورماتور: توجه تنها چیزی است که نیاز دارید
Transformer Architecture: Attention is All you Need
مدل های زبان بزرگ (LLM) چیست؟
What are Large Language Models (LLMs) ?
مدل های زبان بزرگ (LLM) چیست؟
What are Large Language Models (LLMs) ?
مدل های زبان بزرگ (LLM) چگونه کار می کنند؟
How Large Language Models (LLMs) works?
Token And Tokenization چیست؟
What is Token And Tokenization ?
چگونه LLM ها از توکن ها استفاده می کنند
How LLMs Use Tokens
قابلیت های LLM: تولید متن، خلاصه سازی، پرسش و پاسخ، طبقه بندی
Capabilities of LLMs: Text Generation, Summarization, Q&A, Classification
موارد استفاده LLM و برنامه های کاربردی در دنیای واقعی
LLM Use Cases and Real-World Applications
محدودیتهای مدلهای زبان بزرگ (LLM)
Limitations of Large Language Models (LLMs)
تولید متن با ChatGPT: درک قابلیت ها و محدودیت های LLM
Generate Text with ChatGPT: Understand Capabilities and Limitations of LLMs
تنظیمات LLM: دما، حداکثر توکن، توالی توقف، بالا P، جریمه فرکانس
LLM Settings: Temperature, Max Tokens, Stop sequences, Top P, Frequency Penalty
فراخوانی تابع در مدل های زبان بزرگ (LLM)
Function Calling in Large Language Models (LLMs)
خروجی ساختاریافته در مدل های زبان بزرگ (LLM)
Structured Output in Large Language Models (LLMs)
مدل های زبان کوچک (SLM) چیست؟ موارد استفاده/چگونه/چرا/چه زمانی
What are Small Language Models (SLMs) ? Use Cases / How / Why / When
آزمون LLM
LLM Quiz
کاوش و اجرای LLM های مختلف با HuggingFace و Olama
Exploring and Running Different LLMs w/ HuggingFace and Ollama
ارائه دهندگان LLM: OpenAI، Meta AI، Anthropic، Hugging Face، Microsoft، Google
LLM Providers: OpenAI, Meta AI, Anthropic, Hugging Face, Microsoft, Google
مدل های LLM: OpenAI ChatGPT، Meta Llama، Anthropic Claude، Google Gemini، Mistral
LLM Models: OpenAI ChatGPT, Meta Llama, Anthropic Claude, Google Gemini, Mistral
اعلان مبتنی بر دستورالعمل و نقش محور
Instruction-based and Role-based Prompting
درخواستهای پیشرفته برای پشتیبانی EShop طراحی کنید - طبقهبندی، تجزیه و تحلیل احساسات
Design Advanced Prompts for EShop Support – Classification, Sentiment Analysis
درخواستهای پیشرفته برای صفحه جزئیات بلیط را در برنامه پشتیبانی EShop با چت پرسش و پاسخ طراحی کنید
Design Advanced Prompts for Ticket Detail Page in EShop Support App w/ Q&A Chat
درخواستهای تست برای بلیط مشتری پشتیبانی Eshop با زمین بازی
Test Prompts for Eshop Support Customer Ticket w/ Playground
Retrieval-Augmented Generation (RAG) چیست؟
What is Retrieval-Augmented Generation (RAG) ?
چرا به نسل افزوده بازیابی (RAG) نیاز داریم؟ چرا RAG مهم است؟
Why Need Retrieval-Augmented Generation (RAG) ? Why is RAG Important?
چگونه Retrieval-Augmented Generation (RAG) کار می کند؟
How Does Retrieval-Augmented Generation (RAG) Work?
The RAG Architecture Part 1: Ingestion with Embeddings and Vector Search
The RAG Architecture Part 1: Ingestion with Embeddings and Vector Search
The RAG Architecture Part 2: Retrieval with Reranking and Context Query Prompts
The RAG Architecture Part 2: Retrieval with Reranking and Context Query Prompts
معماری RAG قسمت 3: تولید با ژنراتور و خروجی
The RAG Architecture Part 3: Generation with Generator and Output
گردش کار E2E یک نسل افزایش یافته بازیابی (RAG) - گردش کار RAG
E2E Workflow of a Retrieval-Augmented Generation (RAG) - The RAG Workflow
کاربردها موارد استفاده از RAG
Applications Use Cases of RAG
چالش ها و ملاحظات کلیدی استفاده از RAG -- Retrieval-Augmented Generation
Challenges and Key Considerations of Using RAG -- Retrieval-Augmented Generation
پشتیبانی مشتری EShop را با استفاده از RAG طراحی کنید
Design EShop Customer Support using RAG
مثال RAG سرتاسری برای پشتیبانی مشتری EShop با استفاده از OpenAI Playground
End-to-End RAG Example for EShop Customer Support using OpenAI Playground
مسابقه RAG
RAG Quiz
Fine-Tuning LLMs
Fine-Tuning LLMs
تنظیم دقیق چیست؟
What is Fine-Tuning ?
چرا به تنظیم دقیق نیاز داریم؟
Why Need Fine-Tuning ?
چه زمانی از Fine-Tuning استفاده کنیم؟
When to Use Fine-Tuning ?
تنظیم دقیق چگونه کار می کند؟
How Does Fine-Tuning Work?
کاربردها و موارد استفاده از تنظیم دقیق
Applications & Use Cases of Fine-Tuning
چالش ها و ملاحظات کلیدی تنظیم دقیق
Challenges and Key Considerations of Fine-Tuning
طراحی پشتیبانی مشتری EShop با استفاده از Fine-Tuning
Design EShop Customer Support Using Fine-Tuning
تنظیم دقیق یک LLM برای پشتیبانی مشتری EShop با استفاده از OpenAI Playground
End-to-End Fine-Tuning a LLM for EShop Customer Support using OpenAI Playground
مسابقه تنظیم دقیق
Fine-Tuning Quiz
انتخاب بهینه سازی مناسب – مهندسی سریع، RAG و تنظیم دقیق
Choosing the Right Optimization – Prompt Engineering, RAG, and Fine-Tuning
مقایسه مهندسی سریع، RAG و Fine-Tuning
Comparison of Prompt Engineering, RAG, and Fine-Tuning
انتخاب بهینه سازی مناسب – مهندسی سریع، RAG و تنظیم دقیق
Choosing the Right Optimization – Prompt Engineering, RAG, and Fine-Tuning
آموزش مدل خود برای بهینه سازی LLM
Training Own Model for LLM Optimization
نمایش نظرات