لطفا جهت اطلاع از آخرین دوره ها و اخبار سایت در
کانال تلگرام
عضو شوید.
آموزش بازیابی پیشرفته نسل افزوده
دانلود Advanced Retrieval Augmented Generation
نکته:
آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
نمونه ویدیوها:
توضیحات دوره:
چگونه RAG پیشرفته را در عمل با ارزیابیها، الگوهای عامل و هوش مصنوعی تولیدی با LLM عملی کنیم، یاد میگیرید که چگونه با پیادهسازی خروجیهای ساختاریافته، acing، ذخیرهسازی و تلاش مجدد، استحکام تماسهای LLM خود را افزایش دهید. سیستم RAG شما، حتی اگر سیستم RAG شما هنوز کاربر نداشته باشد چگونه دادههای تولید شده اضافی را فیلتر کنیم چگونه با استفاده از پایتون ناهمزمان و کش کردن همه تماسهای LLM خود را سریعتر و ارزانتر کنیم چگونه با محدودیتهای نرخ OpenAI عقب نمانیم داکر را روی دستگاه خود نصب کنید دسترسی به یک لپ تاپ قدرتمند مدرن با پایتون نصب شده یا یک حساب Google Drive سابقه کار به عنوان مهندس نرم افزار، ترجیحاً بیش از دو سال حداقل برنامه نویسی پایتون متوسط یا توانایی یادگیری سریع آن (مثلاً: ارشدیت در دیگری زبان برنامه نویسی) مایل به صرف حدود ده دلار برای اجرای تماس های LLM (به صورت محلی یا از طریق OpenAI) دسترسی به نسخه حرفه ای ChatGPT (یا معادل آن) پایه علوم داده (دقت، یادآوری، پانداها) امکان اشکال زدایی توسط خودتان، به خصوص اشتباهات تایپی (ما از کد async استفاده خواهیم کرد، شما باید با خواندن ردیابی راحت باشید) شما می دانید RAG به چه معناست و قبلاً Basic یا Naive RAG را در یک آموزش پیاده سازی کرده اید، حداقل
Master Advanced Retrieval Augmented Generation (RAG) با Generative AI LLM
قدرت تکنیکهای پیشرفته RAG را برای سیستمهای هوش مصنوعی قوی، کارآمد و مقیاسپذیر باز کنید
نمای کلی دوره:
با این دوره جامع که به طور دقیق طراحی شده تا شما را با مهارتهای ارتقاء پیادهسازی مدل زبان بزرگ (LLM) خود، به دنیای پیشرفتهتر Retrieval Augmented Generation (RAG) شیرجه بزنید. چه به دنبال بهینهسازی تماسهای LLM خود، تولید مجموعه دادههای مصنوعی، یا غلبه بر چالشهای رایج مانند محدودیتهای نرخ و دادههای اضافی، این دوره شما را پوشش میدهد.
آنچه خواهید آموخت:
خروجی های ساخت یافته را برای افزایش استحکام تماس های LLM خود پیاده سازی کنید.
بر پایتون ناهمزمان مسلط شوید تا تماسهای LLM خود را سریعتر و مقرونبهصرفهتر کنید.
دادههای مصنوعی ایجاد کنید تا یک خط پایه قوی برای سیستم RAG خود ایجاد کنید، حتی بدون کاربران فعال.
برای بهبود کارایی سیستم، داده های اضافی تولید شده را فیلتر کنید.
با استفاده از مکانیسمهای کش، ردیابی و تلاش مجدد، بر محدودیتهای نرخ OpenAI غلبه کنید.
برای عملکرد بهینه، تکنیکهای ذخیره، ردیابی و تلاش مجدد را ترکیب کنید.
کلیدهای API خود را ایمن کنید و فرآیند توسعه خود را با استفاده از بهترین شیوه ها ساده کنید.
از الگوهای عاملی پیشرفته برای ساختن سیستمهای هوش مصنوعی انعطافپذیر و سازگار استفاده کنید.
محتوای دوره:
مقدمهای بر RAG و خروجیهای ساختاریافته: پایه محکمی در مفاهیم RAG به دست آورید و اهمیت خروجیهای ساختاریافته برای الگوهای عامل را بیاموزید.
راه اندازی و پیکربندی: راهنمایی گام به گام برای راه اندازی محیط توسعه خود با Docker، Python و ابزارهای ضروری.
حافظه پنهان اجرای ناهمزمان: یاد بگیرید که چندین تماس LLM را به طور همزمان اجرا کنید و استراتژیهای کش را برای صرفه جویی در زمان و منابع اجرا کنید.
تولید داده مصنوعی: مجموعه داده های مصنوعی با کیفیت بالا را برای شبیه سازی سناریوهای دنیای واقعی و اصلاح سیستم RAG خود ایجاد کنید.
عیبیابی پیشرفته: تکنیکهای اشکالزدایی را برای کدهای همگامسازی مسلط کنید و چالشهای پیچیدهای مانند محدودیتهای نرخ OpenAI را مدیریت کنید.
مورد نیاز:
یک لپتاپ مدرن با پایتون نصب شده یا دسترسی به Google Drive.
تجربه به عنوان مهندس نرم افزار (ترجیحاً 2 سال).
مهارت های برنامه نویسی پایتون متوسط یا توانایی یادگیری سریع.
درک پایه از علم داده (دقت، یادآوری، پانداها).
به نسخه حرفه ای ChatGPT یا ابزارهای LLM معادل آن دسترسی داشته باشید.
چه کسی باید ثبت نام کند:
مهندسین نرمافزار با تجربه در پیادهسازی پایه RAG که میخواهند مهارتهای خود را ارتقا دهند.
دانشمندان داده و متخصصان هوش مصنوعی به دنبال بهینه سازی سیستم های مبتنی بر LLM خود هستند.
توسعه دهندگان علاقه مند به تسلط بر آخرین تکنیک های RAG برای راه حل های هوش مصنوعی قوی و مقیاس پذیر.
امروز به این دوره بپیوندید و سیستم های هوش مصنوعی خود را با جدیدترین تکنیک های پیشرفته RAG متحول کنید!
سرفصل ها و درس ها
معرفی و راه اندازی
Introduction & Setup
مقدمه
Introduction
قبل از خرید: دوره تمام نشده است و هر هفته ویدیوهای جدید اضافه می شود
BEFORE YOU BUY: The course is not finished and new videos are added every weeks
نحوه پیگیری این دوره
How To Follow This Course
یک کلید OpenAI API ایجاد کنید
Create an OpenAI API Key
Vitual Env و Jupyter را راه اندازی کنید
Setup Vitual Env and Jupyter
Langfuse محلی را با Docker راه اندازی کنید
Setup local Langfuse with Docker
نحوه دریافت «.gitignore» پایتون برای ویدیوی بعدی
How to get the Python `.gitignore` for the next video
یک مخزن git برای کد خود راه اندازی کنید
Initialize a git repo for our code
بخش 1 - قوی تر کردن سیستم های مجهز به LLM
Section 1 - Making our LLM powered systems more Robust
ایمن کردن کلیدهای API ما با python-dotenv
Securing our API Keys with python-dotenv
تماس با OPENAI
Calling OPENAI
[اختیاری] تئوری: توکن ها چیست
[OPTIONAL] Theory : What are Tokens
[اختیاری] تئوری: LLM، مدل های دستور داده شده و الگوهای چت چیست
[OPTIONAL] Theory: What are LLM, Instructed Models and Chat Templates
از کد ناهمزمان برای اجرای همزمان چندین تماس OpenAI LLM استفاده کنید
Use asynchronous code to execute several OpenAI LLM calls concurrently
معرفی پنج مشکلی که باید حل کنیم تا برنامه های LLM خود را قوی تر کنیم
Introducing the five problems we need to solve to make our LLM apps more robust
ذخیره سازی (قسمت 1): نحوه کش کردن متغیرها روی دیسک
Caching (part 1): How to cache variables on disk
[CODE] کد منبع برای ذخیره تماس LLM
[CODE] Source Code for Caching LLM Call
[اختیاری] دایرکتوری کش در git را نادیده بگیرید
[Optional] Ignore cache directory in git
[اختیاری] عملکرد حافظه پنهان ما را با تکمیل خودکار کار کنید
[Optional] Make our cached function work with autocompletion
نحوه استفاده از Tracing برای بازرسی راحتتر سیستمها و ساخت مجموعه دادههای طلایی
How to use Tracing to inspect your systems more easily and build gold datatasets
ردیابی + ذخیره سازی
Tracing + Caching
چرا تلاش مجدد اهمیت دارد و چگونه آن را با Backoff Python Decorator پیاده سازی کنیم
Why Retrying matters and how to implement it with the Backoff Python Decorator
نحوه ترکیب Caching، Tracing و Retrying و نمایشی از RateLimiteErrors
How to combine Caching, Tracing and Retrying, and a demo of RateLimiteErrors
[نظریه اختیاری] چرا خروجی های ساختاریافته برای الگوهای عامل مهم هستند؟
[OPTIONAL THEORY] Why are Structured Outputs so important for Agentic Patterns
تماسهای «خروجیهای ساختاریافته» با ردیابی، تلاش مجدد و ذخیرهسازی
Robust "Structured Outputs" Calls with Tracing, Retrying and Caching
کد منبع برای "خروجی های ساختاریافته" قوی
Source Code for Robust "Structured Outputs"
[اختیاری] نتیجه بخش
[OPTIONAL] Section Conclusion
بخش 2 - اندازه گیری و بهبود عملکرد سیستم بازیابی
Section 2 - Measure and Improve Performance of the Retrieval System
بخش مقدمه - RAG چیست، Retrieval و برنامه در اینجا چیست
Section Introduction - What is RAG, Retrieval and what's the plan here
بخش 2 - قسمت 1 - [گام به گام] ایجاد مجموعه داده ارزیابی مصنوعی
Section 2 - Part 1 - [STEP BY STEP] Generating a Synthetic Evaluation Dataset
معرفی مجموعه داده و نحوه دانلود آن (در منابع سخنرانی موجود است)
Dataset Introduction & How to Download It (it's in the lecture's resources)
بارگیری مجموعه داده و بارگیری نوت بوک شروع در منابع
Loading the Dataset & Downloading the Starter Notebook In the Resources
چگونه یک مجموعه داده مصنوعی تولید کنیم؟
How are we going to generate a synthetic dataset
نحوه نوشتن و سپس تکرار در اولین پیش نویس یک درخواست
How to write and then iterate on the first draft of a prompt
از Jinja و dedent برای ایجاد Prompt Templating قوی و ساده استفاده کنید
Use Jinja and dedent to create robust and simple Prompt Templating
[تمرین اختیاری] پیش نویس درخواست اول را بهبود بخشید
[Optional Exercise] Improve the First Prompt Draft
برای بهبود کیفیت سوالات تولید شده ما، درخواست را بهبود بخشید
Improve the prompt to improve the quality of our generated questions
یک گردش کار دسته ای ایجاد کنید تا سریعتر تکرار شود
Create a batch workflow to iterate faster
بهبود درخواست مرحله تولید سؤال ارزیابی ما را به پایان برسانید
Finish improving the prompt for our evaluation question generation step
دستور را در برابر مجموعه داده کامل اجرا کنید و نوار پیشرفت را برای نظارت نمایش دهید
Run the prompt against the full dataset and display a progress bar to monitor
مقدمه: کپی برداری از داده های مصنوعی با جاسازی ها
Introduction : Deduplicating synthetic data with embeddings
مقدمهای بر جاسازیها (بردارهای معنایی) و نحوه استفاده برای کپی کردن
Introduction to Embeddings (Semantic Vectors) and how to use for deduplication
برقراری تماس های جاسازی قوی با OpenAI
Making Robust Embedding Calls to OpenAI
محاسبه شباهت کسینوس بین دو جاسازی
Computing Cosine Similarity between Two Embeddings
نوت بوک استارتر را دانلود کنید
Download The Starter Notebook
تعبیهها را برای هر سؤال محاسبه کنید
Compute Embeddings for Each Questions
با استفاده از Embedding، موارد تکراری احتمالی را تجزیه و تحلیل کنید
Analyze Likely Duplicates using Embedding
فهرست «سوالات بد» را تهیه کنید و شباهت کسینوس را برای هر سؤال محاسبه کنید
Prepare "bad questions" list and Compute Cosine Similarity for Each Question
برای طبقهبندی سؤالات تکراری از سؤالات تکراری احتمالی، درخواست را بنویسید
Write the prompt to classify duplicated questions from likely duplicates
اعلان "شناسایی تکراری" را اجرا کنید و موارد تکراری را حذف کنید
Run the "duplicate identification" prompt and eliminate duplicates
سوالات ایجاد شده را با استفاده از LLM و خروجی های ساخت یافته بهبود بخشید
Improve the generated questions using LLM and structured outputs
بخش 2 - قسمت 2 - اندازه گیری بهبود در عملکرد بازیابی
Section 2 - Part 2 - Measuring Improvements in Retrieval Performance
منابع این بخش را دانلود کنید
Download the Resources for This Section
راه اندازی
Setup
Lancedb را نصب کنید
Install Lancedb
ایجاد جدول LanceDB با جستجوی کامل متن (FTS)
Creating a LanceDB table with a Full-Text-Search (FTS)
مقدمه ای برای جستجوی متن کامل و نحوه پاکسازی پرس و جوهای اصطلاحی برای جستجوی متن کامل
Intro to Full Text Search and How to Sanitize Term Queries for Full Text Search
پایه FTS را ایجاد کنید
Establish FTS BASELINE
کتابخانه Reranker را برای اجرای مدل هایی مانند Cross Encoder و ColBERT نصب کنید
Install the Reranker Library to run models like Cross Encoder and ColBERT
اندازه گیری عملکرد بازیابی با FTS با یک مرحله رتبه بندی مجدد
Measure Retrieval Performance with FTS with a Reranking Step
نوت بوک شروع برای جستجوی برداری
Starter notebook for Vector Search
نتیجه گیری
Conclusion
قبل از خرید: دوره تمام نشده است و هر هفته ویدیوهای جدید اضافه می شود
BEFORE YOU BUY: The course is not finished and new videos are added every weeks
نمایش نظرات