مهندسی LLM: استاد هوش مصنوعی و مدل‌های زبان بزرگ (LLM)

LLM Engineering: Master AI & Large Language Models (LLMs)

نکته: آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
نمونه ویدیوها:
توضیحات دوره: در 8 هفته مهندس LLM شوید: 8 برنامه LLM را بسازید و به کار بگیرید، بر هوش مصنوعی مولد و مفاهیم کلیدی نظری مسلط شوید. پروژه 1: تولید کننده بروشور مبتنی بر هوش مصنوعی را بسازید که وب سایت های شرکت را به طور هوشمند خراش داده و پیمایش می کند. پروژه 2: ایجاد عامل پشتیبانی مشتری چند وجهی برای یک شرکت هواپیمایی با رابط کاربری و فراخوانی عملکرد. پروژه 3: ابزاری را توسعه دهید که با استفاده از هر دو مدل منبع باز و بسته، دقیقه جلسه و موارد اقدام را از صدا ایجاد می کند. پروژه 4: ساخت AI که کد پایتون را به C++ بهینه تبدیل می کند و عملکرد را 60000 برابر افزایش می دهد! پروژه 5: ایجاد کارگر دانش AI با استفاده از RAG برای تبدیل شدن به یک متخصص در همه امور مربوط به شرکت. پروژه 6: Capstone قسمت A – پیش بینی قیمت محصول از توضیحات کوتاه با استفاده از مدل های Frontier. پروژه 7: Capstone Part B – مدل منبع باز Fine-tuneв را برای رقابت با Frontier در پیش بینی قیمت اجرا کنید. پروژه 8: Capstone قسمت C - ساخت سیستم چند عامله مستقل با همکاری مدل ها برای شناسایی معاملات و اطلاع شما از معاملات ویژه. با انتخاب، آموزش و استفاده از LLM راه حل کاملی برای یک مشکل تجاری معین طراحی و توسعه دهید. آخرین تکنیک ها برای بهبود عملکرد راه حل LLM خود را مقایسه و مقایسه کنید، مانند RAG، تنظیم دقیق و جریان های کاری عاملی، 10 مرز پیشرو را وزن کنید و 10 LLM منبع باز، و قادر به انتخاب بهترین انتخاب برای یک کار معین، مشکلات را با استفاده از پلتفرم‌ها، چارچوب‌ها و ابزارهای منبع باز برجسته، از جمله Hugging Face، Gradio و Weights & Biases حل کنید، پارادایم‌های رایج هوش مصنوعی را بیان کنید و انواع مشکلات تجاری که برای هر کدام مناسب‌تر هستند مفاهیم بنیادی علم داده را در مورد یادگیری عمیق تعریف کنید، از جمله آموزش در مقابل استنتاج، تعمیم در مقابل بیش‌برازش، و ایده‌های کلیدی پشت NN مفاهیم اصلی مانند هوش مصنوعی مولد، LLMs و معماری ترانسفورماتور را شرح دهید، و درباره چه چیزی بحث کنید. را می توان با عملکرد پیشرفته به دست آورد توضیح دهید که چگونه LLM ها با جزئیات کافی کار می کنند تا بتوان آنها را آموزش و آزمایش کرد، آنها را در سناریوهای جدید اعمال کرد، و مشکلات رایج را تشخیص داد و رفع کرد پیاده سازی راه حل های LLM در پایتون با استفاده از مرز و باز مدل های منبع با هر دو API و استنتاج مستقیم کد را برای نوشتن اسناد، پاسخ به سؤالات و تولید تصاویر اجرا کنید. پیش نیازها: آشنایی با پایتون. این دوره اصول اولیه پایتون را پوشش نخواهد داد و در پایتون تکمیل شده است.

تسلط بر هوش مصنوعی و LLMهای مولد: یک سفر 8 هفته ای عملی


با پروژه‌های عملی و واقعی به رهبری کهنه‌کار صنعت، Ed Donner، به شغل خود در هوش مصنوعی سرعت بخشید. محصولات پیشرفته مولد هوش مصنوعی بسازید، با بیش از 20 مدل پیشگامانه آزمایش کنید و بر تکنیک های پیشرفته مانند RAG، QLoRA و Agents مسلط شوید.


آنچه خواهید آموخت


• محصولات پیشرفته هوش مصنوعی مولد را با استفاده از مدل‌ها و چارچوب‌های پیشرفته بسازید.

• با بیش از 20 مدل پیشگامانه هوش مصنوعی، از جمله مدل های Frontier و Open-Source، آزمایش کنید.

• با پلتفرم هایی مانند HuggingFace، LangChain، و Gradio مهارت داشته باشید.

• تکنیک های پیشرفته مانند RAG (بازیابی-نسل تقویت شده)، تنظیم دقیق QLoRA، و عامل ها را اجرا کنید.

• برنامه های کاربردی هوش مصنوعی در دنیای واقعی ایجاد کنید، از جمله:

• دستیار پشتیبانی مشتری چند وجهی که با متن، صدا و تصاویر تعامل دارد.

• کارمند دانش هوش مصنوعی که می‌تواند به هر سؤالی درباره یک شرکت بر اساس درایو مشترک آن پاسخ دهد.

• یک برنامه نویس هوش مصنوعی که نرم افزار را بهینه می کند و به بهبود عملکرد بیش از 60000 برابر دست می یابد.

• یک برنامه تجارت الکترونیک که قیمت محصولات دیده نشده را به دقت پیش بینی می کند.

• انتقال از استنتاج به آموزش، تنظیم دقیق هر دو مدل Frontier و Open-Source.

• محصولات هوش مصنوعی را با رابط‌های کاربر صیقلی و قابلیت‌های پیشرفته به تولید بکار ببرید.

• مهارت های مهندسی هوش مصنوعی و LLM خود را ارتقا دهید تا در خط مقدم صنعت باشید.

درباره مربی


من اد دانر هستم، یک کارآفرین و رهبر در هوش مصنوعی و فناوری با بیش از 20 سال تجربه. من یک استارتاپ هوش مصنوعی خودم را تأسیس کردم و فروختم، استارت‌آپ دومی را راه‌اندازی کردم و تیم‌هایی را در موسسات مالی و استارت‌آپ‌های سطح بالا در سراسر جهان رهبری کردم. من مشتاق وارد کردن دیگران به این زمینه هیجان انگیز و کمک به آنها برای تبدیل شدن به متخصصان در خط مقدم این صنعت هستم.


پروژه ها:

پروژه 1 : تولید کننده بروشور مبتنی بر هوش مصنوعی که وب سایت های شرکت را به طور هوشمند خراش می دهد و پیمایش می کند.

پروژه 2: نماینده پشتیبانی مشتری چند وجهی برای یک شرکت هواپیمایی با رابط کاربری و فراخوانی عملکرد.

پروژه 3: ابزاری که با استفاده از هر دو مدل منبع باز و بسته، صورتجلسات جلسه و موارد اقدام را از صدا ایجاد می کند.

پروژه 4: هوش مصنوعی که کد پایتون را به C++ بهینه تبدیل می‌کند و عملکرد را تا 60000 برابر افزایش می‌دهد!

پروژه 5: کارمند دانش AI با استفاده از RAG برای تبدیل شدن به یک متخصص در همه امور مربوط به شرکت.

پروژه 6: Capstone قسمت A - قیمت محصول را از توضیحات کوتاه با استفاده از مدل های Frontier پیش بینی کنید.

پروژه 7: Capstone Part B - مدل منبع باز تنظیم شده برای رقابت با Frontier در پیش بینی قیمت.

پروژه 8: Capstone قسمت C - سیستم عامل مستقل که با مدل ها همکاری می کند تا معاملات را مشخص کند و شما را از معاملات ویژه مطلع کند.


چرا این دوره؟


• آموزش عملی: بهترین راه برای یادگیری انجام دادن است. شما در تمرین‌های عملی شرکت خواهید کرد، برنامه‌های کاربردی هوش مصنوعی در دنیای واقعی می‌سازید که نتایج خیره‌کننده‌ای ارائه می‌دهند.

• تکنیک‌های پیشرفته: با یادگیری جدیدترین چارچوب‌ها و تکنیک‌ها، از جمله RAG، QLoRA و Agents، از منحنی‌ها جلوتر بمانید.

• محتوای قابل دسترس: برای زبان آموزان در همه سطوح طراحی شده است. دستورالعمل‌های گام به گام، تمرین‌های عملی، برگه‌های تقلب و منابع فراوان ارائه شده است.

• بدون نیاز به ریاضی پیشرفته: این دوره بر کاربرد عملی تمرکز دارد. برای تسلط بر مهندسی LLM به حساب دیفرانسیل و انتگرال یا جبر خطی نیاز نیست.


ساختار دوره


هفته 1: مبانی و اولین پروژه ها


• به اصول ترانسفورماتورها بپردازید.

• شش مدل پیشرو مرزی را آزمایش کنید.

• اولین محصول هوش مصنوعی Genel تجاری خود را بسازید که وب را خراش می دهد، تصمیم می گیرد و بروشورهای فروش قالب بندی شده ایجاد می کند.


هفته 2: APIهای مرزی و ربات‌های چت خدمات مشتری


• APIهای Frontier را کاوش کنید و با سه مدل پیشرو تعامل داشته باشید.

• یک ربات چت خدمات مشتری با رابط کاربری واضح ایجاد کنید که می تواند با متن، تصاویر، صدا تعامل داشته باشد و از ابزارها یا عوامل استفاده کند.


هفته 3: استقبال از مدل های منبع باز


• با استفاده از HuggingFace، دنیای مدل‌های منبع باز را کشف کنید.

• با 10 مورد رایج استفاده از هوش مصنوعی نسل جدید، از ترجمه تا تولید تصویر مقابله کنید.

• محصولی بسازید تا صورتجلسات جلسه و موارد اقدام را از ضبط‌ها ایجاد کنید.


هفته 4: انتخاب LLM و تولید کد


• تفاوت‌های بین LLM و نحوه انتخاب بهترین آنها را برای کارهای تجاری خود بدانید.

• از LLMها برای تولید کد و ساخت محصولی استفاده کنید که کد را از پایتون به ++C ترجمه می‌کند و عملکردی را بیش از 60000 بار بهبود می‌بخشد.


هفته 5: نسل افزوده شده بازیابی (RAG)


• Master RAG برای بهبود دقت راه حل های خود.

• با جاسازی‌های برداری ماهر شوید و بردارها را در ذخیره‌سازی داده‌های برداری منبع باز محبوب کاوش کنید.

• یک راه حل تجاری کامل مشابه محصولات واقعی موجود در بازار امروز بسازید.


هفته 6: انتقال به آموزش


• حرکت از استنتاج به آموزش.

• یک مدل Frontier را برای حل یک مشکل تجاری واقعی تنظیم کنید.

• مدل تخصصی خود را بسازید، که نقطه عطف مهمی را در سفر هوش مصنوعی شما رقم می زند.


هفته 7: تکنیک های آموزشی پیشرفته


• در تکنیک های آموزشی پیشرفته مانند تنظیم دقیق QLoRA شیرجه بزنید.

• یک مدل منبع باز آموزش دهید تا از مدل های Frontier برای کارهای خاص بهتر عمل کند.

• با پروژه های چالش برانگیز که مهارت های شما را به سطح بالاتری می برد مقابله کنید.


هفته 8: استقرار و نهایی سازی


• محصول تجاری خود را با رابط کاربری صیقلی برای تولید به کار ببرید.

• افزایش قابلیت ها با استفاده از Agents.

• اولین مدل LLM تولید شده، نمایندگی شده و دقیق تنظیم شده خود را تحویل دهید.

• تسلط خود را در مهندسی هوش مصنوعی و LLM جشن بگیرید و برای مرحله جدیدی در حرفه خود آماده باشید.


سرفصل ها و درس ها

هفته 1 - اولین محصول LLM خود را بسازید: کاوش در مدل های مرزی و ترانسفورماتورها Week 1 - Build Your First LLM Product: Exploring Frontier Models & Transformers

  • روز اول - تسلط بر مهندسی LLM: از اصول اولیه تا عملکرد بهتر از GPT-4 در 8 هفته Day 1 - Mastering LLM Engineering: From Basics to Outperforming GPT-4 in 8 Weeks

  • روز 1 - شروع به کار با هوش مصنوعی مولد: مراحل اولیه در راه اندازی پروژه LLM Day 1 - Getting Started with Generative AI: First Steps in LLM Project Setup

  • تمام مطالب کلاس اینجا هست All materials for the class are here

  • روز اول - ایجاد خلاصه‌کننده صفحه وب با OpenAI GPT-4: رضایت فوری Day 1 - Building a Web Page Summarizer with OpenAI GPT-4: Instant Gratification

  • روز اول - تسلط بر OpenAI API: برای مدل های مرزی در هوش مصنوعی مولد کد بنویسید Day 1 - Mastering OpenAI API: Write Code for Frontier Models in Generative AI

  • روز 2 - ساختار دوره آموزشی هوش مصنوعی: 8 هفته تا تسلط LLM Day 2 - Generative AI Course Structure: 8 Weeks to LLM Mastery

  • روز 2 - کاوش در Frontier LLM: ChatGPT، Claude، Gemini و موارد دیگر Day 2 - Exploring Frontier LLMs: ChatGPT, Claude, Gemini and more

  • روز 3 - Frontier LLM: بررسی نقاط قوت و ضعف مدل‌های هوش مصنوعی نسل برتر Day 3 - Frontier LLMs: Exploring Strengths and Weaknesses of Top Gen AI Models

  • روز 3 - ChatGPT در مقابل سایر LLM ها: نقاط قوت، نقاط ضعف، و مدل های مکمل Day 3 - ChatGPT vs Other LLMs: Strengths, Weaknesses, and Complementary Models

  • روز 3 - کلود هوش مصنوعی: بررسی قابلیت ها و محدودیت های مدل مرزی Day 3 - Claude AI: Exploring Capabilities and Limitations of the Frontier Model

  • روز 3 - مقایسه هوش مصنوعی Gemini با سایر مدل های مرزی: نقاط قوت و محدودیت ها Day 3 - Comparing Gemini AI to Other Frontier Models: Strengths and Limitations

  • روز 3 - مقایسه Frontier LLM: Command-R Plus، Meta AI و مدل های هوش مصنوعی Perplexity Day 3 - Comparing Frontier LLMs: Command-R Plus, Meta AI, & Perplexity AI Models

  • روز سوم - مقایسه مدل‌های برتر هوش مصنوعی: GPT-4، کلود، و جمینی در نبرد رهبری Day 3 - Comparing Top AI Models: GPT-4, Claude, and Gemini in Leadership Battle

  • روز 4 - نبرد رهبری هوش مصنوعی: تجزیه و تحلیل زمین های GPT-4، Claude-3 و Gemini-1.5 Day 4 - AI Leadership Battle: Analyzing GPT-4, Claude-3, and Gemini-1.5 Pitches

  • روز چهارم - پیشرفت‌های هوش مصنوعی: مدل‌های ترانسفورماتور و هوش اضطراری Day 4 - Gen AI Breakthroughs: Transformer Models & Emergent Intelligence

  • روز 4 - توکن سازی در LLM: چگونه GPT متن را برای وظایف زبان طبیعی پردازش می کند Day 4 - Tokenization in LLMs: How GPT Processes Text for Natural Language Tasks

  • روز 4 - درک زمینه ویندوز: به حداکثر رساندن عملکرد و حافظه LLM Day 4 - Understanding Context Windows: Maximizing LLM Performance and Memory

  • روز 5 - اجرای یک شات اعلان با OpenAI برای برنامه های تجاری Day 5 - Implementing One-Shot Prompting with OpenAI for Business Applications

  • روز پنجم - نحوه استفاده از GPT-4 برای نسل JSON در پایتون: Web Scraping با هوش مصنوعی Day 5 - How to Use GPT-4 for JSON Generation in Python: AI-Powered Web Scraping

  • روز پنجم - ساختن یک راه حل کامل تجاری با هوش مصنوعی مولد و API OpenAI Day 5 - Building a Full Business Solution with Generative AI and OpenAI's API

  • روز پنجم - توسعه هوش مصنوعی: تکنیک‌های چندشاخه و ترجمه Day 5 - Extending Gen AI: Multi-Shot Prompting & Translation Techniques

هفته 2 - ساخت یک چت ربات چند وجهی: LLMs، Gradio UI، و Agents in Action Week 2 - Build a Multi-Modal Chatbot: LLMs, Gradio UI, and Agents in Action

  • روز اول - تسلط بر چندین API AI: OpenAI، Claude، و Gemini برای مهندسین LLM Day 1 - Mastering Multiple AI APIs: OpenAI, Claude, and Gemini for LLM Engineers

  • روز 1 - استریم پاسخ های هوش مصنوعی: پیاده سازی خروجی بلادرنگ LLM در پایتون Day 1 - Streaming AI Responses: Implementing Real-Time LLM Output in Python

  • روز 1 - نحوه ایجاد مکالمات AI دشمن با استفاده از OpenAI و Claude API Day 1 - How to Create Adversarial AI Conversations Using OpenAI and Claude APIs

  • روز اول - ابزارهای هوش مصنوعی: کاوش در Transformers & Frontier LLM برای توسعه دهندگان Day 1 - AI Tools: Exploring Transformers & Frontier LLMs for Developers

  • روز دوم - ایجاد رابط‌های هوش مصنوعی با Gradio: نمونه‌سازی سریع برای مهندسان LLM Day 2 - Building AI UIs with Gradio: Quick Prototyping for LLM Engineers

  • روز 2 - آموزش Gradio: ایجاد رابط های هوش مصنوعی تعاملی برای مدل های OpenAI GPT Day 2 - Gradio Tutorial: Create Interactive AI Interfaces for OpenAI GPT Models

  • روز 2 - اجرای پاسخ های جریانی با GPT و Claude در Gradio UI Day 2 - Implementing Streaming Responses with GPT and Claude in Gradio UI

  • روز 2 - ساخت یک رابط چت هوش مصنوعی چند مدل با Gradio: GPT در مقابل کلود Day 2 - Building a Multi-Model AI Chat Interface with Gradio: GPT vs Claude

  • روز دوم - ایجاد رابط‌های هوش مصنوعی پیشرفته: از OpenAI API تا رابط‌های چت با Gradio Day 2 - Building Advanced AI UIs: From OpenAI API to Chat Interfaces with Gradio

  • روز 3 - ساخت ربات‌های چت هوش مصنوعی: تسلط بر Gradio برای دستیاران پشتیبانی مشتری Day 3 - Building AI Chatbots: Mastering Gradio for Customer Support Assistants

  • روز 3 - ساخت ربات گفتگوی هوش مصنوعی با OpenAI و Gradio: گام به گام Day 3 - Build a Conversational AI Chatbot with OpenAI & Gradio: Step-by-Step

  • روز 3 - تقویت چت بات ها با درخواست چند شات و غنی سازی زمینه Day 3 - Enhancing Chatbots with Multi-Shot Prompting and Context Enrichment

  • روز 3 - تسلط بر ابزارهای هوش مصنوعی: توانمندسازی LLM ها برای اجرای کد روی دستگاه شما Day 3 - Mastering AI Tools: Empowering LLMs to Run Code on Your Machine

  • روز چهارم - استفاده از ابزارهای هوش مصنوعی با LLM: افزایش قابلیت‌های مدل زبانی بزرگ Day 4 - Using AI Tools with LLMs: Enhancing Large Language Model Capabilities

  • روز چهارم - ساخت دستیار خط هوایی هوش مصنوعی: پیاده سازی ابزارها با OpenAI GPT-4 Day 4 - Building an AI Airline Assistant: Implementing Tools with OpenAI GPT-4

  • روز چهارم - نحوه تجهیز LLM با ابزارهای سفارشی: آموزش فراخوانی تابع OpenAI Day 4 - How to Equip LLMs with Custom Tools: OpenAI Function Calling Tutorial

  • روز 4 - تسلط بر ابزارهای هوش مصنوعی: ساخت دستیاران پیشرفته مجهز به LLM با API Day 4 - Mastering AI Tools: Building Advanced LLM-Powered Assistants with APIs

  • روز پنجم - دستیاران هوش مصنوعی چندوجهی: یکپارچه سازی تولید تصویر و صدا Day 5 - Multimodal AI Assistants: Integrating Image and Sound Generation

  • روز پنجم - هوش مصنوعی چندوجهی: ادغام تولید تصویر DALL-E 3 در JupyterLab Day 5 - Multimodal AI: Integrating DALL-E 3 Image Generation in JupyterLab

  • روز پنجم - ساخت یک عامل هوش مصنوعی چندوجهی: یکپارچه سازی ابزارهای صوتی و تصویری Day 5 - Build a Multimodal AI Agent: Integrating Audio & Image Tools

  • روز پنجم - نحوه ساخت دستیار هوش مصنوعی چندوجهی: یکپارچه سازی ابزارها و عوامل Day 5 - How to Build a Multimodal AI Assistant: Integrating Tools and Agents

هفته 3 - AI ژن منبع باز: ایجاد راه حل های خودکار با HuggingFace Week 3 - Open-Source Gen AI: Building Automated Solutions with HuggingFace

  • روز اول - آموزش چهره در آغوش گرفتن: کاوش مدل‌ها و مجموعه داده‌های AI منبع باز Day 1 - Hugging Face Tutorial: Exploring Open-Source AI Models and Datasets

  • روز اول - کاوش HuggingFace Hub: مدل‌ها، مجموعه داده‌ها و فضاها برای توسعه‌دهندگان هوش مصنوعی Day 1 - Exploring HuggingFace Hub: Models, Datasets & Spaces for AI Developers

  • روز اول - معرفی Google Colab: نوت‌بوک‌های Cloud Jupyter برای یادگیری ماشین Day 1 - Intro to Google Colab: Cloud Jupyter Notebooks for Machine Learning

  • روز اول - ادغام صورت در آغوش گرفتن با Google Colab: رازها و تنظیم کلیدهای API Day 1 - Hugging Face Integration with Google Colab: Secrets and API Keys Setup

  • روز اول - تسلط بر Google Colab: مدل‌های AI منبع باز را با صورت در آغوش بگیرید Day 1 - Mastering Google Colab: Run Open-Source AI Models with Hugging Face

  • روز دوم - ترانسفورماتورهای صورت در آغوش گرفتن: استفاده از خطوط لوله برای وظایف هوش مصنوعی در پایتون Day 2 - Hugging Face Transformers: Using Pipelines for AI Tasks in Python

  • روز 2 - خطوط لوله در آغوش گرفتن صورت: ساده کردن وظایف هوش مصنوعی با کتابخانه ترانسفورماتور Day 2 - Hugging Face Pipelines: Simplifying AI Tasks with Transformers Library

  • روز 2 - تسلط بر خطوط لوله HuggingFace: استنتاج کارآمد هوش مصنوعی برای وظایف ML Day 2 - Mastering HuggingFace Pipelines: Efficient AI Inference for ML Tasks

  • روز 3 - کاوش توکن سازها در هوش مصنوعی منبع باز: Llama، Phi-2، Qwen و Starcoder Day 3 - Exploring Tokenizers in Open-Source AI: Llama, Phi-2, Qwen, & Starcoder

  • روز 3 - تکنیک های توکن سازی در هوش مصنوعی: استفاده از AutoTokenizer با مدل LLAMA 3.1 Day 3 - Tokenization Techniques in AI: Using AutoTokenizer with LLAMA 3.1 Model

  • روز 3 - مقایسه توکن سازها: Llama، PHI-3، و QWEN2 برای مدل‌های AI منبع باز Day 3 - Comparing Tokenizers: Llama, PHI-3, and QWEN2 for Open-Source AI Models

  • روز 3 - توکن سازهای صورت در آغوش گرفتن: آماده شدن برای تولید متن پیشرفته با هوش مصنوعی Day 3 - Hugging Face Tokenizers: Preparing for Advanced AI Text Generation

  • روز 4 - کلاس مدل چهره در آغوش: استنتاج در حال اجرا بر روی مدل‌های AI منبع باز Day 4 - Hugging Face Model Class: Running Inference on Open-Source AI Models

  • روز 4 - ترانسفورماتورهای صورت در آغوش گرفتن: بارگیری و کوانتیزه کردن LLM ها با بیت و بایت Day 4 - Hugging Face Transformers: Loading & Quantizing LLMs with Bits & Bytes

  • روز چهارم - ترانسفورماتورهای صورت در آغوش گرفتن: ایجاد جوک با مدل‌های هوش مصنوعی منبع باز Day 4 - Hugging Face Transformers: Generating Jokes with Open-Source AI Models

  • روز چهارم - تسلط بر ترانسفورماتورهای صورت در آغوش گرفته: مدل ها، خطوط لوله و توکن سازها Day 4 - Mastering Hugging Face Transformers: Models, Pipelines, and Tokenizers

  • روز پنجم - ترکیب مدل های مرزی و منبع باز برای خلاصه سازی صدا به متن Day 5 - Combining Frontier & Open-Source Models for Audio-to-Text Summarization

  • روز پنجم - استفاده از Hugging Face و OpenAI برای تولید دقیقه جلسه با هوش مصنوعی Day 5 - Using Hugging Face & OpenAI for AI-Powered Meeting Minutes Generation

  • روز پنجم - ساخت یک تولیدکننده داده آزمایشی مصنوعی: مدل AI منبع باز برای تجارت Day 5 - Build a Synthetic Test Data Generator: Open-Source AI Model for Business

هفته 4 - مسابقه LLM: ارزیابی مدل ها برای تولید کد و وظایف تجاری Week 4 - LLM Showdown: Evaluating Models for Code Generation & Business Tasks

  • روز 1 - نحوه انتخاب LLM مناسب: مقایسه مدل های منبع باز و بسته Day 1 - How to Choose the Right LLM: Comparing Open and Closed Source Models

  • روز 1 - قانون پوسته پوسته شدن چینچیلا: بهینه سازی پارامترهای LLM و اندازه داده های آموزشی Day 1 - Chinchilla Scaling Law: Optimizing LLM Parameters and Training Data Size

  • روز 1 - محدودیت های معیارهای LLM: بیش از حد برازش و نشت داده های آموزشی Day 1 - Limitations of LLM Benchmarks: Overfitting and Training Data Leakage

  • روز اول - ارزیابی مدل‌های زبان بزرگ: 6 معیار سطح بعدی رونمایی شد Day 1 - Evaluating Large Language Models: 6 Next-Level Benchmarks Unveiled

  • روز اول - HuggingFace OpenLLM Leaderboard: مقایسه مدل های زبان منبع باز Day 1 - HuggingFace OpenLLM Leaderboard: Comparing Open-Source Language Models

  • روز اول - تابلوهای برتر کارشناسی ارشد LLM: مقایسه مدل های منبع باز و متن بسته Day 1 - Master LLM Leaderboards: Comparing Open Source and Closed Source Models

  • روز 2 - مقایسه LLM ها: 6 رتبه برتر برای ارزیابی مدل های زبان Day 2 - Comparing LLMs: Top 6 Leaderboards for Evaluating Language Models

  • روز 2 - تابلوهای امتیازات تخصصی LLM: یافتن بهترین مدل برای مورد استفاده شما Day 2 - Specialized LLM Leaderboards: Finding the Best Model for Your Use Case

  • روز 2 - LLAMA در مقابل GPT-4: مقایسه مدل‌های زبان بزرگ برای تولید کد Day 2 - LLAMA vs GPT-4: Benchmarking Large Language Models for Code Generation

  • روز 2 - مدل‌های زبان رتبه‌بندی شده توسط انسان: آشنایی با عرصه چت‌بات LM Sys Day 2 - Human-Rated Language Models: Understanding the LM Sys Chatbot Arena

  • روز دوم - کاربردهای تجاری مدل های زبان بزرگ: از قانون تا آموزش Day 2 - Commercial Applications of Large Language Models: From Law to Education

  • روز 2 - مقایسه LLMهای مرزی و منبع باز برای پروژه های تبدیل کد Day 2 - Comparing Frontier and Open-Source LLMs for Code Conversion Projects

  • روز 3 - استفاده از مدل های مرزی برای تولید کد با کارایی بالا در C++ Day 3 - Leveraging Frontier Models for High-Performance Code Generation in C++

  • روز 3 - مقایسه LLM های برتر برای تولید کد: GPT-4 در مقابل غزل کلود 3.5 Day 3 - Comparing Top LLMs for Code Generation: GPT-4 vs Claude 3.5 Sonnet

  • روز 3 - بهینه سازی کد پایتون با مدل های زبان بزرگ: GPT-4 در مقابل Claude 3.5 Day 3 - Optimizing Python Code with Large Language Models: GPT-4 vs Claude 3.5

  • روز 3 - مشکلات تولید کد: زمانی که مدل های زبان بزرگ خطا تولید می کنند Day 3 - Code Generation Pitfalls: When Large Language Models Produce Errors

  • روز سوم - تولید کدهای سریع: چگونه کلود 13000 برابر پایتون را بهتر کرد Day 3 - Blazing Fast Code Generation: How Claude Outperforms Python by 13,000x

  • روز 3 - ساخت یک رابط کاربری Gradio برای تولید کد با مدل های زبان بزرگ Day 3 - Building a Gradio UI for Code Generation with Large Language Models

  • روز سوم - بهینه سازی تولید کد C++: مقایسه عملکرد GPT و کلود Day 3 - Optimizing C++ Code Generation: Comparing GPT and Claude Performance

  • روز 3 - مقایسه GPT-4 و Claude برای تولید کد: معیارهای عملکرد Day 3 - Comparing GPT-4 and Claude for Code Generation: Performance Benchmarks

  • روز 4 - LLMهای منبع باز برای تولید کد: نقاط پایانی صورت در آغوش گرفته شد Day 4 - Open Source LLMs for Code Generation: Hugging Face Endpoints Explored

  • روز 4 - نحوه استفاده از نقاط پایانی استنتاج HuggingFace برای مدل های تولید کد Day 4 - How to Use HuggingFace Inference Endpoints for Code Generation Models

  • روز 4 - یکپارچه سازی مدل های منبع باز با Frontier LLM برای تولید کد Day 4 - Integrating Open-Source Models with Frontier LLMs for Code Generation

  • روز 4 - مقایسه تولید کد: GPT-4، کلود و CodeQuen LLM Day 4 - Comparing Code Generation: GPT-4, Claude, and CodeQuen LLMs

  • روز چهارم - تسلط بر تولید کد با LLM: تکنیک ها و انتخاب مدل Day 4 - Mastering Code Generation with LLMs: Techniques and Model Selection

  • روز پنجم - ارزیابی عملکرد LLM: معیارهای مدل محور در مقابل معیارهای کسب و کار Day 5 - Evaluating LLM Performance: Model-Centric vs Business-Centric Metrics

  • روز پنجم - تسلط بر تولید کد LLM: چالش های پیشرفته برای توسعه دهندگان پایتون Day 5 - Mastering LLM Code Generation: Advanced Challenges for Python Developers

تسلط بر RAG: ساخت راه حل های پیشرفته با جاسازی های برداری و LangChain Mastering RAG: Build Advanced Solutions with Vector Embeddings & LangChain

  • روز 1 - اصول RAG: استفاده از داده های خارجی برای بهبود پاسخ های LLM Day 1 - RAG Fundamentals: Leveraging External Data to Improve LLM Responses

  • روز 1 - ساختن یک سیستم RAG DIY: پیاده سازی نسل افزوده بازیابی Day 1 - Building a DIY RAG System: Implementing Retrieval-Augmented Generation

  • روز 1 - درک جاسازی های برداری: کلید بازیابی RAG و LLM Day 1 - Understanding Vector Embeddings: The Key to RAG and LLM Retrieval

  • روز دوم - رونمایی LangChain: پیاده سازی RAG را برای برنامه های LLM ساده کنید Day 2 - Unveiling LangChain: Simplify RAG Implementation for LLM Applications

  • روز 2 - آموزش تقسیم متن LangChain: بهینه سازی تکه ها برای سیستم های RAG Day 2 - LangChain Text Splitter Tutorial: Optimizing Chunks for RAG Systems

  • روز 2 - آماده سازی برای پایگاه های داده برداری: جاسازی های OpenAI و Chroma در RAG Day 2 - Preparing for Vector Databases: OpenAI Embeddings and Chroma in RAG

  • روز 3 - تسلط بر جاسازی‌های برداری: OpenAI و Chroma برای مهندسی LLM Day 3 - Mastering Vector Embeddings: OpenAI and Chroma for LLM Engineering

  • روز 3 - تجسم جاسازی ها: کاوش فضای چند بعدی با t-SNE Day 3 - Visualizing Embeddings: Exploring Multi-Dimensional Space with t-SNE

  • روز 3 - ساخت خطوط لوله RAG: از بردارها تا جاسازی ها با LangChain Day 3 - Building RAG Pipelines: From Vectors to Embeddings with LangChain

  • روز 4 - پیاده سازی خط لوله RAG: LLM، Retriever و Memory در LangChain Day 4 - Implementing RAG Pipeline: LLM, Retriever, and Memory in LangChain

  • روز 4 - تسلط بر نسل افزوده بازیابی: ادغام دستی LLM Day 4 - Mastering Retrieval-Augmented Generation: Hands-On LLM Integration

  • روز 4 - خط لوله اصلی RAG: ساخت سیستم های RAG کارآمد Day 4 - Master RAG Pipeline: Building Efficient RAG Systems

  • روز پنجم - بهینه سازی سیستم های RAG: عیب یابی و رفع مشکلات رایج Day 5 - Optimizing RAG Systems: Troubleshooting and Fixing Common Problems

  • روز پنجم - تغییر فروشگاه‌های وکتور: FAISS در مقابل Chroma در خطوط لوله LangChain RAG Day 5 - Switching Vector Stores: FAISS vs Chroma in LangChain RAG Pipelines

  • روز پنجم - رمزگشایی LangChain: پشت صحنه ساخت خط لوله RAG Day 5 - Demystifying LangChain: Behind-the-Scenes of RAG Pipeline Construction

  • روز 5 - اشکال زدایی RAG: بهینه سازی بازیابی متن در LangChain Day 5 - Debugging RAG: Optimizing Context Retrieval in LangChain

  • روز پنجم - کارمند دانش هوش مصنوعی شخصی خود را بسازید: RAG برای افزایش بهره وری Day 5 - Build Your Personal AI Knowledge Worker: RAG for Productivity Boost

هفته 6: تنظیم دقیق مدل های زبان بزرگ مرزی با LoRA/QLoRA Week 6: Fine-tuning Frontier Large Language Models with LoRA/QLoRA

  • روز 1 - انتقال از استنتاج به مدل های آموزشی Day 1 - Transition from Inference to Training Models

  • روز 1 - یافتن مجموعه داده ها برای آموزش و تنظیم دقیق Day 1 - Finding Datasets for Training and Fine-Tuning

  • روز 1 - شیرجه عمیق به مدیریت و تجسم مجموعه داده Day 1 - Deep Dive into Dataset Curation and Visualization

  • روز 1 - تمیز کردن و مانگینگ مجموعه داده ها برای آموزش مدل Day 1 - Scrubbing and Munging Datasets for Model Training

  • روز اول - ارزیابی موفقیت مدل از طریق معیارها Day 1 - Evaluating Model Success through Metrics

  • روز 2 - استراتژی حل مسئله برای راه حل های LLM Day 2 - Problem Solving Strategy for LLM Solutions

  • روز 2 - درخواست، RAG و تنظیم دقیق: زمان استفاده از هر رویکرد Day 2 - Prompting, RAG, and Fine-Tuning: When to Use Each Approach

  • روز 2 - تولید مدل های LLM برای استقرار در دنیای واقعی Day 2 - Productionizing LLM Models for Real-World Deployment

  • روز 2 - بارگذاری انبوه داده ها و پردازش موازی کارآمد Day 2 - Efficient Massive Data Loading and Parallel Processing

  • روز 2 - ساخت و مدیریت مجموعه داده های آموزشی با کیفیت بالا Day 2 - Crafting and Curating High-Quality Training Datasets

  • روز 2 - نهایی کردن مدیریت مجموعه داده و آپلود در هاب Day 2 - Finalizing Dataset Curation and Uploading to the Hub

  • روز 2 - جمع آوری مجموعه داده ها و آماده سازی برای مدل های پایه Day 2 - Wrapping Up Dataset Curation and Preparing for Baseline Models

  • روز 3 - درک و ایجاد مدل های پایه Day 3 - Understanding and Establishing Baseline Models

  • روز 3 - کاوش مدل‌های پایه شدید برای پیش‌بینی Day 3 - Exploring Extreme Baseline Models for Prediction

  • روز سوم - مقدمه ای بر مهندسی ویژگی Day 3 - Introduction to Feature Engineering

  • روز 3 - ایجاد ویژگی های اضافی برای پیش بینی های بهبود یافته Day 3 - Creating Additional Features for Improved Predictions

  • روز 3 - رگرسیون خطی و یادگیری ماشین سنتی Day 3 - Linear Regression and Traditional Machine Learning

  • روز 3 - کیسه کلمات و Word2Vec: تکنیک های NLP در ML Day 3 - Bag of Words and Word2Vec: NLP Techniques in ML

  • روز 3 - پشتیبانی از بردارها و جنگل های تصادفی در ML Day 3 - Support Vectors and Random Forests in ML

  • روز سوم - مقایسه مدل‌های سنتی ML روی سکو Day 3 - Comparing Traditional ML Models on the Podium

  • روز 4 - بالا بردن نوار با مدل های مرزی Day 4 - Raising the Bar with Frontier Models

  • روز 4 - یک مدل اضافی شگفت انگیز: مقایسه عملکرد انسانی Day 4 - A Surprise Extra Model: Human Performance Comparison

  • روز 4 - در نهایت: ورود به مرز با مدل های GPT Day 4 - Finally: Entering the Frontier with GPT Models

  • روز 4 - اسلحه های بزرگ: مدل های مرزی پیشرفته در عمل Day 4 - The Big Guns: Advanced Frontier Models in Action

  • روز 4 - تریبون مرزی: مقایسه عملکرد مدل Day 4 - The Frontier Podium: Comparing Model Performance

  • روز 5 - زمان برای تنظیم دقیق مدل های مرزی Day 5 - Time for Fine-Tuning Frontier Models

  • روز پنجم - آپلود فایل‌های JSONL در OpenAI برای تنظیم دقیق Day 5 - Uploading JSONL Files to OpenAI for Fine-Tuning

  • روز 5 - راه اندازی فرآیند تنظیم دقیق Day 5 - Launching the Fine-Tuning Process

  • روز 5 - آموزش Ahoy: نظارت بر پیشرفت در وزن ها و سوگیری ها Day 5 - Training Ahoy: Monitoring Progress in Weights & Biases

  • روز پنجم - تکمیل فرآیند تنظیم دقیق Day 5 - Completing the Fine-Tuning Process

  • روز پنجم - نتایج: آیا تنظیم دقیق عملکرد را بهبود بخشید؟ Day 5 - The Results: Did Fine-Tuning Improve Performance?

  • روز پنجم - تریبون نهایی و نتیجه گیری Day 5 - Final Podium and Conclusion

مدل منبع باز تنظیم دقیق برای رقابت با Frontier در پیش بینی قیمت. Fine-tuned open-source model to compete with Frontier in price prediction.

  • روز 1 - ایجاد انگیزه برای یک هفته عظیم در پیش رو با تکنیک های پیشرفته LLM Day 1 - Motivating a Massive Week Ahead with Advanced LLM Techniques

  • روز 1 - معرفی آداپتورهای LoRA: سازگاری با رتبه پایین توضیح داده شد Day 1 - Introduction to LoRA Adaptors: Low-Rank Adaptation Explained

  • روز 1 - اثر شگفت انگیز کوانتیزاسیون در تنظیم دقیق Day 1 - The Surprising Effectiveness of Quantization in Fine-Tuning

  • روز 1 - سه فراپارامتر ضروری برای تنظیم دقیق QLoRA Day 1 - Three Essential Hyperparameters for QLoRA Fine-Tuning

  • روز 1 - معماری LLAMA 3.1 8B: نگاهی نزدیکتر Day 1 - LLAMA 3.1 8B Architecture: A Closer Look

  • روز 1 - کوانتیزاسیون: کاهش دقت مدل به 8 بیت Day 1 - Quantization: Reducing Model Precision to 8 Bits

  • روز 1 - بررسی کوانتیزاسیون 4 بیتی و تأثیر آن بر اندازه مدل Day 1 - Exploring 4-Bit Quantization and Its Impact on Model Size

  • روز 1 - تجزیه و تحلیل آداپتورهای LoRA و نقش آنها در تنظیم دقیق Day 1 - Analyzing LoRA Adaptors and Their Role in Fine-Tuning

  • روز 1 - خلاصه اندازه مدل: مقایسه مدل های کوانتیزه شده و دقیق تنظیم شده Day 1 - Model Size Summary: Comparing Quantized and Fine-Tuned Models

  • روز 2 - انتخاب مدل پایه برای تنظیم دقیق Day 2 - Selecting the Base Model for Fine-Tuning

  • روز 2 - کاوش در تابلوی برتر HuggingFace و انتخاب LLAMA 3.1 Day 2 - Exploring the HuggingFace Leaderboard and Choosing LLAMA 3.1

  • روز 2 - آزمایش با Tokenizers: چگونه آنها بر عملکرد مدل تاثیر می گذارند Day 2 - Experimenting with Tokenizers: How They Impact Model Performance

  • روز 2 - اولین پیش بینی ها با LLAMA 3.1: عملکرد مدل پایه Day 2 - First Predictions with LLAMA 3.1: Base Model Performance

  • روز 2 - ارزیابی LLAMA 3.1: نتایج کامل آزمون Day 2 - Evaluating LLAMA 3.1: Full Test Results

  • روز 2 - تریبون: مقایسه عملکرد مدل در بین معیارها Day 2 - The Podium: Comparing Model Performance Across Benchmarks

  • روز 3 - پنج فراپارامتر کلیدی برای تنظیم دقیق QLoRA Day 3 - Five Key Hyperparameters for QLoRA Fine-Tuning

  • روز سوم - درک دوره ها و اندازه های دسته ای در آموزش مدل Day 3 - Understanding Epochs and Batch Sizes in Model Training

  • روز 3 - نرخ یادگیری، انباشت گرادیان، و بهینه سازها توضیح داده شد Day 3 - Learning Rate, Gradient Accumulation, and Optimizers Explained

  • روز 3 - راه اندازی فرآیند آموزشی برای تنظیم دقیق Day 3 - Setting Up the Training Process for Fine-Tuning

  • روز 3 - مربی SFT: تنظیم دقیق LLM سفارشی شما Day 3 - SFT Trainer: Fine-Tuning Your Custom LLM

  • روز 3 - راه اندازی فرآیند تنظیم دقیق Day 3 - Launching the Fine-Tuning Process

  • روز 3 - آموزش در حال انجام: نظارت و مدیریت اجراهای آموزشی Day 3 - Training in Progress: Monitoring and Managing Training Runs

  • روز 4 - پایین نگه داشتن هزینه های آموزشی: استراتژی های تنظیم دقیق کارآمد Day 4 - Keeping Training Costs Low: Efficient Fine-Tuning Strategies

  • روز 4 - استفاده از مجموعه داده های جایگزین برای آموزش سریعتر Day 4 - Using an Alternative Dataset for Faster Training

  • روز 4 - تجسم پیشرفت تمرین در وزن ها و سوگیری ها Day 4 - Visualizing Training Progress in Weights & Biases

  • روز 4 - ابزارهای پیشرفته وزن‌ها و سوگیری‌ها و صرفه‌جویی در مدل در صورت در آغوش گرفتن Day 4 - Advanced Weights & Biases Tools and Model Saving on Hugging Face

  • روز 4 - آماده شدن برای نتایج نهایی: چه چیزی در فرآیند آموزش قرار دارد Day 4 - Preparing for Final Results: What’s Next in the Training Process

  • روز پنجم - چهار مرحله در آموزش: از پاس به جلو تا بهینه سازی Day 5 - The Four Steps in Training: From Forward Pass to Optimization

  • روز 5 - توضیح Forward Pass، Loss، Backward Pass و Optimization در QLoRA Day 5 - Explaining Forward Pass, Loss, Backward Pass, and Optimization in QLoRA

  • روز پنجم - درک Softmax و افت آنتروپی متقابل در آموزش مدل Day 5 - Understanding Softmax and Cross-Entropy Loss in Model Training

  • روز 5 - بازگشت به وزن ها و سوگیری ها: نظارت بر پیشرفت آموزش Day 5 - Back to Weights & Biases: Monitoring Training Progress

  • روز پنجم - بازدید مجدد از تریبون: مقایسه معیارهای عملکرد مدل Day 5 - Revisiting the Podium: Comparing Model Performance Metrics

  • روز 5 - Drumroll: Running Inference on Our Fine-Tuned Model Day 5 - Drumroll: Running Inference on Our Fine-Tuned Model

  • روز پنجم - تجسم نتایج: آیا ما GPT-4 را شکست دادیم؟ Day 5 - Visualization of Results: Did We Beat GPT-4?

  • روز پنجم - چالش برای شما: بهینه سازی فراپارامترها برای بهبود نتایج Day 5 - Challenge for You: Optimizing Hyperparameters to Improve Results

هفته 8 - ساخت سیستم چند عاملی مستقل با همکاری مدل ها Week 8 - Build Autonomous multi agent system collaborating with models

  • روز 1 - انگیزش هوش مصنوعی عامل: ساخت چارچوب های چند عاملی Day 1 - Motivating Agentic AI: Building Multi-Agent Frameworks

  • روز 1 - معماری عامل: مروری بر پروژه Capstone ما Day 1 - Agent Architecture: Overview of Our Capstone Project

  • روز اول - رونمایی از مدال: استقرار مدل‌های بدون سرور در فضای ابری Day 1 - Unveiling Modal: Deploying Serverless Models to the Cloud

  • روز 1 - LLAMA روی ابر: اجرای موثر مدل های بزرگ Day 1 - LLAMA on the Cloud: Running Large Models Efficiently

  • روز 1 - LLM ما در حال تولید است: استقرار مدل‌های تنظیم‌شده دقیق با Modal Day 1 - Our LLM is in Production: Deploying Fine-Tuned Models with Modal

  • روز 1 - مدل های تولید چندگانه در پیش رو: آماده شدن برای راه حل های پیشرفته RAG Day 1 - Multiple Production Models Ahead: Preparing for Advanced RAG Solutions

  • روز 2 - گردش کار دقیق عامل: ایجاد یک سیستم چند عاملی Day 2 - Detailed Agentic Workflow: Building a Multi-Agent System

  • روز 2 - یک فروشگاه داده عظیم کروما وکتور برای خطوط لوله RAG کارآمد Day 2 - A Massive Chroma Vector Datastore for Efficient RAG Pipelines

  • روز 2 - تجسم دو بعدی داده های برداری برای قیمت گذاری محصول Day 2 - 2D Visualizations of Vector Data for Product Pricing

  • روز 2 - تجسم سه بعدی بردارها: به دست آوردن بینش از جاسازی ها Day 2 - 3D Visualizations of Vectors: Gaining Insights from Embeddings

  • روز 2 - یافتن محصولات مشابه: ساخت یک خط لوله RAG بدون LangChain Day 2 - Finding Similar Products: Building a RAG Pipeline without LangChain

  • روز 2 - تکمیل خط لوله RAG: قیمت گذاری محصولات با GPT-4.0 Mini Day 2 - Completing the RAG Pipeline: Pricing Products with GPT-4.0 Mini

  • روز 2 - بازگشت تصادفی جنگل: با استفاده از جاسازی های مبتنی بر ترانسفورماتور Day 2 - Random Forest Returns: Using Transformer-Based Embeddings

  • روز 2 - مدل سازی گروه: ترکیب مدل های تخصصی، RAG و جنگل تصادفی Day 2 - Ensemble Modeling: Combining Specialist, RAG, and Random Forest Models

  • روز 2 - جمع بندی: نهایی کردن سیستم های چند عاملی و یکپارچه سازی RAG Day 2 - Wrap-Up: Finalizing Multi-Agent Systems and RAG Integration

  • روز سوم - معرفی خروجی های ساختاریافته: هدایت مدل های مرزی Day 3 - Introducing Structured Outputs: Directing Frontier Models

  • روز 3 - فیدهای RSS و خراش دادن بیشتر برای مجموعه معاملات Day 3 - RSS Feeds and More Scraping for Deal Collection

  • روز 3 - خروجی های ساختاریافته در عمل: موارد استفاده در دنیای واقعی Day 3 - Structured Outputs in Action: Real-World Use Cases

  • روز 3 - اشکال زدایی و رفع مشکلات خروجی ساختاریافته Day 3 - Debugging and Fixing Structured Output Issues

  • روز 3 - انتقال به گردش کار عامل: به سمت سیستم های خودمختار Day 3 - Transitioning to Agentic Workflows: Towards Autonomous Systems

  • روز چهارم - 5 ویژگی بارز هوش مصنوعی عامل: استقلال، برنامه ریزی و حافظه Day 4 - The 5 Hallmarks of Agentic AI: Autonomy, Planning, and Memory

  • روز 4 - نماینده پیام: ارسال اعلان‌های فشاری برای معاملات Day 4 - Messaging Agent: Sending Push Notifications for Deals

  • روز چهارم - عامل برنامه ریزی: هماهنگی فعالیت ها در سیستم های چند عاملی Day 4 - Planning Agent: Coordinating Activities in Multi-Agent Systems

  • روز 4 - ساخت چارچوب عامل: اتصال LLM و کد پایتون Day 4 - Building an Agent Framework: Connecting LLMs and Python Code

  • روز 4 - تکمیل گردش کار نمایندگی: مقیاس بندی برای برنامه های تجاری Day 4 - Completing Agentic Workflows: Scaling for Business Applications

  • روز پنجم - دستیابی به استقلال در سیستم‌های هوش مصنوعی عاملی Day 5 - Achieving Autonomy in Agentic AI Systems

  • روز پنجم - تکرار در Gradio: ساختن یک رابط کاربری پویا Day 5 - Iterating on Gradio: Building a Dynamic User Interface

  • روز پنجم - نهایی کردن رابط کاربری Gradio برای راه حل AI عامل ما Day 5 - Finalizing the Gradio UI for Our Agentic AI Solution

  • روز 5 - Gradio UI نسخه نهایی: افزایش تجربه کاربر Day 5 - Gradio UI Final Version: Enhancing User Experience

  • روز پنجم - تجزیه و تحلیل نتایج: نظارت بر عملکرد چارچوب عامل Day 5 - Analyzing Results: Monitoring Agent Framework Performance

  • روز 5 - تبریک: پایان دادن به سفر هشت هفته ای Day 5 - Congratulations: Wrapping Up the Eight-Week Journey

نمایش نظرات

مهندسی LLM: استاد هوش مصنوعی و مدل‌های زبان بزرگ (LLM)
جزییات دوره
24 hours
203
Udemy (یودمی) Udemy (یودمی)
(آخرین آپدیت)
2,184
4.8 از 5
ندارد
دارد
دارد
جهت دریافت آخرین اخبار و آپدیت ها در کانال تلگرام عضو شوید.

Google Chrome Browser

Internet Download Manager

Pot Player

Winrar

Ligency Team Ligency Team

کمک به دانشمندان داده برای موفقیت در آنجا ، ما تیم روابط عمومی و بازاریابی Ligence هستیم. هنگامی که دوره های جدید منتشر می شوند ، وقتی پادکست های جدید ، وبلاگ ها ، صفحه های اشتراک گذاری و غیره منتشر می کنیم ، از ما می شنوید! ما در اینجا هستیم تا به شما کمک کنیم در لبه پیشرفته علم و فناوری داده بمانید. در کلاس می بینمت، خالصانه، افراد واقعی در معرض خطر

Ed Donner Ed Donner

بنیانگذار و رهبر استارتاپ هوش مصنوعی؛ مربی ژنرال هوش مصنوعی و LLM