آموزش ارزیابی عامل‌های هوش مصنوعی - آخرین آپدیت

دانلود Evaluating AI Agents

نکته: ممکن هست محتوای این صفحه بروز نباشد ولی دانلود دوره آخرین آپدیت می باشد.
نمونه ویدیوها:
توضیحات دوره:

آموزش پیشرفته: ارزیابی کیفیت، عملکرد و هزینه ایجنت‌های LLM با ابزارهای Patronus و LangSmith

در این دوره جامع، شما یاد می‌گیرید که چگونه:

  • اجزای اصلی ایجنت‌های هوش مصنوعی (پرامپت‌ها، ابزارها، حافظه و منطق) را توضیح دهید و نحوه همکاری آن‌ها برای انجام وظایف را درک کنید.

  • یک ایجنت هوش مصنوعی ساده را از پایه با استفاده از پایتون و فریمورک‌های مدرن هوش مصنوعی بسازید.

  • معیارهای ارزیابی جامع را در ابعاد کیفیت، عملکرد و هزینه طراحی کنید.

  • سیستم‌های لاگ‌برداری مؤثر را برای ردیابی معیارهای ایجنت در زمان واقعی پیاده‌سازی کنید.

  • آزمایش A/B سیستماتیک را برای مقایسه پیکربندی‌های مختلف ایجنت انجام دهید.

  • از ابزارهای تخصصی مانند LangSmith، Patronus و PromptLayer برای ردیابی و اشکال‌زدایی جریان کار ایجنت استفاده کنید.

  • داشبوردهای مانیتورینگ تولید را برای ردیابی عملکرد ایجنت در طول زمان راه‌اندازی کنید.

  • تصمیمات بهینه‌سازی مبتنی بر داده را بر اساس بینش‌های ارزیابی اتخاذ کنید.

پیش‌نیازهای دوره:

  • درک پایه از برنامه‌نویسی پایتون.

  • آشنایی با مفاهیم هوش مصنوعی و یادگیری ماشین (مفید است اما الزامی نیست).

  • هیچ تجربه قبلی با ایجنت‌های هوش مصنوعی لازم نیست - ما اصول اولیه را پوشش خواهیم داد.

به این دوره خوش آمدید!

  • ساخت و درک اجزای اساسی ایجنت‌های هوش مصنوعی از جمله پرامپت‌ها، ابزارها، حافظه و منطق.

  • پیاده‌سازی فریمورک‌های ارزیابی جامع در ابعاد کیفیت، عملکرد و هزینه.

  • تسلط بر تکنیک‌های عملی تست A/B برای بهینه‌سازی عملکرد ایجنت‌های هوش مصنوعی شما.

  • استفاده از ابزارهای استاندارد صنعتی مانند Patronus، LangSmith و PromptLayer برای اشکال‌زدایی و مانیتورینگ کارآمد ایجنت.

  • ایجاد سیستم‌های مانیتورینگ آماده تولید که عملکرد ایجنت را در طول زمان ردیابی می‌کنند.

توضیحات دوره:

آیا در حال ساخت ایجنت‌های هوش مصنوعی هستید اما مطمئن نیستید که آن‌ها بهترین عملکرد را دارند؟ این دوره جامع، هنر و علم ارزیابی ایجنت‌های هوش مصنوعی را شفاف‌سازی می‌کند و ابزارها و فریمورک‌هایی را به شما می‌دهد تا با اطمینان خاطر سیستم‌های هوش مصنوعی خود را بسازید، آزمایش و بهینه‌سازی کنید.

چرا ارزیابی صحیح ایجنت‌های هوش مصنوعی اهمیت دارد؟

ساخت یک ایجنت هوش مصنوعی تنها قدم اول است. بدون ارزیابی صحیح، شما در معرض خطر موارد زیر قرار می‌گیرید:

  • استقرار ایجنت‌هایی که اشتباهات پرهزینه انجام می‌دهند یا اطلاعات نادرست ارائه می‌دهند.

  • هزینه بیش از حد برای سیستم‌های ناکارآمد بدون آگاهی.

  • از دست دادن مسائل حیاتی عملکرد که می‌تواند به تجربه کاربری آسیب برساند.

  • ایجاد آسیب‌پذیری از طریق توهم‌زایی، سوگیری‌ها یا شکاف‌های امنیتی.

یک راه هوشمندانه و یک راه غیرهوشمندانه برای ارزیابی ایجنت‌های هوش مصنوعی وجود دارد – این دوره تضمین می‌کند که شما این کار را به روش هوشمندانه انجام می‌دهید.

ساختار دوره:

ماژول 1: مفاهیم بنیادی در ارزیابی هوش مصنوعی

با درک قوی از اینکه ایجنت‌های هوش مصنوعی چه هستند و چگونه کار می‌کنند، شروع کنید. ما اجزای اصلی – پرامپت‌ها، ابزارها، حافظه و منطق – را که ایجنت‌ها را قدرتمند و در عین حال چالش‌برانگیز برای ارزیابی می‌سازند، بررسی خواهیم کرد. شما یک ایجنت ساده را از پایه خواهید ساخت تا این مفاهیم را تثبیت کنید.

ماژول 2: معیارهای ارزیابی ایجنت و تکنیک‌ها

عمیقاً وارد سه بعد حیاتی ارزیابی شوید: کیفیت، عملکرد و هزینه. یاد بگیرید چگونه معیارهای مؤثری برای هر بعد طراحی کنید و سیستم‌های لاگ‌برداری را برای ردیابی آن‌ها پیاده‌سازی کنید. بر تکنیک‌های تست A/B برای مقایسه سیستماتیک پیکربندی‌های مختلف ایجنت مسلط شوید.

ماژول 3: ابزارها و فریمورک‌ها برای ارزیابی ایجنت

تجربه عملی با ابزارهای استاندارد صنعتی مانند Patronus، LangSmith، PromptLayer، OpenAI Eval API و Arize کسب کنید. تکنیک‌های ردیابی و اشکال‌زدایی قدرتمند را برای درک مسیرهای تصمیم‌گیری ایجنت و تشخیص خطاها قبل از تأثیرگذاری بر کاربران یاد بگیرید. داشبوردهای مانیتورینگ جامع را برای ردیابی عملکرد ایجنت در طول زمان راه‌اندازی کنید.

چرا این دوره برجسته است؟

  • رویکرد عملی و تجربه‌محور: سیستم‌های واقعی بسازید و فریمورک‌های ارزیابی واقعی را پیاده‌سازی کنید.

  • تمرکز بر کاربردهای دنیای واقعی: تکنیک‌هایی را بیاموزید که توسط تیم‌های پیشرو هوش مصنوعی در محیط‌های تولید استفاده می‌شوند.

  • پوشش جامع: بر هر سه بعد ارزیابی – کیفیت، عملکرد و هزینه – مسلط شوید.

  • فریمورک مستقل از ابزار: اصولی را یاد بگیرید که صرف نظر از ابزارهای خاصی که استفاده می‌کنید، کاربرد دارند.

  • آخرین شیوه‌های صنعتی: با تکنیک‌های ارزیابی پیشرفته و به‌روز از این حوزه همگام باشید.

این دوره برای چه کسانی است؟

  • مهندسان و توسعه‌دهندگان هوش مصنوعی که ایجنت‌های مبتنی بر LLM را می‌سازند یا نگهداری می‌کنند.

  • مدیران محصول که بر توسعه محصولات هوش مصنوعی نظارت دارند.

  • رهبران فنی مسئول استراتژی و پیاده‌سازی هوش مصنوعی.

  • دانشمندان داده که به سمت توسعه ایجنت‌های هوش مصنوعی در حال گذار هستند.

  • هر کسی که می‌خواهد اطمینان حاصل کند ایجنت‌های هوش مصنوعی‌اش نتایج با کیفیت را به طور کارآمد ارائه می‌دهند.

الزامات:

  • درک پایه از برنامه‌نویسی پایتون.

  • آشنایی با مفاهیم هوش مصنوعی و یادگیری ماشین (مفید است اما الزامی نیست).

  • حساب‌های رایگان در پلتفرم‌های ارزیابی (دستورالعمل‌ها ارائه خواهد شد).

دیگر یک ایجنت هوش مصنوعی را بدون ارزیابی صحیح مستقر نکنید. به این دوره بپیوندید و بر تکنیک‌هایی مسلط شوید که پیاده‌سازی‌های آماتور هوش مصنوعی را از سیستم‌های حرفه‌ای که ارزش واقعی ایجاد می‌کنند، جدا می‌سازد.

مدرس شما:

با تجربه گسترده در ساخت و ارزیابی ایجنت‌های هوش مصنوعی در محیط‌های تولید، مدرس شما بینش‌های عملی و تکنیک‌های اثبات شده را به ارمغان می‌آورد تا به شما کمک کند از اشتباهات رایج اجتناب کنید و بهترین شیوه‌ها را از روز اول پیاده‌سازی کنید.

همین حالا ثبت‌نام کنید و شروع به ساخت ایجنت‌های هوش مصنوعی قابل اعتماد کنید!


سرفصل ها و درس ها

Introduction

  • مقدمه Introduction

  • عامل‌های هوش مصنوعی چیستند؟ What Are AI Agents?

  • مبانی ارزیابی عامل‌ها و LLMها Agent & LLM Evaluations 101

  • اجزای سازنده عامل‌های هوش مصنوعی Building Blocks of AI Agents

  • چرا عامل‌های هوش مصنوعی را ارزیابی کنیم؟ Why Evaluate AI Agents?

  • توضیح معماری عامل هوش مصنوعی به یک ذی‌نفع فنی Explaining AI Agent Architecture to a Technical Stakeholder

  • ساخت یک عامل هوش مصنوعی ساده (عملی) Build a Simple AI Agent (Hands-on)

چگونه عامل‌های خود را ارزیابی کنیم؟ How to evaluate your Agents?

  • معیارهای ارزیابی برای عامل‌های شما Evaluation Metrics for your Agents

  • طراحی معیارهای عامل Designing Agent Metrics

  • ابزارهای محبوب برای ارزیابی عامل Popular tools for Agent Evaluation

  • پیاده‌سازی ارزیابی Patronus برای عامل ما Implementing Patronus Evaluation for our Agent

  • دانش خود را بیازمایید Test your knowledge

تکنیک‌های پیشرفته ارزیابی Advanced Evaluation Techniques

  • ردیابی و قابلیت مشاهده Tracing & Observability

  • LLM به عنوان یک قاضی LLM as a Judge

  • ارزیابی‌های ساختاری Structural Evaluations

  • خلاصه Summary

  • طراحی یک چارچوب ارزیابی برای عامل هوش مصنوعی خدمات مشتری Design an Evaluation Framework for a Customer Service AI Agent

نمایش نظرات

آموزش ارزیابی عامل‌های هوش مصنوعی
جزییات دوره
1 hour
14
Udemy (یودمی) Udemy (یودمی)
(آخرین آپدیت)
1,006
4.2 از 5
ندارد
دارد
دارد
Yash Thakker
جهت دریافت آخرین اخبار و آپدیت ها در کانال تلگرام عضو شوید.

Google Chrome Browser

Internet Download Manager

Pot Player

Winrar

Yash Thakker Yash Thakker

سرب محصول و رشد | سازنده هوش مصنوعی