آموزش غوطه‌وری عمیق در رد تیمینگ LLM - آخرین آپدیت

دانلود A Deep Dive into LLM Red Teaming

نکته: ممکن هست محتوای این صفحه بروز نباشد ولی دانلود دوره آخرین آپدیت می باشد.
نمونه ویدیوها:
توضیحات دوره:

امنیت مدل‌های زبان بزرگ: حمله و دفاع از LLM ها

در این دوره جامع، از اصول اولیه تا پیشرفته، با تکنیک‌های تزریق پرامپت (prompt injection)، روش‌های جیلبریک (jailbreak tactics)، حملات غیرمستقیم (indirect attacks) و تست آسیب‌پذیری LLM آشنا شوید. بیاموزید چگونه آسیب‌پذیری‌های رایج مدل‌های زبان بزرگ مانند تزریق پرامپت و جیلبریک را شناسایی و مورد سوءاستفاده قرار دهید. سناریوهای تیم قرمز (red teaming) را برای آزمایش رفتار مدل‌های هوش مصنوعی تحت حمله طراحی و اجرا کنید. با استفاده از تاکتیک‌های پیشرفته دستکاری، حفاظت‌های سطح سیستم در LLM ها را تحلیل و دور بزنید. یک چارچوب تست برای خودکارسازی کشف نقص‌های امنیتی در مدل‌های زبان بسازید.

پیش‌نیازها:

  • درک پایه از نحوه کار مدل‌های زبان بزرگ (LLM) مفید است، اما الزامی نیست.
  • نیاز به تجربه قبلی در امنیت سایبری نیست؛ مفاهیم تیم قرمز را از صفر خواهید آموخت.
  • کنجکاوی برای کاوش در نحوه حمله، تست و امن‌سازی سیستم‌های هوش مصنوعی!

به دوره "تیم قرمز LLM: هک و امن‌سازی مدل‌های زبان بزرگ" خوش آمدید – دوره‌ای عملی و بی‌نظیر برای متخصصان هوش مصنوعی، علاقه‌مندان به امنیت سایبری و تیم‌های قرمز که به دنبال کاوش در لبه تکنولوژی آسیب‌پذیری‌های هوش مصنوعی هستند.

این دوره شما را عمیقاً وارد دنیای امنیت LLM می‌کند و به شما می‌آموزد که چگونه با استفاده از تکنیک‌های دنیای واقعی مدل‌های زبان بزرگ را مورد حمله قرار داده و از آن‌ها دفاع کنید. شما با جزئیات تزریق پرامپت، جیلبریک‌ها، حملات تزریقی غیرمستقیم و دستکاری پیام‌های سیستمی آشنا خواهید شد. چه یک تیم قرمز باشید که هدفش تست استرس سیستم‌های هوش مصنوعی است، یا یک توسعه‌دهنده که برنامه‌های LLM ایمن‌تری می‌سازد، این دوره ابزارهایی را برای تفکر مانند یک مهاجم و دفاع مانند یک حرفه‌ای در اختیار شما قرار می‌دهد.

ما سناریوهای تزریق مستقیم و غیرمستقیم را بررسی خواهیم کرد، نحوه ساخت اکسپلویت‌های مبتنی بر پرامپت را نشان می‌دهیم و تاکتیک‌های پیشرفته‌ای مانند دستکاری چند نوبتی و تعبیه قصد مخرب در ورودی‌های ظاهراً بی‌ضرر کاربر را کشف می‌کنیم. همچنین نحوه طراحی چارچوب‌های تست خود و استفاده از ابزارهای متن‌باز برای خودکارسازی کشف آسیب‌پذیری را خواهید آموخت.

در پایان این دوره، پایه محکمی در تست تهاجمی خواهید داشت، درک خواهید کرد که چگونه LLM ها می‌توانند مورد سوءاستفاده قرار گیرند و توانایی ساخت سیستم‌های هوش مصنوعی قوی‌تر را کسب خواهید کرد.

اگر در تسلط بر جنبه‌های تهاجمی و دفاعی هوش مصنوعی جدی هستید، این دوره برای شماست.


سرفصل ها و درس ها

مقدمه‌ای بر رد تیمینگ ML Introduction to Red Teaming ML

  • مقدمه‌ای بر سیستم‌های مبتنی بر رد تیمینگ ML Introduction to Red Teaming ML-based Systems

  • ۱۰ مورد برتر OWASP برای یادگیری ماشین The OWASP Top 10 for Machine Learning

رد تیمینگ هوش مصنوعی مولد Red Teaming Generative AI

  • حمله به تولید متن از طریق ۱۰ مورد برتر OWASP OWASP TOP 10 Attacking Text Generation

  • چارچوب هوش مصنوعی امن گوگل (SAIF) Google's Secure AI Framework (SAIF)

  • رد تیمینگ هوش مصنوعی مولد Red Teaming Generative AI

  • حمله به اجزای مدل Attacking Model Components

  • حمله به اجزای داده Attacking data Components

  • حمله به اجزای برنامه Attacking Application Components

  • حمله به اجزای سیستم Attacking System Components

مهندسی پرامپت Prompt Engineering

  • مقدمه‌ای بر مهندسی پرامپت Introduction to Prompt Engineering

  • LLM01 - دموی کالی لینوکس LLM01 - Kali Linux Demo

  • LLM01 - دموی Gandalf-AI LLM01 - Gandalf-AI Demo

LLM02: مدیریت ناامن خروجی LLM02: Insecure Output Handling

  • LLM02 - دموی آزمایشگاه پورت‌اسویگر LLM02 - Portswigger Lab Demo

LLM03: مسمومیت داده‌های آموزشی LLM03: Training Data Poisoning

  • DEMO LLM03 LLM03 DEMO

LLM04: حمله منع سرویس به مدل LLM04: Model Denial of Service

  • DEMO LLM04 LLM04 DEMO

LLM05: آسیب‌پذیری‌های زنجیره تأمین LLM05: Supply Chain Vulnerabilities

  • DEMO LLM05 LLM05 DEMO

LLM06: افشای اطلاعات حساس LLM06: Sensitive Information Disclosure

  • DEMO LLM06 LLM06 DEMO

LLM07: طراحی ناامن پلاگین LLM07: Insecure Plugin Design

  • DEMO LLM07 LLM07 DEMO

LLM08: عاملیت بیش از حد LLM08: Excessive Agency

  • DEMO LLM08 LLM08 DEMO

LLM09: اتکای بیش از حد LLM09: Overreliance

  • LLM09 - دموی LLM09 - Demo

LLM10: سرقت مدل LLM10: Model Theft

  • LLM10 - دموی LLM10 - Demo

نمایش نظرات

آموزش غوطه‌وری عمیق در رد تیمینگ LLM
جزییات دوره
2.5 hours
21
Udemy (یودمی) Udemy (یودمی)
(آخرین آپدیت)
257
4.3 از 5
ندارد
دارد
دارد
جهت دریافت آخرین اخبار و آپدیت ها در کانال تلگرام عضو شوید.

Google Chrome Browser

Internet Download Manager

Pot Player

Winrar

IngSeif  Europe Innovation IngSeif Europe Innovation

سازنده مستقل