🔔 با توجه به بهبود نسبی اینترنت، آمادهسازی دورهها آغاز شده است. به دلیل تداوم برخی اختلالات، بارگذاری دورهها ممکن است با کمی تأخیر انجام شود. مدت اشتراکهای تهیهشده محفوظ است.
لطفا جهت اطلاع از آخرین دوره ها و اخبار سایت در
کانال تلگرام
عضو شوید.
آموزش آزمایش نفوذ و ارزیابی آسیبپذیری (Red Teaming) عملی مدلهای زبان بزرگ (LLM) با هوش مصنوعی
- آخرین آپدیت
دانلود Hands On AI (LLM) Red Teaming
نکته:
ممکن هست محتوای این صفحه بروز نباشد ولی دانلود دوره آخرین آپدیت می باشد.
نمونه ویدیوها:
توضیحات دوره:
آموزش Red Teaming هوش مصنوعی: از مبانی تا پیشرفته
آموزش کامل Red Teaming هوش مصنوعی از مفاهیم پایه مدلهای زبانی بزرگ (LLM)، معماری LLM، برنامههای AI/GenAI تا Agentهای هوش مصنوعی.
مباحث اصلی دوره:
مبانی مدلهای زبانی بزرگ (LLM)
شکستن محدودیتهای مدلهای زبانی بزرگ (Jailbreaking LLMs)
OWASP Top 10 LLM & GenAI (ده آسیبپذیری برتر OWASP برای LLM و GenAI)
تمرین عملی Red Teaming LLM با ابزارها
نوشتن Promptهای مخرب (مهندسی Promptهای خصمانه)
پیشنیازها:
آشنایی با مبانی برنامهنویسی پایتون
دانش پایهای از اصول امنیت سایبری
هدف:
این دوره آموزش عملی در امنیت هوش مصنوعی، با تمرکز بر Red Teaming برای مدلهای زبانی بزرگ (LLM) ارائه میدهد. این دوره برای محققان امنیت سایبری تهاجمی، متخصصان هوش مصنوعی و مدیران تیمهای امنیت سایبری طراحی شده است. هدف این آموزش، تجهیز شرکتکنندگان با مهارتهایی برای:
شناسایی و بهرهبرداری از آسیبپذیریها در سیستمهای هوش مصنوعی برای اهداف اخلاقی.
دفاع از سیستمهای هوش مصنوعی در برابر حملات.
پیادهسازی حاکمیت و اقدامات ایمنی هوش مصنوعی در سازمانها.
اهداف یادگیری:
درک خطرات و آسیبپذیریهای هوش مصنوعی مولد.
بررسی چارچوبهای قانونی مانند قانون هوش مصنوعی اتحادیه اروپا و استانداردهای ایمنی نوظهور هوش مصنوعی.
کسب مهارتهای عملی در آزمایش و ایمنسازی سیستمهای LLM.
ساختار دوره:
مقدمهای بر Red Teaming هوش مصنوعی:
معماری LLMها.
دستهبندی خطرات LLM.
مروری بر استراتژیها و ابزارهای Red Teaming.
شکستن LLMها:
تکنیکهایی برای Jailbreaking LLMها.
تمرینهای عملی برای آزمایش آسیبپذیری.
Prompt Injection:
مبانی Prompt Injection و تفاوتهای آن با Jailbreaking.
تکنیکهایی برای انجام و جلوگیری از Prompt Injection.
تمرینهای عملی با RAG (نسل تقویتشده با بازیابی) و معماریهای Agent.
OWASP Top 10 Risks for LLMs:
درک خطرات رایج.
نمایشها برای تقویت مفاهیم.
تمرینهای Red Teaming هدایتشده برای آزمایش و کاهش این خطرات.
ابزارها و منابع پیادهسازی:
نوتبوکهای Jupyter، قالبها و ابزارها برای Red Teaming.
دستهبندی ابزارهای امنیتی برای پیادهسازی Guardrailها و راهحلهای نظارتی.
نتایج کلیدی:
دانش پیشرفته: توسعه تخصص در اصطلاحات، چارچوبها و تاکتیکهای امنیت هوش مصنوعی.
مهارتهای عملی: تجربه عملی در Red Teaming LLMها و کاهش خطرات.
توسعه چارچوب: ایجاد مدلهای حاکمیت هوش مصنوعی و بلوغ امنیت برای سازمان خود.
چه کسانی باید شرکت کنند؟
این دوره برای افراد زیر ایدهآل است:
محققان امنیت سایبری تهاجمی.
متخصصان هوش مصنوعی متمرکز بر دفاع و ایمنی.
مدیرانی که به دنبال ساخت و هدایت تیمهای امنیت هوش مصنوعی هستند.
موفق باشید و شما را در جلسات میبینیم!
سرفصل ها و درس ها
مقدمه
Introduction
مقدمه
Introduction
راهاندازی آزمایشگاه
Setup Lab
اجرای یک مدل Hugging Face
Run a Hugging Face Model
Ollama - اجرای مدل روی لپتاپ محلی شما
Ollama - Running Model on your Local Laptop
حل معمای سه خدا
Solve Three Gods Puzzle
مقدمه ای بر Red Teaming هوش مصنوعی
AI Red Teaming Introduction
تاریخچه حملات و شکست های هوش مصنوعی
History of AI Attacks & Failures
طبقات ریسک هوش مصنوعی
AI Risk Classes
Red Teaming هوش مصنوعی چیست؟
What is AI Red Teaming?
تلاش برای Prompt مخرب روی یک مدل آنلاین
Try Malicious Prompt on an Online Model
طبقه بندی حملات هوش مصنوعی قسمت 1
AI Attacks Taxonomy Part 1
حمله مسموم سازی داده ها به مدل های Hugging Face
Data Poisoning Attack on Hugging Face Models
طبقه بندی حملات هوش مصنوعی قسمت 2
AI Attacks Taxonomy Part 2
PoisonGPT خودتان را بسازید
Create your own PoisonGPT
نمایش نظرات