آموزش آزمایش نفوذ و ارزیابی آسیب‌پذیری (Red Teaming) عملی مدل‌های زبان بزرگ (LLM) با هوش مصنوعی - آخرین آپدیت

دانلود Hands On AI (LLM) Red Teaming

نکته: ممکن هست محتوای این صفحه بروز نباشد ولی دانلود دوره آخرین آپدیت می باشد.
نمونه ویدیوها:
توضیحات دوره:

آموزش Red Teaming هوش مصنوعی: از مبانی تا پیشرفته

آموزش کامل Red Teaming هوش مصنوعی از مفاهیم پایه مدل‌های زبانی بزرگ (LLM)، معماری LLM، برنامه‌های AI/GenAI تا Agentهای هوش مصنوعی.

مباحث اصلی دوره:

  • مبانی مدل‌های زبانی بزرگ (LLM)
  • شکستن محدودیت‌های مدل‌های زبانی بزرگ (Jailbreaking LLMs)
  • OWASP Top 10 LLM & GenAI (ده آسیب‌پذیری برتر OWASP برای LLM و GenAI)
  • تمرین عملی Red Teaming LLM با ابزارها
  • نوشتن Promptهای مخرب (مهندسی Promptهای خصمانه)

پیش‌نیازها:

  • آشنایی با مبانی برنامه‌نویسی پایتون
  • دانش پایه‌ای از اصول امنیت سایبری

هدف:

این دوره آموزش عملی در امنیت هوش مصنوعی، با تمرکز بر Red Teaming برای مدل‌های زبانی بزرگ (LLM) ارائه می‌دهد. این دوره برای محققان امنیت سایبری تهاجمی، متخصصان هوش مصنوعی و مدیران تیم‌های امنیت سایبری طراحی شده است. هدف این آموزش، تجهیز شرکت‌کنندگان با مهارت‌هایی برای:

  • شناسایی و بهره‌برداری از آسیب‌پذیری‌ها در سیستم‌های هوش مصنوعی برای اهداف اخلاقی.
  • دفاع از سیستم‌های هوش مصنوعی در برابر حملات.
  • پیاده‌سازی حاکمیت و اقدامات ایمنی هوش مصنوعی در سازمان‌ها.

اهداف یادگیری:

  • درک خطرات و آسیب‌پذیری‌های هوش مصنوعی مولد.
  • بررسی چارچوب‌های قانونی مانند قانون هوش مصنوعی اتحادیه اروپا و استانداردهای ایمنی نوظهور هوش مصنوعی.
  • کسب مهارت‌های عملی در آزمایش و ایمن‌سازی سیستم‌های LLM.

ساختار دوره:

  1. مقدمه‌ای بر Red Teaming هوش مصنوعی:

    • معماری LLMها.

    • دسته‌بندی خطرات LLM.

    • مروری بر استراتژی‌ها و ابزارهای Red Teaming.

  2. شکستن LLMها:

    • تکنیک‌هایی برای Jailbreaking LLMها.

    • تمرین‌های عملی برای آزمایش آسیب‌پذیری.

  3. Prompt Injection:

    • مبانی Prompt Injection و تفاوت‌های آن با Jailbreaking.

    • تکنیک‌هایی برای انجام و جلوگیری از Prompt Injection.

    • تمرین‌های عملی با RAG (نسل تقویت‌شده با بازیابی) و معماری‌های Agent.

  4. OWASP Top 10 Risks for LLMs:

    • درک خطرات رایج.

    • نمایش‌ها برای تقویت مفاهیم.

    • تمرین‌های Red Teaming هدایت‌شده برای آزمایش و کاهش این خطرات.

  5. ابزارها و منابع پیاده‌سازی:

    • نوت‌بوک‌های Jupyter، قالب‌ها و ابزارها برای Red Teaming.

    • دسته‌بندی ابزارهای امنیتی برای پیاده‌سازی Guardrailها و راه‌حل‌های نظارتی.

نتایج کلیدی:

  • دانش پیشرفته: توسعه تخصص در اصطلاحات، چارچوب‌ها و تاکتیک‌های امنیت هوش مصنوعی.

  • مهارت‌های عملی: تجربه عملی در Red Teaming LLMها و کاهش خطرات.

  • توسعه چارچوب: ایجاد مدل‌های حاکمیت هوش مصنوعی و بلوغ امنیت برای سازمان خود.

چه کسانی باید شرکت کنند؟

این دوره برای افراد زیر ایده‌آل است:

  • محققان امنیت سایبری تهاجمی.

  • متخصصان هوش مصنوعی متمرکز بر دفاع و ایمنی.

  • مدیرانی که به دنبال ساخت و هدایت تیم‌های امنیت هوش مصنوعی هستند.

موفق باشید و شما را در جلسات می‌بینیم!


سرفصل ها و درس ها

مقدمه Introduction

  • مقدمه Introduction

  • راه‌اندازی آزمایشگاه Setup Lab

  • اجرای یک مدل Hugging Face Run a Hugging Face Model

  • Ollama - اجرای مدل روی لپ‌تاپ محلی شما Ollama - Running Model on your Local Laptop

  • حل معمای سه خدا Solve Three Gods Puzzle

مقدمه ای بر Red Teaming هوش مصنوعی AI Red Teaming Introduction

  • تاریخچه حملات و شکست های هوش مصنوعی History of AI Attacks & Failures

  • طبقات ریسک هوش مصنوعی AI Risk Classes

  • Red Teaming هوش مصنوعی چیست؟ What is AI Red Teaming?

  • تلاش برای Prompt مخرب روی یک مدل آنلاین Try Malicious Prompt on an Online Model

  • طبقه بندی حملات هوش مصنوعی قسمت 1 AI Attacks Taxonomy Part 1

  • حمله مسموم سازی داده ها به مدل های Hugging Face Data Poisoning Attack on Hugging Face Models

  • طبقه بندی حملات هوش مصنوعی قسمت 2 AI Attacks Taxonomy Part 2

  • PoisonGPT خودتان را بسازید Create your own PoisonGPT

  • تست خصمانه - نسخه ی نمایشی TextAttack Adversarial Testing - TextAttack Demo

  • نتایج TextAttack TextAttack Results

  • تست خصمانه - نسخه ی نمایشی Jailbreaking Adversarial Testing - Jailbreaking Demo

  • تلاش برای Jailbreak مدل Vision Try Vision Model Jailbreak

  • اجرای Garak روی مدل های Ollama Run Garak on Ollama Models

  • خواندن نتایج Garak Reading Garak Results

معماری LLM برای Red Teamers LLM Architecture for Red Teamers

  • تاریخچه LLM ها، مشکلات NLP و Tokenization History of LLMs, Problems with NLP & Tokenization

  • تجسم Sentence Embedding Visualize Sentence Embedding

  • Embedding و Self-Attention Embedding and Self-Attention

  • تجسم Self Attention Visualize Self Attention

  • معماری Transformer Transformer Architecture

  • مقایسه LLM های مختلف Comparing Various LLMs

Jailbreaking و Prompt Injections Jailbreaking & Prompt Injections

  • مقدمه ای بر Prompt Injections Introduction to Prompt Injections

  • راه اندازی آزمایشگاه AI Agents Setup AI Agents Lab

  • ساختار داخلی Prompt Prompt Internal Structure

  • ساختار Prompt RAG RAG prompt Structure

  • مثال های واقعی از Prompt Injections Real life Examples of Prompt Injections

  • Prompt Injection روی Text2SqlAgent Prompt Injection on Text2SqlAgent

  • ساخت یک Prompt تزریق Prompt Craft a Prompt Injection Prompt

  • تلاش برای Prompt Injections روی Pokebot Try Prompt Injections on Pokebot

  • تکنیک های اساسی Prompt Injection Basic Prompt Injection Techniques

  • تلاش برای Prompt Injections روی Medusa Try Prompt Injections on Medusa

  • تکنیک های Prompt Injection متوسط Intermediate Prompt Injection Techniques

  • 10 برنامه برتر Owasp LLM Owasp top 10 LLM Apps

هوش مصنوعی پیشرفته - عوامل هوش مصنوعی و مدل های استدلال Advance AI - AI Agents and Reasoning Models

  • مقدمه ای بر مدل های استدلال Introduction to Reasoning Models

  • آموزش و کاربرد مدل های استدلال Reasoning Models Training & Applicability

  • عملی - اجرای Deepseek با استفاده از Olama Handson - Running Deepseek Using Olama

  • مقدمه ای بر عوامل هوش مصنوعی Introduction to AI Agents

  • نسخه ی نمایشی از عامل هوش مصنوعی تست نفوذ خودکار Demo of Autonomous Pentesting AI Agent

  • تکامل عوامل هوش مصنوعی AI Agents Evolution

  • عوامل هوش مصنوعی در شرکت ها AI Agents in Enterprises

  • عامل Jailbreak هوش مصنوعی خودکار Detoxio AI Detoxio AI's Autonomous AI Jailbreak Agent

  • ساخت یک عامل هوش مصنوعی با استفاده از Microsoft Autogen Framework Build an AI Agent using Microsoft Autogen Framework

کاهش مشکلات ایمنی هوش مصنوعی Mitigating AI Safety Issues

  • کاهش Prompt Injections و Jailbreaks Mitigating Prompt Injections and Jailbreaks

  • نسخه ی نمایشی فیلتر Jailbreak Demo Jailbreak Filtering

  • عملی - استفاده از Prompt Guard برای فیلتر کردن Jailbreaks Hands-on Use Prompt Guard to filter Jailbreaks

  • نسخه ی نمایشی برنامه هوش مصنوعی با جلوگیری از Jailbreak Demo of AI App with Jailbreak Prevention

  • اجرای یک برنامه هوش مصنوعی نمایشی محافظت شده با Prompt Guard Run a Demo AI App protected with Prompt Guard

  • LLAMA Guard - جلوگیری از سمیت، اطلاعات نادرست و غیره LLAMA Guard - Prevent Toxicity, Misinformation, etc.

نمایش نظرات

آموزش آزمایش نفوذ و ارزیابی آسیب‌پذیری (Red Teaming) عملی مدل‌های زبان بزرگ (LLM) با هوش مصنوعی
جزییات دوره
10.5 hours
39
Udemy (یودمی) Udemy (یودمی)
(آخرین آپدیت)
447
4.6 از 5
دارد
دارد
دارد
جهت دریافت آخرین اخبار و آپدیت ها در کانال تلگرام عضو شوید.

Google Chrome Browser

Internet Download Manager

Pot Player

Winrar

Jitendra Chauhan Jitendra Chauhan

هکر، معمار و مدرس