هک اخلاقی علیه و با دوره آموزشی AI/LLM/ML

Ethical Hacking against and with AI/LLM/ML Training Course

نکته: آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
نمونه ویدیوها:
توضیحات دوره: در تست نفوذ هوش مصنوعی و LLM و کشف آسیب‌پذیری حرفه‌ای شوید آسیب‌پذیری‌های AI/LLM به سطح حرفه‌ای در تست نفوذ AI/LLM می‌رسند به یک سطح حرفه‌ای در AI/LLM باگ بوونتی اصول اولیه AI/LLM AI/LLM Attacks AI/LLM Frameworks AI/LLM تزریق سریع AI/LLM خروجی ناامن مدیریت AI/LLM مسمومیت با داده های آموزشی AI/LLM انکار سرویس AI/LLM زنجیره تامین AI/LLM مشکلات مجوز AI/LLM نشت داده AI/LLM AI/LLM بیش از حد آژانس AI/LLMLLAI/پلاگین های ناامن مدل تهدید AI/LLM با استفاده از هوش مصنوعی برای تست نفوذ/هک اخلاقی Yolo AI Tool پیش نیازها: رایانه با حداقل 4 گیگابایت رم/حافظه سیستم عامل: Windows/Apple Mac OS/Linux اتصال به اینترنت قابل اعتماد Burp Suite (Community یا Pro ) نمونه مرورگر وب فایرفاکس از Kali Linux (Raspberry PI، VM، Virtualbox و غیره)

هک اخلاقی علیه و با دوره آموزشی AI/LLM/ML

به این دوره از دوره آموزشی هک اخلاقی و تست نفوذ هوش مصنوعی (AI) و مدل‌های زبان بزرگ (LLM) خوش آمدید.

نکته مهم: این دوره استفاده واقعی از Burp Suite و ویژگی های آن را آموزش نمی دهد.

مدرس شما مارتین ولک است. او یک جانباز امنیت سایبری با 25 سال تجربه است. مارتین برخی از بالاترین گواهینامه ها را دارد. CISSP، OSCP، OSWP، Portswigger BSCP، CCIE، PCI ISA و PCIP. او به عنوان مشاور برای یک شرکت بزرگ فناوری کار می کند و در برنامه های Bug Bounty شرکت می کند که در آن هزاران آسیب پذیری حیاتی و بالا پیدا کرده است.

این دوره دارای بخش‌های آزمایشگاهی تئوری و عملی با تمرکز بر یافتن و بهره‌برداری از آسیب‌پذیری‌ها در سیستم‌ها و برنامه‌های کاربردی هوش مصنوعی و LLM است. این آموزش با 10 کلاس آسیب‌پذیری LLM برتر OWASP هماهنگ است. مارتین در حال حل تمام آزمایشگاه های LLM از Portswigger علاوه بر بسیاری از آزمایشگاه ها و ویترین های دیگر است. فیلم ها به راحتی قابل پیگیری و تکرار هستند. همچنین یک بخش اختصاصی در مورد نحوه استفاده از هوش مصنوعی برای تست نفوذ/شکار باگ باونتی و هک اخلاقی وجود دارد.

این دوره دارای ویژگی های زیر است:

· مقدمه AI/LLM

· حملات AI/LLM

· چارچوب‌ها/نوشته‌های AI/LLM

· AI LLM01: تزریق سریع

· AI LLM02: مدیریت خروجی ناامن

· AI LLM03: Training Data Poisoning

· AI LLM04: انکار سرویس

· AI LLM05: زنجیره تامین

· AI LLM06: مشکلات مجوز

· AI LLM07: نشت داده

· AI LLM08: آژانس بیش از حد

· AI LLM09: اعتماد بیش از حد

· AI LLM10: افزونه‌های ناامن

· مدل تهدید

· کنار هم قرار دادن همه اینها

· استفاده از هوش مصنوعی برای تست نفوذ/هک اخلاقی

· ابزار هوش مصنوعی Yolo

یادداشت سلب مسئولیت

آزمایشگاه‌های Portswigger یک سرویس عمومی و رایگان از Portswigger است که همه می‌توانند از آن برای تقویت مهارت‌های خود استفاده کنند. تنها چیزی که نیاز دارید این است که برای یک حساب کاربری رایگان ثبت نام کنید. من این دوره را با آزمایشگاه های جدید به محض انتشار به روز خواهم کرد. من در یک بازه زمانی معقول به سوالات پاسخ خواهم داد. آموزش تست قلم/شکار باگ باونتی فرآیندی طولانی است، بنابراین اگر فورا باگ را پیدا نکردید، احساس ناامیدی نکنید. سعی کنید از گوگل استفاده کنید، گزارش های هکر وان را بخوانید و در مورد هر ویژگی به طور عمیق تحقیق کنید. این دوره فقط برای اهداف آموزشی است. این اطلاعات برای بهره برداری مخرب استفاده نمی شود و فقط باید برای اهدافی استفاده شود که اجازه حمله به آنها را دارید.


سرفصل ها و درس ها

دستور جلسه Agenda

  • دستور جلسه Agenda

مقدمه ای بر هوش مصنوعی Introduction to AI

  • مقدمه ای بر هوش مصنوعی Introduction to AI

حملات AI/LLM AI/LLM Attacks

  • حملات AI/LLM AI/LLM Attacks

چارچوب های AI/LLM/نوشتن آپ AI/LLM Frameworks / write ups

  • چارچوب ها/نوشته های AI/LLM AI/LLM Frameworks / writeups

AI LLM01: تزریق سریع AI LLM01: Prompt Injection

  • AI LLM01: تزریق سریع AI LLM01: Prompt Injection

  • آزمایشگاه تزریق سریع Prompt Injection Lab

AI LLM02: مدیریت ناامن خروجی AI LLM02: Insecure Output Handling

  • AI LLM02: مدیریت ناامن خروجی AI LLM02: Insecure Output Handling

  • AI LLM02: مدیریت ناامن خروجی - آزمایشگاه 1 AI LLM02: Insecure Output Handling - Lab 1

AI LLM03: Training Data Poisoning AI LLM03: Training Data Poisoning

  • AI LLM03: Training Data Poisoning AI LLM03: Training Data Poisoning

AI LLM04: انکار سرویس AI LLM04: Denial of Service

  • AI LLM04: انکار سرویس AI LLM04: Denial of Service

AI LLM05: زنجیره تامین AI LLM05: Supply Chain

  • AI LLM05: زنجیره تامین AI LLM05: Supply Chain

AI LLM06: مسائل مربوط به مجوز AI LLM06: Permission Issues

  • AI LLM06: مسائل مربوط به مجوز AI LLM06: Permission Issues

  • AI LLM06: مسائل مجوز - آزمایشگاه 1 AI LLM06: Permission Issues - Lab 1

AI LLM07: نشت داده AI LLM07: Data Leakage

  • AI LLM07: نشت داده AI LLM07: Data Leakage

AI LLM08: آژانس بیش از حد AI LLM08: Excessive Agency

  • AI LLM08: آژانس بیش از حد AI LLM08: Excessive Agency

  • AI LLM08: آژانس بیش از حد - آزمایشگاه 1 AI LLM08: Excessive Agency - Lab 1

  • AI LLM08: Excessive Agency - Lab 2 AI LLM08: Excessive Agency - Lab 2

AI LLM09: اعتماد بیش از حد AI LLM09: Overreliance

  • AI LLM09: اعتماد بیش از حد AI LLM09: Overreliance

AI LLM10: افزونه های ناامن AI LLM10: Insecure Plugins

  • AI LLM10: افزونه های ناامن AI LLM10: Insecure Plugins

مدل تهدید Threat Model

  • مدل تهدید Threat Model

استفاده از هوش مصنوعی برای تست نفوذ/هک اخلاقی Using AI for Penetration Testing / Ethical Hacking

  • استفاده از هوش مصنوعی برای تست نفوذ/هک اخلاقی Using AI for Penetration Testing / Ethical Hacking

ابزار هوش مصنوعی Yolo The Yolo AI Tool

  • ابزار هوش مصنوعی Yolo The Yolo AI Tool

  • ابزار هوش مصنوعی Yolo - آزمایشگاه 1 The Yolo AI Tool - Lab 1

نمایش نظرات

هک اخلاقی علیه و با دوره آموزشی AI/LLM/ML
جزییات دوره
3.5 hours
23
Udemy (یودمی) Udemy (یودمی)
(آخرین آپدیت)
54
4.3 از 5
دارد
دارد
دارد
Martin Voelk
جهت دریافت آخرین اخبار و آپدیت ها در کانال تلگرام عضو شوید.

Google Chrome Browser

Internet Download Manager

Pot Player

Winrar

Martin Voelk Martin Voelk

مشاور و مدرس ارشد امنیت فناوری اطلاعات