لطفا جهت اطلاع از آخرین دوره ها و اخبار سایت در
کانال تلگرام
عضو شوید.
هک اخلاقی علیه و با دوره آموزشی AI/LLM/ML
Ethical Hacking against and with AI/LLM/ML Training Course
نکته:
آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
نمونه ویدیوها:
توضیحات دوره:
در تست نفوذ هوش مصنوعی و LLM و کشف آسیبپذیری حرفهای شوید آسیبپذیریهای AI/LLM به سطح حرفهای در تست نفوذ AI/LLM میرسند به یک سطح حرفهای در AI/LLM باگ بوونتی اصول اولیه AI/LLM AI/LLM Attacks AI/LLM Frameworks AI/LLM تزریق سریع AI/LLM خروجی ناامن مدیریت AI/LLM مسمومیت با داده های آموزشی AI/LLM انکار سرویس AI/LLM زنجیره تامین AI/LLM مشکلات مجوز AI/LLM نشت داده AI/LLM AI/LLM بیش از حد آژانس AI/LLMLLAI/پلاگین های ناامن مدل تهدید AI/LLM با استفاده از هوش مصنوعی برای تست نفوذ/هک اخلاقی Yolo AI Tool پیش نیازها: رایانه با حداقل 4 گیگابایت رم/حافظه سیستم عامل: Windows/Apple Mac OS/Linux اتصال به اینترنت قابل اعتماد Burp Suite (Community یا Pro ) نمونه مرورگر وب فایرفاکس از Kali Linux (Raspberry PI، VM، Virtualbox و غیره)
هک اخلاقی علیه و با دوره آموزشی AI/LLM/ML
به این دوره از دوره آموزشی هک اخلاقی و تست نفوذ هوش مصنوعی (AI) و مدلهای زبان بزرگ (LLM) خوش آمدید.
نکته مهم: این دوره استفاده واقعی از Burp Suite و ویژگی های آن را آموزش نمی دهد.
مدرس شما مارتین ولک است. او یک جانباز امنیت سایبری با 25 سال تجربه است. مارتین برخی از بالاترین گواهینامه ها را دارد. CISSP، OSCP، OSWP، Portswigger BSCP، CCIE، PCI ISA و PCIP. او به عنوان مشاور برای یک شرکت بزرگ فناوری کار می کند و در برنامه های Bug Bounty شرکت می کند که در آن هزاران آسیب پذیری حیاتی و بالا پیدا کرده است.
این دوره دارای بخشهای آزمایشگاهی تئوری و عملی با تمرکز بر یافتن و بهرهبرداری از آسیبپذیریها در سیستمها و برنامههای کاربردی هوش مصنوعی و LLM است. این آموزش با 10 کلاس آسیبپذیری LLM برتر OWASP هماهنگ است. مارتین در حال حل تمام آزمایشگاه های LLM از Portswigger علاوه بر بسیاری از آزمایشگاه ها و ویترین های دیگر است. فیلم ها به راحتی قابل پیگیری و تکرار هستند. همچنین یک بخش اختصاصی در مورد نحوه استفاده از هوش مصنوعی برای تست نفوذ/شکار باگ باونتی و هک اخلاقی وجود دارد.
این دوره دارای ویژگی های زیر است:
· مقدمه AI/LLM
· حملات AI/LLM
· چارچوبها/نوشتههای AI/LLM
· AI LLM01: تزریق سریع
· AI LLM02: مدیریت خروجی ناامن
· AI LLM03: Training Data Poisoning
· AI LLM04: انکار سرویس
· AI LLM05: زنجیره تامین
· AI LLM06: مشکلات مجوز
· AI LLM07: نشت داده
· AI LLM08: آژانس بیش از حد
· AI LLM09: اعتماد بیش از حد
· AI LLM10: افزونههای ناامن
· مدل تهدید
· کنار هم قرار دادن همه اینها
· استفاده از هوش مصنوعی برای تست نفوذ/هک اخلاقی
· ابزار هوش مصنوعی Yolo
یادداشت سلب مسئولیت
آزمایشگاههای Portswigger یک سرویس عمومی و رایگان از Portswigger است که همه میتوانند از آن برای تقویت مهارتهای خود استفاده کنند. تنها چیزی که نیاز دارید این است که برای یک حساب کاربری رایگان ثبت نام کنید. من این دوره را با آزمایشگاه های جدید به محض انتشار به روز خواهم کرد. من در یک بازه زمانی معقول به سوالات پاسخ خواهم داد. آموزش تست قلم/شکار باگ باونتی فرآیندی طولانی است، بنابراین اگر فورا باگ را پیدا نکردید، احساس ناامیدی نکنید. سعی کنید از گوگل استفاده کنید، گزارش های هکر وان را بخوانید و در مورد هر ویژگی به طور عمیق تحقیق کنید. این دوره فقط برای اهداف آموزشی است. این اطلاعات برای بهره برداری مخرب استفاده نمی شود و فقط باید برای اهدافی استفاده شود که اجازه حمله به آنها را دارید.
سرفصل ها و درس ها
دستور جلسه
Agenda
دستور جلسه
Agenda
مقدمه ای بر هوش مصنوعی
Introduction to AI
مقدمه ای بر هوش مصنوعی
Introduction to AI
حملات AI/LLM
AI/LLM Attacks
حملات AI/LLM
AI/LLM Attacks
چارچوب های AI/LLM/نوشتن آپ
AI/LLM Frameworks / write ups
نمایش نظرات