آموزش خطرات امنیتی در هوش مصنوعی و یادگیری ماشینی: دسته بندی حملات و حالت های شکست

Security Risks in AI and Machine Learning: Categorizing Attacks and Failure Modes

نکته: آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
نمونه ویدیوها:
توضیحات دوره:
از پیش‌بینی نتایج پزشکی گرفته تا مدیریت صندوق‌های بازنشستگی، ما به فناوری یادگیری ماشین (ML) و هوش مصنوعی (AI) اعتماد زیادی داریم، حتی اگر می‌دانیم که آنها در برابر حملات آسیب‌پذیر هستند، و گاهی اوقات می‌توانند به طور کامل ما را شکست دهد. در این دوره آموزشی، مدرس دایانا کلی، نمونه‌های واقعی را از آخرین تحقیقات ML می‌آورد و راه‌هایی را که ML و AI ممکن است شکست بخورند، ارائه می‌دهد و نکاتی را در مورد نحوه طراحی، ساخت و نگهداری سیستم‌های انعطاف‌پذیر ارائه می‌دهد.

درباره اطلاعات کسب کنید. شکست‌های عمدی ناشی از حملات و شکست‌های غیرعمدی ناشی از نقص‌های طراحی و مسائل اجرایی. تهدیدات امنیتی و خطرات حریم خصوصی جدی هستند، اما با ابزارها و آماده سازی مناسب می توانید خود را برای کاهش آنها آماده کنید. دیانا برخی از مؤثرترین روش‌ها و تکنیک‌ها را برای ایجاد ML قوی و انعطاف‌پذیر، مانند بهداشت مجموعه داده‌ها، آموزش دشمنان، و کنترل دسترسی به APIها توضیح می‌دهد.

سرفصل ها و درس ها

معرفی Introduction

  • نگرانی های امنیتی یادگیری ماشین Machine learning security concerns

  • آنچه شما باید بدانید What you should know

1. مبانی یادگیری ماشین 1. Machine Learning Foundations

  • چگونه سیستم ها می توانند شکست بخورند و چگونه از آنها محافظت کنیم How systems can fail and how to protect them

  • چرا امنیت ML اهمیت دارد؟ Why does ML security matter

  • حملات در مقابل حالت های شکست غیرعمدی Attacks vs. unintentional failure modes

  • اهداف امنیتی برای ML: سیا Security goals for ML: CIA

  • امتحان فصل Chapter Quiz

2. حالت های شکست عمدی/حملات 2. Intentional Failure Modes/Attacks

  • حملات اغتشاش و AUP Perturbation attacks and AUPs

  • حملات مسمومیت Poisoning attacks

  • برنامه ریزی مجدد شبکه های عصبی Reprogramming neural nets

  • دامنه فیزیکی (اشیاء متخاصم سه بعدی) Physical domain (3D adversarial objects)

  • حملات زنجیره تامین Supply chain attacks

  • وارونگی مدل Model inversion

  • دستکاری سیستم System manipulation

  • استنباط عضویت و سرقت مدل Membership inference and model stealing

  • درهای پشتی و اکسپلویت های موجود Backdoors and existing exploits

  • امتحان فصل Chapter Quiz

3. حالت های شکست غیر عمدی/اشکالات طراحی ذاتی 3. Unintentional Failure Modes/Intrinsic Design Flaws

  • هک پاداش Reward hacking

  • عوارض جانبی در یادگیری تقویتی Side effects in reinforcement learning

  • تغییرات توزیع و آزمایش ناقص Distributional shifts and incomplete testing

  • بیش از حد برازش/کم کردن Overfitting/underfitting

  • ملاحظات سوگیری داده ها Data bias considerations

  • امتحان فصل Chapter Quiz

4. Building Resilient ML 4. Building Resilient ML

  • تکنیک های موثر برای ایجاد تاب آوری در ML Effective techniques for building resilience in ML

  • بهداشت مجموعه داده ML ML dataset hygiene

  • آموزش خصمانه ML ML adversarial training

  • کنترل دسترسی ML به APIها ML access control to APIs

  • امتحان فصل Chapter Quiz

نتیجه Conclusion

  • مراحل بعدی Next steps

نمایش نظرات

آموزش خطرات امنیتی در هوش مصنوعی و یادگیری ماشینی: دسته بندی حملات و حالت های شکست
جزییات دوره
1h 11m
29
Linkedin (لینکدین) Linkedin (لینکدین)
(آخرین آپدیت)
-
- از 5
دارد
دارد
دارد
Diana Kelley
جهت دریافت آخرین اخبار و آپدیت ها در کانال تلگرام عضو شوید.

Google Chrome Browser

Internet Download Manager

Pot Player

Winrar

Diana Kelley Diana Kelley

CTO و Coflounding SecurityCurve

Diana Kelley CTO و Cofounder SecurityCurve، یک استراتژی مستقل، مشاوره و مشاوره شرکت است.

دیانا در حال حاضر اصلی VCISO در SALT Cybersecurity، عضو هیئت مدیره اجرایی زنان در امنیت سایبری و آینده سایبر است بنیاد و مشاور در فن آوری های Comptia و Woplli. او سری #mycyberwhy را تولید می کند و میزبان عمل متعادل سازی (امنیت) توسط BrightTalk و میزبان پادکست پادکست روزانه سایبر است. یک میدان سابق امنیت سایبری CTO در مایکروسافت و مشاور امنیت جهانی اجرایی IBM، او 2020 مدیر اجرایی سال 2009 توسط انجمن زنان اجرایی در مورد امنیت اطلاعات، مدیریت ریسک و حفظ حریم خصوصی نامگذاری شد و همکاران معماری سایبری عملی و کتابخانه های رمزنگاری است برای توسعه دهندگان.