آموزش یادگیری ماشین و امنیت هوش مصنوعی خطر: طبقه بندی حملات و حالت های شکست

Machine Learning and Artificial Intelligence Security Risk: Categorizing Attacks and Failure Modes

نکته: آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
نمونه ویدیوها:
توضیحات دوره:
از پیش بینی نتایج پزشکی به مدیریت صندوق های بازنشستگی، ما اعتماد زیادی به یادگیری ماشین (ML) و هوش مصنوعی (AI) داریم، هرچند ما می دانیم که آنها به حملات آسیب پذیر هستند و گاهی اوقات می توانند به طور کامل ما را شکست دهند. در این دوره، مربی Diana Kelley نمونه های دنیای واقعی را از آخرین تحقیقات ML می برد و از طریق راه هایی که ML و AI می تواند شکست بخورد، اشاره می کند، اشاره گر در مورد چگونگی طراحی، ساخت و نگهداری سیستم های انعطاف پذیر.

درباره شکست های عمدی ناشی از حملات و شکست های غیر عمدی ناشی از نقص های طراحی و مسائل اجرایی. تهدیدات امنیتی و خطرات حریم خصوصی جدی هستند، اما با ابزار مناسب و آماده سازی شما می توانید خودتان را برای کاهش آنها تنظیم کنید. دیانا برخی از موثرترین روش ها و تکنیک های موثرترین ML را توضیح می دهد، از جمله بهداشت مجموعه داده ها، آموزش های تبلیغاتی و کنترل دسترسی به API ها.

سرفصل ها و درس ها

معرفی Introduction

  • نگرانی های امنیتی ماشین Machine learning security concerns

  • آنچه شما باید بدانید What you should know

1. پایه های یادگیری ماشین 1. Machine Learning Foundations

  • چگونه سیستم ها می توانند شکست بخورند و چگونه از آنها محافظت کنند How systems can fail and how to protect them

  • چرا امنیت ML Why does ML security matter

  • حملات در مقابل حالت های شکست ناخواسته Attacks vs. unintentional failure modes

  • اهداف امنیتی برای ML: سیا Security goals for ML: CIA

  • فصلنامه Chapter Quiz

2. حالت های نقص عمدی/حملات 2. Intentional Failure Modes/Attacks

  • حملات متضاد و AUPS Perturbation attacks and AUPs

  • حملات مسمومیت Poisoning attacks

  • شبکه های عصبی برنامه ریزی مجدد Reprogramming neural nets

  • دامنه فیزیکی (Objects offersarial 3D) Physical domain (3D adversarial objects)

  • حملات زنجیره تامین Supply chain attacks

  • معکوس مدل Model inversion

  • دستکاری سیستم System manipulation

  • استنتاج عضویت و سرقت مدل Membership inference and model stealing

  • پشت سرپوشیده و سوء استفاده های موجود Backdoors and existing exploits

  • فصلنامه Chapter Quiz

3. حالت های شکست ناخواسته/نقص طراحی ذاتی 3. Unintentional Failure Modes/Intrinsic Design Flaws

  • هک کردن پاداش Reward hacking

  • عوارض جانبی در یادگیری تقویت Side effects in reinforcement learning

  • تغییرات توزیع و تست ناقص Distributional shifts and incomplete testing

  • بیش از حد/لباس زیر Overfitting/underfitting

  • ملاحظات تعصب داده ها Data bias considerations

  • فصلنامه Chapter Quiz

4. ساختمان ML Resilient 4. Building Resilient ML

  • تکنیک های موثر برای ایجاد انعطاف پذیری در ML Effective techniques for building resilience in ML

  • ML DataSet Hygiene ML dataset hygiene

  • آموزش ML Adversarial ML adversarial training

  • کنترل دسترسی ML به APIs ML access control to APIs

  • فصلنامه Chapter Quiz

نتیجه Conclusion

  • مراحل بعدی Next steps

نمایش نظرات

آموزش یادگیری ماشین و امنیت هوش مصنوعی خطر: طبقه بندی حملات و حالت های شکست
جزییات دوره
1h 11m
29
Linkedin (لینکدین) Linkedin (لینکدین)
(آخرین آپدیت)
-
- از 5
ندارد
دارد
دارد
Diana Kelley
جهت دریافت آخرین اخبار و آپدیت ها در کانال تلگرام عضو شوید.

Google Chrome Browser

Internet Download Manager

Pot Player

Winrar

Diana Kelley Diana Kelley

CTO و Coflounding SecurityCurve

Diana Kelley CTO و Cofounder SecurityCurve، یک استراتژی مستقل، مشاوره و مشاوره شرکت است.

دیانا در حال حاضر اصلی VCISO در SALT Cybersecurity، عضو هیئت مدیره اجرایی زنان در امنیت سایبری و آینده سایبر است بنیاد و مشاور در فن آوری های Comptia و Woplli. او سری #mycyberwhy را تولید می کند و میزبان عمل متعادل سازی (امنیت) توسط BrightTalk و میزبان پادکست پادکست روزانه سایبر است. یک میدان سابق امنیت سایبری CTO در مایکروسافت و مشاور امنیت جهانی اجرایی IBM، او 2020 مدیر اجرایی سال 2009 توسط انجمن زنان اجرایی در مورد امنیت اطلاعات، مدیریت ریسک و حفظ حریم خصوصی نامگذاری شد و همکاران معماری سایبری عملی و کتابخانه های رمزنگاری است برای توسعه دهندگان.