آموزش حسابرسی الگوریتمی و نظارت مستمر

Algorithmic Auditing and Continuous Monitoring

نکته: آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
نمونه ویدیوها:
توضیحات دوره:

از آنجایی که هوش مصنوعی تقریباً در هر بخش ادغام می‌شود، ایجاد فرآیندهای مدیریتی قوی هوش مصنوعی برای به حداکثر رساندن مزایای آن و کاهش خطرات بسیار مهم است. اقدامات قانونی مانند قانون هوش مصنوعی اتحادیه اروپا در سال 2023 - که هر توسعه دهنده یک سیستم هوش مصنوعی با ریسک بالا را ملزم به ورود به بازار اتحادیه اروپا برای اجرای حسابرسی الگوریتمی می کند - و چارچوب مدیریت ریسک هوش مصنوعی NIST در ایالات متحده به این معنی است که شرکت هایی که الگوریتمی را پیاده سازی می کنند. حسابرسی و نظارت مستمر در بازار مزیت دارند.

در این دوره، Brandie Nonnecke به شما می آموزد که چگونه فرآیندهای ممیزی الگوریتمی و نظارت مستمر را در سازمان خود پیاده سازی کنید. حاکمیت هوش مصنوعی مسئولانه را بیاموزید، زیرا برندی فرآیندهای اجباری و داوطلبانه برای ممیزی و نظارت بر سیستم‌های هوش مصنوعی را پوشش می‌دهد و مطالعات موردی را ارائه می‌کند که در آن می‌توانید از طریق فرآیند حسابرسی و نظارت مناسب کار کنید.


سرفصل ها و درس ها

معرفی Introduction

  • ممیزی الگوریتمی و استفاده از نظارت مستمر (در حال انجام) Algorithmic auditing and continuous monitoring uses (In progress)

  • اصول و شیوه های هوش مصنوعی مسئول Responsible AI principles and practices

1. حسابرسی الگوریتمی و نظارت مستمر 1. Algorithmic Auditing and Continuous Monitoring

  • حسابرسی الگوریتمی چیست؟ What is algorithmic auditing?

  • نظارت مستمر چیست؟ What is continuous monitoring?

  • ممیزی الگوریتمی داوطلبانه و مورد نیاز Voluntary and required algorithmic auditing

  • حسابرسی الگوریتمی و بازار کار Algorithmic auditing and the job market

2. مهارت برای حسابرسان الگوریتمی و تیم های نظارت مستمر 2. Skills for Algorithmic Auditors and Continuous Monitoring Teams

  • ایجاد یک ساختار حکومتی مؤثر Establishing an effective governance structure

  • جمع آوری و پردازش اطلاعات Data collection and analysis

  • شناسایی و مدیریت سوگیری Identifying and managing bias

  • راه اندازی یک فرآیند نظارت مستمر Setting up a continuous monitoring process

3. مطالعه موردی: ابزارها و تکنیک های حسابرسی و نظارت مستمر در عمل 3. Case Study: Auditing and Continuous Monitoring Tools and Techniques in Practice

  • مطالعه موردی: RedTech 30 Case study: RedTech 30

  • RedTech 30: ساختار حاکمیت RedTech 30: Governance structure

  • RedTech 30: نمونه‌گیری داده‌ها RedTech 30: Data sampling

  • RedTech 30: بررسی داده ها و کد RedTech 30: Data and code review

  • RedTech 30: تست و اشکال زدایی RedTech 30: Testing and debugging

  • RedTech 30: نظارت مستمر RedTech 30: Continuous monitoring

نتیجه Conclusion

  • منابع هوش مصنوعی مسئول Responsible AI resources

نمایش نظرات

آموزش حسابرسی الگوریتمی و نظارت مستمر
جزییات دوره
1h 3m
17
Linkedin (لینکدین) Linkedin (لینکدین)
(آخرین آپدیت)
-
- از 5
ندارد
دارد
دارد
جهت دریافت آخرین اخبار و آپدیت ها در کانال تلگرام عضو شوید.

Google Chrome Browser

Internet Download Manager

Pot Player

Winrar

Brandie Nonnecke Brandie Nonnecke

مدیر موسس، آزمایشگاه سیاست CITRIS، UC برکلی

براندی نونک، دکترا، مدیر مؤسس آزمایشگاه سیاست CITRIS در UC برکلی است.

برندی همچنین به عنوان مدیر ابتکار سیاست فنی، که به طور مشترک با مدرسه گلدمن میزبانی می‌شود، خدمت می‌کند. خط مشی عمومی، و مدیر مشترک مرکز خط مشی هوش مصنوعی است که به طور مشترک با ابتکار عمل امنیت هوش مصنوعی CLTC میزبانی می شود. . برندی یکی از همکاران Schmidt Futures است و اخیراً به عنوان همکار فناوری و حقوق بشر در مرکز Carr برای سیاست حقوق بشر در مدرسه هاروارد کندی خدمت کرده است. تحقیقات او در Science، Wired، NPR، BBC News، MIT Technology Review و موارد دیگر به نمایش درآمده است.

برندی به مطالعه حقوق بشر در تقاطع قانون، سیاست و فناوری های نوظهور می پردازد. کار فعلی او بر عدالت و مسئولیت پذیری در هوش مصنوعی متمرکز است.

انتشارات تحقیقاتی و مقالات او در nonnecke.com موجود است.