هوش مصنوعی؟ دانش طبیعی
شکی نیست که هوش مصنوعی همه جا وجود دارد.
در تلفنهای همراه، رایانههای ما، اتومبیلهای ما، برنامههای ما و بسیاری از جنبههای دیگر زندگی.
دانستن نحوه طراحی و آموزش مدلهای موثر هوش مصنوعی و ML کار آسانی نیست.
اما حتی زمانی که به آن مسلط هستید، ممکن است اینها مسئول نباشند.
به دلیل سوگیری، خطا، مدیریت مخرب یا عوامل دیگر، مدلهای AI/ML ممکن است به افراد داده آسیب برساند.
طبیعتاً چندین دوره در مورد موضوعات پراکنده صنعت هوش مصنوعی وجود دارد.
نحوه آموزش مدلها، نحوه انحراف از مجموعه دادهها و سایر حوزههای خاص.
اغلب، میتوانید اطلاعاتی در مورد جنبههای هوش مصنوعی یا جنبههای هوش مصنوعی مسئول پیدا کنید. اما نه هر دو.
علاوه بر این، بسیاری از دوره ها از تعاریف متفاوتی استفاده می کنند، بنابراین ممکن است گیج شوید.
به طور خلاصه، بیشتر دورههای آموزشی در زمینه هوش مصنوعی یک منبع واحد و واحد آموزشی در مورد هوش مصنوعی مسئول ارائه نمیدهند.
و این پیامدهایی نه تنها برای شغل شما، بلکه شخصاً خودتان نیز دارد.
وقتی اطلاعات کافی ندارید (یا در قالب کافی) چه اتفاقی میافتد؟
از الگوریتمهای مسئول - و غیرمسئولانه - گیج میشوید. آیا ما نیاز به انحراف داریم؟ آیا به توضیح نیاز داریم؟ دیگران؟
شما نمی توانید به درستی مشکلات مدل را که ممکن است به افراد داده آسیب برساند، تشخیص دهید - و آنها را برطرف کنید.
به دلیل اینکه ندانید یک مدل خاص چه مشکلی دارد، ناامید و عصبانی خواهید شد؛
شما نمیتوانید از نظر مدلها انتخاب کنید - از طبقهبندیکنندههای خاص تا حساس، مدلهای دقیق در مقابل مدلهای قابل توضیح، یا بسیاری استنباطهای مدل خاص دیگر - که هر کدام پیامدهای اخلاقی دارند؛
نمیتوانید به کارفرما - یا کاربر نهایی - بگویید که میتوانید هوش مصنوعی «مسئولانه» را با اطمینان طراحی کنید؛
بنابراین، اگر میخواهید همه چیز را در مورد آنچه که مدلهای AI/ML را مسئول میکند (یا نه)، و همچنین نحوه رسیدگی به مشکلات را بدانید، باید به کجا بروید؟
این دوره جدید، البته!
یک دوره آموزشی مسئول برای هوش مصنوعی مسئول
برخلاف سایر دوره های آموزشی مسئول مدل هوش مصنوعی که در آنجا خواهید دید، این دوره جامع و به روز است.
به عبارت دیگر، نه تنها مطمئن شدم که موضوعات بیشتری (و عمیقتر) از هر دوره دیگری که ممکن است پیدا کنید، پیدا کنید، بلکه مطمئن شدم که اطلاعات مربوط به انواع مدلها و موارد استفاده که امروزه پیدا خواهید کرد.
طراحی مدلهای هوش مصنوعی مسئول ممکن است پیچیده به نظر برسد (و تا حدی است)، اما بر چند اصل کلیدی و ساده تکیه دارد.
در این دوره آموزشی، با نکات اساسی نحوه طراحی مدلها بدون تعصب، چگونگی توضیحپذیر شدن آنها و نحوه کاهش خطرات اخلاقی ناشی از آنها آشنا خواهید شد.
نه تنها این، ما عمیقاً به فعالیتها، سهامداران، پروژهها و منابع درگیر در طراحی مدل هوش مصنوعی مسئول خواهیم پرداخت.
در این مسترکلاس 8.5 ساعته، ماژول های زیر را خواهید یافت:
درباره اصول اولیه خواهید آموخت. ما با توضیح اینکه سوگیری مدل چیست، XAI (هوش مصنوعی قابل توضیح)، خطرات اخلاقی معمول ناشی از هوش مصنوعی، و مقدمهای بر رشتههای مختلف شروع میکنیم؛
درباره دادهها و مدلهای مسئول یاد خواهید گرفت. همه انواع مشکلاتی که ممکن است با یک مدل یا دادههای آن رخ دهد، از جابجایی دادهها، ویژگیهای اضافه بار/همبسته، استنتاجهای اشتباه، تطبیق بیشازحد، و بسیاری از مسائل دیگر با مدل یا داده - و نحوه رسیدگی به آنها؛
درباره شفافیت و توضیح پذیری خواهید آموخت. ما رشته XAI یا هوش مصنوعی قابل توضیح، اصول اولیه توجیهات، گیرندگان، مواردی که توجیههای خوب را ایجاد میکنند، و همچنین برخی از چارچوبهای محبوب برای توضیحپذیری هوش مصنوعی، مانند LIME، SHAP و TCAV را پوشش خواهیم داد؛
درباره اخلاق و خطرات اخلاقی در هوش مصنوعی خواهید آموخت. خطرات اخلاقی خاص مرتبط با یک مدل AI/ML داده شده، محصول حاوی آن، با مدیریت خود شرکت، و همچنین چه مقرراتی ممکن است بر تصمیمات مدل شما تأثیر بگذارد، و چگونه مدل هوش مصنوعی شما ممکن است بر جامعه تأثیر بگذارد، به طور کلی، با زمان و مقیاس؛
در پایان این دوره، دقیقاً خواهید دانست که چه چیزی باعث میشود مدلهای AI/ML غیرمسئولانه باشند و چگونه میتوانید مدلهای مسئولیتپذیر طراحی کنید، که به افراد کمک میکند، نه آسیب رساندن به آنها، در حالی که هنوز مفید و دقیق هستند.
بهترین این دوره؟ در داخل همه این 4 ماژول را خواهید یافت.
دوره عالی... برای چه کسی؟
این دوره برای انواع مختلف افراد هدف گذاری شده است.
به طور طبیعی، اگر شما یک متخصص فعلی یا آینده AI/ML هستید، این دوره برای شما مفید خواهد بود، و همچنین اگر هر حرفه ای یا اجرایی دیگری در طراحی مدل های AI/ML برای هر هدفی دخیل هستید.
اما حتی اگر شما هر نوع حرفه ای دیگری هستید که قصد دارد در مورد نحوه عملکرد AI/ML و اینکه چگونه ممکن است مسئولیت پذیر شود، بیشتر بدانید، این دوره برای شما مفید خواهد بود.
به طور خاص، شما دانشجوی ایده آل برای این دوره هستید اگر:
شما فردی هستید که میخواهید درباره AI/ML اطلاعات بیشتری کسب کنید (چگونه ورودیها را به خروجی تبدیل میکنند، انواع مختلف مدلها، ویژگیهای آنها و مشکلاتی که ممکن است در هر کدام از آنها پیش بیاید).
شما فردی هستید که به بررسی دقیق مدلهای AI/ML علاقهمند است (چیزی که باعث میشود مدلها حساس باشند، خروجیهای اشتباه ارائه کنند و/یا برای بخشهای خاصی از جمعیت تعصب داشته باشند)؛
شما افرادی هستید که به اخلاق در فناوری علاقه مند هستید (چگونه مدل های AI/ML ممکن است مشکلات اجتماعی را بدتر کنند، اقلیت ها را تبعیض کنند، یا تصمیمات خودکار در مقیاس اتخاذ کنند، که ممکن است به موضوع داده ها آسیب برساند)؛
بگذارید به شما بگویم... همه چیز
بعضی از مردم - از جمله من - دوست دارند بدانند در یک بسته چه چیزی دریافت می کنند.
منظورم از این، همه چیزهایی است که در بسته وجود دارد.
بنابراین، در اینجا لیستی از همه چیزهایی که این مستر کلاس پوشش می دهد آمده است:
اصول
با اصول اولیه مدل های غیرمسئولانه آشنا خواهید شد. مدلهایی که دارای دادهها یا مشکلات مدل هستند، قابل توضیح نیستند، یا ریسکهای اخلاقی آنها توسط شرکت محافظت نمیشود (یا تایید نمیشود).
درباره پیامدهای اخلاقی طبقهبندیکنندهها و پسروندهها، قرار دادن ورودیها در دستههای اشتباه، یا تخمین مقادیر اشتباه برای آنها، و همچنین آنچه ممکن است باعث شود، خواهید آموخت. همچنین، تفاوت بین مدل های افتراقی و مولد، از نظر آنچه ممکن است اتفاق بیفتد؛
درباره پیامدهای اخلاقی خاص طبقهبندیکنندههای حساس در مقابل خاص، و آنچه که آنها با آستانههای مختلف ایجاد میکنند، و همچنین معضل مشابه در پسروندهها - انعطافپذیر بودن در مقابل کارآمد بودن، آشنا خواهید شد.
درباره معضل دقت در مقابل توضیحپذیری، جایی که مدلهای مختلف در طیف دقت/قابلیت توضیح قرار میگیرند و اینکه چگونه مورد استفاده شما معمولاً معماری مدل را راهنمایی میکند، آشنا خواهید شد؛
دادهها و مدلهای مسئول:
درباره مسائل مربوط به ویژگیهای مدل، که مسائل ناشی از انتخاب ویژگیهای اشتباه (یا مغرضانه) در مدل، از جمله ویژگیهای کاهشیافته، تمرکز تاریخی، استفاده از پراکسیها، پیشفرض، داشتن ویژگیهای اضافه بار/همبسته، ایجاد میشوند، آشنا خواهید شد. "بیش از حد کارایی" و حلقه های بازخورد؛
درباره استفاده از ویژگیهای کاهشیافته، زمانی که یک مدل سعی میکند واقعیت را به یک (یا چند) ویژگی تقطیر کند، و پیامدهای آن خواهید آموخت؛
با تمرکز تاریخی آشنا میشوید که افراد (یا سایر ورودیها) را در "نسخههای گذشته" خود به دام میاندازد و بارها حلقههای بازخورد و معایب را تداوم میبخشد؛
درباره پراکسیها خواهید آموخت که ویژگیهایی هستند که به سایر ویژگیهای غیرقابل دسترس تقریب میزنند، اما سوگیریهای خاص خود را دارند، و از چه نوعهایی برخوردارند؛
درباره پیشفرض کردن - مجبور کردن افراد (یا ورودیها) به دستههای خاص، و چه اتفاقی میافتد وقتی ورودیها بهطور پیشفرض به دستههای اشتباه (یا بدون دستهبندی) میرسند، آشنا میشوید.
شما در مورد ویژگیهای بیش از حد بارگذاری شده یا مرتبط، که ویژگیهایی هستند که در نگاه اول مستقل به نظر میرسند، اما در واقع معنای بیشتری دارند، اغلب اطلاعات مالی، نژادی و سایر اطلاعات را رمزگذاری میکنند، آشنا خواهید شد.
درباره «کارآمدی بیش از حد»، نامی که من برای هدف به حداکثر رساندن ارزش یک ویژگی واحد، به هر قیمتی، صرف نظر از عواقبی که برای افراد و سایر عناصر دارد، میگذارم، آشنا خواهید شد.
درباره حلقههای بازخورد خواهید آموخت - وقتی خروجیهای مدل بعداً بهعنوان ورودی استفاده میشوند چه اتفاقی میافتد، و چگونه میتواند تعصبات و تبعیض را تداوم بخشد؛
درباره مشکلات مدل، که مشکلات مربوط به خود مدل یا آموزش آن است، آشنا خواهید شد.
در مورد حساسیت خصمانه یاد خواهید گرفت - چه اتفاقی میافتد وقتی یک مدل برای نویز آموزش داده نمیشود، و بنابراین، با تغییرات کوچک در ورودیها نوسانات شدیدی در خروجیها ایجاد میکند؛
درباره تطبیق بیش از حد اطلاعات خواهید آموخت - وقتی یک مدل فقط برای یک مورد استفاده (یا نوع داده) آموزش داده می شود، و پیامدهای اخلاقی خاص آن چه اتفاقی می افتد.
درباره مسائل مربوط به دادهها، که مشکلات مربوط به دادههای آموزشی یا خود دادههای تولیدی هستند، آشنا خواهید شد:
درباره دادههای جانبدارانه، نحوه رخ دادن آنها، سوگیریهایی که ممکن است داشته باشید، خودتان، بهعنوان یک متخصص، و نحوه رسیدگی به آنها خواهید آموخت؛
درباره جابجایی دادهها خواهید آموخت - زمانی که دادههای تولید شروع به داشتن ویژگیهای متفاوت از دادههای آموزشی و همچنین پیامدهای خاص این فرآیند میکنند؛
شما در مورد رویکردهای داده محور - تکنیک هایی برای بهبود کیفیت داده ها خواهید آموخت.
با برخی از معضلات کمیت داده آشنا خواهید شد - وقتی داده های زیادی برای یک ویژگی داریم، و همچنین زمانی که اصلاً داده نداریم، چه کاری باید انجام دهیم، و پیامدهای انتخاب های مختلف؛
در مورد بهداشت مجموعه دادهها، از جمله مسئولیتهای منبعیابی و نگهداری دادهها، مدیریت ابردادهها، و سایر عناصر اساسی برای اطمینان از دادههای آموزشی با کیفیت بالا، یاد خواهید گرفت؛
درباره تنوع و انحرافگرایی خواهید آموخت - چگونه مجموعه دادهها ممکن است مغرضانه شوند (از نظر مکان، قومیت، وضعیت مالی یا هر ویژگی دیگری)، و نحوه برخورد با سوگیریهای خود بهعنوان یک متخصص، مانند تعصب لنگر، سوگیری بقا، سوگیری تایید، و بسیاری دیگر؛
درباره نمایهسازی دادهها - نحوه افزایش کیفیت دادهها با شناسایی قالبها، الگوها، قوانین تجاری، معیارهای آماری و بینشهای بیشتر در مورد دادهها، خواهید آموخت؛
در مورد ابعاد دادههای اخلاقی - علاوه بر ابعاد دادههای "معمول" در نمایهسازی، مانند دقت یا کامل بودن، با استفاده از ابعادی که بهطور خاص میزان اخلاقی بودن دادهها را اندازهگیری میکنند، مانند عدالت، حریم خصوصی، شفافیت و موارد دیگر، و تصمیمات مدل AI/ML منصفانه را نشان می دهد (یا عدم وجود آنها!)؛
در مورد هدف/مرجع استفاده از دادهها و نحوه پردازش یکسان دادهها، در یک شرکت، برای یک هدف، و نه برای هدف دیگر، حفاظت از موضوع دادهها در صورتی که شرکت هدفی برای آنها نداشته باشد، یاد خواهید گرفت. داده;
درباره رویکردهای مدل محور - تصمیم گیری در مورد خود مدل، برای اخلاقی تر کردن استنتاج های آن:
درباره معضلات نادیده گرفتن انسانها و پیامدهای اخلاقی اجازه دادن به کاربران برای مخالفت با خروجیهای هوش مصنوعی - یا اجازه ندادن به آنها را یاد خواهید گرفت.
درباره تصمیمهای استنتاج مختلف، از آستانههای انتخابشده برای طبقهبندیکنندهها، توصیههای تنظیم بر اساس اطلاعات شخصی، و سایر معضلات، و همچنین پیامدهای آنها، آشنا خواهید شد؛
درباره اعتبار سنجی تخصصی خواهید آموخت - چرا مهم است که انتخابها و اهداف طراحی مدل را با کارشناسان کسبوکار تأیید کنید، و متخصص AI/ML را مسئول این موارد نکنید - و چرا؛
درباره ملاحظات زیرجمعیتها خواهید آموخت - چه اتفاقی میافتد وقتی مدل شما با یک زیرجمعیت خاص به روشی متفاوت رفتار میکند، و معضل "گسست کردن" یک کپی مدل برای یک زیرجمعیت مختلف در مقابل بهینهسازی خود مدل؛
>شفافیت و توضیح پذیری:
درباره اصول توضیح پذیری خواهید آموخت. رشته XAI یا هوش مصنوعی قابل توضیح چیست، شفافیت چیست، تفسیرپذیری چیست، اصطلاحات دیگر، و توجیهات یا توضیحات چیست؛
درباره عناصر کلیدی توضیحات، از وفاداری گرفته تا سطح انتزاع، اطلاعات متضاد، و سایر عناصر توجیهی هوش مصنوعی با کیفیت بالا و قابل توضیح، آشنا خواهید شد.
درباره دریافتکنندگان توضیح مختلف - کاربران داخلی، کاربران خارجی، مشاهدهکنندگان، تنظیمکنندهها و موارد دیگر، و آنچه که هر کدام ممکن است از نظر توضیحات درخواست کنند، آشنا خواهید شد.
درباره جنبههای منفی و چالشهای شفافیت، از جمله کاربرانی که با سیستم بازی میکنند، کپی کردن مدلهای هوش مصنوعی، حمله به خود مدل و موارد دیگر، آشنا خواهید شد؛
با مروری بر روشهای XAI، از جمله روشهای دادهمحور و پروفایل داده، تجسم نتایج مختلف، محاسبه تأثیر ویژگیهای مختلف، و توضیحات خلاف واقع، آشنا خواهید شد.
درباره عناصر رایج در XAI، از جمله "مفاهیم"، "فعالسازی" و "مدلهای جایگزین" که توسط بسیاری از چارچوبهای محبوب استفاده میشود، آشنا خواهید شد.
شما در مورد LIME، یا Local, Interpretable, Model-Agnostic Explanations، یک چارچوب قابل توضیح با استفاده از توضیح دهنده مدل جایگزین خطی خواهید آموخت؛
درباره SHAP یا Shapley Additive Explanations، یک چارچوب قابل توضیح با استفاده از مقادیر Shapley برای محاسبه مشارکت ویژگیها به شیوهای ظریفتر و پیشرفتهتر و با پیادهسازیهای خاص برای تمام معماریهای مدل اصلی آشنا خواهید شد.
درباره TCAV یا آموزش با بردارهای فعالسازی مفهومی، یک چارچوب قابل توضیح که از فعالسازی «مفاهیم» بهجای مناطق پیکسل برای تعیین خروجی استفاده میکند، کاربرپسندتر از روشهای دیگر مانند LRP (لایهای) خواهید آموخت. Relevance Propagation);
اخلاق و خطرات اخلاقی
درباره برخی ملاحظات محصول - خطرات و بینشهای مربوط به محصولات حاوی مدلهای هوش مصنوعی آشنا میشوید؛
درباره مؤلفههای کلیدی رضایت خوب، مانند انتخاب، آزادی، تفاهم، و موارد دیگر، و نحوه به دست آوردن «رضایت واقعی» با استفاده از این موارد آشنا خواهید شد؛
درباره برخی از دوراهیهای مربوط به نگهداری سوابق - انواع گزارشها و مدت زمان نگهداری، و عواقبی که این موضوع برای افراد دادهها دارد، آشنا میشوید.
در مراحل مختلف با ارزیابی خطرات اخلاقی ناشی از مدل هوش مصنوعی آشنا خواهید شد. خطرات ناشی از ایجاد، استفاده از آن، زوال احتمالی آن با گذشت زمان، و موارد دیگر؛
درباره برخی ملاحظات مدیریتی - خطرات اخلاقی ناشی از رفتار افراد در شرکت آشنا خواهید شد؛
درباره همسویی اخلاقی - تعریف ارزشهای اخلاقی که شرکت بر اساس آنها زندگی میکند، و اینکه چگونه آنها تحت تأثیر مدلهای AI/ML شما قرار میگیرند و پیادهسازی آنها در عمل، آشنا خواهید شد؛
درباره حکمرانی اخلاقی - تعریف ساختارها و افراد مسئول که بر رعایت یا عدم رعایت ارزشهای اخلاقی نظارت میکنند - و پیامدهای آن خواهید آموخت؛
درباره "رویکرد انطباق" یاد خواهید گرفت - اخلاق دادهها را نوعی انطباق در نظر میگیرید، که باعث میشود آن را کمیسازی و اندازهگیری کنید، و رعایت آن را آسانتر میکند؛
درباره اجرا و مسئولیتپذیری، از جمله اینکه چگونه مشوقهای کارکنان ممکن است منحرف باشد و به استفاده از مدل بدخواهانه کمک میکند، و همچنین نحوه مسئول نگه داشتن کارمندانی که تصمیمات غیراخلاقی با مدلهای AI/ML میگیرند، خواهید آموخت؛
با در نظر گرفتن مدلهای AI/ML که باید در سه سطح متفاوت از عمق مورد بررسی قرار گیرند، با سه سطح چارچوب نظارتی آشنا میشوید - اقدامات مجزا، مشارکتها در یک سیستم، و مشارکت در جامعه بزرگتر، به طور کلی.
درباره چارچوبهای نظارتی مرتبط و نحوه تأثیر آنها بر تصمیمگیریهای هوش مصنوعی خواهید آموخت؛
درباره GDPR و دستورالعملهای آن برای دادهها، اما به طور خاص، نحوه تأثیرگذاری آن بر تصمیمگیریهای هوش مصنوعی، ممنوع کردن تصمیمات خودکار با تأثیر قابل توجه/قانونی بر افراد و اجبار به افشای معماری مدل اولیه، به عنوان مثال، خواهید آموخت؛
درباره CCPA و شباهتها و تفاوتهای آن با GDPR - و بهویژه مواردی که بر تصمیمگیریهای هوش مصنوعی تأثیر میگذارند، خواهید آموخت؛
در مورد عادلانه بودن مقررات مالی در ایالات متحده و اینکه چگونه CFPB می تواند هر مدل AI/ML را، نه تنها از نظر خروجی، بلکه همچنین فرآیندها و اسناد، برای هر فعالیتی که ممکن است به مصرف کنندگان آسیب برساند، موشکافی کند. هر بازار خدمات مالی؛
درباره ملاحظات اجتماعی خواهید آموخت - آنچه مدل هوش مصنوعی شما می تواند با گذشت زمان و در مقیاس برای جامعه ایجاد کند، از جمله تسریع احتمالی سوگیری، وابستگی به ارائه دهنده، کمک به تمرکز بر نظارت، کاهش (یا حذف) تجربیات عینی و موارد دیگر؛
دعوت من برای شما
به خاطر داشته باشید که همیشه 30 روز ضمانت بازگشت وجه دارید، بنابراین خطری برای شما وجود ندارد.
همچنین، پیشنهاد میکنم از ویدیوهای پیشنمایش رایگان استفاده کنید تا مطمئن شوید که دوره واقعاً مناسب است. من نمی خواهم پول خود را هدر دهید.
اگر فکر میکنید این دوره مناسب است و میتواند دانش مسئول مدل AI/ML شما را به سطح بالاتری برساند... خوشحالم که شما را به عنوان یک دانشجو داشته باشیم.
تو را در طرف دیگر می بینم!
Kingmaker (مدیر و مربی مورد حمایت MIT) من دارای چیزی هستم که می تواند به عنوان مربی بعنوان پیشینه غیر متعارف شناخته شود. من از روانشناسی یا پزشکی نمی آیم. در واقع ، من از فن آوری آمده ام. من دو استارت آپ فناوری ایجاد کردم که با پشتیبانی شتاب دهنده راه اندازی MIT-Portugal IEI و پس از تبدیل شدن به سرآمد اطلاعاتی آن ، به ارزیابی های میلیونی رسیدند. پس از سالها مربیگری و راهنمایی بنیانگذاران استارتاپ در زمینه مدیریت استعداد ، مدیریت عاطفی ، نفوذ و اقناع ، در میان موضوعات دیگر ، من با درخواست مدیران و سرمایه گذاران ، مانند سرمایه گذاران خطرپذیر ، با مشکلات پیچیده تر ، در مقیاس بزرگ ، شروع به کار کردم. پس از سالها کار اجرایی ، تخصص در مربیگری متخصصان مدیریت دارایی را شروع کردم. با امضای اولین مدیر صندوق / مشتریان CIO ، من شروع به تطبیق عملکرد و تأثیر تکنیک های خود برای اهداف مانند مدیریت استعداد برای نخست وزیران و تحلیلگران ، جمع آوری کمک مالی از تخصیص دهندگان ، هدایت موثر یک تیم و ارزیابی صحیح استعداد برای جبران / ارتقا promotion / تخصیص کردم افزایش.
نمایش نظرات