از آنجایی که مدلهای زبان بزرگ (LLM) چشمانداز هوش مصنوعی را متحول میکنند، درک و رسیدگی به چالشهای امنیتی منحصربهفردی که ارائه میکنند بسیار مهم میشود. در این دوره جامع از آزمایشگاههای هوش مصنوعی عملی، مدرس آلفردو دزا دانش فنی و مهارتهای مورد نیاز برای شناسایی، کاهش و جلوگیری از آسیبپذیریهای امنیتی در برنامههای LLM شما را پوشش میدهد. تهدیدات امنیتی رایج، مانند سرقت مدل، تزریق سریع و افشای اطلاعات حساس را کاوش کنید و تکنیک های عملی برای جلوگیری از سوء استفاده مهاجمان از آسیب پذیری ها و به خطر انداختن سیستم های شما را بیاموزید. بهترین روشها را برای طراحی ایمن افزونه، اعتبارسنجی ورودی و پاکسازی، و همچنین نحوه نظارت فعال بر وابستگیها برای بهروزرسانیهای امنیتی و آسیبپذیریها کشف کنید. در طول مسیر، آلفردو استراتژی هایی را برای محافظت از سیستم های هوش مصنوعی در برابر دسترسی های غیرمجاز و نقض داده ها ترسیم می کند. در پایان دوره، شما آماده خواهید بود که راه حل های هوش مصنوعی قوی، ایمن و موثر را به کار بگیرید.
توجه: این دوره توسط آزمایشگاه های هوش مصنوعی عملی ایجاد شده است. ما خوشحالیم که میزبان این آموزش در کتابخانه خود هستیم.
آزمایشگاههای هوش مصنوعی عملگرا یک آموزشدهنده فناوری است.
آزمایشگاههای هوش مصنوعی عملی همه را، صرفنظر از ابزار یا پیشزمینه، به دانشی برای تغییر خود و ارتقای جوامع خود مجهز میکند. آزمایشگاههای هوش مصنوعی عملگرا تلاش میکنند تا آموزش را دموکراتیک کرده و زندگی را از طریق فناوری خلاقانه و اخلاقی تقویت کنند. با مدرسان برجسته از دانشگاههای برتر با تجربه صنعت در دنیای واقعی، برنامههای آن بر ارائه مهارتهای در دسترس و پیشرفته تمرکز دارد که منجر به تحقق مشاغل و در عین حال اجتناب از آسیب و بهبود رفاه انسان میشود.
آلفردو دزا نویسنده، المپیکی و استاد کمکی در دانشگاه دوک است.
آلفردو نزدیک به دو دهه تجربه DevOps و مهندسی نرم افزار دارد و چندین کتاب درباره DevOps و Python از جمله Python for DevOps<نوشته است./i> و MLOهای عملی. زمینه های تخصص او عبارتند از Azure و رایانش ابری، DevOps، MLOps، Python، Databricks، و اتوماسیون با CI/CD.
آلفردو در حال حاضر به عنوان یک مدافع اصلی ابر در مایکروسافت کار می کند و در Marietta، جورجیا زندگی می کند.
نمایش نظرات