آموزش تأمین هوش مصنوعی: استراتژی ها ، روش ها ، ابزارها و بهترین شیوه ها - آخرین آپدیت

دانلود Securing Generative AI: Strategies, Methodologies, Tools, and Best Practices

نکته: ممکن هست محتوای این صفحه بروز نباشد ولی دانلود دوره آخرین آپدیت می باشد.
نمونه ویدیوها:
توضیحات دوره: این دوره اکتشافی جامع در مورد اقدامات مهم امنیتی لازم برای استقرار و توسعه پیاده سازی های مختلف هوش مصنوعی ، از جمله مدل های بزرگ زبان (LLM) و نسل بازیابی (RAG) ارائه می دهد. برای کاهش خطر کلی در فرآیندهای توسعه سیستم AI سازمانی ، ملاحظات و کاهش های کلیدی را کشف کنید. عمر سانتوس ، نویسنده و مربی فناوری ، ملزومات اصول طراحی امن را پوشش می دهد ، با تمرکز بر نتایج امنیتی ، شفافیت رادیکال و ساخت ساختارهای سازمانی که در اولویت امنیت قرار دارند. در طول راه ، در مورد تهدیدهای هوش مصنوعی ، امنیت LLM ، تزریق سریع ، کنترل خروجی ناامن ، مدل های تیم AI تیم قرمز و موارد دیگر اطلاعات بیشتری کسب کنید. در پایان این دوره ، شما آماده خواهید بود که از مهارت های تازه افتخارآمیز خود برای محافظت از پیاده سازی های RAG ، بانک اطلاعاتی وکتور ایمن ، انتخاب مدل های جاسازی و استفاده از کتابخانه های ارکستراسیون قدرتمند مانند Langchain و Llamaindex استفاده کنید.

سرفصل ها و درس ها

مقدمه Introduction

  • تضمین هوش مصنوعی: مقدمه Securing generative AI: Introduction

1. مقدمه ای بر تهدیدات هوش مصنوعی و امنیت LLM 1. Introduction to AI Threats and LLM Security

  • بررسی چارچوب ATLAS MITER ™ (چشم انداز تهدید مخالف برای سیستم های اطلاعاتی مصنوعی) Exploring the MITRE ATLAS™ (adversarial threat landscape for artificial intelligence systems) framework

  • اهداف یادگیری Learning objectives

  • درک طبقه بندی nist و اصطلاحات حملات و کاهش Understanding the NIST taxonomy and terminology of attacks and mitigations

  • درک 10 خطرات برتر OWASP برای LLMS Understanding the OWASP Top 10 risks for LLMs

  • درک اهمیت LLM ها در چشم انداز AI Understanding the significance of LLMs in the AI landscape

  • معرفی نسل تقویت شده بازیابی (RAG) Introducing retrieval augmented generation (RAG)

  • کاوش در منابع این دوره: مخازن GitHub و دیگران Exploring the resources for this course: GitHub repositories and others

2. درک سریع استفاده از خروجی ناامن تزریق سریع 2. Understanding Prompt Injection Insecure Output Handling

  • اهداف یادگیری Learning objectives

  • اجرای کنترل امتیاز در دسترسی LLM به سیستم های عقب Enforcing privilege control on LLM access to back-end systems

  • با استفاده از chatML برای تماس های API OpenAI برای نشان دادن منبع ورودی سریع به LLM Using ChatML for OpenAI API calls to indicate to the LLM the source of prompt input

  • بهترین روشهای مربوط به نشانه های API برای افزونه ها ، دسترسی به داده ها و مجوزهای سطح عملکرد Best practices around API tokens for plugins, data access, and function-level permissions

  • بررسی حملات تزریق سریع در زندگی واقعی Exploring real-life prompt injection attacks

  • درک حملات رسیدگی به خروجی ناامن Understanding insecure output handling attacks

  • با استفاده از ASV های OWASP برای محافظت در برابر رسیدگی به خروجی ناامن Using the OWASP ASVS to protect against insecure output handling

  • تعریف حملات تزریق سریع Defining prompt injection attacks

3. آموزش مسمومیت با داده ها ، انکار مدل آسیب پذیری های زنجیره تأمین خدمات 3. Training Data Poisoning, Model Denial of Service Supply Chain Vulnerabilities

  • کاوش در مدل انکار حملات خدماتی Exploring model denial of service attacks

  • درک حملات مسمومیت با داده ها Understanding training data poisoning attacks

  • اهداف یادگیری Learning objectives

  • درک خطرات زنجیره تأمین AI و ML Understanding the risks of the AI and ML supply chain

  • بهترین روش ها هنگام استفاده از مدل های منبع باز از بغل کردن صورت و منابع دیگر Best practices when using open-source models from Hugging face and other sources

  • امنیت آمازون Bedrock ، Amazon Sagemaker ، Microsoft Azure AI Services و سایر محیط ها Securing Amazon Bedrock, Amazon SageMaker, Microsoft Azure AI services, and other environments

4. افشای اطلاعات حساس ، طراحی پلاگین ناامن و آژانس بیش از حد 4. Sensitive Information Disclosure, Insecure Plugin Design, and Excessive Agency

  • بهره برداری از طراحی پلاگین ناامن Exploiting insecure plugin design

  • اجتناب از نمایندگی بیش از حد Avoiding excessive agency

  • درک افشای اطلاعات حساس Understanding sensitive information disclosure

  • هدف یادگیری Learning objective

5. عدم اعتماد به نفس ، سرقت مدل و مدل های AI تیم قرمز 5. Overreliance, Model Theft, and Red Teaming AI Models

  • بررسی حملات سرقت مدل Exploring model theft attacks

  • اهداف یادگیری Learning objectives

  • درک اعتماد به نفس Understanding overreliance

  • درک تیمی قرمز از مدل های AI Understanding red teaming of AI models

6. محافظت از اجرای تولید تقویت شده (RAG) 6. Protecting Retrieval Augmented Generation (RAG) Implementations

  • اهداف یادگیری Learning objectives

  • نظارت و پاسخ حادثه Monitoring and incident response

  • درک Rag ، Langchain ، Llama Index و Orchestration AI Understanding RAG, LangChain, Llama index, and AI orchestration

  • ایمن سازی مدلهای جاسازی Securing embedding models

  • ایمن سازی بانکهای اطلاعاتی بردار Securing vector databases

پایان Conclusion

  • تضمین هوش مصنوعی: خلاصه Securing generative AI: Summary

نمایش نظرات

آموزش تأمین هوش مصنوعی: استراتژی ها ، روش ها ، ابزارها و بهترین شیوه ها
جزییات دوره
3h 38m
36
Linkedin (لینکدین) Linkedin (لینکدین)
(آخرین آپدیت)
1,194
- از 5
ندارد
دارد
دارد
جهت دریافت آخرین اخبار و آپدیت ها در کانال تلگرام عضو شوید.

Google Chrome Browser

Internet Download Manager

Pot Player

Winrar

Pearson Pearson

Pearson یک ارائه دهنده آموزش و یادگیری است.

هدف پیرسون این است که به افراد کمک کند تا زندگی خود را از طریق یادگیری درک کنند، با این باور که هر فرصت یادگیری فرصتی برای پیشرفت شخصی است. کارکنان پیرسون متعهد به ایجاد تجربیات یادگیری پر جنب و جوش و غنی هستند که برای تأثیرگذاری در زندگی واقعی طراحی شده اند. آنها در نزدیک به 200 کشور با محتوای دیجیتال، ارزیابی ها، صلاحیت ها و داده ها به مشتریان خدمات ارائه می دهند.

Omar Santos Omar Santos