آموزش هوش مصنوعی مولد و امنیت سایبری – چارچوب‌ها و بهترین شیوه‌ها ۲۰۲۵ - آخرین آپدیت

دانلود GenAI and Cybersecurity – Frameworks and Best Practices 2025

نکته: ممکن هست محتوای این صفحه بروز نباشد ولی دانلود دوره آخرین آپدیت می باشد.
نمونه ویدیوها:
توضیحات دوره:

راهنمای جامع پذیرش GenAI سازمانی: ابزارها، چارچوب‌ها و مطالعات موردی واقعی

هدف اصلی این دوره: تسلط بر اصول اساسی و بهترین شیوه‌ها برای ادغام هوش مصنوعی مولد (Generative AI) در امنیت سایبری.

با دوره GenAI و امنیت سایبری – چارچوب‌ها و بهترین شیوه‌ها ۲۰۲۵ به آینده خوش آمدید!

پیشرفت‌های سریع در هوش مصنوعی مولد صنایع را متحول می‌کنند، و هیچ زمان بهتری برای به‌روزرسانی و ارتقاء مهارت‌های خود وجود ندارد.

از ایجاد هنر تا خودکارسازی کد، هوش مصنوعی اکنون بخشی حیاتی از زندگی روزمره ماست و درک پتانسیل آن برای کسب‌وکارها و افراد بسیار ضروری است.

شرکت‌های فناوری از هوش مصنوعی برای ساده‌سازی عملیات، افزایش بهره‌وری و هدایت نوآوری با دستیارهای هوش مصنوعی که به طور مداوم یاد می‌گیرند و بهبود می‌یابند، استفاده می‌کنند.

ابزارهای هوش مصنوعی فرآیندها را ساده، بهره‌وری را افزایش و نوآوری‌هایی را که زمانی غیرممکن تصور می‌شد، تقویت می‌کنند.

اما بهترین بخش اینجاست: این فناوری دیگر فقط برای بازیگران بزرگ نیست.

این دوره شما را یک شبه متخصص نمی‌کند، اما شما را وادار می‌کند تا سوالات بهتر و مبتنی بر مورد استفاده بپرسید و به دنبال پاسخ‌های واقعی و مسئولانه باشید. اکیداً برای مبتدیان توصیه نمی‌شود.

بیایید آن را واضح بیان کنیم :)

موارد استفاده نادرست از هوش مصنوعی (AKA: "چرا ما اینطور هستیم؟")

  • هوش مصنوعی برای پیشنهاد اخراج: "زمانی که الگوریتم ارزش شما را تعیین می‌کند و منابع انسانی فقط دکمه ارسال را می‌زند."
  • هوش مصنوعی برای جایگزینی فروشندگان فروش: "زیرا ایمیل خوب نوشته شده، همان درک درست از نیاز نیست."
  • هوش مصنوعی برای تشخیص احساسات در مصاحبه‌ها: "خیلی می‌خندی؟ مشکوکی. کم می‌خندی؟ بی‌تفاوت. هوش مصنوعی: پلیس جدیدِ حال و هوا."

موارد استفاده مسئولانه از هوش مصنوعی (با محافظ، نه حدس و گمان)

  • دستیاران پایگاه دانش: "هوش مصنوعی را برای پاسخ به سوالات متداول آموزش دهید، نه اخراج تیمتان."
  • نوشتن خلاقانه و خلاصه‌سازی: "با هوش مصنوعی هم‌نویس شوید، نه اینکه اصالت شما را تصاحب کند."
  • پردازش خودکار اطلاعات (OCR، چندوجهی): "بگذارید هوش مصنوعی بخش‌های کسل‌کننده را انجام دهد – انسان‌ها همچنان داستان را هدایت می‌کنند."

قبل از ثبت‌نام: این دوره برای ارتباط با متخصصان همفکر است که به پذیرش متفکرانه و مسئولانه GenAI اهمیت می‌دهند.

لطفاً فقط در صورتی بپیوندید که با این دیدگاه همسو هستید.

هوش مصنوعی مولد دودویی نیست – فقط ۰ یا ۱ نیست. این در مورد چگونگی ترکیب داده، دانش دامنه، مدل‌ها، مشاهده‌پذیری و نوآوری مسئولانه برای شکل دادن راه‌حل‌های معنی‌دار است.

در این حوزه پاسخ "درست" واحدی وجود ندارد. آنچه مهم است رویکرد شماست:

  • آیا در حال کسب دیدگاه هستید؟
  • آیا سوالات درستی می‌پرسید؟
  • آیا مایل به چرخش و کاوش در زوایای متعدد هستید؟

مزایای دوره برای شما:

ارائه دیدگاهی برای نگاشت دامنه / داده در لنز هوش مصنوعی:

  • سوالات بهتر در مورد راه‌حل‌های هوش مصنوعی بپرسید. دیدگاه‌های دامنه / داده خود را برای متعادل کردن استراتژی‌های راه‌حل‌یابی هوش مصنوعی به کار ببرید.
  • سناریوها را بررسی کنید و پرس‌وجو ارائه دهید، حتی بدون درک کامل تمام جنبه‌های فنی.
  • حوزه‌های فناوری، تخصص دامنه و استراتژی‌های هوش مصنوعی مرتبط با اهداف خود را شناسایی کنید.
  • چند سال را برای تمرکز انتخاب کنید – GenAI PM / توسعه GenAI / تنظیم دقیق مدل / توسعه‌دهنده عامل / Txt2SQL / موارد استفاده مرتبط با بینایی / موارد استفاده متمرکز بر دامنه.

این به شما کمک می‌کند تا موارد زیر را درک و شناسایی کنید:

  • تمایز بین کارشناسان مقالات، کارشناسان نظرات و کسانی که تجربه عملی دارند. هرگز نظرات را بدون معیارهای دقیق و داده‌های پشتیبان قضاوت نکنید.
  • در حالی که همه در مورد قابلیت‌ها بحث می‌کنند، تعداد کمی به محافظ‌ها و معیارها می‌پردازند. به نظر می‌رسد فروش هیجان‌انگیز یک الگوی ثابت است.

آنچه در این دوره خواهید آموخت:

GenAI و امنیت سایبری: چارچوب‌ها و بهترین شیوه‌ها

  • مفاهیم اساسی هوش مصنوعی، یادگیری ماشین، یادگیری عمیق و GenAI را درک کنید.
  • موارد استفاده و کاربردهای کلیدی در امنیت سایبری را کاوش کنید.
  • مطالعات موردی مانند تسلا اتوپایلوت را برای تشخیص ناهنجاری و چالش‌های عقل سلیم تحلیل کنید.

امنیت سایبری در هوش مصنوعی/یادگیری ماشین و اخلاق هوش مصنوعی

  • اهمیت امنیت سایبری در هوش مصنوعی/یادگیری ماشین را درک کنید.
  • ریسک‌های فناوری هوش مصنوعی را در مراحل مختلف با مثال‌های عملی ارزیابی کنید.
  • روندهای نوظهور فناوری و تأثیر آن‌ها بر امنیت سایبری را مطالعه کنید.

امنیت راه‌حل و زیرساخت

  • معماری‌های معمول امنیت سایبری مبتنی بر ابر را بررسی کنید.
  • راه‌حل‌های امنیت سایبری مختص هوش مصنوعی و چالش‌های منحصربه‌فرد آن‌ها را مقایسه کنید.
  • دلیل نیاز به بازتعریف امنیت سایبری برای هوش مصنوعی و نقش مقررات هوش مصنوعی را مورد بحث قرار دهید.

استراتژی داده و حریم خصوصی هوش مصنوعی

  • نقض داده‌ها را درک کرده و یک استراتژی داده هوش مصنوعی قوی توسعه دهید.
  • در مورد مدل‌سازی هوش داده و مدیریت کیفیت داده بیاموزید.
  • مدیریت چرخه عمر داده، اخلاق داده، امنیت و حاکمیت را کاوش کنید.

استراتژی حریم خصوصی هوش مصنوعی

  • پارادوکس حریم خصوصی هوش مصنوعی و عوامل و نگرانی‌های مرتبط را پیمایش کنید.
  • نگرانی‌های مربوط به حریم خصوصی مربوط به داده‌ها، هویت، حساسیت و نظارت را ارزیابی کنید.
  • قوانین، سیاست‌ها و ابزارهای طراحی شده برای محافظت از حریم خصوصی هوش مصنوعی را مرور کنید.

مدیریت ریسک و تهدیدات هوش مصنوعی

  • ریسک‌ها و تهدیدات هوش مصنوعی را از طریق مطالعات موردی دقیق بررسی کنید.
  • چارچوب‌های هوش مصنوعی مانند NIST AI RMF را برای مدیریت موثر ریسک پیاده‌سازی کنید.
  • چشم‌اندازهای نوظهور تهدیدات هوش مصنوعی و روندهای مدیریت ریسک آینده را بررسی کنید.

چارچوب‌ها و سیاست‌های هوش مصنوعی

  • به هسته NIST AI RMF، نقشه راه، کتابچه راهنما و طبقه‌بندی بپردازید.
  • اولین پذیرش چارچوب‌ها و سیاست‌های هوش مصنوعی را با موارد استفاده مرتبط کاوش کنید.
  • ارجاعات امنیت سایبری، چارچوب‌های هوش مصنوعی و سیاست‌های حاکمیت را مرور کنید.

کنترل‌های هوش مصنوعی

  • کنترل‌های هوش مصنوعی و سه‌گانه CIA را درک کنید.
  • ارزیابی‌های BIA و ISBIA را بازتعریف کنید.
  • با OWASP و آسیب‌پذیری‌های برتر MLSecOps آشنا شوید.

حسابرسی و انطباق هوش مصنوعی

  • نیاز به حسابرسی سیستم‌های هوش مصنوعی و اجزای آن‌ها را تشخیص دهید.
  • آمادگی حسابرسی و انطباق برای سیستم‌های هوش مصنوعی را مقایسه کنید.

قوانین و مقررات هوش مصنوعی

  • چارچوب هوش مصنوعی اتحادیه اروپا و رویکرد مبتنی بر ریسک به مقررات هوش مصنوعی را تجزیه و تحلیل کنید.
  • چارچوب هوش مصنوعی اخلاقی توسط OECD، قانون هوش مصنوعی اتحادیه اروپا و GDPR هوش مصنوعی را مطالعه کنید.
  • پیامدهای لایحه حفاظت از داده‌ها و اطلاعات دیجیتال بریتانیا را درک کنید.

امنیت GenAI و LLM

  • پیامدهای ریسک، سوگیری‌ها و دفاعیات هوش مصنوعی مولد را معرفی کنید.
  • آینده هوش مصنوعی امن و چالش‌ها و فرصت‌های نوظهور را کاوش کنید.

مطالعات موردی GenAI

  • ریسک‌ها و فرصت‌ها را در سیستم‌های LLM ارزیابی کنید.
  • حریم خصوصی سازمانی در OpenAI و ابزارهای امنیتی LLM را بررسی کنید.
  • از مطالعات موردی در پذیرش LLM و استراتژی‌های امنیت سایبری بیاموزید.

راه‌حل‌ها و فرصت‌ها

  • آخرین ابزارها و پلتفرم‌ها مانند Raga LLM Hub و Giscard را کشف کنید.
  • مطالعات موردی عملی را در خرده‌فروشی، خدمات مشتری و مراقبت‌های بهداشتی مطالعه کنید.
  • بهترین شیوه‌ها و چارچوب‌ها را برای پذیرش هوش مصنوعی با ریسک پایین کاوش کنید.

دسترسی مادام‌العمر به:

  • درس‌های ویدیویی جامع
  • مطالعات موردی دقیق
  • بینش‌های به‌روز صنعت
  • پروژه‌ها و تمرین‌های عملی

این دوره به چه کسانی کمک می‌کند؟

این دوره در مورد هوش مصنوعی مولد و امنیت سایبری، متخصصان همه صنایع را مجهز می‌کند.

این دوره یک کاوش عمیق در آخرین تحولات هوش مصنوعی ارائه می‌دهد و بینش‌های ارزشمندی برای ارتقاء توسعه محصول و تجربیات مشتری از طریق راه‌حل‌های پیشرفته هوش مصنوعی فراهم می‌کند.

متخصصان از یادگیری در مورد هوش مصنوعی و امنیت سایبری، از جمله شیوه‌های اخلاقی، مدیریت ریسک و اقدامات امنیتی ضروری برای حفظ یکپارچگی سیستم هوش مصنوعی بهره‌مند خواهند شد.

این تمرکز برای کسانی که ریسک‌های هوش مصنوعی را مدیریت می‌کنند و اطمینان از پروتکل‌های امنیتی قوی را تضمین می‌کنند، بسیار مهم است. این دوره همچنین چارچوب‌ها و سیاست‌های هوش مصنوعی مانند NIST AI RMF را پوشش می‌دهد و به متخصصان کمک می‌کند تا پیاده‌سازی‌های هوش مصنوعی خود را با استانداردهای صنعت و الزامات نظارتی همسو کنند.

استراتژی‌های امنیت و حریم خصوصی داده‌ها حوزه کلیدی دیگری است که به نقض داده‌ها، حاکمیت و حریم خصوصی می‌پردازد. این برای مدیریت و ایمن‌سازی داده‌ها، اطمینان از کیفیت آن‌ها و محافظت از اطلاعات حساس در زمینه هوش مصنوعی حیاتی است. این دوره همچنین مدل‌های زبانی بزرگ (LLM) را بررسی می‌کند و بینش‌های عملی در مورد استقرار آن‌ها ارائه می‌دهد.

از طریق مطالعات موردی واقعی، مانند سیستم خلبان خودکار تسلا و کاربردهای هوش مصنوعی در بخش‌های مختلف دیگر، این دوره نمونه‌های عملی از فناوری هوش مصنوعی در عمل را ارائه می‌دهد. با تسلط بر این موضوعات، متخصصان مجهز خواهند شد تا از هوش مصنوعی برای نوآوری استفاده کنند، اقدامات امنیتی را بهبود بخشند و شیوه‌های اخلاقی را رعایت کنند، در نتیجه چشم‌انداز شغلی خود را ارتقا داده و پیشرفت‌ها را در زمینه‌های خود هدایت کنند.

این دوره به چه کسانی کمک می‌کند؟

  • دانشمندان و تحلیلگران مشتاق داده که می‌خواهند قبل از ورود به یادگیری ماشین یا تجزیه و تحلیل پیشرفته، پایه‌ای قوی در آمار بسازند.
  • متخصصان و مدیران کسب‌وکار که به دنبال تصمیم‌گیری مبتنی بر داده با استفاده از ابزارها و بینش‌های آماری هستند.
  • دانشجویان دانشگاهی و محققان آکادمیک که نیاز به کاربرد روش‌های آماری در تکالیف، پایان‌نامه‌ها یا پروژه‌های تحقیقاتی خود دارند.
  • تیم‌های بازاریابی و محصول که هدفشان تفسیر داده‌های مشتریان، انجام تست A/B و بهینه‌سازی کمپین‌ها با اطمینان است.
  • متخصصان مالی، اقتصادی و حسابداری که با داده‌های کمی کار می‌کنند و نیاز به تقویت مهارت‌های تحلیلی خود دارند.
  • مدیران پروژه و مشاورانی که باید روندها را ارزیابی کنند، عملکرد را اندازه‌گیری کنند و از تصمیمات استراتژیک با داده‌ها پشتیبانی کنند.
  • تغییر شغل‌دهندگان و مبتدیان که هیچ تجربه قبلی در آمار ندارند اما مشتاق ارتقاء مهارت برای نقش‌ها در داده‌ها و فناوری هستند.
  • معلمان و مربیانی که به دنبال تجدید دانش خود یا بهبود نحوه تدریس تفکر آماری در کلاس درس هستند.
  • متخصصان فناوری (توسعه‌دهندگان، مهندسان) که می‌خواهند رفتار داده‌ها، معیارهای عملکرد و نتایج آزمایش‌ها را بهتر درک کنند.
  • هر کسی که کنجکاو است چگونه آمار کار می‌کند و چگونه می‌توان آن را برای حل مشکلات واقعی در کار، مطالعه یا زندگی روزمره به کار برد.

شما را در داخل دوره می‌بینیم!

امروز ثبت‌نام کنید و پتانسیل کامل خود را آزاد کنید!

یادگیری مبارک! به پیشرفت، اعمال آموخته‌های خود ادامه دهید و برای کاوش فرصت‌های جدید در هوش مصنوعی مولد و امنیت سایبری با انگیزه بمانید.


سرفصل ها و درس ها

مبانی استراتژیک هوش مصنوعی برای رهبران Strategic AI Foundations for Leaders

  • GenAI و امنیت سایبری – چارچوب‌ها و بهترین شیوه‌ها نسخه ۱ GenAI and Cybersecurity – Frameworks and Best Practices V1

  • هوش مصنوعی در ۵ دقیقه AI in 5 mins

  • روندهای کلیدی هوش مصنوعی AI Key Trends

  • یادگیری ماشین در مقابل یادگیری عمیق در مقابل GenAI در مقابل هوش انسانی ML vs Deep Learning vs GenAI vs Human Intelligence

  • بینایی – متن – سیستم‌های مدرن هوش مصنوعی Vision – Text – Modern AI Systems

  • سطوح اتوماسیون هوش مصنوعی AI Automation Levels

  • ML / DL / GenAI ML / DL / GenAI

  • موارد استفاده استراتژیک هوش مصنوعی Strategic AI Use Cases

  • کاربردهای بینایی کامپیوتری Computer Vision Applications

  • تست خلبان خودکار Test Autopilot

  • خلبان خودکار تسلا – ناهنجاری Tesla Autopilot - Anamoly

  • تشخیص در مقابل عقل سلیم Detection vs Common Sense

  • تبلیغ تعطیلات هوش مصنوعی کوکاکولا: سنت در مقابل نوآوری Coca-Cola's AI Holiday Ad: Tradition vs. Innovation

  • روندهای پذیرش تجاری GenAI GenAI Business Adoption Trends

  • بررسی دانش – مبانی هوش مصنوعی Knowledge Check - AI Fundamentals

مدیریت ریسک هوش مصنوعی برای تیم‌های محصول AI Risk Management for Product Teams

  • امنیت سایبری در هوش مصنوعی، یادگیری ماشین و اخلاق هوش مصنوعی (۲ دقیقه) Cybersecurity in AI ML and AI Ethics (2 mins)

  • نمونه ریسک هوش مصنوعی AI Risk Sample

  • ریسک‌های فناوری هوش مصنوعی در مراحل مختلف AI Tech Risks at Different Stages

  • هوش مصنوعی اخلاقی Ethical AI

  • چرا هوش مصنوعی و امنیت سایبری؟ Why AI and Cyber Security?

  • روندهای فناوری نوظهور – دنیای هوشمند Emerging Technology Trends - Smart World

  • روندهای فناوری نوظهور – انقلاب بهره‌وری Emerging Technology Trends - Productivity Revolution

  • روندهای فناوری نوظهور – حریم خصوصی و شفافیت Emerging Technology Trends - Privacy and Transparency

  • روندهای فناوری نوظهور – توانمندسازان حیاتی Emerging Technology Trends - Critical Enablers

  • بررسی دانش – امنیت سایبری در هوش مصنوعی Knowledge Check - Cybersecurity in AI

GenAI: راهنمای پیاده‌سازی استراتژیک GenAI: Strategic Implementation Guide

  • مقدمه Introduction

  • عصر تحول شناختی چیست؟ What Is the Cognitive Transformation Era?

  • GenAI – مدل‌های پایه LLM GenAI – Foundational LLM Models

  • هوش مصنوعی یک پلتفرم جدید را فعال می‌کند: هوش به عنوان سرویس AI enables a new platform: Intelligence-as-a-service

  • لحظه ChatGPT ChatGPT Moment

  • ساخت LLM سفارشی Building Custom LLM

  • ۱۰۰ برنامه برتر مصرف کننده Gen AI The Top 100 Gen AI Consumer Apps

  • تحول بازاریابی Evolution of Marketing

  • مطالعه موردی – آمازون / سویگی Case Study – Amazon / Swiggy

  • مطالعه موردی – پیاده‌سازی LLM – درس‌های شکست Case Study – LLM Implementation - Failure Lessons

  • معیارها در حوزه بهداشت و درمان Metrics in Healthcare Domain

  • LLM های فعلی در پزشکی Current LLMs in medicine

  • کدام اقتصادها برای هوش مصنوعی آماده هستند؟ Which Economies Are Ready for AI?

  • هوش مصنوعی مولد، کارگر آمریکایی و آینده کار Generative AI, the American worker, and the future of work

  • بررسی دانش – اصول GenAI Knowledge Check - GenAI Principles

معماری و امنیت هوش مصنوعی سازمانی Enterprise AI Architecture & Security

  • مقدمه Introduction

  • چرا امنیت سایبری برای هوش مصنوعی باید بازتعریف شود؟ Why cyber security needs to be redefined for AI?

  • معماری معمول امنیت سایبری مبتنی بر ابر Typical Cloud based Cyber Security Architecture

  • معماری معمول امنیت سایبری مبتنی بر ابر – Azure Typical Cloud based Cyber Security Architecture - Azure

  • معماری امنیت سایبری هوش مصنوعی AI Cyber Security Architecture

  • راه‌حل‌ها و زیرساخت هوش مصنوعی چگونه متفاوت هستند؟ How are AI solutions and Infrastructure different

  • مناقشات کلیدی هوش مصنوعی طبق لیست یونسکو Key AI controversies as listed by UNESCO

  • مناقشات کلیدی هوش مصنوعی طبق لیست یونسکو – ادامه دارد Key AI controversies as listed by UNESCO - Continued

  • زمینه‌های اضافی تمرکز برای امنیت راه‌حل/زیرساخت Additional Areas of Focus for Solution/Infrastructure Security

  • آیا مقررات هوش مصنوعی قابل اعتماد است؟ Trust AI Regulation?

  • بررسی دانش – امنیت راه‌حل و زیرساخت Knowledge Check - Solution and Infra Security

امنیت و چالش‌های مدل GenAI GenAI Model Security and Challenges

  • امنیت مدل Model Security

  • چالش‌های امنیت مدل GenAI GenAI Model Security Challenges

  • امنیت در GenAI Security in GenAI

  • پایگاه داده حوادث هوش مصنوعی AI Incident Database

  • بررسی توهم Hallucination Survey

  • LLMSecOps LLMSecOps

  • بررسی دانش – امنیت مدل Knowledge Check - Model Security

کنترل‌های عملی هوش مصنوعی برای کسب‌وکار Practical AI Controls for Business

  • مقدمه Introduction

  • کنترل‌های هوش مصنوعی – سه‌گانه CIA AI Controls - CIA Triad

  • بازتعریف ارزیابی‌های BIA و ISBIA Redefining BIA and ISBIA Evaluations

  • کنترل‌های هوش مصنوعی بخش ۱ AI Controls Part 1

  • کنترل‌های هوش مصنوعی بخش ۲ AI Controls Part 2

  • کنترل‌های هوش مصنوعی بخش ۳ AI Controls Part 3

  • OWASP / OWASP AI / MLSecOps – ۱۰ آسیب‌پذیری برتر OWASP / OWASP AI / MLSecOps - Top 10 Vulnerabilities

  • بررسی دانش – کنترل‌های هوش مصنوعی Knowledge Check - AI Controls

استراتژی داده و مدیریت حریم خصوصی Data Strategy & Privacy Management

  • مقدمه استراتژی داده و حریم خصوصی هوش مصنوعی Introduction to AI Data & Privacy Strategy

  • نقض داده‌ها Data Breaches

  • استراتژی داده هوش مصنوعی AI Data Strategy

  • مدل‌سازی هوش داده Data Intelligence Modeling

  • مدل‌سازی هوش داده – بخش ۲ Data Intelligence Modeling - Part 2

  • اخلاق داده Data Ethics

  • مدیریت چرخه عمر داده Data Life Cycle Management

  • کیفیت داده – انواع مختلف داده Data Quality - Different Data Types

  • امنیت داده Data Security

  • حاکمیت داده Data Governance

  • حریم خصوصی داده Data Privacy

  • بررسی دانش – استراتژی داده و حریم خصوصی هوش مصنوعی Knowledge Check - AI Data and Privacy Strategy

استراتژی حریم خصوصی برای محصولات هوش مصنوعی Privacy Strategy for AI Products

  • مقدمه Introduction

  • پارادوکس حریم خصوصی هوش مصنوعی The AI Privacy Paradox

  • حریم خصوصی هوش مصنوعی – عوامل و نگرانی‌ها AI Privacy - Factors & Concerns

  • حریم خصوصی هوش مصنوعی – عوامل و نگرانی‌ها – قوانین، سیاست‌ها، ابزارها AI Privacy - Factors & Concerns - Laws, Policies, Tools

  • حریم خصوصی هوش مصنوعی – عوامل و نگرانی‌ها – داده‌ها AI Privacy - Factors & Concerns - Data

  • حریم خصوصی هوش مصنوعی – عوامل و نگرانی‌ها – هویت AI Privacy - Factors & Concerns - Identity

  • حریم خصوصی هوش مصنوعی – عوامل و نگرانی‌ها – حساسیت AI Privacy - Factors & Concerns - Sensitivity

  • حریم خصوصی هوش مصنوعی – عوامل و نگرانی‌ها – نظارت – نسخه ۱ AI Privacy - Factors & Concerns - Surveillance - V1

  • حریم خصوصی هوش مصنوعی – عوامل و نگرانی‌ها – قوانین، سیاست‌ها، ابزارها AI Privacy - Factors & Concerns - Laws, Policies, Tools

  • بررسی دانش – استراتژی حریم خصوصی هوش مصنوعی Knowledge Check - AI Privacy Strategy

مدیریت ریسک و تهدید هوش مصنوعی AI Risk Management & Threat Management

  • مقدمه Introduction

  • ارزیابی / ریسک‌های LLM LLM Assessment / Risks

  • مطالعات موردی: ناوبری ریسک‌های هوش مصنوعی Case Studies: Navigating AI Risks

  • چشم‌انداز تهدید هوش مصنوعی نوظهور Emerging AI Threat Landscape

  • روندهای نوظهور در مدیریت ریسک و نوآوری‌ها Emerging Trends in Risk Management and Innovations

  • مدیریت ریسک و تهدید هوش مصنوعی AI Risk & Threat Management

  • چارچوب‌های هوش مصنوعی – NIST AI RMF AI Frameworks - NIST AI RMF

  • بازتعریف مدیریت ریسک برای هوش مصنوعی Redefining Risk Management for AI

  • ادغام مدیریت ریسک هوش مصنوعی Integrating AI Risk Management

  • عوامل هوش مصنوعی در مراحل چرخه عمر AI Actors across Lifecycle Stages

  • قابلیت اعتماد و ریسک هوش مصنوعی AI Trustworthiness & Risk

  • مدیریت ریسک و تهدید هوش مصنوعی AI Risk & Threat Management

  • آینده مدیریت ریسک هوش مصنوعی The Future of AI Risk Management

  • بررسی دانش – مدیریت ریسک هوش مصنوعی Knowledge Check - AI Risk Management

حاکمیت هوش مصنوعی – چارچوب‌ها و سیاست‌های هوش مصنوعی AI Governance - AI Frameworks & Policies

  • مقدمه Introduction

  • NIST AI RMF Core, Roadmap, Playbook NIST AI RMF Core, Roadmap, Playbook

  • قابلیت فریم‌بندی ریسک NIST AI RMF NIST AI RMF Framing Risk

  • طبقه‌بندی NIST AI RMF NIST AI RMF Taxonomy

  • پذیرش زودهنگام چارچوب‌ها و سیاست‌های هوش مصنوعی Early Adoption of AI Frameworks and Policies

  • پذیرش زودهنگام NIST – موارد استفاده NIST Early Adoption - Use Cases

  • امنیت سایبری – مراجع، چارچوب‌های هوش مصنوعی، سیاست‌های حاکمیت Cyber Security - References, AI Frameworks, Governance Policies

  • بررسی دانش – چارچوب و سیاست‌های هوش مصنوعی Knowledge Check - AI Framework and Policies

مدیریت حسابرسی و انطباق هوش مصنوعی AI Audit & Compliance Management

  • مقدمه Introduction

  • نیاز به حسابرسی سیستم‌های هوش مصنوعی Need for Auditing AI Systems

  • اجزای حسابرسی سیستم‌های هوش مصنوعی Components of Auditing AI systems

  • حسابرسی و انطباق – مقایسه و آمادگی Audit & Compliance - Comparision & Readiness

  • بررسی دانش – حسابرسی و انطباق هوش مصنوعی Knowledge Check - AI Audit and Compliance

قوانین و مقررات هوش مصنوعی AI Laws & Regulations

  • مقدمه Introduction

  • چارچوب هوش مصنوعی اتحادیه اروپا – رویکرد مبتنی بر ریسک به مقررات هوش مصنوعی EU's AI framework - Risk-Based Approach to AI Regulation

  • چارچوب هوش مصنوعی اخلاقی توسط OECD، قانون هوش مصنوعی اتحادیه اروپا، GDPR AI Ethical AI Framework by OECD, EU AI Act, GDPR AI

  • قانون هوش مصنوعی اتحادیه اروپا EU AI Act

  • پوشش GDPR از هوش مصنوعی GDPR's Coverage of Artificial Intelligence

  • لایحه حفاظت از داده و اطلاعات دیجیتال بریتانیا UK Data Protection and Digital Information Bill

  • بررسی دانش – قوانین و مقررات هوش مصنوعی Knowledge Check - AI Laws and Regulations

امنیت GenAI و LLM GenAI & LLM Security

  • مقدمه بخش Intro to the section

  • پیامدهای ریسک هوش مصنوعی مولد Generative AI Risk Implications

  • سوگیری در توزیع BIAS in Distribution

  • حملات و دفاعیات GenAI GenAI Attacks & Defenses

  • منابع تهدیدات برای عامل‌های LLM The Sources of Threats for LLM Agents

  • عامل‌ها در مقابل پذیرش مسئولانه هوش مصنوعی Agents vs Responsible AI Adoption

  • دفاعیات نوظهور GenAI GenAI Emerging Defenses

  • آینده هوش مصنوعی امن: چالش‌ها و فرصت‌ها The Future of Secure AI: Challenges and Opportunities

  • بررسی دانش – امنیت LLM Knowledge Check - LLM Security

راهنمای GenAI – مدل‌ها، ریسک‌ها، استراتژی‌های پذیرش و توصیه‌ها GenAI Playbook - Models, Risks, Adoption Strategies and Recommendations

  • مقدمه Introduction

  • پیشرفت روش‌های حمله، مکانیزم‌های دفاعی در LLMها و محدودیت‌های آن‌ها Advancements of the attack methods, defense mechanisms in LLMs, their limitation

  • طبقه‌بندی برای ریسک‌های سیستم‌های LLM Taxonomy for the risks of LLM systems

  • آسیب‌پذیری‌های LLM LLM Vulnerabilities

  • ارزیابی فرصت‌ها، ریسک‌ها و انطباق قانون هوش مصنوعی اتحادیه اروپا در LLM Assessment of LLM opportunities, risks and EU AI Act compliance

  • امنیت LLM LLM Security

  • مدل‌ها و انطباق LLM – سوالات کلیدی درباره مدل‌های فعلی LLM Models and Compliance - Key Questions about Current Models

  • ریسک‌ها و فرصت‌های هوش مصنوعی مولد متن‌باز Risks and Opportunities of Open-Source Generative AI

  • امنیت داده – حریم خصوصی سازمانی در OpenAI Data Security - Enterprise privacy at OpenAI

  • ابزارهای امنیتی LLM و Google – حفاظت مرکز فرماندهی امنیتی – VertexAI LLM Security Tools & Google - Security Command Center protection - VertexAI

  • ریسک LLM / موارد استفاده / کاهش LLM Risk / Use Cases / Mitigation

  • تحلیل ریسک RAG، Promptها و عامل‌ها Risk Analysis of RAG, Prompts, and Agents

  • چالش Red Teaming هوش مصنوعی مولد Generative AI Red Teaming Challenge

  • معیارهای ویژه حوزه – LegalBench در مقابل CorpFin Domain Specific Benchmarks - LegalBench vs CorpFin

  • استراتژی پذیرش GenAI GenAI Adoption Strategy

  • استراتژی پذیرش کم‌خطر GenAI GenAI Low Risk Adoption Strategy

  • استفاده از Red Teaming برای حاکمیت هوش مصنوعی Leveraging Red Teaming for AI Governance

  • بررسی دانش – استراتژی پذیرش GenAI Knowledge Check - GenAI Adoption Strategy

داستان‌های موفقیت و درس‌های GenAI GenAI Success Stories & Lessons

  • تحلیل پذیرش بینایی Vision Adoption Analysis

  • دقت / چالش‌های سازگاری مدل GenAI – آزمایش‌ها GenAI Model Accuracy / Consistency Challenges - Experiments

  • جشن یک سال موفقیت در موارد استفاده GenAI در خرده‌فروشی! Celebrating a Year of GenAI Use Case Success in Retail!

  • خلاصه پذیرش LLMها و چشم‌اندازها LLMs Adoption Summary and Perspectives

  • بررسی دانش – موارد استفاده GenAI Knowledge Check - GenAI Use Cases

حسابرسی GenAI، مطالعات موردی امنیتی، ابزارها، راه‌حل‌ها و فرصت‌ها GenAI Audit, Security Case Studies, Tools, Solutions and Opportunities

  • مقدمه Introduction

  • غوطه‌وری عمیق در امنیت اکوسیستم هوش مصنوعی Deep Dive Into The Security for AI Ecosystem

  • مطالعه موردی AuditOne AuditOne Case Study

  • مطالعه موردی AuditOne – غوطه‌وری عمیق AuditOne Case Study Deep Dive

  • با فعال شدن Apple Intelligence در MacOS 15.1 With Apple Intelligence being rolled out onto MacOS 15.1

  • چرخه عمر Guardrail و آسیب‌پذیری‌ها Guardrails Lifecycle and Vulnerabilities

  • Raga LLM Hub – ارزیابی LLM و Guardrailها Raga LLM Hub - LLM Evaluation and Guardrails

  • Giskard Giskard

  • مطالعه موردی – Dropbox – پذیرش Guardrail / تعدیل LLM Case Study - Dropbox - LLM Guardrails / Moderation Adoption

  • APIهای تعدیل محتوا Content Moderation APIs

  • راهنمای Azure Azure Guidance

  • مطالعه موردی – LLM – مورد استفاده غنی‌سازی خلاصه زمینه (آمازون، سویگی) Case Study - LLM - Context Summary Enrichment Use case (Amazon, Swiggy)

  • بررسی دانش – شیوه‌های پذیرش GenAI Knowledge Check - GenAI Adoption Practices

راهنمای رهبری برای تحول هوش مصنوعی Leadership Guide to AI Transformation

  • مطالعه موردی شماره ۲ – ربات کمکی محصول برای کارکنان فروشگاه Case Study #2 – Instore Associate Product Help Bot

  • مطالعه موردی شماره ۳ – چت‌بات رو به مشتری – چک‌لیست هدف، زمینه، Guardrailها Case Study #3 – Customer Facing chatbot - Checklist Intent, Context, Guardrails

  • تسریع پاسخ به حوادث با استفاده از هوش مصنوعی مولد Accelerating incident response using Generative AI

  • نحوه مهاجرت چت‌بات‌ها از AI/ML به GenAI How to be Migrate chatbots from AI/ML to GenAI

  • ارتباط داده – اهمیت داده‌های دامنه / پایه LLM Data Relevance - Importance of Domain / LLM base data

  • بهترین شیوه‌ها – داستان‌های موفقیت – Klara Best Practices - Success Stories - Klara

  • چارچوب پذیرش کم‌خطر GenAI GenAI Low Risk Adoption Framework

  • مزایای RAG، تنظیم دقیق نادر است، و عامل‌ها ازاد می‌شوند RAG Gains, Fine Tuning Is Rare, and Agents Break Out

  • توصیه‌های GenAI GenAI Recomendations

  • ضرورت رهبری: چشم‌اندازی فراتر از هیاهو The Leadership Imperative: Vision Beyond the Hype

  • خلاصه Summary

  • بررسی دانش – خلاصه دوره Knowledge Check - Course Summary

نمایش نظرات

آموزش هوش مصنوعی مولد و امنیت سایبری – چارچوب‌ها و بهترین شیوه‌ها ۲۰۲۵
جزییات دوره
6.5 hours
162
Udemy (یودمی) Udemy (یودمی)
(آخرین آپدیت)
551
4.2 از 5
دارد
دارد
دارد
جهت دریافت آخرین اخبار و آپدیت ها در کانال تلگرام عضو شوید.

Google Chrome Browser

Internet Download Manager

Pot Player

Winrar

Sivaram A Sivaram A

استراتژی هوش مصنوعی / معمار راهکار هوش مصنوعی

Gayathri B R Gayathri B R

مشاوره امنیت سایبری / پذیرش هوش مصنوعی مسئولانه