LLM های منبع باز: هوش مصنوعی بدون سانسور و ایمن به صورت محلی با RAG

Open-source LLMs: Uncensored & secure AI locally with RAG

نکته: آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
نمونه ویدیوها:
توضیحات دوره: گزینه های ChatGPT خصوصی: Llama3، Mistral a. بیشتر با Function Calling، RAG، Vector Database، LangChain، AI-Agents چرا LLM های منبع باز؟ تفاوت ها، مزایا و معایب LLM های متن باز و منبع بسته LLM هایی مانند ChatGPT، Llama، Mistral، Phi3، Qwen2-72B-Instruct، Grok، Gemma و غیره چیست. کدام LLM ها در دسترس هستند و از چه باید استفاده کنم؟ یافتن شرایط "بهترین LLM" برای استفاده از LLM های منبع باز نصب و استفاده محلی از LM Studio، هر چیزی LLM، Ollama، و روش های جایگزین برای کارکرد LLM های سانسور شده در مقابل LLM های بدون سانسور تنظیم دقیق یک مدل منبع باز با گوگل (Huggingfasion) تشخیص تصویر) با LLM های منبع باز: Llama3، Llava و Phi3 Vision جزئیات سخت افزار: GPU Offload، CPU، RAM، و VRAM همه چیز درباره HuggingChat: رابطی برای استفاده از درخواست های سیستم LLM منبع باز در Prompt Engineering + Function Engineer Calling Prompt : ارتباط معنایی، اعلان‌های ساختاری و نقشی Groq: استفاده از LLM‌های منبع باز با تراشه LPU سریع به جای پایگاه‌های داده برداری GPU، مدل‌های جاسازی شده و نسل افزوده‌شده بازیابی (RAG) ایجاد یک چت ربات محلی RAG با هر چیزی استودیو Linking LLM و OllaM & Llama 3، و استفاده از فراخوانی تابع با Llama 3 و هر چیزی تابع LLM فراخوانی برای خلاصه کردن داده ها، ذخیره سازی، و ایجاد نمودارها با پایتون با استفاده از سایر ویژگی های Anything LLM و API های خارجی نکاتی برای برنامه های RAG بهتر با Firecrawl برای داده های وب سایت، RAG کارآمدتر با LlamaIndex و LlamaParse برای فایل‌های PDF و CSV تعریف و ابزارهای موجود برای عامل‌های هوش مصنوعی، نصب و استفاده از Flowise به صورت محلی با Node (ساده‌تر از Langchain و LangGraph) ایجاد یک عامل هوش مصنوعی که کد Python و مستندات AI را با استفاده از ابزار و U. دسترسی به اینترنت و میزبانی و استفاده از سه متخصص: کدام عامل هوش مصنوعی را باید بسازید و میزبانی خارجی، متن به گفتار (TTS) با Google Colab Finetuning LLM های منبع باز با Google Colab (Alpaca + Llama-3 8b, Unsloth) اجاره پردازنده‌های گرافیکی با جنبه‌های امنیتی Runpod یا Massed Compute: Jailbreak‌ها و خطرات امنیتی ناشی از حملات به LLM با Jailbreak، تزریق سریع و مسمومیت داده حریم خصوصی داده‌ها و امنیت داده‌های شما و همچنین سیاست‌های استفاده تجاری و فروش محتوای تولید شده پیشها: بدون قبلی دانش لازم است؛ همه چیز گام به گام نشان داده خواهد شد. داشتن یک رایانه شخصی با کارت گرافیک خوب، 16 گیگابایت رم و 6 گیگابایت VRAM مفید است (سری های Apple M، Nvidia و AMD ایده آل هستند)، اما این اجباری نیست.

ChatGPT مفید است، اما آیا متوجه شده‌اید که موضوعات سانسور شده زیادی وجود دارد، شما در جهت‌های سیاسی خاصی تحت فشار قرار می‌گیرید، برخی از سوالات بی‌ضرر بدون پاسخ می‌مانند، و ممکن است داده‌های ما با OpenAI ایمن نباشند؟ اینجاست که LLM های منبع باز مانند Llama3، Mistral، Grok، Falkon، Phi3 و Command R+ می توانند کمک کنند!

آیا آماده‌اید بر تفاوت‌های ظریف LLM‌های منبع باز تسلط داشته باشید و از پتانسیل کامل آن‌ها برای برنامه‌های مختلف، از تجزیه و تحلیل داده‌ها گرفته تا ایجاد چت‌بات‌ها و عوامل هوش مصنوعی، استفاده کنید؟ پس این دوره برای شماست!

مقدمه ای بر LLM های منبع باز

این دوره مقدمه ای جامع از دنیای LLM های منبع باز ارائه می دهد. شما در مورد تفاوت های بین مدل های منبع باز و منبع بسته یاد خواهید گرفت و خواهید فهمید که چرا LLM های منبع باز جایگزین جذابی هستند. موضوعاتی مانند ChatGPT، Llama و Mistral به تفصیل پوشش داده خواهد شد. علاوه بر این، با LLM های موجود و نحوه انتخاب بهترین مدل ها برای نیازهای خود آشنا خواهید شد. این دوره تاکید ویژه ای بر معایب LLM های منبع بسته و مزایا و معایب LLM های منبع باز مانند Llama3 و Mistral دارد.

کاربرد عملی LLMهای منبع باز

این دوره شما را از طریق ساده ترین راه برای اجرای LLM های منبع باز به صورت محلی و آنچه برای این تنظیم نیاز دارید راهنمایی می کند. با پیش نیازها، نصب LM Studio و روش های جایگزین برای اجرای LLM آشنا خواهید شد. علاوه بر این، نحوه استفاده از مدل های منبع باز در LM Studio را یاد می گیرید، تفاوت بین LLM های سانسور شده و بدون سانسور را درک می کنید و موارد استفاده مختلف را بررسی می کنید. این دوره همچنین تنظیم دقیق یک مدل منبع باز با Huggingface یا Google Colab و استفاده از مدل‌های بینایی برای تشخیص تصویر را پوشش می‌دهد.

مهندسی سریع و استقرار ابر

بخش مهمی از دوره مهندسی سریع برای LLM های منبع باز است. شما یاد خواهید گرفت که چگونه از HuggingChat به عنوان یک رابط استفاده کنید، از اعلان های سیستم در مهندسی سریع استفاده کنید و تکنیک های مهندسی اولیه و پیشرفته را به کار ببرید. این دوره همچنین اطلاعاتی در مورد ایجاد دستیاران خود در HuggingChat و استفاده از LLM های منبع باز با تراشه های LPU سریع به جای GPU ارائه می دهد.

فراخوانی تابع، پایگاه داده RAG و برداری

بیاموزید فراخوانی تابع در LLM چیست و چگونه پایگاه داده برداری، مدل‌های جاسازی شده و تولید افزوده شده با بازیابی (RAG) را پیاده‌سازی کنید. این دوره به شما نشان می دهد که چگونه Anything LLM را نصب کنید، یک سرور محلی راه اندازی کنید و یک چت بات RAG با Anything LLM و LM Studio ایجاد کنید. همچنین یاد خواهید گرفت که با Llama 3 و Anything LLM فراخوانی تابع را انجام دهید، داده ها را خلاصه کنید، ذخیره کنید و با پایتون تجسم کنید.

عوامل بهینه سازی و هوش مصنوعی

برای بهینه‌سازی برنامه‌های RAG، نکاتی در مورد آماده‌سازی داده‌ها و استفاده کارآمد از ابزارهایی مانند LlamaIndex و LlamaParse دریافت خواهید کرد. علاوه بر این، شما با دنیای عوامل هوش مصنوعی آشنا خواهید شد. شما خواهید آموخت که عوامل هوش مصنوعی چیست، چه ابزارهایی در دسترس هستند، و چگونه Flowise را به صورت محلی با Node.js نصب و استفاده کنید. این دوره همچنین بینش های عملی را در مورد ایجاد یک عامل هوش مصنوعی ارائه می دهد که کد و اسناد پایتون را تولید می کند و همچنین از فراخوانی تابع و دسترسی به اینترنت استفاده می کند.

برنامه ها و نکات اضافی

در نهایت، این دوره، تبدیل متن به گفتار (TTS) با Google Colab و تنظیم دقیق LLM های منبع باز با Google Colab را معرفی می کند. در صورتی که رایانه محلی شما کافی نیست، یاد خواهید گرفت که چگونه از ارائه دهندگانی مانند Runpod یا Massed Compute کرایه کنید. علاوه بر این، ابزارهای خلاقانه ای مانند Microsoft Autogen و CrewAI و نحوه استفاده از LangChain برای توسعه عوامل هوش مصنوعی را بررسی خواهید کرد.

از قدرت تغییردهنده فناوری منبع باز LLM برای توسعه راه حل های نوآورانه و گسترش درک خود از کاربردهای متنوع آنها استفاده کنید. همین امروز ثبت نام کنید و سفر خود را برای تبدیل شدن به یک متخصص در دنیای مدل های زبان بزرگ آغاز کنید!


سرفصل ها و درس ها

مقدمه و بررسی اجمالی Introduction and Overview

  • خوش آمدید Welcome

  • بررسی اجمالی دوره Course Overview

  • هدف من و چند نکته My Goal and Some Tips

  • توضیح لینک ها Explanation of the Links

  • لینک های مهم Important Links

چرا LLM های منبع باز؟ تفاوت ها، مزایا و معایب Why Open-Source LLMs? Differences, Advantages, and Disadvantages

  • این بخش در مورد چیست؟ What is this Section about?

  • LLM ها مانند ChatGPT، Llama، Mistral و غیره چیست؟ What are LLMs like ChatGPT, Llama, Mistral, etc.

  • کدام LLM ها در دسترس هستند و چه چیزی باید استفاده کنم: پیدا کردن "بهترین LLM" Which LLMs are available and what should I use: Finding "The Best LLMs"

  • معایب LLM های منبع بسته مانند ChatGPT، Gemini و Claude Disadvantages of Closed-Source LLMs like ChatGPT, Gemini, and Claude

  • مزایا و معایب LLM های منبع باز مانند Llama3، Mistral و موارد دیگر Advantages and Disadvantages of Open-Source LLMs like Llama3, Mistral & more

  • خلاصه: این را فراموش نکنید! Recap: Don't Forget This!

ساده ترین راه برای اجرای LLM های منبع باز محلی و آنچه شما نیاز دارید The Easiest Way to Run Open-Source LLMs Locally & What You Need

  • الزامات استفاده از LLM های منبع باز محلی: GPU، CPU و Quantization Requirements for Using Open-Source LLMs Locally: GPU, CPU & Quantization

  • نصب LM Studio و روش های جایگزین برای اجرای LLM Installing LM Studio and Alternative Methods for Running LLMs

  • استفاده از مدل‌های منبع باز در LM Studio: Llama 3، Mistral، Phi-3 و موارد دیگر Using Open-Source Models in LM Studio: Llama 3, Mistral, Phi-3 & more

  • 4 LLM سانسور شده در مقابل بدون سانسور: Llama3 با Dolphin Finetuning 4 Censored vs. Uncensored LLMs: Llama3 with Dolphin Finetuning

  • موارد استفاده از LLM های کلاسیک مانند Phi-3 Llama و موارد دیگر The Use Cases of classic LLMs like Phi-3 Llama and more

  • Vision (تشخیص تصویر) با LLMهای منبع باز: Llama3، Llava و Phi3 Vision Vision (Image Recognition) with Open-Source LLMs: Llama3, Llava & Phi3 Vision

  • چند نمونه از تشخیص تصویر (Vision) Some Examples of Image Recognition (Vision)

  • جزئیات بیشتر در مورد سخت افزار: GPU Offload، CPU، RAM و VRAM More Details on Hardware: GPU Offload, CPU, RAM, and VRAM

  • خلاصه ای از آنچه یاد گرفتید و چشم انداز سرورهای Lokal و مهندسی سریع Summary of What You Learned & an Outlook to Lokal Servers & Prompt Engineering

مهندسی سریع برای LLMهای منبع باز و استفاده از آنها در فضای ابری Prompt Engineering for Open-Source LLMs and Their Use in the Cloud

  • HuggingChat: رابطی برای استفاده از LLM های منبع باز HuggingChat: An Interface for Using Open-Source LLMs

  • درخواست های سیستم: بخش مهمی از مهندسی سریع System Prompts: An Important Part of Prompt Engineering

  • چرا مهندسی سریع مهم است؟ [یک مثال] Why is Prompt Engineering Important? [A example]

  • ارتباط معنایی: مهم ترین مفهومی که باید درک کنید Semantic Association: The most Importnant Concept you need to understand

  • درخواست ساختاریافته: درخواست‌های من را کپی کنید The structured Prompt: Copy my Prompts

  • دستور العمل و چند ترفند جالب Instruction Prompting and some Cool Tricks

  • درخواست نقش برای LLM Role Prompting for LLMs

  • درخواست شات: اعلان‌های صفر شات، یک شات و چند شات Shot Prompting: Zero-Shot, One-Shot & Few-Shot Prompts

  • مهندسی سریع معکوس و ترفند "OK". Reverse Prompt Engineering and the "OK" Trick

  • تحریک زنجیره ای از فکر: بیایید قدم به قدم فکر کنیم Chain of Thought Prompting: Let`s think Step by Step

  • درخواست درخت افکار (ToT) در LLM Tree of Thoughts (ToT) Prompting in LLMs

  • ترکیبی از مفاهیم انگیزشی The Combination of Prompting Concepts

  • ایجاد دستیاران خود در HuggingChat Creating Your Own Assistants in HuggingChat

  • Groq: استفاده از LLM های منبع باز با تراشه LPU سریع به جای GPU Groq: Using Open-Source LLMs with a Fast LPU Chip Instead of a GPU

  • خلاصه: آنچه باید به خاطر بسپارید Recap: What You Should Remember

فراخوانی تابع، RAG، و پایگاه داده برداری با LLM های منبع باز Function Calling, RAG, and Vector Databases with Open-Source LLMs

  • در این بخش چه مواردی پوشش داده خواهد شد؟ What Will Be Covered in This Section?

  • فراخوانی تابع در LLM چیست؟ What is Function Calling in LLMs

  • پایگاه‌های داده برداری، مدل‌های جاسازی و نسل افزوده بازیابی (RAG) Vector Databases, Embedding Models & Retrieval-Augmented Generation (RAG)

  • نصب Anything LLM و راه اندازی یک سرور محلی برای خط لوله RAG Installing Anything LLM and Setting Up a Local Server for a RAG Pipeline

  • ربات محلی RAG Chatbot با Anything LLM & LM Studio Local RAG Chatbot with Anything LLM & LM Studio

  • تماس تابع با Llama 3 & Anything LLM (جستجو در اینترنت) Function Calling with Llama 3 & Anything LLM (Searching the Internet)

  • فراخوانی تابع، خلاصه کردن داده ها، ذخیره و ایجاد نمودارها با پایتون Function Calling, Summarizing Data, Storing & Creating Charts with Python

  • سایر ویژگی های Anything LLM: TTS و API های خارجی Other Features of Anything LLM: TTS and External APIs

  • دانلود Olama & Llama 3، ایجاد و پیوند یک سرور محلی Downloading Ollama & Llama 3, Creating & Linking a Local Server

  • خلاصه این را فراموش نکنید! Recap Don't Forget This!

بهینه سازی برنامه های RAG: نکاتی برای آماده سازی داده ها Optimizing RAG Apps: Tips for Data Preparation

  • آنچه در این بخش پوشش داده خواهد شد: Better RAG، Data & Chunking What Will Be Covered in This Section: Better RAG, Data & Chunking

  • نکاتی برای برنامه های RAG بهتر: Firecrawl برای داده های شما از وب سایت ها Tips for Better RAG Apps: Firecrawl for Your Data from Websites

  • RAG کارآمدتر با LlamaIndex و LlamaParse: آماده‌سازی داده‌ها برای فایل‌های PDF و موارد دیگر More Efficient RAG with LlamaIndex & LlamaParse: Data Preparation for PDFs &more

  • به روز رسانی LlamaIndex: LlamaParse آسان شد! LlamaIndex Update: LlamaParse made easy!

  • اندازه تکه و همپوشانی تکه برای یک برنامه RAG بهتر Chunk Size and Chunk Overlap for a Better RAG Application

  • خلاصه: آنچه در این بخش یاد گرفتید Recap: What You Learned in This Section

عوامل هوش مصنوعی محلی با LLMهای منبع باز Local AI Agents with Open-Source LLMs

  • آنچه در این بخش در مورد عوامل هوش مصنوعی پوشش داده خواهد شد What Will Be Covered in This Section on AI Agents

  • عوامل هوش مصنوعی: تعریف و ابزارهای موجود برای ایجاد عامل‌های AI منبع باز AI Agents: Definition & Available Tools for Creating Opensource AI-Agents

  • ما از Langchain با Flowise و Locally با Node.js استفاده می کنیم We use Langchain with Flowise, Locally with Node.js

  • نصب Flowise با Node.js (محیط زمان اجرا جاوا اسکریپت) Installing Flowise with Node.js (JavaScript Runtime Environment)

  • رابط Flowise برای AI-Agents و RAG ChatBots The Flowise Interface for AI-Agents and RAG ChatBots

  • چت بات محلی RAG با Flowise، LLama3 و Ollama: یک برنامه محلی Langchain Local RAG Chatbot with Flowise, LLama3 & Ollama: A Local Langchain App

  • اولین عامل هوش مصنوعی ما: کد پایتون و اسناد با Superwicer و 2 Worker Our First AI Agent: Python Code & Documentation with Superwicer and 2 Worker

  • عوامل هوش مصنوعی با قابلیت تماس، اینترنت و سه کارشناس برای رسانه های اجتماعی AI Agents with Function Calling, Internet and Three Experts for Social Media

  • کدام عامل هوش مصنوعی را باید با رندر میزبانی و میزبانی خارجی بسازید Which AI Agent Should You Build & External Hosting with Render

  • چت بات با مدل‌های منبع باز از Huggingface و Embeddings در HTML (Mixtral) Chatbot with Open-Source Models from Huggingface & Embeddings in HTML (Mixtral)

  • استنتاج بسیار سریع با Groq API Insanely fast inference with the Groq API

  • آنچه را که باید به خاطر بسپارید خلاصه کنید Recap What You Should Remember

تنظیم دقیق، اجاره GPU، TTS منبع باز، یافتن بهترین LLM و نکات بیشتر Finetuning, Renting GPUs, Open-Source TTS, Finding the BEST LLM & More Tips

  • این بخش درباره چیست؟ What Is This Section About?

  • تبدیل متن به گفتار (TTS) با Google Colab Text-to-Speech (TTS) with Google Colab

  • Moshi Talk با یک هوش مصنوعی منبع باز Moshi Talk to an Open-Source AI

  • تنظیم دقیق یک مدل منبع باز با Huggingface یا Google Colab Finetuning an Open-Source Model with Huggingface or Google Colab

  • تنظیم دقیق LLMهای منبع باز با Google Colab، Alpaca + Llama-3 8b از Unsloth Finetuning Open-Source LLMs with Google Colab, Alpaca + Llama-3 8b from Unsloth

  • بهترین LLM منبع باز که باید استفاده کنم چیست؟ What is the Best Open-Source LLM I Should Use?

  • اطلاعات Llama 3.1 و مدل هایی که باید استفاده کنید Llama 3.1 Infos and What Models should you use

  • Grok از xAI Grok from xAI

  • اگر رایانه محلی شما کافی نیست، یک GPU با Runpod یا Massed Compute اجاره کنید Renting a GPU with Runpod or Massed Compute if Your Local PC Isn't Enough

  • خلاصه: آنچه باید به خاطر بسپارید! Recap: What You Should Remember!

حریم خصوصی داده ها، امنیت، و بعد از آن چه می شود؟ Data Privacy, Security, and What Comes Next?

  • بخش آخر: این درباره چیست؟ THE LAST SECTION: What is This About?

  • Jailbreaks: خطرات امنیتی ناشی از حملات به LLM با درخواست Jailbreaks: Security Risks from Attacks on LLMs with Prompts

  • تزریق سریع: مشکل امنیتی LLM Prompt Injections: Security Problem of LLMs

  • مسمومیت داده ها و حملات درب پشتی Data Poisoning and Backdoor Attacks

  • حریم خصوصی و امنیت داده ها: آیا داده های شما در معرض خطر است؟ Data Privacy and Security: Is Your Data at Risk?

  • استفاده تجاری و فروش محتوای تولید شده توسط هوش مصنوعی Commercial Use and Selling of AI-Generated Content

  • با تشکر از من و چه خبر؟ My Thanks and What's Next?

  • پاداش Bonus

نمایش نظرات

LLM های منبع باز: هوش مصنوعی بدون سانسور و ایمن به صورت محلی با RAG
جزییات دوره
10 hours
81
Udemy (یودمی) Udemy (یودمی)
(آخرین آپدیت)
2,144
4.8 از 5
دارد
دارد
دارد
جهت دریافت آخرین اخبار و آپدیت ها در کانال تلگرام عضو شوید.

Google Chrome Browser

Internet Download Manager

Pot Player

Winrar