لطفا جهت پرداخت (ورود به درگاه بانک) فیلترشکن خود را خاموش نمایید.
لطفا جهت اطلاع از آخرین دوره ها و اخبار سایت در
کانال تلگرام
عضو شوید.
LLM های منبع باز: هوش مصنوعی بدون سانسور و ایمن به صورت محلی با RAG
Open-source LLMs: Uncensored & secure AI locally with RAG
نکته:
آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
نمونه ویدیوها:
توضیحات دوره:
گزینه های ChatGPT خصوصی: Llama3، Mistral a. بیشتر با Function Calling، RAG، Vector Database، LangChain، AI-Agents چرا LLM های منبع باز؟ تفاوت ها، مزایا و معایب LLM های متن باز و منبع بسته LLM هایی مانند ChatGPT، Llama، Mistral، Phi3، Qwen2-72B-Instruct، Grok، Gemma و غیره چیست. کدام LLM ها در دسترس هستند و از چه باید استفاده کنم؟ یافتن شرایط "بهترین LLM" برای استفاده از LLM های منبع باز نصب و استفاده محلی از LM Studio، هر چیزی LLM، Ollama، و روش های جایگزین برای کارکرد LLM های سانسور شده در مقابل LLM های بدون سانسور تنظیم دقیق یک مدل منبع باز با گوگل (Huggingfasion) تشخیص تصویر) با LLM های منبع باز: Llama3، Llava و Phi3 Vision جزئیات سخت افزار: GPU Offload، CPU، RAM، و VRAM همه چیز درباره HuggingChat: رابطی برای استفاده از درخواست های سیستم LLM منبع باز در Prompt Engineering + Function Engineer Calling Prompt : ارتباط معنایی، اعلانهای ساختاری و نقشی Groq: استفاده از LLMهای منبع باز با تراشه LPU سریع به جای پایگاههای داده برداری GPU، مدلهای جاسازی شده و نسل افزودهشده بازیابی (RAG) ایجاد یک چت ربات محلی RAG با هر چیزی استودیو Linking LLM و OllaM & Llama 3، و استفاده از فراخوانی تابع با Llama 3 و هر چیزی تابع LLM فراخوانی برای خلاصه کردن داده ها، ذخیره سازی، و ایجاد نمودارها با پایتون با استفاده از سایر ویژگی های Anything LLM و API های خارجی نکاتی برای برنامه های RAG بهتر با Firecrawl برای داده های وب سایت، RAG کارآمدتر با LlamaIndex و LlamaParse برای فایلهای PDF و CSV تعریف و ابزارهای موجود برای عاملهای هوش مصنوعی، نصب و استفاده از Flowise به صورت محلی با Node (سادهتر از Langchain و LangGraph) ایجاد یک عامل هوش مصنوعی که کد Python و مستندات AI را با استفاده از ابزار و U. دسترسی به اینترنت و میزبانی و استفاده از سه متخصص: کدام عامل هوش مصنوعی را باید بسازید و میزبانی خارجی، متن به گفتار (TTS) با Google Colab Finetuning LLM های منبع باز با Google Colab (Alpaca + Llama-3 8b, Unsloth) اجاره پردازندههای گرافیکی با جنبههای امنیتی Runpod یا Massed Compute: Jailbreakها و خطرات امنیتی ناشی از حملات به LLM با Jailbreak، تزریق سریع و مسمومیت داده حریم خصوصی دادهها و امنیت دادههای شما و همچنین سیاستهای استفاده تجاری و فروش محتوای تولید شده پیشها: بدون قبلی دانش لازم است؛ همه چیز گام به گام نشان داده خواهد شد. داشتن یک رایانه شخصی با کارت گرافیک خوب، 16 گیگابایت رم و 6 گیگابایت VRAM مفید است (سری های Apple M، Nvidia و AMD ایده آل هستند)، اما این اجباری نیست.
ChatGPT مفید است، اما آیا متوجه شدهاید که موضوعات سانسور شده زیادی وجود دارد، شما در جهتهای سیاسی خاصی تحت فشار قرار میگیرید، برخی از سوالات بیضرر بدون پاسخ میمانند، و ممکن است دادههای ما با OpenAI ایمن نباشند؟ اینجاست که LLM های منبع باز مانند Llama3، Mistral، Grok، Falkon، Phi3 و Command R+ می توانند کمک کنند!
آیا آمادهاید بر تفاوتهای ظریف LLMهای منبع باز تسلط داشته باشید و از پتانسیل کامل آنها برای برنامههای مختلف، از تجزیه و تحلیل دادهها گرفته تا ایجاد چتباتها و عوامل هوش مصنوعی، استفاده کنید؟ پس این دوره برای شماست!
مقدمه ای بر LLM های منبع باز
این دوره مقدمه ای جامع از دنیای LLM های منبع باز ارائه می دهد. شما در مورد تفاوت های بین مدل های منبع باز و منبع بسته یاد خواهید گرفت و خواهید فهمید که چرا LLM های منبع باز جایگزین جذابی هستند. موضوعاتی مانند ChatGPT، Llama و Mistral به تفصیل پوشش داده خواهد شد. علاوه بر این، با LLM های موجود و نحوه انتخاب بهترین مدل ها برای نیازهای خود آشنا خواهید شد. این دوره تاکید ویژه ای بر معایب LLM های منبع بسته و مزایا و معایب LLM های منبع باز مانند Llama3 و Mistral دارد.
کاربرد عملی LLMهای منبع باز
این دوره شما را از طریق ساده ترین راه برای اجرای LLM های منبع باز به صورت محلی و آنچه برای این تنظیم نیاز دارید راهنمایی می کند. با پیش نیازها، نصب LM Studio و روش های جایگزین برای اجرای LLM آشنا خواهید شد. علاوه بر این، نحوه استفاده از مدل های منبع باز در LM Studio را یاد می گیرید، تفاوت بین LLM های سانسور شده و بدون سانسور را درک می کنید و موارد استفاده مختلف را بررسی می کنید. این دوره همچنین تنظیم دقیق یک مدل منبع باز با Huggingface یا Google Colab و استفاده از مدلهای بینایی برای تشخیص تصویر را پوشش میدهد.
مهندسی سریع و استقرار ابر
بخش مهمی از دوره مهندسی سریع برای LLM های منبع باز است. شما یاد خواهید گرفت که چگونه از HuggingChat به عنوان یک رابط استفاده کنید، از اعلان های سیستم در مهندسی سریع استفاده کنید و تکنیک های مهندسی اولیه و پیشرفته را به کار ببرید. این دوره همچنین اطلاعاتی در مورد ایجاد دستیاران خود در HuggingChat و استفاده از LLM های منبع باز با تراشه های LPU سریع به جای GPU ارائه می دهد.
فراخوانی تابع، پایگاه داده RAG و برداری
بیاموزید فراخوانی تابع در LLM چیست و چگونه پایگاه داده برداری، مدلهای جاسازی شده و تولید افزوده شده با بازیابی (RAG) را پیادهسازی کنید. این دوره به شما نشان می دهد که چگونه Anything LLM را نصب کنید، یک سرور محلی راه اندازی کنید و یک چت بات RAG با Anything LLM و LM Studio ایجاد کنید. همچنین یاد خواهید گرفت که با Llama 3 و Anything LLM فراخوانی تابع را انجام دهید، داده ها را خلاصه کنید، ذخیره کنید و با پایتون تجسم کنید.
عوامل بهینه سازی و هوش مصنوعی
برای بهینهسازی برنامههای RAG، نکاتی در مورد آمادهسازی دادهها و استفاده کارآمد از ابزارهایی مانند LlamaIndex و LlamaParse دریافت خواهید کرد. علاوه بر این، شما با دنیای عوامل هوش مصنوعی آشنا خواهید شد. شما خواهید آموخت که عوامل هوش مصنوعی چیست، چه ابزارهایی در دسترس هستند، و چگونه Flowise را به صورت محلی با Node.js نصب و استفاده کنید. این دوره همچنین بینش های عملی را در مورد ایجاد یک عامل هوش مصنوعی ارائه می دهد که کد و اسناد پایتون را تولید می کند و همچنین از فراخوانی تابع و دسترسی به اینترنت استفاده می کند.
برنامه ها و نکات اضافی
در نهایت، این دوره، تبدیل متن به گفتار (TTS) با Google Colab و تنظیم دقیق LLM های منبع باز با Google Colab را معرفی می کند. در صورتی که رایانه محلی شما کافی نیست، یاد خواهید گرفت که چگونه از ارائه دهندگانی مانند Runpod یا Massed Compute کرایه کنید. علاوه بر این، ابزارهای خلاقانه ای مانند Microsoft Autogen و CrewAI و نحوه استفاده از LangChain برای توسعه عوامل هوش مصنوعی را بررسی خواهید کرد.
از قدرت تغییردهنده فناوری منبع باز LLM برای توسعه راه حل های نوآورانه و گسترش درک خود از کاربردهای متنوع آنها استفاده کنید. همین امروز ثبت نام کنید و سفر خود را برای تبدیل شدن به یک متخصص در دنیای مدل های زبان بزرگ آغاز کنید!
سرفصل ها و درس ها
مقدمه و بررسی اجمالی
Introduction and Overview
خوش آمدید
Welcome
بررسی اجمالی دوره
Course Overview
هدف من و چند نکته
My Goal and Some Tips
توضیح لینک ها
Explanation of the Links
لینک های مهم
Important Links
چرا LLM های منبع باز؟ تفاوت ها، مزایا و معایب
Why Open-Source LLMs? Differences, Advantages, and Disadvantages
این بخش در مورد چیست؟
What is this Section about?
LLM ها مانند ChatGPT، Llama، Mistral و غیره چیست؟
What are LLMs like ChatGPT, Llama, Mistral, etc.
کدام LLM ها در دسترس هستند و چه چیزی باید استفاده کنم: پیدا کردن "بهترین LLM"
Which LLMs are available and what should I use: Finding "The Best LLMs"
معایب LLM های منبع بسته مانند ChatGPT، Gemini و Claude
Disadvantages of Closed-Source LLMs like ChatGPT, Gemini, and Claude
مزایا و معایب LLM های منبع باز مانند Llama3، Mistral و موارد دیگر
Advantages and Disadvantages of Open-Source LLMs like Llama3, Mistral & more
خلاصه: این را فراموش نکنید!
Recap: Don't Forget This!
ساده ترین راه برای اجرای LLM های منبع باز محلی و آنچه شما نیاز دارید
The Easiest Way to Run Open-Source LLMs Locally & What You Need
الزامات استفاده از LLM های منبع باز محلی: GPU، CPU و Quantization
Requirements for Using Open-Source LLMs Locally: GPU, CPU & Quantization
نصب LM Studio و روش های جایگزین برای اجرای LLM
Installing LM Studio and Alternative Methods for Running LLMs
استفاده از مدلهای منبع باز در LM Studio: Llama 3، Mistral، Phi-3 و موارد دیگر
Using Open-Source Models in LM Studio: Llama 3, Mistral, Phi-3 & more
4 LLM سانسور شده در مقابل بدون سانسور: Llama3 با Dolphin Finetuning
4 Censored vs. Uncensored LLMs: Llama3 with Dolphin Finetuning
موارد استفاده از LLM های کلاسیک مانند Phi-3 Llama و موارد دیگر
The Use Cases of classic LLMs like Phi-3 Llama and more
Vision (تشخیص تصویر) با LLMهای منبع باز: Llama3، Llava و Phi3 Vision
Vision (Image Recognition) with Open-Source LLMs: Llama3, Llava & Phi3 Vision
چند نمونه از تشخیص تصویر (Vision)
Some Examples of Image Recognition (Vision)
جزئیات بیشتر در مورد سخت افزار: GPU Offload، CPU، RAM و VRAM
More Details on Hardware: GPU Offload, CPU, RAM, and VRAM
خلاصه ای از آنچه یاد گرفتید و چشم انداز سرورهای Lokal و مهندسی سریع
Summary of What You Learned & an Outlook to Lokal Servers & Prompt Engineering
مهندسی سریع برای LLMهای منبع باز و استفاده از آنها در فضای ابری
Prompt Engineering for Open-Source LLMs and Their Use in the Cloud
HuggingChat: رابطی برای استفاده از LLM های منبع باز
HuggingChat: An Interface for Using Open-Source LLMs
درخواست های سیستم: بخش مهمی از مهندسی سریع
System Prompts: An Important Part of Prompt Engineering
چرا مهندسی سریع مهم است؟ [یک مثال]
Why is Prompt Engineering Important? [A example]
ارتباط معنایی: مهم ترین مفهومی که باید درک کنید
Semantic Association: The most Importnant Concept you need to understand
درخواست ساختاریافته: درخواستهای من را کپی کنید
The structured Prompt: Copy my Prompts
دستور العمل و چند ترفند جالب
Instruction Prompting and some Cool Tricks
درخواست نقش برای LLM
Role Prompting for LLMs
درخواست شات: اعلانهای صفر شات، یک شات و چند شات
Shot Prompting: Zero-Shot, One-Shot & Few-Shot Prompts
مهندسی سریع معکوس و ترفند "OK".
Reverse Prompt Engineering and the "OK" Trick
تحریک زنجیره ای از فکر: بیایید قدم به قدم فکر کنیم
Chain of Thought Prompting: Let`s think Step by Step
درخواست درخت افکار (ToT) در LLM
Tree of Thoughts (ToT) Prompting in LLMs
ترکیبی از مفاهیم انگیزشی
The Combination of Prompting Concepts
ایجاد دستیاران خود در HuggingChat
Creating Your Own Assistants in HuggingChat
Groq: استفاده از LLM های منبع باز با تراشه LPU سریع به جای GPU
Groq: Using Open-Source LLMs with a Fast LPU Chip Instead of a GPU
خلاصه: آنچه باید به خاطر بسپارید
Recap: What You Should Remember
فراخوانی تابع، RAG، و پایگاه داده برداری با LLM های منبع باز
Function Calling, RAG, and Vector Databases with Open-Source LLMs
در این بخش چه مواردی پوشش داده خواهد شد؟
What Will Be Covered in This Section?
فراخوانی تابع در LLM چیست؟
What is Function Calling in LLMs
پایگاههای داده برداری، مدلهای جاسازی و نسل افزوده بازیابی (RAG)
Vector Databases, Embedding Models & Retrieval-Augmented Generation (RAG)
نصب Anything LLM و راه اندازی یک سرور محلی برای خط لوله RAG
Installing Anything LLM and Setting Up a Local Server for a RAG Pipeline
ربات محلی RAG Chatbot با Anything LLM & LM Studio
Local RAG Chatbot with Anything LLM & LM Studio
تماس تابع با Llama 3 & Anything LLM (جستجو در اینترنت)
Function Calling with Llama 3 & Anything LLM (Searching the Internet)
فراخوانی تابع، خلاصه کردن داده ها، ذخیره و ایجاد نمودارها با پایتون
Function Calling, Summarizing Data, Storing & Creating Charts with Python
سایر ویژگی های Anything LLM: TTS و API های خارجی
Other Features of Anything LLM: TTS and External APIs
دانلود Olama & Llama 3، ایجاد و پیوند یک سرور محلی
Downloading Ollama & Llama 3, Creating & Linking a Local Server
خلاصه این را فراموش نکنید!
Recap Don't Forget This!
بهینه سازی برنامه های RAG: نکاتی برای آماده سازی داده ها
Optimizing RAG Apps: Tips for Data Preparation
آنچه در این بخش پوشش داده خواهد شد: Better RAG، Data & Chunking
What Will Be Covered in This Section: Better RAG, Data & Chunking
نکاتی برای برنامه های RAG بهتر: Firecrawl برای داده های شما از وب سایت ها
Tips for Better RAG Apps: Firecrawl for Your Data from Websites
RAG کارآمدتر با LlamaIndex و LlamaParse: آمادهسازی دادهها برای فایلهای PDF و موارد دیگر
More Efficient RAG with LlamaIndex & LlamaParse: Data Preparation for PDFs &more
به روز رسانی LlamaIndex: LlamaParse آسان شد!
LlamaIndex Update: LlamaParse made easy!
اندازه تکه و همپوشانی تکه برای یک برنامه RAG بهتر
Chunk Size and Chunk Overlap for a Better RAG Application
خلاصه: آنچه در این بخش یاد گرفتید
Recap: What You Learned in This Section
عوامل هوش مصنوعی محلی با LLMهای منبع باز
Local AI Agents with Open-Source LLMs
آنچه در این بخش در مورد عوامل هوش مصنوعی پوشش داده خواهد شد
What Will Be Covered in This Section on AI Agents
عوامل هوش مصنوعی: تعریف و ابزارهای موجود برای ایجاد عاملهای AI منبع باز
AI Agents: Definition & Available Tools for Creating Opensource AI-Agents
ما از Langchain با Flowise و Locally با Node.js استفاده می کنیم
We use Langchain with Flowise, Locally with Node.js
نصب Flowise با Node.js (محیط زمان اجرا جاوا اسکریپت)
Installing Flowise with Node.js (JavaScript Runtime Environment)
رابط Flowise برای AI-Agents و RAG ChatBots
The Flowise Interface for AI-Agents and RAG ChatBots
چت بات محلی RAG با Flowise، LLama3 و Ollama: یک برنامه محلی Langchain
Local RAG Chatbot with Flowise, LLama3 & Ollama: A Local Langchain App
اولین عامل هوش مصنوعی ما: کد پایتون و اسناد با Superwicer و 2 Worker
Our First AI Agent: Python Code & Documentation with Superwicer and 2 Worker
عوامل هوش مصنوعی با قابلیت تماس، اینترنت و سه کارشناس برای رسانه های اجتماعی
AI Agents with Function Calling, Internet and Three Experts for Social Media
کدام عامل هوش مصنوعی را باید با رندر میزبانی و میزبانی خارجی بسازید
Which AI Agent Should You Build & External Hosting with Render
چت بات با مدلهای منبع باز از Huggingface و Embeddings در HTML (Mixtral)
Chatbot with Open-Source Models from Huggingface & Embeddings in HTML (Mixtral)
استنتاج بسیار سریع با Groq API
Insanely fast inference with the Groq API
آنچه را که باید به خاطر بسپارید خلاصه کنید
Recap What You Should Remember
تنظیم دقیق، اجاره GPU، TTS منبع باز، یافتن بهترین LLM و نکات بیشتر
Finetuning, Renting GPUs, Open-Source TTS, Finding the BEST LLM & More Tips
این بخش درباره چیست؟
What Is This Section About?
تبدیل متن به گفتار (TTS) با Google Colab
Text-to-Speech (TTS) with Google Colab
Moshi Talk با یک هوش مصنوعی منبع باز
Moshi Talk to an Open-Source AI
تنظیم دقیق یک مدل منبع باز با Huggingface یا Google Colab
Finetuning an Open-Source Model with Huggingface or Google Colab
تنظیم دقیق LLMهای منبع باز با Google Colab، Alpaca + Llama-3 8b از Unsloth
Finetuning Open-Source LLMs with Google Colab, Alpaca + Llama-3 8b from Unsloth
بهترین LLM منبع باز که باید استفاده کنم چیست؟
What is the Best Open-Source LLM I Should Use?
اطلاعات Llama 3.1 و مدل هایی که باید استفاده کنید
Llama 3.1 Infos and What Models should you use
Grok از xAI
Grok from xAI
اگر رایانه محلی شما کافی نیست، یک GPU با Runpod یا Massed Compute اجاره کنید
Renting a GPU with Runpod or Massed Compute if Your Local PC Isn't Enough
خلاصه: آنچه باید به خاطر بسپارید!
Recap: What You Should Remember!
حریم خصوصی داده ها، امنیت، و بعد از آن چه می شود؟
Data Privacy, Security, and What Comes Next?
بخش آخر: این درباره چیست؟
THE LAST SECTION: What is This About?
Jailbreaks: خطرات امنیتی ناشی از حملات به LLM با درخواست
Jailbreaks: Security Risks from Attacks on LLMs with Prompts
تزریق سریع: مشکل امنیتی LLM
Prompt Injections: Security Problem of LLMs
مسمومیت داده ها و حملات درب پشتی
Data Poisoning and Backdoor Attacks
حریم خصوصی و امنیت داده ها: آیا داده های شما در معرض خطر است؟
Data Privacy and Security: Is Your Data at Risk?
استفاده تجاری و فروش محتوای تولید شده توسط هوش مصنوعی
Commercial Use and Selling of AI-Generated Content
با تشکر از من و چه خبر؟
My Thanks and What's Next?
یودمی یکی از بزرگترین پلتفرمهای آموزشی آنلاین است که به میلیونها کاربر در سراسر جهان امکان دسترسی به دورههای متنوع و کاربردی را فراهم میکند. این پلتفرم امکان آموزش در زمینههای مختلف از فناوری اطلاعات و برنامهنویسی گرفته تا زبانهای خارجی، مدیریت، و هنر را به کاربران ارائه میدهد. با استفاده از یودمی، کاربران میتوانند به صورت انعطافپذیر و بهینه، مهارتهای جدیدی را یاد بگیرند و خود را برای بازار کار آماده کنند.
یکی از ویژگیهای برجسته یودمی، کیفیت بالای دورهها و حضور استادان مجرب و با تجربه در هر حوزه است. این امر به کاربران اعتماد میدهد که در حال دریافت آموزش از منابع قابل اعتماد و معتبر هستند و میتوانند به بهترین شکل ممکن از آموزشها بهره ببرند. به طور خلاصه، یودمی به عنوان یکی از معتبرترین و موثرترین پلتفرمهای آموزشی آنلاین، به افراد امکان میدهد تا به راحتی و با کیفیت، مهارتهای مورد نیاز خود را ارتقا دهند و به دنبال رشد و پیشرفت شغلی خود باشند.
نمایش نظرات