آموزش پردازش زبان طبیعی با ترانسفورماتور در پایتون

Natural Language Processing with Transformers in Python

نکته: آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
توضیحات دوره: با استفاده از PyTorch ، TensorFlow و HuggingFace ، NLP نسل بعدی را با ترانسفورماتور بیاموزید!

آنچه خواهید آموخت

  • نحوه استفاده از مدل های ترانسفورماتور برای NLP
  • فن آوری های مدرن پردازش زبان طبیعی
  • مروری بر توسعه اخیر در NLP
  • پایتون
  • یادگیری ماشین
  • پردازش زبان طبیعی
  • جریان تنسور
  • PyTorch
  • ترانسفورماتورها
  • تحلیل احساسات
  • پرسش و پاسخ
  • شناخت نهاد

مدل های ترانسفورماتور استاندارد واقعی در NLP مدرن هستند. آنها خود را بعنوان رسا ترین و قدرتمندترین مدل برای زبان با اختلاف زیاد اثبات کرده اند و بارها و بارها همه معیارهای اصلی مبتنی بر زبان را شکست داده اند.

در این دوره ، ما تمام مواردی را که باید بدانید برای شروع کار با برنامه های پیشرفته NLP با استفاده از مدل های ترانسفورماتور مانند Google AI's BERT یا Facebook AI's DPR می آموزیم.

چندین چارچوب اصلی NLP را پوشش می دهیم از جمله:

  • ترانسفورماتورهای HuggingFace

  • TensorFlow 2

  • PyTorch

  • آبگرم

  • NLTK

  • استعداد

و بیاموزید که چگونه ترانسفورماتورها را در محبوب ترین موارد استفاده از NLP اعمال کنید:

  • طبقه بندی زبان/تحلیل احساسات

  • به رسمیت شناختن نهادهای (NER)

  • سوال و پاسخ

  • شباهت/یادگیری مقایسه ای

در طول هر یک از موارد استفاده ما مثالهای مختلفی را کار می کنیم تا اطمینان حاصل کنیم که ترانسفورماتورها ، چطور و چرا بسیار مهم هستند. در کنار این بخش ها ، ما همچنین از طریق دو پروژه NLP با اندازه کامل کار می کنیم ، یکی برای تجزیه و تحلیل احساسات داده های Reddit مالی ، و دیگری شامل یک برنامه پاسخگویی کامل به س domainال دامنه باز.

همه این موارد توسط چندین بخش دیگر پشتیبانی می شوند که ما را ترغیب می کند یاد بگیریم که چگونه مدل هایمان را بهتر طراحی ، اجرا و اندازه گیری کنیم ، مانند:

  • تاریخچه NLP و محل ترانسفورماتورها

  • تکنیک های رایج پیش پردازش NLP

  • تئوری ترانسفورماتورها

  • نحوه تنظیم دقیق ترانسفورماتورها

ما همه اینها و موارد دیگر را پوشش می دهیم ، من مشتاقانه منتظر دیدن شما در این دوره هستم!

این دوره برای چه کسانی است:

  • مشتاق دانشمندان داده و مهندسان ML علاقه مند به NLP
  • تمرین کنندگانی که به دنبال ارتقا مهارت های خود هستند
  • توسعه دهندگانی که می خواهند راه حل های NLP را اجرا کنند
  • دانشمند داده
  • مهندس یادگیری ماشین
  • توسعه دهندگان پایتون

سرفصل ها و درس ها

معرفی Introduction

  • معرفی Introduction

  • بررسی اجمالی دوره Course Overview

  • تنظیم محیط Environment Setup

  • راه اندازی CUDA CUDA Setup

NLP و ترانسفورماتورها NLP and Transformers

  • سه دوره هوش مصنوعی The Three Eras of AI

  • جوانب مثبت و منفی AI عصبی Pros and Cons of Neural AI

  • بردارهای کلمه Word Vectors

  • شبکه های عصبی راجعه Recurrent Neural Networks

  • حافظه کوتاه مدت طولانی Long Short-Term Memory

  • توجه رمزگذار-رمزگشای Encoder-Decoder Attention

  • توجه به خود Self-Attention

  • توجه چند سر Multi-head Attention

  • رمزگذاری موقعیتی Positional Encoding

  • سرهای ترانسفورماتور Transformer Heads

پیش پردازش برای NLP Preprocessing for NLP

  • کلمات متوقف Stopwords

  • مقدمه Tokens Introduction

  • نشانه های خاص مدل خاص Model-Specific Special Tokens

  • ساقه زدن Stemming

  • لیمیت سازی Lemmatization

  • نرمال سازی یونی کد - معادل متعارف و سازگاری Unicode Normalization - Canonical and Compatibility Equivalence

  • نرمال سازی یونی کد - ترکیب و تجزیه Unicode Normalization - Composition and Decomposition

  • نرمال سازی یونیکد - NFD و NFC Unicode Normalization - NFD and NFC

  • نرمال سازی یونیکد - NFKD و NFKC Unicode Normalization - NFKD and NFKC

توجه Attention

  • مقدمه توجه Attention Introduction

  • تراز بندی با نقطه محصول Alignment With Dot-Product

  • توجه به محصول Dot-Product Attention

  • توجه به خود Self Attention

  • توجه دو طرفه Bidirectional Attention

  • توجه به محصول با چند نقطه و مقیاس Multi-head and Scaled Dot-Product Attention

طبقه بندی زبان Language Classification

  • مقدمه ای بر تحلیل احساسات Introduction to Sentiment Analysis

  • مدل های پیش ساخته Flair Prebuilt Flair Models

  • مقدمه ای بر مدل های احساسی با ترانسفورماتور Introduction to Sentiment Models With Transformers

  • توکن سازی و نشانه های ویژه BERT Tokenization And Special Tokens For BERT

  • پیشگویی Making Predictions

[پروژه] مدل احساس با TensorFlow و ترانسفورماتورها [Project] Sentiment Model With TensorFlow and Transformers

  • بررسی اجمالی پروژه Project Overview

  • دریافت داده ها (Kaggle API) Getting the Data (Kaggle API)

  • پیش پردازش Preprocessing

  • ساخت یک مجموعه داده Building a Dataset

  • تغییر Dataset ، دسته ای ، تقسیم و ذخیره Dataset Shuffle, Batch, Split, and Save

  • ساخت و ذخیره کنید Build and Save

  • بارگیری و پیش بینی Loading and Prediction

طبقه بندی متن طولانی با BERT Long Text Classification With BERT

  • طبقه بندی متن طولانی با استفاده از ویندوز Classification of Long Text Using Windows

  • روش Window در PyTorch Window Method in PyTorch

شناسایی نهاد با نام (NER) Named Entity Recognition (NER)

  • مقدمه ای بر spaCy Introduction to spaCy

  • استخراج نهادها Extracting Entities

  • ner walkthrough NER Walkthrough

  • احراز هویت با API Reddit Authenticating With The Reddit API

  • کشیدن داده ها با API Reddit Pulling Data With The Reddit API

  • استخراج ORG از داده های Reddit Extracting ORGs From Reddit Data

  • گرفتن فرکانس موجودیت Getting Entity Frequency

  • لیست سیاه نهاد Entity Blacklist

  • NER با احساسات NER With Sentiment

  • NER با roBERTa NER With roBERTa

پرسش و پاسخ Question and Answering

  • دامنه باز و درک خواندن Open Domain and Reading Comprehension

  • بازیگران ، خوانندگان و مولد ها Retrievers, Readers, and Generators

  • معرفی SQuAD 2.0 Intro to SQuAD 2.0

  • پردازش داده های آموزش SQuAD Processing SQuAD Training Data

  • (اختیاری) پردازش داده های آموزش SQuAD با Match-Case (Optional) Processing SQuAD Training Data with Match-Case

  • پردازش داده های SQuAD Dev Processing SQuAD Dev Data

  • اولین مدل پرسش و پاسخ ما Our First Q&A Model

معیارهای زبان Metrics For Language

  • عملکرد پرسش و پاسخ با دقیق مسابقه (EM) Q&A Performance With Exact Match (EM)

  • ROUGE در پایتون ROUGE in Python

  • استفاده از ROUGE در پرسش و پاسخ Applying ROUGE to Q&A

  • به یاد بیاورید، دقت و F1 Recall, Precision and F1

  • طولانی ترین پیامد مشترک (LCS) Longest Common Subsequence (LCS)

  • عملکرد پرسش و پاسخ با ROUGE Q&A Performance With ROUGE

Reader-Retriever QA With Haystack Reader-Retriever QA With Haystack

  • مقدمه ای برای Retriever-Reader و Haystack Intro to Retriever-Reader and Haystack

  • Elasticsearch چیست؟ What is Elasticsearch?

  • نصب Elasticsearch (ویندوز) Elasticsearch Setup (Windows)

  • راه اندازی Elasticsearch (Linux) Elasticsearch Setup (Linux)

  • جستجوی الاستیک در Haystack Elasticsearch in Haystack

  • بازیابی پراکنده Sparse Retrievers

  • پاک کردن فهرست Cleaning the Index

  • اجرای یک گیرنده BM25 Implementing a BM25 Retriever

  • FAISS چیست؟ What is FAISS?

  • FAISS در Haystack FAISS in Haystack

  • DPR چیست؟ What is DPR?

  • معماری DPR The DPR Architecture

  • پشته Retriever-Reader Retriever-Reader Stack

[پروژه] Open-Domain QA [Project] Open-Domain QA

  • ساختار پشته ODQA ODQA Stack Structure

  • ایجاد پایگاه داده Creating the Database

  • ساخت خط لوله Haystack Building the Haystack Pipeline

شباهت Similarity

  • مقدمه ای بر تشابه Introduction to Similarity

  • استخراج آخرین سنسور حالت پنهان Extracting The Last Hidden State Tensor

  • بردارهای جمله با میانگین جمع شدن Sentence Vectors With Mean Pooling

  • استفاده از تشابه کسینوس Using Cosine Similarity

  • شباهت با ترانسفورماتور جمله Similarity With Sentence-Transformers

مدل های ترانسفورماتور تنظیم دقیق Fine-Tuning Transformer Models

  • راهنمای تصویری آموزش قبل از آموزش BERT Visual Guide to BERT Pretraining

  • مقدمه ای بر BERT برای کد پیش آموزش Introduction to BERT For Pretraining Code

  • BERT قبل از آموزش - مدلسازی با زبان نقاب (MLM) BERT Pretraining - Masked-Language Modeling (MLM)

  • قبل از آموزش BERT - پیش بینی جمله بعدی (NSP) BERT Pretraining - Next Sentence Prediction (NSP)

  • منطق MLM The Logic of MLM

  • تنظیم دقیق با MLM - آماده سازی داده ها Fine-tuning with MLM - Data Preparation

  • تنظیم دقیق با MLM - آموزش Fine-tuning with MLM - Training

  • تنظیم دقیق با MLM - آموزش با مربی Fine-tuning with MLM - Training with Trainer

  • منطق NSP The Logic of NSP

  • تنظیم دقیق با NSP - آماده سازی داده ها Fine-tuning with NSP - Data Preparation

  • تنظیم دقیق با NSP - DataLoader Fine-tuning with NSP - DataLoader

  • حلقه آموزش تنظیم دقیق تنظیمات NSP را تنظیم کنید Setup the NSP Fine-tuning Training Loop

  • منطق MLM و NSP The Logic of MLM and NSP

  • تنظیم دقیق با MLM و NSP - آماده سازی داده ها Fine-tuning with MLM and NSP - Data Preparation

  • تنظیم DataLoader و تنظیم دقیق مدل برای MLM و NSP Setup DataLoader and Model Fine-tuning For MLM and NSP

نمایش نظرات

نظری ارسال نشده است.

آموزش پردازش زبان طبیعی با ترانسفورماتور در پایتون
خرید اشتراک و دانلود خرید تکی و دانلود | 160,000 تومان (5 روز مهلت دانلود) زمان تقریبی آماده سازی لینک دانلود این دوره آموزشی حدود 5 تا 24 ساعت می باشد.
جزییات دوره
11h 23m
102
Udemy (یودمی) udemy-small
11 خرداد 1400 (آخرین آپدیت رو دریافت می‌کنید، حتی اگر این تاریخ بروز نباشد.)
5,214
از 5
ندارد
ندارد
ندارد
James Briggs

Google Chrome Browser

Internet Download Manager

Pot Player

Winrar

James Briggs James Briggs

دانشمند داده یک دانشمند داده خودآموز با تجربه کار در چهار شرکت بزرگ حسابداری و سایر موسسات مالی برجسته. از زمان ورود به دنیای علم داده ، من در زمینه زبان طبیعی تخصص دارم و در بسیاری از پروژه های موفق و سطح تولید NLP با فناوری های استاندارد صنعت کار می کنم. جدا از تجربه صنعت خود ، با هدف به اشتراک گذاشتن دنیای جذاب یادگیری ماشین (و به ویژه NLP) با همه کسانی که گوش می دهند ، به صورت آنلاین می نویسم و فیلم می سازم. مقالات من در مورد Medium بیش از 1.5 میلیون بیننده را گرد آورده است. من که از یک زمینه خودآموز آموخته ام ، دشواری کار درمورد تبدیل شدن به یک دانشمند داده یا مهندس یادگیری ماشین را درک می کنم. هدف من ارائه مطالبی است که به دیگران کمک کند این سفر راحت تر باشد.

Udemy (یودمی)

یودمی یکی از بزرگ‌ترین پلتفرم‌های آموزشی آنلاین است که به میلیون‌ها کاربر در سراسر جهان امکان دسترسی به دوره‌های متنوع و کاربردی را فراهم می‌کند. این پلتفرم امکان آموزش در زمینه‌های مختلف از فناوری اطلاعات و برنامه‌نویسی گرفته تا زبان‌های خارجی، مدیریت، و هنر را به کاربران ارائه می‌دهد. با استفاده از یودمی، کاربران می‌توانند به صورت انعطاف‌پذیر و بهینه، مهارت‌های جدیدی را یاد بگیرند و خود را برای بازار کار آماده کنند.

یکی از ویژگی‌های برجسته یودمی، کیفیت بالای دوره‌ها و حضور استادان مجرب و با تجربه در هر حوزه است. این امر به کاربران اعتماد می‌دهد که در حال دریافت آموزش از منابع قابل اعتماد و معتبر هستند و می‌توانند به بهترین شکل ممکن از آموزش‌ها بهره ببرند. به طور خلاصه، یودمی به عنوان یکی از معتبرترین و موثرترین پلتفرم‌های آموزشی آنلاین، به افراد امکان می‌دهد تا به راحتی و با کیفیت، مهارت‌های مورد نیاز خود را ارتقا دهند و به دنبال رشد و پیشرفت شغلی خود باشند.