آموزش پردازش زبان طبیعی (NLP) با پایتون: یادگیری عمیق، یادگیری ماشین و علم داده با مدلهای مارکوف، NLTK، هوش مصنوعی
یادگیری نحوه پیادهسازی سیستم بازیابی اسناد، موتور جستجو، جستجوی شباهت و شباهت وکتور.
آموزش پیادهسازی الگوریتم رمزگشایی با استفاده از الگوریتمهای ژنتیک و مدلسازی زبان.
پیادهسازی تحلیل احساسات و چرخشدهنده مقاله.
مدلسازی موضوع با LDA، NMF و SVD.
یادگیری عمیق (ANNs، CNNs، RNNs، LSTM، GRU) - پیشنیازهای مهم برای BERT و GPT-3.
Hugging Face Transformers (فقط برای کاربران VIP)
نحوه استفاده از Python، Scikit-Learn، Tensorflow و موارد دیگر برای پردازش زبان طبیعی (NLP).
برچسبگذاری اجزای کلام (POS) و تشخیص موجودیت نامگذاری شده (NER).
آیا تا به حال فکر کردهاید که فناوریهای هوش مصنوعی مانند ChatGPT، GPT-4، DALL-E، Midjourney و Stable Diffusion چگونه کار میکنند؟ در این دوره، مبانی این برنامههای پیشگام را خواهید آموخت.
سلام دوستان!
به دوره یادگیری ماشین: پردازش زبان طبیعی با پایتون (نسخه ۲) خوش آمدید.
این یک دوره جامع ۴ در ۱ است که شامل موارد زیر میشود:
در بخش اول، با عنوان مدلهای وکتور و روشهای پیشپردازش متن، خواهید آموخت که چرا وکتورها در علم داده و هوش مصنوعی بسیار ضروری هستند. با تکنیکهای مختلف تبدیل متن به وکتور مانند CountVectorizer و TF-IDF آشنا میشوید و اصول روشهای جاسازی عصبی مانند word2vec و GloVe را یاد میگیرید.
سپس آموختههای خود را برای وظایف مختلف به کار خواهید گرفت، از جمله:
در طول مسیر، مراحل مهم پیشپردازش متن مانند توکنسازی، ریشهیابی و لماتیزاسیون را نیز یاد خواهید گرفت. به طور خلاصه با وظایف کلاسیک NLP مانند برچسبگذاری اجزای کلام آشنا خواهید شد.
در بخش دوم، با عنوان مدلهای احتمال و مدلهای مارکوف، یکی از مهمترین مدلها در تمام حوزه علم داده و یادگیری ماشین طی ۱۰۰ سال گذشته را خواهید آموخت. این مدلها علاوه بر NLP، در زمینههای بسیاری مانند مالی، بیوانفورماتیک و یادگیری تقویتی کاربرد دارند.
در این دوره خواهید دید که چگونه میتوان از چنین مدلهای احتمالی به روشهای مختلفی استفاده کرد، از جمله:
نکته مهم این است که این روشها پیشنیاز اساسی برای درک نحوه عملکرد مدلهای پیشرفته Transformer (توجه) مانند BERT و GPT-3 هستند. به طور خاص، ۲ وظیفه مهم را که با اهداف پیشآموزش BERT و GPT مطابقت دارند، یاد خواهیم گرفت.
در بخش سوم، با عنوان روشهای یادگیری ماشین، با وظایف کلاسیک بیشتری در NLP آشنا خواهید شد، از جمله:
این بخش بیشتر بر کاربرد تمرکز دارد تا نظریه؛ به این معنی که به جای صرف بیشترین تلاش برای یادگیری جزئیات الگوریتمهای مختلف یادگیری ماشین، بر نحوه کاربرد آنها در وظایف فوق تمرکز خواهید کرد.
البته، برای درک آنچه در حال وقوع است، همچنان باید مطالبی را در مورد آن الگوریتمها یاد بگیرید. الگوریتمهای زیر استفاده خواهند شد:
اینها فقط "هر" الگوریتم یادگیری ماشین / هوش مصنوعی نیستند، بلکه الگوریتمهایی هستند که در NLP جایگاه ویژهای دارند و در نتیجه بخش ضروری هر دوره NLP محسوب میشوند.
در بخش چهارم، با عنوان روشهای یادگیری عمیق، با معماریهای مدرن شبکههای عصبی که میتوانند برای حل وظایف NLP به کار روند، آشنا خواهید شد. به لطف قدرت و انعطافپذیری بالای خود، شبکههای عصبی میتوانند برای حل هر یک از وظایف ذکر شده در دوره استفاده شوند.
شما با موارد زیر آشنا خواهید شد:
مطالعه RNNها شامل معماریهای مدرنی مانند LSTM و GRU خواهد بود که به طور گسترده توسط گوگل، آمازون، اپل، فیسبوک و غیره برای وظایف دشواری مانند ترجمه زبان، تشخیص گفتار و تبدیل متن به گفتار استفاده شدهاند.
بدیهی است که، از آنجایی که جدیدترین ترنسفورمرها (مانند BERT و GPT-3) نمونههایی از شبکههای عصبی عمیق هستند، این بخش از دوره یک پیشنیاز ضروری برای درک ترنسفورمرها است.
از خواندن شما سپاسگزارم و امیدوارم به زودی شما را ببینم!
Lazy Programmer Inc.
امروز ، بیشتر وقتم را به عنوان یک مهندس هوش مصنوعی و یادگیری ماشین با تمرکز بر یادگیری عمیق می گذرانم ، اگرچه همچنین به عنوان دانشمند داده ، مهندس داده های بزرگ و مهندس نرم افزار کامل پشته نیز شناخته شده ام. من مدرک کارشناسی ارشد خود را در رشته مهندسی کامپیوتر با گرایش یادگیری ماشین و تشخیص الگو دریافت کردم. این تجربه شامل تبلیغات آنلاین و رسانه های دیجیتالی به عنوان دانشمند داده (بهینه سازی نرخ کلیک و تبدیل) و مهندس داده های بزرگ (ساخت خطوط لوله پردازش داده) است. برخی از فناوری های کلان داده ای که من مرتباً استفاده می کنم ، Hadoop ، Pig ، Hive ، MapReduce و Spark هستند. من مدل های یادگیری عمیق را برای پیش بینی میزان کلیک و رفتار کاربر و همچنین برای پردازش تصویر و سیگنال و مدل سازی متن ایجاد کرده ام. کار من در سیستم های پیشنهادی از آموزش تقویت و فیلتر کردن مشارکتی استفاده کرده است و ما نتایج را با استفاده از تست A / B معتبر کردیم.
Lazy Programmer Team
مهندس هوش مصنوعی و آموزش ماشین من فوق لیسانس خود را در رشته مهندسی کامپیوتر با تخصص یادگیری ماشین و تشخیص الگو دریافت کردم. تجربه شامل تبلیغات آنلاین و رسانه های دیجیتال به عنوان یک دانشمند داده (بهینه سازی نرخ کلیک و تبدیل) و مهندس کلان داده (ساخت خطوط پردازش داده). برخی از فناوری های داده بزرگ که من اغلب استفاده می کنم Hadoop ، Pig ، Hive ، MapReduce و Spark هستند. من مدلهای یادگیری عمیقی برای پیش بینی نرخ کلیک و رفتار کاربر و همچنین پردازش تصویر و سیگنال و مدل سازی متن ایجاد کرده ام. کار من در سیستم های توصیه از یادگیری تقویتی و فیلترینگ مشارکتی استفاده کرده است و ما نتایج را با استفاده از آزمایش A/B معتبر کرده ایم.
نمایش نظرات