آموزش یادگیری ماشین: پردازش زبان طبیعی با پایتون (نسخه ۲) - آخرین آپدیت

دانلود Machine Learning: Natural Language Processing in Python (V2)

نکته: ممکن هست محتوای این صفحه بروز نباشد ولی دانلود دوره آخرین آپدیت می باشد.
نمونه ویدیوها:
توضیحات دوره:

آموزش پردازش زبان طبیعی (NLP) با پایتون: یادگیری عمیق، یادگیری ماشین و علم داده با مدل‌های مارکوف، NLTK، هوش مصنوعی

چگونه متن را با CountVectorizer، TF-IDF، word2vec و GloVe به وکتور تبدیل کنیم

یادگیری نحوه پیاده‌سازی سیستم بازیابی اسناد، موتور جستجو، جستجوی شباهت و شباهت وکتور.

مدل‌های احتمال، مدل‌های زبان و مدل‌های مارکوف (پیش‌نیاز برای ترنسفورمرها، BERT و GPT-3)

آموزش پیاده‌سازی الگوریتم رمزگشایی با استفاده از الگوریتم‌های ژنتیک و مدل‌سازی زبان.

پیاده‌سازی تشخیص اسپم

پیاده‌سازی تحلیل احساسات و چرخش‌دهنده مقاله.

خلاصه‌سازی متن و نمایه‌سازی معنایی نهفته

مدل‌سازی موضوع با LDA، NMF و SVD.

یادگیری ماشین (Naive Bayes، Logistic Regression، PCA، SVD، Latent Dirichlet Allocation)

یادگیری عمیق (ANNs، CNNs، RNNs، LSTM، GRU) - پیش‌نیازهای مهم برای BERT و GPT-3.

Hugging Face Transformers (فقط برای کاربران VIP)

نحوه استفاده از Python، Scikit-Learn، Tensorflow و موارد دیگر برای پردازش زبان طبیعی (NLP).

پیش‌پردازش متن: توکن‌سازی، کلمات توقف (stopwords)، لماتیزاسیون و ریشه‌یابی (stemming)

برچسب‌گذاری اجزای کلام (POS) و تشخیص موجودیت نام‌گذاری شده (NER).

درک مبانی ChatGPT، GPT-4، DALL-E، Midjourney و Stable Diffusion از OpenAI

پیش‌نیازها:

  • نصب پایتون (رایگان!)
  • مهارت‌های برنامه‌نویسی پایتون
  • اختیاری: دانش جبر خطی و احتمال برای درک جنبه‌های ریاضی

آیا تا به حال فکر کرده‌اید که فناوری‌های هوش مصنوعی مانند ChatGPT، GPT-4، DALL-E، Midjourney و Stable Diffusion چگونه کار می‌کنند؟ در این دوره، مبانی این برنامه‌های پیشگام را خواهید آموخت.

سلام دوستان!

به دوره یادگیری ماشین: پردازش زبان طبیعی با پایتون (نسخه ۲) خوش آمدید.

این یک دوره جامع ۴ در ۱ است که شامل موارد زیر می‌شود:

  1. مدل‌های وکتور و روش‌های پیش‌پردازش متن
  2. مدل‌های احتمال و مدل‌های مارکوف
  3. روش‌های یادگیری ماشین
  4. یادگیری عمیق و روش‌های شبکه‌های عصبی

در بخش اول، با عنوان مدل‌های وکتور و روش‌های پیش‌پردازش متن، خواهید آموخت که چرا وکتورها در علم داده و هوش مصنوعی بسیار ضروری هستند. با تکنیک‌های مختلف تبدیل متن به وکتور مانند CountVectorizer و TF-IDF آشنا می‌شوید و اصول روش‌های جاسازی عصبی مانند word2vec و GloVe را یاد می‌گیرید.

سپس آموخته‌های خود را برای وظایف مختلف به کار خواهید گرفت، از جمله:

  • طبقه‌بندی متن
  • بازیابی اسناد / موتور جستجو
  • خلاصه‌سازی متن

در طول مسیر، مراحل مهم پیش‌پردازش متن مانند توکن‌سازی، ریشه‌یابی و لماتیزاسیون را نیز یاد خواهید گرفت. به طور خلاصه با وظایف کلاسیک NLP مانند برچسب‌گذاری اجزای کلام آشنا خواهید شد.

در بخش دوم، با عنوان مدل‌های احتمال و مدل‌های مارکوف، یکی از مهم‌ترین مدل‌ها در تمام حوزه علم داده و یادگیری ماشین طی ۱۰۰ سال گذشته را خواهید آموخت. این مدل‌ها علاوه بر NLP، در زمینه‌های بسیاری مانند مالی، بیوانفورماتیک و یادگیری تقویتی کاربرد دارند.

در این دوره خواهید دید که چگونه می‌توان از چنین مدل‌های احتمالی به روش‌های مختلفی استفاده کرد، از جمله:

  • ساخت یک طبقه‌بندی‌کننده متن
  • چرخش مقاله (article spinning)
  • تولید متن (تولید شعر)

نکته مهم این است که این روش‌ها پیش‌نیاز اساسی برای درک نحوه عملکرد مدل‌های پیشرفته Transformer (توجه) مانند BERT و GPT-3 هستند. به طور خاص، ۲ وظیفه مهم را که با اهداف پیش‌آموزش BERT و GPT مطابقت دارند، یاد خواهیم گرفت.

در بخش سوم، با عنوان روش‌های یادگیری ماشین، با وظایف کلاسیک بیشتری در NLP آشنا خواهید شد، از جمله:

  • تشخیص اسپم
  • تحلیل احساسات
  • تحلیل معنایی نهفته (که به عنوان نمایه‌سازی معنایی نهفته نیز شناخته می‌شود)
  • مدل‌سازی موضوع

این بخش بیشتر بر کاربرد تمرکز دارد تا نظریه؛ به این معنی که به جای صرف بیشترین تلاش برای یادگیری جزئیات الگوریتم‌های مختلف یادگیری ماشین، بر نحوه کاربرد آن‌ها در وظایف فوق تمرکز خواهید کرد.

البته، برای درک آنچه در حال وقوع است، همچنان باید مطالبی را در مورد آن الگوریتم‌ها یاد بگیرید. الگوریتم‌های زیر استفاده خواهند شد:

  • Naive Bayes
  • Logistic Regression
  • تحلیل مولفه‌های اصلی (PCA) / تجزیه مقادیر منفرد (SVD)
  • Latent Dirichlet Allocation (LDA)

اینها فقط "هر" الگوریتم یادگیری ماشین / هوش مصنوعی نیستند، بلکه الگوریتم‌هایی هستند که در NLP جایگاه ویژه‌ای دارند و در نتیجه بخش ضروری هر دوره NLP محسوب می‌شوند.

در بخش چهارم، با عنوان روش‌های یادگیری عمیق، با معماری‌های مدرن شبکه‌های عصبی که می‌توانند برای حل وظایف NLP به کار روند، آشنا خواهید شد. به لطف قدرت و انعطاف‌پذیری بالای خود، شبکه‌های عصبی می‌توانند برای حل هر یک از وظایف ذکر شده در دوره استفاده شوند.

شما با موارد زیر آشنا خواهید شد:

  • شبکه‌های عصبی مصنوعی پیشخور (ANNs)
  • جاسازی‌ها (Embeddings)
  • شبکه‌های عصبی کانولوشنال (CNNs)
  • شبکه‌های عصبی بازگشتی (RNNs)

مطالعه RNNها شامل معماری‌های مدرنی مانند LSTM و GRU خواهد بود که به طور گسترده توسط گوگل، آمازون، اپل، فیسبوک و غیره برای وظایف دشواری مانند ترجمه زبان، تشخیص گفتار و تبدیل متن به گفتار استفاده شده‌اند.

بدیهی است که، از آنجایی که جدیدترین ترنسفورمرها (مانند BERT و GPT-3) نمونه‌هایی از شبکه‌های عصبی عمیق هستند، این بخش از دوره یک پیش‌نیاز ضروری برای درک ترنسفورمرها است.

ویژگی‌های منحصر به فرد:

  • هر خط کد با جزئیات توضیح داده شده است - در صورت عدم توافق هر زمان که خواستید ایمیل بزنید.
  • وقت تلف شده برای "تایپ کردن" در صفحه کلید مانند دوره‌های دیگر وجود ندارد - صادقانه بگوییم، هیچ کس نمی‌تواند کدی را بنویسد که ارزش یادگیری داشته باشد، در ۲۰ دقیقه از ابتدا.
  • از ریاضیات سطح دانشگاهی هراسی نداریم - جزئیات مهمی در مورد الگوریتم‌هایی که دوره‌های دیگر از قلم می‌اندازند، دریافت خواهید کرد.

از خواندن شما سپاسگزارم و امیدوارم به زودی شما را ببینم!


سرفصل ها و درس ها

مقدمه Introduction

  • مقدمه و طرح کلی Introduction and Outline

  • آیا شما مبتدی، متوسط ​​یا پیشرفته هستید؟ همه خوبند! Are You Beginner, Intermediate, or Advanced? All are OK!

راه اندازی Getting Set Up

  • کد را از کجا تهیه کنیم Where To Get the Code

  • چگونه در این دوره موفق شویم How to Succeed in This Course

  • خطاهای موقت 403 Temporary 403 Errors

مدل‌های برداری و پیش‌پردازش متن Vector Models and Text Preprocessing

  • مقدمه مدل‌های برداری و پیش‌پردازش متن Vector Models & Text Preprocessing Intro

  • تعاریف پایه برای پردازش زبان طبیعی (NLP) Basic Definitions for NLP

  • بردار چیست؟ What is a Vector?

  • کیسه کلمات Bag of Words

  • شمارنده بردار (تئوری) Count Vectorizer (Theory)

  • توکن‌سازی Tokenization

  • کلمات توقف Stopwords

  • ریشه‌یابی و لمیتیزاسیون Stemming and Lemmatization

  • دموی ریشه‌یابی و لمیتیزاسیون Stemming and Lemmatization Demo

  • شمارنده بردار (کد) Count Vectorizer (Code)

  • شباهت بردار Vector Similarity

  • TF-IDF (تئوری) TF-IDF (Theory)

  • 提示 برای تمرین سازنده (تعاملی) (Interactive) Recommender Exercise Prompt

  • TF-IDF (کد) TF-IDF (Code)

  • نگاشت کلمه به شاخص Word-to-Index Mapping

  • چگونه TF-IDF را از ابتدا بسازیم How to Build TF-IDF From Scratch

  • جاسازی کلمات عصبی Neural Word Embeddings

  • دموی جاسازی کلمات عصبی Neural Word Embeddings Demo

  • خلاصه مدل‌های برداری و پیش‌پردازش متن Vector Models & Text Preprocessing Summary

  • پیش‌نمایش خلاصه‌سازی متن Text Summarization Preview

  • چگونه در زبان‌های دیگر پردازش زبان طبیعی انجام دهیم How To Do NLP In Other Languages

  • جعبه پیشنهادات Suggestion Box

مدل‌های احتمالی (مقدمه) Probabilistic Models (Introduction)

  • مدل‌های احتمالی (مقدمه) Probabilistic Models (Introduction)

مدل‌های مارکوف (متوسط) Markov Models (Intermediate)

  • مقدمه بخش مدل‌های مارکوف Markov Models Section Introduction

  • ویژگی مارکوف The Markov Property

  • مدل مارکوف The Markov Model

  • هموارسازی احتمال و لگاریتم احتمالات Probability Smoothing and Log-Probabilities

  • ساخت طبقه‌بند متن (تئوری) Building a Text Classifier (Theory)

  • ساخت طبقه‌بند متن (提示 تمرین) Building a Text Classifier (Exercise Prompt)

  • ساخت طبقه‌بند متن (قسمت اول کد) Building a Text Classifier (Code pt 1)

  • ساخت طبقه‌بند متن (قسمت دوم کد) Building a Text Classifier (Code pt 2)

  • مدل زبان (تئوری) Language Model (Theory)

  • مدل زبان (提示 تمرین) Language Model (Exercise Prompt)

  • مدل زبان (قسمت اول کد) Language Model (Code pt 1)

  • مدل زبان (قسمت دوم کد) Language Model (Code pt 2)

  • خلاصه بخش مدل‌های مارکوف Markov Models Section Summary

چرخاننده مقاله (متوسط) Article Spinner (Intermediate)

  • چرخش مقاله - شرح مسئله Article Spinning - Problem Description

  • چرخش مقاله - رویکرد N-Gram Article Spinning - N-Gram Approach

  • 提示 تمرین چرخاننده مقاله Article Spinner Exercise Prompt

  • چرخاننده مقاله در پایتون (قسمت اول) Article Spinner in Python (pt 1)

  • چرخاننده مقاله در پایتون (قسمت دوم) Article Spinner in Python (pt 2)

  • مطالعه موردی: چرخش مقاله اشتباه پیش رفت Case Study: Article Spinning Gone Wrong

رمزگشایی رمز (پیشرفته) Cipher Decryption (Advanced)

  • مقدمه بخش Section Introduction

  • رمزها Ciphers

  • مدل‌های زبان (مرور) Language Models (Review)

  • الگوریتم‌های ژنتیک Genetic Algorithms

  • آماده‌سازی کد Code Preparation

  • کد قسمت اول Code pt 1

  • کد قسمت دوم Code pt 2

  • کد قسمت سوم Code pt 3

  • کد قسمت چهارم Code pt 4

  • کد قسمت پنجم Code pt 5

  • کد قسمت ششم Code pt 6

  • رمزگشایی رمز - بحث اضافی Cipher Decryption - Additional Discussion

  • کاربرد دنیای واقعی: کی‌لاگر صوتی Real-World Application: Acoustic Keylogger

  • نتیجه‌گیری بخش Section Conclusion

مدل‌های یادگیری ماشین (مقدمه) Machine Learning Models (Introduction)

  • مدل‌های یادگیری ماشین (مقدمه) Machine Learning Models (Introduction)

تشخیص اسپم Spam Detection

  • تشخیص اسپم - شرح مسئله Spam Detection - Problem Description

  • شهود نایو بیز Naive Bayes Intuition

  • تشخیص اسپم -提示 تمرین Spam Detection - Exercise Prompt

  • کنار: عدم تعادل کلاس، ROC، AUC و امتیاز F1 (قسمت اول) Aside: Class Imbalance, ROC, AUC, and F1 Score (pt 1)

  • کنار: عدم تعادل کلاس، ROC، AUC و امتیاز F1 (قسمت دوم) Aside: Class Imbalance, ROC, AUC, and F1 Score (pt 2)

  • تشخیص اسپم در پایتون Spam Detection in Python

تحلیل احساسات Sentiment Analysis

  • تحلیل احساسات - شرح مسئله Sentiment Analysis - Problem Description

  • شهود رگرسیون لجستیک (قسمت اول) Logistic Regression Intuition (pt 1)

  • رگرسیون لجستیک چندکلاسه (قسمت دوم) Multiclass Logistic Regression (pt 2)

  • آموزش و تفسیر رگرسیون لجستیک (قسمت سوم) Logistic Regression Training and Interpretation (pt 3)

  • تحلیل احساسات -提示 تمرین Sentiment Analysis - Exercise Prompt

  • تحلیل احساسات در پایتون (قسمت اول) Sentiment Analysis in Python (pt 1)

  • تحلیل احساسات در پایتون (قسمت دوم) Sentiment Analysis in Python (pt 2)

خلاصه‌سازی متن Text Summarization

  • مقدمه بخش خلاصه‌سازی متن Text Summarization Section Introduction

  • خلاصه‌سازی متن با استفاده از بردارها Text Summarization Using Vectors

  • 提示 تمرین خلاصه‌سازی متن Text Summarization Exercise Prompt

  • خلاصه‌سازی متن در پایتون Text Summarization in Python

  • شهود TextRank TextRank Intuition

  • TextRank - نحوه عملکرد واقعی آن (پیشرفته) TextRank - How It Really Works (Advanced)

  • 提示 تمرین TextRank (پیشرفته) TextRank Exercise Prompt (Advanced)

  • TextRank در پایتون (پیشرفته) TextRank in Python (Advanced)

  • خلاصه‌سازی متن در پایتون - راه آسان (مبتدی) Text Summarization in Python - The Easy Way (Beginner)

  • خلاصه بخش خلاصه‌سازی متن Text Summarization Section Summary

مدل‌سازی موضوع Topic Modeling

  • مقدمه بخش مدل‌سازی موضوع Topic Modeling Section Introduction

  • تخصیص دیریکله پنهان (LDA) - ضروریات Latent Dirichlet Allocation (LDA) - Essentials

  • آماده‌سازی کد LDA LDA - Code Preparation

  • تصویر ممکن است مفید باشد LDA (اختیاری) LDA - Maybe Useful Picture (Optional)

  • تخصیص دیریکله پنهان (LDA) - شهود (پیشرفته) Latent Dirichlet Allocation (LDA) - Intuition (Advanced)

  • مدل‌سازی موضوع با تخصیص دیریکله پنهان (LDA) در پایتون Topic Modeling with Latent Dirichlet Allocation (LDA) in Python

  • شهود تجزیه ماتریس نا-منفی (NMF) Non-Negative Matrix Factorization (NMF) Intuition

  • مدل‌سازی موضوع با تجزیه ماتریس نا-منفی (NMF) در پایتون Topic Modeling with Non-Negative Matrix Factorization (NMF) in Python

  • خلاصه بخش مدل‌سازی موضوع Topic Modeling Section Summary

تحلیل معنایی پنهان (نمایه سازی معنایی پنهان) Latent Semantic Analysis (Latent Semantic Indexing)

  • مقدمه بخش LSA / LSI LSA / LSI Section Introduction

  • شهود تجزیه مقادیر منفرد (SVD) SVD (Singular Value Decomposition) Intuition

  • LSA / LSI: اعمال SVD به NLP LSA / LSI: Applying SVD to NLP

  • تحلیل معنایی پنهان / نمایه‌سازی معنایی پنهان در پایتون Latent Semantic Analysis / Latent Semantic Indexing in Python

  • تمرین‌های LSA / LSI LSA / LSI Exercises

یادگیری عمیق (مقدمه) Deep Learning (Introduction)

  • مقدمه یادگیری عمیق (متوسط-پیشرفته) Deep Learning Introduction (Intermediate-Advanced)

نورون The Neuron

  • مقدمه بخش نورون The Neuron - Section Introduction

  • برازش یک خط Fitting a Line

  • آماده‌سازی کد طبقه‌بندی Classification Code Preparation

  • طبقه‌بندی متن در تنسورفلو Text Classification in Tensorflow

  • نورون The Neuron

  • مدل چگونه یاد می‌گیرد؟ How does a model learn?

  • خلاصه بخش نورون The Neuron - Section Summary

شبکه‌های عصبی مصنوعی پیش‌خور Feedforward Artificial Neural Networks

  • مقدمه بخش ANN ANN - Section Introduction

  • انتشار رو به جلو Forward Propagation

  • تصویر هندسی The Geometrical Picture

  • توابع فعال‌سازی Activation Functions

  • طبقه‌بندی چندکلاسه Multiclass Classification

  • آماده‌سازی کد ANN ANN Code Preparation

  • طبقه‌بندی متن ANN در تنسورفلو Text Classification ANN in Tensorflow

  • آماده‌سازی کد پیش‌پردازش متن Text Preprocessing Code Preparation

  • پیش‌پردازش متن در تنسورفلو Text Preprocessing in Tensorflow

  • جاسازی‌ها Embeddings

  • CBOW (پیشرفته) CBOW (Advanced)

  • 提示 تمرین CBOW CBOW Exercise Prompt

  • CBOW در تنسورفلو (پیشرفته) CBOW in Tensorflow (Advanced)

  • خلاصه بخش ANN ANN - Section Summary

  • کنار: چگونه پارامترهای ابر را انتخاب کنیم (اختیاری) Aside: How to Choose Hyperparameters (Optional)

شبکه‌های عصبی کانولوشنال Convolutional Neural Networks

  • مقدمه بخش CNN CNN - Section Introduction

  • کانولوشن چیست؟ What is Convolution?

  • کانولوشن چیست؟ (تطبیق الگو) What is Convolution? (Pattern Matching)

  • کانولوشن چیست؟ (اشتراک وزن) What is Convolution? (Weight Sharing)

  • کانولوشن روی تصاویر رنگی Convolution on Color Images

  • معماری CNN CNN Architecture

  • CNNها برای متن CNNs for Text

  • شبکه عصبی کانولوشنال برای NLP در تنسورفلو Convolutional Neural Network for NLP in Tensorflow

  • خلاصه بخش CNN CNN - Section Summary

شبکه‌های عصبی بازگشتی Recurrent Neural Networks

  • مقدمه بخش RNN RNN - Section Introduction

  • RNN ساده / واحد المان (قسمت اول) Simple RNN / Elman Unit (pt 1)

  • RNN ساده / واحد المان (قسمت دوم) Simple RNN / Elman Unit (pt 2)

  • آماده‌سازی کد RNN RNN Code Preparation

  • RNNها: توجه به شکل‌ها RNNs: Paying Attention to Shapes

  • GRU و LSTM (قسمت اول) GRU and LSTM (pt 1)

  • GRU و LSTM (قسمت دوم) GRU and LSTM (pt 2)

  • طبقه‌بندی متن RNN در تنسورفلو RNN for Text Classification in Tensorflow

  • برچسب‌گذاری اجزای کلام (POS) در تنسورفلو Parts-of-Speech (POS) Tagging in Tensorflow

  • تشخیص موجودیت نام‌گذاری شده (NER) در تنسورفلو Named Entity Recognition (NER) in Tensorflow

  • تمرین: بازگشت به CNNها (پیشرفته) Exercise: Return to CNNs (Advanced)

  • خلاصه بخش RNN RNN - Section Summary

نتیجه‌گیری دوره Course Conclusion

  • بعدی چه چیزی یاد بگیریم What to Learn Next

  • BERT، ChatGPT، GPT-4، ... کجا هستند؟ Where is BERT, ChatGPT, GPT-4, ...?

ضمیمه / مقدمه سوالات متداول Appendix / FAQ Intro

  • ضمیمه چیست؟ What is the Appendix?

تنظیم محیط شما سوالات متداول Setting Up Your Environment FAQ

  • بررسی پیش از نصب Pre-Installation Check

  • راه اندازی محیط آناکاندا Anaconda Environment Setup

  • چگونه Numpy، Scipy، Matplotlib، Pandas، IPython، Theano و TensorFlow را نصب کنیم How to install Numpy, Scipy, Matplotlib, Pandas, IPython, Theano, and TensorFlow

کمک بیشتر با کدنویسی پایتون برای مبتدیان سوالات متداول Extra Help With Python Coding for Beginners FAQ

  • چگونه خودتان کد بزنید (قسمت اول) How to Code by Yourself (part 1)

  • چگونه خودتان کد بزنید (قسمت دوم) How to Code by Yourself (part 2)

  • اثبات اینکه استفاده از نوت بوک ژوپیتر با عدم استفاده از آن یکسان است Proof that using Jupyter Notebook is the same as not using it

  • دست‌های خود را کثیف کنید، تجربه کدنویسی عملی، پیوندهای داده Get Your Hands Dirty, Practical Coding Experience, Data Links

  • عیب یابی محل تهیه کد Where To Get the Code Troubleshooting

  • چگونه از گیت‌هاب و نکات اضافی کدنویسی استفاده کنیم (اختیاری) How to use Github & Extra Coding Tips (Optional)

راهبردهای یادگیری مؤثر برای یادگیری ماشین سوالات متداول Effective Learning Strategies for Machine Learning FAQ

  • چگونه در این دوره موفق شویم (نسخه طولانی) How to Succeed in this Course (Long Version)

  • آیا این برای مبتدیان است یا متخصصان؟ آکادمیک یا عملی؟ با سرعت بالا یا آهسته؟ Is this for Beginners or Experts? Academic or Practical? Fast or slow-paced?

  • نقشه راه پیش‌نیازهای یادگیری ماشین و هوش مصنوعی (قسمت اول) Machine Learning and AI Prerequisite Roadmap (pt 1)

  • نقشه راه پیش‌نیازهای یادگیری ماشین و هوش مصنوعی (قسمت دوم) Machine Learning and AI Prerequisite Roadmap (pt 2)

ضمیمه / پایان سوالات متداول Appendix / FAQ Finale

  • پاداش BONUS

نمایش نظرات

آموزش یادگیری ماشین: پردازش زبان طبیعی با پایتون (نسخه ۲)
جزییات دوره
22.5 hours
160
Udemy (یودمی) Udemy (یودمی)
(آخرین آپدیت)
24,946
4.6 از 5
ندارد
دارد
دارد
جهت دریافت آخرین اخبار و آپدیت ها در کانال تلگرام عضو شوید.

Google Chrome Browser

Internet Download Manager

Pot Player

Winrar

Lazy Programmer Inc. Lazy Programmer Inc.

امروز ، بیشتر وقتم را به عنوان یک مهندس هوش مصنوعی و یادگیری ماشین با تمرکز بر یادگیری عمیق می گذرانم ، اگرچه همچنین به عنوان دانشمند داده ، مهندس داده های بزرگ و مهندس نرم افزار کامل پشته نیز شناخته شده ام. من مدرک کارشناسی ارشد خود را در رشته مهندسی کامپیوتر با گرایش یادگیری ماشین و تشخیص الگو دریافت کردم. این تجربه شامل تبلیغات آنلاین و رسانه های دیجیتالی به عنوان دانشمند داده (بهینه سازی نرخ کلیک و تبدیل) و مهندس داده های بزرگ (ساخت خطوط لوله پردازش داده) است. برخی از فناوری های کلان داده ای که من مرتباً استفاده می کنم ، Hadoop ، Pig ، Hive ، MapReduce و Spark هستند. من مدل های یادگیری عمیق را برای پیش بینی میزان کلیک و رفتار کاربر و همچنین برای پردازش تصویر و سیگنال و مدل سازی متن ایجاد کرده ام. کار من در سیستم های پیشنهادی از آموزش تقویت و فیلتر کردن مشارکتی استفاده کرده است و ما نتایج را با استفاده از تست A / B معتبر کردیم.

Lazy Programmer Team Lazy Programmer Team

مهندس هوش مصنوعی و آموزش ماشین من فوق لیسانس خود را در رشته مهندسی کامپیوتر با تخصص یادگیری ماشین و تشخیص الگو دریافت کردم. تجربه شامل تبلیغات آنلاین و رسانه های دیجیتال به عنوان یک دانشمند داده (بهینه سازی نرخ کلیک و تبدیل) و مهندس کلان داده (ساخت خطوط پردازش داده). برخی از فناوری های داده بزرگ که من اغلب استفاده می کنم Hadoop ، Pig ، Hive ، MapReduce و Spark هستند. من مدلهای یادگیری عمیقی برای پیش بینی نرخ کلیک و رفتار کاربر و همچنین پردازش تصویر و سیگنال و مدل سازی متن ایجاد کرده ام. کار من در سیستم های توصیه از یادگیری تقویتی و فیلترینگ مشارکتی استفاده کرده است و ما نتایج را با استفاده از آزمایش A/B معتبر کرده ایم.