آموزش GCP - گواهینامه متخصص داده سطح مقدماتی گوگل کلود - آخرین آپدیت

دانلود GCP - Google Cloud Associate Data Practitioner Certification

نکته: ممکن هست محتوای این صفحه بروز نباشد ولی دانلود دوره آخرین آپدیت می باشد.
نمونه ویدیوها:
توضیحات دوره:

آمادگی برای گواهینامه Google Cloud Data Practitioner | BigQuery, Dataproc, Dataform, Cloud Composer, Looker Studio, Dataflow

  • آشنایی با سرویس‌ها و ابزارهای اصلی Google Cloud برای مدیریت، تحلیل و ارکستراسیون داده‌ها.

  • طراحی و پیاده‌سازی پایپ‌لاین‌های داده با استفاده از BigQuery, Cloud Composer, Dataflow, Dataform و Dataproc.

  • انجام آماده‌سازی، تبدیل و درون‌ریزی داده‌ها با استفاده از Cloud Data Fusion و BigQuery.

  • تحلیل و مصورسازی داده‌ها با استفاده از BigQuery, Looker Studio و BigQuery ML.

  • درک تفاوت‌ها و موارد استفاده از گزینه‌های ذخیره‌سازی داده مانند BigQuery, Cloud Storage, Firestore, Cloud SQL, Bigtable و Spanner.

  • کاربرد مفاهیم ETL, ELT و ETLT در ورک‌فلوهای داده ابری واقعی.

  • ساخت، زمان‌بندی و نظارت بر ورک‌فلوهای داده با استفاده از Cloud Composer (Apache Airflow).

  • کسب تجربه عملی از طریق آزمایشگاه‌های همسو با راهنمای رسمی آزمون گواهینامه.

  • آمادگی مؤثر برای آزمون گواهینامه Google Cloud Associate Data Practitioner.

پیش‌نیازها:

  • تجربه قبلی با Google Cloud الزامی نیست.

  • درک پایه از مفاهیم داده (مانند جداول، سطرها، کوئری‌ها) مفید است.

  • تمایل به کاوش ابزارهای ابری و انجام تمرینات عملی.

  • یک حساب Google Cloud free-tier برای اجرای آزمایشگاه‌ها و تمرینات.

این دوره یک مسیر یادگیری جامع و عملی است که برای کمک به شما در آمادگی برای گواهینامه Google Cloud Associate Data Practitioner طراحی شده و ساختار و اهداف مشخص شده در راهنمای رسمی آزمون را دنبال می‌کند.

این گواهینامه برای افرادی است که با داده‌ها در محیط ابری کار می‌کنند و نیازمند مهارت‌های بنیادی در مدیریت، پردازش، تحلیل و مصورسازی داده‌ها با استفاده از فناوری‌های Google Cloud هستند.

در این دوره، شما یاد خواهید گرفت که چگونه با اطمینان در سرویس‌های مختلف GCP کار کنید و درکی روشن از کاربرد عملی آن‌ها در ورک‌فلوهای داده انتها به انتها (end-to-end) کسب کنید.

زمینه‌های تمرکز اصلی:

  • آماده‌سازی و درون‌ریزی داده: یاد بگیرید که تفاوت بین ETL, ELT و ETLT را تشخیص دهید، مجموعه‌داده‌ها را پاکسازی و تبدیل کنید و با ابزارهایی مانند Cloud Data Fusion و BigQuery کار کنید.

  • تحلیل و مصورسازی داده: از BigQuery برای کاوش مجموعه‌داده‌ها، تفسیر نتایج تحلیلی و ساخت داشبوردهای تأثیرگذار با Looker Studio استفاده کنید. همچنین، استفاده از BigQuery ML و AutoML را برای کسب بینش‌های پیش‌بینی‌کننده بیاموزید.

  • ارکستراسیون پایپ‌لاین داده: پایپ‌لاین‌های داده را با استفاده از Cloud Composer (Apache Airflow), Dataflow (Apache Beam), Dataform و Dataproc پیاده‌سازی و زمان‌بندی کنید.

  • مدیریت داده: درک کنید که چه زمانی باید از Cloud Storage, BigQuery, Cloud SQL, Firestore, Bigtable, Spanner و AlloyDB استفاده کنید، از جمله ملاحظات مربوط به هزینه، مقیاس‌پذیری و عملکرد.

این دوره نظریه را با آزمایشگاه‌های عملی، سناریوهای دنیای واقعی و تمرینات مبتنی بر پروژه ترکیب می‌کند تا به شما کمک کند مفاهیم را درونی‌سازی کرده و اعتماد به نفس کسب کنید.

چه هدف شما قبولی در آزمون باشد و چه ساختن یک پایه قوی داده در GCP، این دوره هر آنچه را که برای موفقیت نیاز دارید، فراهم می‌کند.


سرفصل ها و درس ها

Introduction

  • معرفی دوره Course Introduction

  • منابع دوره Course Resources

بخش ۱: آماده‌سازی و ورود داده‌ها ------------ Part 1: Data Preparation and Ingestion ------------

  • معرفی بخش Part Introduction

  • روش‌های دستکاری داده‌ها Data Manipulation Methods

  • انتخاب ابزار مناسب برای انتقال داده‌ها Choose Appropriate Data Transfer Tool

  • فرمت‌های مختلف فایل داده Different Data File Formats

  • انتخاب ابزار مناسب برای استخراج Choose Appropriate Extraction Tool

  • انتخاب راه‌حل ذخیره‌سازی مناسب Select Appropriate Storage Solution

  • انتخاب نوع مکان مناسب برای ذخیره‌سازی داده‌ها Choose Appropriate Data Storage Location Type

  • داده‌های ساختاریافته، بدون ساختار و نیمه‌ساختاریافته Structured, Unstructured, and Semi-Structured Data

  • دستورات مورد استفاده در سخنرانی بعدی Commands used in next Lecture

  • [عملی] ابزار CLI ذخیره‌سازی gcloud بخش ۱ – انتقال داده از سیستم محلی به GCP Hands-On] gcloud Storage CLI Utility Part 1 - Transfer Data from Local to GCP

  • [عملی] ابزار CLI ذخیره‌سازی gcloud بخش ۲ – انتقال داده از سیستم محلی به GCP Hands-On] gcloud Storage CLI Utility Part 2 - Transfer Data from Local to GCP

  • [عملی] مهاجرت پایگاه داده – بخش ۱ [Hands-On] Database Migration Part - 1

  • [عملی] مهاجرت پایگاه داده – بخش ۲ [Hands-On] Database Migration Part - 2

  • [عملی] مهاجرت پایگاه داده – بخش ۳ [Hands-On] Database Migration Part - 3

  • [عملی] انتقال اشیاء از یک باکت GCP به باکت دیگر [Hands-On] Transfer Objects from One GCP Bucket to Another

  • [عملی] انتقال اشیاء از Azure Cloud Storage به باکت GCP [Hands-On] Transfer Objects from Azure Cloud Storage to GCP Bucket

  • [عملی] انتقال اشیاء از AWS S3 به باکت GCP [Hands-On] Transfer Objects from AWS S3 to GCP Bucket

  • [عملی] ورود داده به BigQuery با استفاده از bq CLI [Hands-On] Data Ingestion into BigQuery Using bq CLI

  • [عملی] استفاده از Python SDK برای تعامل با Google Cloud Services بخش ۱ [Hands-On] Using Python SDK to Interact with Google Cloud Services Part 1

  • [عملی] استفاده از Python SDK برای تعامل با Google Cloud Services بخش ۲ [Hands-On] Using Python SDK to Interact with Google Cloud Services Part 2

  • آزمون بخش Section Quiz

  • برنامه‌ریزی یک جریان کاری ورود داده مقیاس‌پذیر در Google Cloud Plan a Scalable Data Ingestion Workflow on Google Cloud

بخش ۲: تحلیل و ارائه داده‌ها ------------ Part 2: Data Analysis and Presentation -----------

  • معرفی بخش Part Introduction

  • کوئری‌های SQL مورد استفاده در ۳ سخنرانی بعدی SQL Queries used in next 3 Lectures

  • [عملی] بینش داده با استفاده از BigQuery بخش ۱ [Hands-On] Data Insight using BigQuery Part 1

  • [عملی] بینش داده با استفاده از BigQuery بخش ۲ [Hands-On] Data Insight using BigQuery Part 2

  • [عملی] بینش داده با استفاده از BigQuery بخش ۳ [Hands-On] Data Insight using BigQuery Part 3

  • کد پایتون مورد استفاده در سخنرانی بعدی Python Code used in next Lecture

  • [عملی] بصری‌سازی داده با استفاده از Python Notebook [Hands-On] Data visualization using Python Notebook

  • [عملی] سرویس انتقال داده BigQuery: کپی مجموعه داده [Hands-On] BigQuery Data Transfer Service: Dataset Copy

  • [عملی] سرویس انتقال داده BigQuery: Google Cloud Storage [Hands-On] BigQuery Data Transfer Service: Google Cloud Storage

  • موارد استفاده ML با استفاده از BigQuery ML و AutoML ML Use Cases using BigQuery ML and AutoML

  • برنامه‌ریزی یک پروژه یادگیری ماشین Plan a Machine Learning Project

  • [عملی] تحلیل و بصری‌سازی داده با Looker [Hands-On] Analyse and Visualize Data with Looker

  • کوئری‌های SQL مورد استفاده در سخنرانی بعدی SQL Queries used in next Lecture

  • [عملی] تکمیل پروژه ML با BigQuery [Hands-On] Complete ML Project with BigQuery

  • آزمون بخش Section Quiz

  • تحلیل، بصری‌سازی و پیش‌بینی رفتار کاربر با GCP Analyze, Visualize & Predict User Behavior with GCP

بخش ۳: ارکستراسیون خط لوله داده ------------ Part 3: Data Pipeline Orchestration --------------

  • معرفی بخش Part Introduction

  • انتخاب ابزارهای تبدیل داده Selecting a Data Transformation Tools

  • موارد استفاده برای ELT و ETL Use Cases for ELT and ETL

  • آزمون بخش Section Quiz

[عملی] Google Cloud Composer [Hands-on] Google Cloud Composer

  • [عملی] ایجاد محیط Cloud Composer [Hands-On] Create Cloud Composer Environment

  • [عملی] ایجاد و اجرای خط لوله DAG پایه [Hands-On] Create and Run Basic DAG Pipeline

  • [عملی] خط لوله ETL DAG – از GCS به BigQuery [Hands-On] ETL DAG - GCS to BigQuery Pipeline

[عملی] Google Cloud Dataproc [Hands-on] Google Cloud Dataproc

  • [عملی] ایجاد کلاستر Dataproc [Hands-On] Create Dataproc Cluster

  • دستورات اجرا شده در سخنرانی بعدی Commands Executed in Next Lecture

  • [عملی] بررسی سیستم فایل توزیع شده Hadoop (HDFS) [Hands-On] Explore Hadoop Distributed File System (HDFS)

  • دستورات اجرا شده در سخنرانی بعدی Commands Executed in Next Lecture

  • [عملی] تعامل با Hive [Hands-On] Interact with Hive

  • دستورات اجرا شده در سخنرانی بعدی Commands Executed in Next Lecture

  • [عملی] کارهای PySpark در Dataproc [Hands-On] PySpark Jobs on Dataproc

  • دستورات اجرا شده در سخنرانی بعدی Commands Executed in Next Lecture

  • [عملی] اجرای کار PySpark در Dataproc با استفاده از رابط کاربری (UI) [Hands-On] Run PySpark Job on Dataproc using User Interface (UI)

  • [عملی] اجرای کار PySpark در Dataproc از طریق Jupyter Notebook [Hands-On] Run PySpark Job on Dataproc via Jupyter Notebook

[عملی] Google Cloud Dataflow [Hands-on] Google Cloud Dataflow

  • [عملی] استفاده از الگوهای Dataflow برای بارگذاری داده از GCS به BigQuery [Hands-On] Using Dataflow Templates to Load Data from GCS to BigQuery

  • [عملی] ایجاد یک خط لوله ETL با Dataflow Job Builder [Hands-On] Create an ETL Pipeline with Dataflow Job Builder

  • [عملی] ایجاد کار Streaming با استفاده از الگوی ارائه شده توسط گوگل [Hands-On] Create Streaming Job using Google Provided Template

[عملی] Google Cloud Dataform [Hands-on] Google Cloud Dataform

  • [عملی] Dataform: راه‌اندازی در GCP و ایجاد یکپارچگی با Github [Hands-On] Dataform: Set-up in GCP and Establish Github Integration

  • [عملی] Dataform: ایجاد و پر کردن جدول در BigQuery [Hands-On] Dataform: Create and Populate Table in BigQuery

  • [عملی] Dataform: ورود و تبدیل داده‌های CSV از GCS به BigQuery [Hands-On] Dataform: Ingest and Transform GCS CSV Data into BigQuery

[عملی] Google Cloud Data Fusion [Hands-on] Google Cloud Data Fusion

  • [عملی] ایجاد نمونه Data Fusion [Hands-On] Create Data Fucion Instance

  • [عملی] خط لوله ETL Data Fusion: از GCS به BigQuery بخش ۱ [Hands-On] Data Fusion ETL Pipeline: GCS to BigQuery Part 1

  • [عملی] خط لوله ETL Data Fusion: از GCS به BigQuery بخش ۲ [Hands-On] Data Fusion ETL Pipeline: GCS to BigQuery Part 2

[عملی] Google Cloud Eventarc [Hands-on] Google Cloud Eventarc

  • مقدمه‌ای بر Eventarc Introduction to Eventarc

  • [عملی] راه‌اندازی Cloud Run با رویدادهای GCS با استفاده از Eventarc [Hands-On] Trigger Cloud Run with GCS Events using Eventarc

  • دستورات اجرا شده در سخنرانی بعدی Commands Executed in Next Lecture

  • [عملی] ثبت رویدادهای آپلود GCS در BigQuery با استفاده از Cloud Run و Eventarc بخش ۱ [Hands-On] Log GCS Upload Events to BigQuery Using Cloud Run & Eventarc Part 1

  • [عملی] ثبت رویدادهای آپلود GCS در BigQuery با استفاده از Cloud Run و Eventarc بخش ۲ [Hands-On] Log GCS Upload Events to BigQuery Using Cloud Run & Eventarc Part 2

  • آزمون بخش Section Quiz

  • انتخاب ابزار مناسب GCP برای خطوط لوله Batch، Streaming و ELT Choose the Right GCP Tool for Batch, Streaming & ELT Pipelines

بخش ۴: مدیریت داده ------------ Part 4: Data management --------------

  • معرفی بخش Part Introduction

  • اصول دسترسی با حداقل امتیاز با استفاده از IAM Principles of Least Privileged Access using IAM

  • انواع مختلف نقش‌ها: BigQuery و Storage Different Types of Roles: BigQuery and Storage

  • [عملی] کنترل دسترسی برای Google Cloud Storage بخش ۱ [Hands-On] Access Control for Google Cloud Storage Part 1

  • [عملی] کنترل دسترسی برای Google Cloud Storage بخش ۲ [Hands-On] Access Control for Google Cloud Storage Part 2

  • کلاس‌های Google Cloud Storage Google Cloud Storage Classes

  • پیکربندی قوانین برای حذف اشیاء در BigQuery و Cloud Storage Configure Rules to Delete Objects in BigQuery & Cloud Storage

  • دسترسی بالا و بازیابی پس از فاجعه در Cloud Storage و Cloud SQL High Availability & Disaster Recovery in Cloud Storage & Cloud SQL

  • مقدمه‌ای بر سرویس مدیریت کلید ابری (Cloud KMS) Introduction to Cloud Key Management Service (Cloud KMS)

  • آزمون بخش Section Quiz

  • مدیریت داده و امنیت GCP در یک سناریوی دنیای واقعی GCP Data Management & Security in a Real-World Scenario

آزمون‌های تمرینی Practice Tests

  • آزمون تمرینی ۱ Practice Test 1

  • آزمون تمرینی ۲ Practice Test 2

تشکر Thank You

  • تبریک Congratulations

نمایش نظرات

آموزش GCP - گواهینامه متخصص داده سطح مقدماتی گوگل کلود
جزییات دوره
10 hours
76
Udemy (یودمی) Udemy (یودمی)
(آخرین آپدیت)
1,382
4.5 از 5
دارد
دارد
دارد
جهت دریافت آخرین اخبار و آپدیت ها در کانال تلگرام عضو شوید.

Google Chrome Browser

Internet Download Manager

Pot Player

Winrar

Ankit Mistry Ankit Mistry

توسعه دهنده نرم افزار | من می خواهم زندگی و درآمد شما را بهبود بخشم.

Ajay Gadhave Ajay Gadhave

داده ها