آموزش Microsoft DP-700 Prep: همکار مهندس داده پارچه

دانلود Microsoft DP-700 prep: Fabric Data Engineer Associate

در حال بارگزاری نمونه ویدیو، لطفا صبر کنید...
Video Player is loading.
Current Time 0:00
Duration 0:00
Loaded: 0%
Stream Type LIVE
Remaining Time 0:00
 
1x
    • Chapters
    • descriptions off, selected
    • subtitles off, selected
      نکته: آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
      نمونه ویدیوها:
      • در حال بارگزاری، لطفا صبر کنید...
      توضیحات دوره: برای امتحان DP-700 Pyspark ، SQL ، KQL و پارچه را بیاموزید. همچنین به مهارتهای کاربردی APL-3008 ، 3009 و 3010 کمک می کند تا یک راه حل تجزیه و تحلیل را پیکربندی کنید و مدیریت را تنظیم کنید و مانیتور داده ها را تغییر دهید و یک راه حل تجزیه و تحلیل را بهینه کنید-قبل از شروع این دوره ، باید یک کامپیوتر با دسترسی داشته باشید به اینترنت همین است! خوب است اگر آدرس ایمیل دفتر/مدرسه داشته باشید (که اگر به برنامه های دیگر مایکروسافت دسترسی پیدا کرده اید). اگر این کار را نکرده اید ، می توانم پیشنهادی در مورد نحوه دریافت یکی از آنها ارائه دهم. هیچ دانش قبلی در مورد Pyspark ، SQL یا KQL لازم نیست. با این حال ، اگر برخی از آنها را دارید ، این مفید خواهد بود.

      این دوره محتوای مورد نیاز برای Microsoft DP-700 "Fabric Data Engineer Associate" امتحان صدور گواهینامه را پوشش می دهد ، با استفاده از راهنمای مطالعه برای "اجرای راه حل های تحلیلی با استفاده از پارچه مایکروسافت".

      این دوره همچنین برای مهارت های کاربردی مایکروسافت زیر مفید است:

      • APL-3008 "اجرای یک راه حل اطلاعاتی در زمان واقعی با پارچه مایکروسافت"

      • APL-3009 "اجرای یک خانه دریاچه در پارچه مایکروسافت"

      • APL-3010 "اجرای یک انبار داده در پارچه مایکروسافت"

      لطفا توجه داشته باشید: این دوره وابسته به ، تأیید شده و یا حمایت مالی مایکروسافت نیست.

      • به دنبال یک نگاه سریع در اطراف پارچه ، ما به استفاده از DataFlow Gen2 و خطوط لوله - مصرف و کپی کردن داده ها ، و برنامه ریزی و نظارت بر خط لوله داده ها ادامه خواهیم داد.

      • بعد ما داده ها را با استفاده از Pyspark و SQL در یک نوت بوک دستکاری خواهیم کرد.

        • ما با استفاده از نوت بوک ها به بارگیری و ذخیره داده ها نگاه خواهیم کرد.

        • ما با انتخاب ستون ها و ردیف ها برای نشان دادن ، دستکاری DataFrames خواهیم کرد.

        • ما سپس انواع داده ها ، جمع آوری و مرتب سازی DataFrames ،

          را تبدیل خواهیم کرد
        • ما سپس داده ها را در یک خانه دریاچه ، ادغام و پیوستن به داده ها ، همراه با شناسایی داده های گمشده یا مقادیر تهی تبدیل خواهیم کرد.

      • ما سپس در حال بهبود عملکرد نوت بوک و اتوماسیون نوت بوک ها ، همراه با ایجاد اشیاء مانند میانبر و پارتیشن بندی پرونده خواهیم بود.

      • به دنبال این ، ما به استفاده از یک انبار داده می پردازیم - تبدیل داده ها ، ایجاد یک بار داده افزایشی ، و مدیریت و بهینه سازی آنها.

      • سپس ما یک خانه رویداد ایجاد خواهیم کرد و نحوه تبدیل داده ها را با استفاده از KQL:

        می دانیم
        • داده های انتخاب ، فیلتر و جمع آوری را انتخاب خواهیم کرد.

        • ما داده ها را با استفاده از توابع رشته ، شماره ، DateTime و Timespan دستکاری خواهیم کرد.

        • ما این بخش ها را با تبدیل داده ها ، ادغام و پیوستن به داده ها و موارد دیگر پایان خواهیم داد.

      • سرانجام ، ما به مصرف و تغییر داده های جریان ، از جمله تجدید نظر در دانش KQL از آزمون DP-600 ، تنظیمات فضای کاری و نظارت خواهیم پرداخت.

      هیچ دانش قبلی فرض نشده است. ما از ابتدا برای همه زبانها و موارد شروع خواهیم کرد ، اگرچه هرگونه دانش قبلی از Pyspark ، SQL یا KQL مفید است.

      پس از اتمام دوره ، دانش خوبی در مورد استفاده از نوت بوک ها برای دستکاری داده ها با استفاده از Pyspark خواهید داشت. و با برخی از تمرینات و دانش در مورد برخی از موضوعات اضافی ، حتی می توانید برای صدور گواهینامه رسمی مایکروسافت DP -700 بروید - آیا صدور گواهینامه "Microsoft Certified: Fabric Data Engineer Associate" در CV یا رزومه شما خوب به نظر می رسد؟

      امیدوارم که شما را در این دوره ببینم - چرا نگاهی به آنچه می توانید یاد بگیرید نگاهی بیندازید؟


      سرفصل ها و درس ها

      مقدمه Introduction

      • مقدمه Introduction

      • به Udemy خوش آمدید Welcome to Udemy

      • رابط Udemy The Udemy Interface

      • آیا زیرنویس های ترجمه خودکار به زبان های بیشتر می خواهید؟ Do you want auto-translated subtitles in more languages?

      • برنامه درسی Curriculum

      • منابع Resources

      نگاهی به پارچه A look around Fabric

      • * ورود به پارچه مایکروسافت * Signing into Microsoft Fabric

      • * چرا به آدرس ایمیل کاری نیاز دارم؟ و اگر من آن را ندارم چگونه می توانم یکی را بدست آورم؟ * Why do I need a Work email address? And how can I get one, if I don't have it?

      • * ایجاد ظرفیت پارچه و پیکربندی تنظیمات فضای کاری با قابلیت پارچه * Creating a Fabric capacity and configure Fabric-enabled workspace settings

      • * الزامات مربوط به راه حل پارچه را شناسایی کرده و ظرفیت پارچه را مدیریت کنید * Identify requirements for a Fabric solution and manage Fabric capacity

      • * یک تور سریع پارچه * A quick tour of Fabric

      • * نگاهی به پارچه * A look around Fabric

      با استفاده از DataFlow Gen2 Using Dataflow Gen2

      • * داده ها را با استفاده از جریان داده ها مصرف کنید * Ingest data by using a dataflow

      • * 20. یک مقصد را به یک جریان داده اضافه کنید * 20. Add a destination to a dataflow

      • * 15. صرفه جویی به عنوان یک الگوی و برنامه ریزی یک جریان داده * 15. Saving as a template and scheduling a dataflow

      • * 45. هنگام استفاده از DataFlows ، کپی سریع را پیاده سازی کنید * 45. Implement Fast Copy when using dataflows

      • 35 ، 39. نظارت بر تغییر داده ها ، شناسایی و حل خطاها با استفاده از جریان داده ها 35, 39. Monitor data transformation, identify and resolve errors using dataflows

      • 35. یک جریان داده را بهینه کنید 35. Optimize a dataflow

      • با استفاده از DataFlow Gen2 Using Dataflow Gen2

      استفاده از خطوط لوله Using pipelines

      • * 24. داده ها را با استفاده از خط لوله داده و اضافه کردن فعالیت های دیگر مصرف کنید * 24. Ingest data by using a data pipeline, and adding other activities

      • * 24 ، 38. داده ها را با استفاده از خط لوله داده کپی کنید * 24, 38. Copy data by using a data pipeline

      • * 15 ، 34. خطوط لوله داده را برنامه ریزی کرده و خط لوله داده را کنترل می کند * 15, 34. Schedule data pipelines and monitor data pipeline runs

      • 38 ، 45. شناسایی و حل خطاهای خط لوله و بهینه سازی خط لوله 38, 45. Identifying and resolving pipeline errors, and optimizing a pipeline

      • *کاوش در داده های نمونه (از جمله کپی دستیار داده) + الگوهای خط لوله داده *Exploring sample data (including copy data assistant) + data pipeline templates

      • * فعالیت شماره 1 را تمرین کنید * Practice Activity Number 1

      • * فعالیت شماره 1 - راه حل * Practice Activity Number 1 - The Solution

      • * با استفاده از خطوط لوله داده و جریان داده ها * Using data pipelines and dataflows

      17. بارگیری و ذخیره داده ها با استفاده از نوت بوک ها 17. Loading and saving data using notebooks

      • با استفاده از آپلود محلی داده ها را به خانه دریاچه می رساند Ingesting data into a lakehouse using a local upload

      • یک روش مناسب برای کپی کردن در خانه دریاچه یا انبار انتخاب کنید Choose an appropriate method for copying to a Lakehouse or Warehouse

      • مصرف داده ها با استفاده از نوت بوک و کپی کردن در یک جدول Ingesting data using a notebook, and copying to a table

      • ذخیره داده ها در یک پرونده یا میز دریاچه Saving data to a file or Lakehouse table

      • بارگیری داده ها از یک جدول در Pyspark و SQL و دستکاری نتایج Loading data from a table in PySpark and SQL, and manipulating the results

      • فعالیت شماره 2 را تمرین کنید Practice Activity Number 2

      • فعالیت شماره 2 را تمرین کنید - راه حل Practice Activity Number 2 - The Solution

      • بارگیری و ذخیره داده ها با استفاده از نوت بوک ها Loading and saving data using notebooks

      25 ، 40. دستکاری DataFrames - انتخاب ستون ها و ردیف ها 25, 40. Manipulating dataframes - choosing columns and rows

      • کاهش تعداد ستون های نشان داده شده Reducing the number of columns shown

      • فیلتر کردن داده ها با: کجا ، محدود و دم Filtering data with: where, limit and tail

      • غنی سازی داده ها با اضافه کردن ستون های جدید Enriching data by adding new columns

      • استفاده از توابع Using Functions

      • فیلتر پیشرفته تر More advanced filtering

      25 ، 40. تبدیل انواع داده ها ، جمع آوری و مرتب سازی DataFrames 25, 40. Converting data types, aggregating and sorting dataframes

      • تبدیل انواع داده Converting data types

      • وارد کردن داده ها با استفاده از یک ساختار صریح داده Importing data using an explicit data structure

      • تاریخ قالب بندی به عنوان رشته ها Formatting dates as strings

      • 27. جمع آوری و دوباره فیلتر کردن داده ها 27. Aggregating and re-filtering data

      • مرتب سازی نتایج Sorting the results

      • با استفاده از همه 6 بندهای SQL Using all 6 SQL Clauses

      • تبدیل انواع داده ها ، جمع آوری و مرتب سازی DataFrames Converting data types, aggregating and sorting dataframes

      40. داده ها را در یک خانه دریاچه تبدیل کنید 40. Transform data in a lakehouse

      • 25. ادغام داده ها 25. Merging data

      • 28a. شناسایی و حل داده های تکراری 28a. Identifying and resolving duplicate data

      • 25. پیوستن به داده ها با استفاده از یک عضو داخلی 25. Joining data using an Inner join

      • 25. پیوستن به داده ها با استفاده از سایر پیوندها 25. Joining data using other joins

      • 28B. شناسایی داده های گمشده یا مقادیر تهی 28b. Identifying missing data or null values

      • فعالیت شماره 3 - اجرای میزهای پل برای یک خانه دریاچه Practice Activity Number 3 - Implementing bridge tables for a lakehouse

      • فعالیت شماره 3 - راه حل Practice Activity Number 3 - Solution

      • تبدیل داده ها در یک خانه دریاچه Transform data in a lakehouse

      بهبود عملکرد نوت بوک و خودکار نوت بوک Improving notebook performance and automating notebooks

      • 15. نوت بوک های برنامه 15. Schedule notebooks

      • 31. داده ها را با استفاده از جریان ساختار یافته Spark در یک نوت بوک پردازش کنید 31. Process data by using Spark structured streaming in a notebook

      • 31. آزمایش پردازش داده های جریان در یک نوت بوک 31. Testing the processing of streaming data in a notebook

      • 31. داده ها را با استفاده از تعریف شغلی Spark پردازش کنید 31. Process data by using a Spark Job Definition

      • 14. انتخاب بین خط لوله ، یک جریان داده و نوت بوک 14. Choosing between a pipeline, a dataflow and a notebook

      • 16. پارامترها را با نوت بوک و خطوط لوله پیاده سازی کنید 16. Implement parameters with notebooks and pipelines

      • 16. عبارات پویا را با نوت بوک و خطوط لوله اجرا کنید 16. Implement dynamic expressions with notebooks and pipelines

      • بهبود عملکرد نوت بوک و خودکار نوت بوک Improving notebook performance and automating notebooks

      ایجاد اشیا Creating objects

      • 22. میانبرها را ایجاد و مدیریت کنید 22. Create and manage shortcuts

      • 3. تنظیمات فضای کاری Onelake را پیکربندی کنید 3. Configure OneLake workspace settings

      • ایجاد یک پایگاه داده Microsoft Azure SQL به عنوان منبع Creating a Microsoft Azure SQL Database as a source

      • 44. با استفاده از خط لوله ، پارتیشن بندی پرونده را برای بار کاری تحلیلی پیاده سازی کنید 44. Implement file partitioning for analytics workloads using a pipeline

      • 44. اجرای پارتیشن بندی پرونده برای بارهای کاری تجزیه و تحلیل - داده ها در یک خانه دریاچه است 44. Implement file partitioning for analytics workloads - data is in a lakehouse

      • 23. آینه سازی بانکهای اطلاعاتی خارجی را پیاده سازی کنید 23. Implement mirroring of external databases

      • ایجاد اشیا Creating objects

      عملکرد را در نوت بوک ها بهینه کنید Optimize performance in notebooks

      • 44. بارگیری و حل و فصل بطری های عملکرد بارگیری در نوت بوک ها 44. Identify and resolve data loading performance bottlenecks in notebooks

      • 44. اجرای بهبود عملکرد در نوت بوک ها ، Inc. ترتیب 44. Implement performance improvements in notebooks, inc. V-Order

      • 44. مسائل را با پرونده جدول Delta شناسایی و حل کنید: بهینه شده می نویسد 44. Identify and resolve issues with Delta table file: optimized writes

      • 48. عملکرد جرقه را بهینه کنید 48. Optimize Spark performance

      • بهینه سازی عملکرد Optimize performance

      داده ها را در یک انبار داده تبدیل کنید Transform data in a data warehouse

      • * ایجاد جداول در یک انبار داده * Creating tables in a data warehouse

      • 25 ، 27. قرار دادن داده ها در جداول و تبدیل داده ها در یک انبار داده 25, 27. Inserting data into tables and transforming data in a Data Warehouse

      • 20 ، 21. برای تبدیل داده ها بین Dataflows ، Notebooks و T-SQL انتخاب کنید 20, 21. Choose between dataflows, notebooks, and T-SQL for data transformation

      • 18. به آرامی ابعاد را تغییر می دهد - تئوری 18. Slowly changing dimensions - Theory

      • 18. نوع 0 را به آرامی تغییر دهید - مثال تمرین کنید 18. Implement Type 0 slowly changing dimensions - Practice Example

      • 18. نوع 1 و نوع 2 را به آرامی تغییر دهید ابعاد - مثال عملی 18. Implement Type 1 and Type 2 slowly changing dimensions - Practical Example

      • داده ها را در یک انبار داده تبدیل کنید Transform data in a data warehouse

      ایجاد بارهای افزایشی Creating incremental data loads

      • 17. با استفاده از خط لوله ، یک بار داده افزایشی را از یک انبار داده طراحی کنید 17. Design an incremental data load from a Data Warehouse using a pipeline

      • 17. با استفاده از خط لوله ، یک بار داده افزایشی را از یک انبار داده پیاده سازی کنید 17. Implement an incremental data load from a Data Warehouse using a pipeline

      • 17. یک بار داده افزایشی را از یک انبار داده با استفاده از خط لوله آزمایش کنید 17. Test an incremental data load from a Data Warehouse using a pipeline

      • 17. اجرای یک بار داده های افزایشی با استفاده از DataFlow Gen2 17. Implementing an incremental data loads using a Dataflow Gen2

      انبارهای داده را مدیریت و بهینه کنید Manage and Optimize Data Warehouses

      • * 5. ایجاد حق بیمه برای هر کاربر (PPU) فضای کاری و repos devops لاجورد * 5. Creating a Premium Per User (PPU) workspace and Azure DevOps repos

      • * 5. کنترل نسخه را برای فضای کاری پیاده سازی کنید * 5. Implement version control for a workspace

      • 6. اجرای پروژه های پایگاه داده ، از جمله در کنترل منبع 6. Implement database projects, including in source control

      • 11. ماسک داده های پویا را در یک انبار داده پیاده سازی کنید - فیلم 1 11. Implement dynamic data masking in a Data Warehouse - Video 1

      • 11. ماسک داده های پویا را در یک انبار داده پیاده سازی کنید - فیلم 2 11. Implement dynamic data masking in a Data Warehouse - Video 2

      • 46. ​​یک انبار داده را بهینه کنید 46. Optimize a data warehouse

      * ایجاد یک خانه رویداد * Creating an eventhouse

      • * ایجاد یک خانه رویداد ، کاوش در محیط و گرفتن داده * Creating an eventhouse, exploring the environment, and getting data

      • * ایجاد نمونه های KQL و SQL نمونه و کاوش در محیط پرس و جو * Creating sample KQL and SQL queries, and exploring the query environment

      * 25. انتخاب ، فیلتر و جمع آوری داده ها با استفاده از KQL * 25. Selecting, filtering and aggregating data using KQL

      • * انتخاب داده ها با استفاده از KQL * Selecting data using KQL

      • * انتخاب بیشتر ستون ها و سفارش داده ها با استفاده از KQL * Further selecting columns and ordering data using KQL

      • * محدود کردن تعداد ردیف ها * Limiting the number of rows

      • * انتخاب ستون ها ، سفارش و محدود کردن ردیف ها * Selecting columns, ordering and limiting rows

      • * ایجاد یک رشته رشته ای * Creating a string literal

      • * فیلتر برای کلیت یک رشته * Filtering for the entirety of a string

      • * فیلتر برای بخشی از یک رشته * Filtering for part of a string

      • * 27. جمع آوری داده ها * 27. Aggregating data

      * 25. توابع KQL * 25. KQL Functions

      • * رشته های خالی ، رشته های همیشگی و پیرایش * Empty strings, concatenating and trimming strings

      • * دستکاری رشته ها * Manipulating strings

      • * سایر توابع رشته * Other string functions

      • * تعداد داده های شماره * Number Data Types

      • * سایر عملکردهای ریاضی * Other Math Functions

      • * انواع داده های DateTime و Timespan * datetime and timespan Data Types

      • * توابع DateTime و Timespan * datetime and timespan Functions

      * 25. تبدیل داده ها با استفاده از KQL * 25. Transforming data using KQL

      • * ادغام داده ها * Merging data

      • * پیوستن به داده ها * Joining data

      • * داده های تکراری ، داده های از دست رفته یا مقادیر تهی را شناسایی و حل کنید * Identify and resolve duplicate data, missing data, or null values

      • * توابع IIF/IFF و مورد مشروط * The iif/iff and case conditional functions

      • * داده های onelake و مراکز در زمان واقعی + اجرای ادغام onelake * The OneLake data and real-time hubs + implementing OneLake integration

      داده های جریان را وارد کرده و تبدیل کنید Ingest and transform streaming data

      • 19 ، 29. یک موتور پخش مناسب را انتخاب کنید 19, 29. Choose an appropriate streaming engine

      • 30 ، 42. پردازش داده ها با استفاده از یک رویداد EventStream 30, 42. Processing data by using an eventstream

      • 30 ، 42. رویداد Manage Fields Transform را در یک رویدادها تبدیل می کند 30, 42. The Manage fields transform event in an eventstream

      • 30 ، 33 ، 42. گروه توسط Transform Event ، از جمله ایجاد توابع پنجره 30, 33, 42. The Group by transform event, including Creating windowing functions

      • 30 ، 42. تکمیل رویدادهای ما 30, 42. Completing our eventstream

      • 25 ، 27. تجدید نظر در نحو KQL 25, 27. Revising KQL Syntax

      • 15b ، 28 ، 37. ایجاد یک فعال کننده پارچه برای اجرای بر اساس یک ماشه مبتنی بر رویداد 15b, 28, 37. Creating a Fabric activator to run based on an event-based trigger

      • 15b طراحی و پیاده سازی یک ماشه مبتنی بر رویداد بر اساس ذخیره سازی لاجورد 15b. Designing and implement an event-based trigger based on Azure Blob storage

      • 47. بهینه سازی EventsTreams و اتفاقات 47. Optimizing eventstreams and eventhouses

      تنظیمات فضای کاری و نظارت Workspace settings and Monitoring

      • 1. تنظیمات فضای کاری جرقه: استخرهای استارت و سفارشی و محیط 1. Spark workspace settings: starter and custom pools, and environments

      • 1. سایر تنظیمات فضای کاری جرقه 1. Other Spark workspace settings

      • 2. تنظیمات فضای کاری دامنه را پیکربندی کنید 2. Configure domain workspace settings

      • 4. تنظیمات فضای کاری گردش داده را پیکربندی کنید 4. Configure data workflow workspace settings

      • تنظیمات را در پورتال مدیر پارچه توصیه کنید Recommend settings in the Fabric admin portal

      • 8 ، 9. کنترل های دسترسی به فضای کاری و سطح مورد را برای موارد پارچه پیاده سازی کنید 8, 9. Implement workspace and item-level access controls for Fabric items

      • 34-35. نصب برنامه ظرفیت پارچه مایکروسافت 34-35. Installing the Microsoft Fabric Capacity Metrics app

      • 34-35. با استفاده از برنامه ظرفیت پارچه مایکروسافت - ظرفیت پارچه را مدیریت کنید 34-35. Using the Microsoft Fabric Capacity Metrics app - Manage Fabric capacity

      • 36. نظارت بر مدل معنایی را کنترل کنید 36. Monitor semantic model refresh

      • تنظیمات فضای کاری و نظارت Workspace settings and Monitoring

      پیکربندی امنیت و حاکمیت و خطوط لوله استقرار Configuring security and governance, and deployment pipelines

      • 12. برچسب های حساسیت را برای موارد اعمال کنید 12. Apply sensitivity labels to items

      • 13. موارد را تأیید کنید 13. Endorse items

      • 8a امنیت سطح ردیف در یک انبار داده 8a. Row-level security in a Data Warehouse

      • 8b امنیت سطح ستون در یک انبار داده 8b. Column-level security in a Data Warehouse

      تبریک برای گذراندن دوره Congratulations for completing the course

      • تست تمرین پارچه Fabric Practice Test

      • چه چیزی بعدی؟ What's Next?

      • تبریک برای گذراندن دوره Congratulations for completing the course

      نمایش نظرات

      آموزش Microsoft DP-700 Prep: همکار مهندس داده پارچه
      جزییات دوره
      12 hours
      127
      Udemy (یودمی) Udemy (یودمی)
      (آخرین آپدیت)
      241
      4.9 از 5
      دارد
      دارد
      دارد
      جهت دریافت آخرین اخبار و آپدیت ها در کانال تلگرام عضو شوید.

      Google Chrome Browser

      Internet Download Manager

      Pot Player

      Winrar

      Phillip Burton Phillip Burton

      Phillip یک مشاور محاسباتی است که خدمات تخصصی در توسعه سیستم های کامپیوتری و تجزیه و تحلیل داده ها ارائه می دهد. او یک متخصص فناوری گواهی مایکروسافت است. او همچنین به عنوان کارشناس راه حل های تایید شده مایکروسافت برای هوش تجاری، مایکروسافت آفیس 2010 استاد، و به عنوان متخصص پروژه مایکروسافت 2013 گواهینامه دریافت کرده است.

      او از بررسی داده ها لذت می برد، که به من امکان می دهد سیستم های به روز و فعال را برای کمک به کنترل و نظارت بر فعالیت های روزانه حفظ کنم. به عنوان بخشی از موارد فوق، او همچنین یک پایگاه داده مکاتباتی را در Microsoft Access و SQL Server برای مشاهده مکاتبات مربوط به شغل (110000 پی دی اف در یک شغل) توسط چندین مشاور و وکیل ایجاد و نگهداری می کند.

      او همچنین تخصص و برنامه‌هایی را برای فهرست‌نویسی و پردازش و کنترل داده‌های الکترونیکی، مقادیر زیادی کاغذ یا داده‌های الکترونیکی برای تجزیه و تحلیل ساختاریافته و بررسی ایجاد کرده است.

      او یکی از 9 برنده جایزه Experts for Experts Exchange's Annual Expert Awards است و یکی از 10 کارشناس برتر Expert Exchange برای سه ماهه اول سال 2015 بود.

      علائق او کار با داده‌ها، از جمله Microsoft Excel، Access و SQL Server است.

      I Do Data Limited I Do Data Limited

      مهارت های خود را در SQL، Office، Tableau، Power BI و موارد دیگر بهبود بخشید