مطالب پیشنهادی از سراسر وب

آموزش یادگیری ماشینی - یادگیری بدون نظارت - Udacity

دسته بندی ها: آموزش یادگیری ماشینی (Machine Learning) ، آموزش های Udacity ، آموزش هوش مصنوعی (AI)

آیا تا به حال تعجب کرده اید که Netflix چگونه می تواند فیلم های مورد علاقه شما را پیش بینی کند؟ یا چگونه آمازون قبل از انجام کاری می داند که می خواهید چه چیزی خریداری کنید؟ پاسخ را می توان در یادگیری بدون نظارت یافت!

تقریبا همانند تشخیص الگو، یادگیری بدون نظارت در مورد تجزیه و تحلیل داده ها و جستجوی الگوها است. این یک ابزار بسیار قدرتمند برای شناسایی ساختار در داده ها است. این دوره در مورد نحوه استفاده شما از رویکردهای یادگیری بدون نظارت - از جمله بهینه سازی تصادفی، خوشه بندی و انتخاب ویژگی ها و تبدیل آنها - برای یافتن ساختار در داده های بدون برچسب، تمرکز دارد. 

آنچه یاد خواهید گرفت:

درس1

  • بهینه سازی تصادفی
  • بهينه سازي
  • تصادفی
  • الگوریتم تپه‌نوردی
  • شروع مجدد و تصادفی الگوریتم تپه‌نوردی
  • الگوریتم شبیه سازی تبرید
  • الگوریتم تبرید
  • ویژگی های الگوریتم شبیه سازی تبرید
  • الگوریتم های ژنتیک
  • GA skeleton
  • چه چیزهایی یاد گرفته ایم
  • MIMIC
  • MIMIC: مدل احتمالی
  • MIMIC: کد Pseudo 
  • MIMIC: تخمین توزیع ها
  • یافتن درختان وابستگی
  • توزیع احتمال

درس 2

  • خوشه بندی
  • خوشه بندی و حداکثر انتظار
  • مشکل خوشه بندی اساسی
  • خوشه بندی تک پیوندی (SLC)
  • زمان اجرای SLC
  • مسائل مربوط به SLC
  • K-means clustering
  • K-means در فضای Euclidean 
  • K-means به عنوان بهینه سازی
  • Soft clustering
  • حداکثر احتمال گوسیان
  • حداکثر انتظار (EM)
  • قضیه عدم امکان

درس 3

  • انتخاب ویژگی
  • الگوریتم ها
  • فیلتر کردن و بسته بندی
  • سرعت
  • جستجوکردن
  • ارتباط
  • ارتباط در مقابل مفید بودن

درس 4

  • تحول ویژگی
  • کلماتی مانند Tesla
  • تجزیه و تحلیل اجزای اصلی
  • تجزیه و تحلیل اجزای مستقل
  • مشکل Cocktail Party
  • ماتریس
  • جایگزین ها

درس 5

  • نظریه اطلاعات
  • تاریخچه - ارسال پیام
  • اندازه پیام مورد انتظار
  • اطلاعات بین دو متغیر
  • اطلاعات متقابل
  • دو سکه مستقل
  • دو سکه وابسته
  • واگرایی Kullback Leibler

درس 6

  • پروژه یادگیری بدون نظارت

پیش نیازها و الزامات

برای این دوره شما باید تجربه برنامه نویسی داشته باشید زیرا انتظار می رود با کتابخانه های پایتون مانند numpy و scikit کار کنید. درک خوبی از احتمالات و آمار نیز لازم است. 

آیا این نوشته را دوست داشتید؟
Udacity Machine Learning Unsupervised Learning Publisher:Udacity Author:Charles Isbell, Michael Littman and Pushkar Kolhe Level:Intermediate

This is the second course in the 3-course Machine Learning Series and is offered at Georgia Tech as CS7641. Taking this class here does not earn Georgia Tech credit.

Ever wonder how Netflix can predict what movies you'll like? Or how Amazon knows what you want to buy before you do? The answer can be found in Unsupervised Learning!

Closely related to pattern recognition, Unsupervised Learning is about analyzing data and looking for patterns. It is an extremely powerful tool for identifying structure in data. This course focuses on how you can use Unsupervised Learning approaches -- including randomized optimization, clustering, and feature selection and transformation -- to find structure in unlabeled data.

Series Information: Machine Learning is a graduate-level series of 3 courses, covering the area of Artificial Intelligence concerned with computer programs that modify and improve their performance through experiences.

The entire series is taught as an engaging dialogue between two eminent Machine Learning professors and friends: Professor Charles Isbell (Georgia Tech) and Professor Michael Littman (Brown University).

What You Will Learn

LESSON 1

  • Randomized optimization
  • Optimization
  • randomized
  • Hill climbing
  • Random restart hill climbing
  • Simulated annealing
  • Annealing algorithm
  • Properties of simulated annealing
  • Genetic algorithms
  • GA skeleton
  • Crossover example
  • What have we learned
  • MIMIC
  • MIMIC: A probability model
  • MIMIC: Pseudo code
  • MIMIC: Estimating distributions
  • Finding dependency trees
  • Probability distribution

LESSON 2

  • Clustering
  • Clustering and expectation maximization
  • Basic clustering problem
  • Single linkage clustering (SLC)
  • Running time of SLC
  • Issues with SLC
  • K-means clustering
  • K-means in Euclidean space
  • K-means as optimization
  • Soft clustering
  • Maximum likelihood Gaussian
  • Expectation Maximization (EM)
  • Impossibility theorem

LESSON 3

  • Feature Selection
  • Algorithms
  • Filtering and Wrapping
  • Speed
  • Searching
  • Relevance
  • Relevance vs. Usefulness

LESSON 4

  • Feature Transformation
  • Feature Transformation
  • Words like Tesla
  • Principal Components Analysis
  • Independent Components Analysis
  • Cocktail Party Problem
  • Matrix
  • Alternatives

LESSON 5

  • Information Theory
  • History -Sending a Message
  • Expected size of the message
  • Information between two variables
  • Mutual information
  • Two Independent Coins
  • Two Dependent Coins
  • Kullback Leibler Divergence

LESSON 6

  • Unsupervised Learning Project

Prerequisites and Requirements

This class will assume that you have programming experience as you will be expected to work with python libraries such as numpy and scikit. A good grasp of probability and statistics is also required. Udacity's Intro to Statistics, especially Lessons 8, 9 and 10, may be a useful refresher.

An introductory course like Udacity's Introduction to Artificial Intelligence also provides a helpful background for this course.

پیشنهاد آموزش مرتبط در فرادرس

لینک های دانلود حجم فایل: 2.89GB همراه با زیرنویس انگلیسی Udacity-Machine Learning- Unsupervised Learning-subtitles-git.ir.rar