مطالب پیشنهادی از سراسر وب

دوره کاربردی یادگیری ماشینی - Applied Machine Learning Course

دسته بندی ها: آموزش های ویژه ، آموزش پایتون (Python) ، آموزش هوش مصنوعی (AI) ، آموزش یادگیری ماشینی (Machine Learning)

با یادگیری این دوره می توانید در هر موقعیت شغلی یادگیری ماشینی استخدام شوید! یادگیری ماشین را در یک دوره 150 ساعته فرا بگیرید.

مقدمه:

یادگیری ماشینی در حال شکل گیری و انقلابی در جهان است و صنایع و شغل ها را در سطح جهانی دگرگون کرده است. بسیاری از صنایع مختلف قبلاً اتوماسیون فرایندهای تجاری و اختلال در یادگیری ماشین را دیده اند.

این دوره کلیه ابزارها و تکنیک های لازم برای یادگیری ماشینی را برای حل مشکلات تجاری فراهم می کند. ما اصول یادگیری ماشینی، نحوه ساخت مدل های یادگیری ماشینی، بهبود و استقرار مدل های یادگیری ماشینی شما را پوشش خواهیم داد.

در این عصر یادگیری ماشینی، از هر دانشمند مشتاق داده انتظار می رود که در تکنیک ها و ابزارهای یادگیری ماشینی مهارت پیدا کند و آنها را در مشکلات کسب و کار در دنیای واقعی بکار ببرد.

بدون پیش نیاز:

نگران پیش نیاز دوره نباشید. اگر به یادگیری یادگیری ماشینی و هوشم صنوعی علاقه دارید باید بدانید که تمامی مفاهیم مورد نیاز برای این دوره اعم از سطح مبانی تا پیشرفته با اجرای عملی در هر مرحله از دوره برای شرکت کنندگان توضیح داده شده است تا بدون در نظر گرفتن پیش زمینه آنها بر مهارت خود تسلط یابند.

محتوای دوره:

این دوره دارای بیش از 150 ساعت محتوای بسیار ساده و کاملا مرتبط با این صنعت است که نیازی به پیش نیاز ندارد و تمامی مباحث پایتون، ریاضیات، تحلیل داده، یادگیری ماشینی و یادگیری عمیق را پوشش می دهد. علاوه بر این بیش از 70 ساعت به مطالب و دروسی می پردازد که بر اساس بازخورد دانشجو و الزامات صنعت است تا  تا دانشجویان را برای حل مسئله در دنیای واقعی بهتر آماده کند.

ماهیت کاربردی محتوا:

این محتوا شامل جنبه های کاربردی هوش مصنوعی است: 30 ارزیابی عملی برای تقویت یادگیری به همراه بازخورد روشن، هدفمند و عملی. بیش از 13 تا مطالعات موردی بر اساس مشکلات کسب و کار در دنیای واقعی در صنایع مختلف که طعم تجربه در زمان واقعی را به دانشجویان می دهد.

ضمانت شغلی:

ما می دانیم که تغییر شغل چقدر می تواند چالش برانگیز باشد. دوره های تغییر شغلی ما به عنوان کل تجارب یادگیری طراحی شده است تا از سفر شما از اولین تمرین تا تبدیل شدن به یک حرفه جدید پشتیبانی کند. ما این کار را با ضمانت شغلی برای آرامش خاطر شما انجام می دهیم.

سرفصل

  • چگونه این دوره را یاد بگیریم؟
  • برنامه تضمین شغلی چگونه عملی می شود؟
  • نصب پایتون، Anaconda و بسته های مربوطه
    • چرا پایتون را یاد بگیریم؟
    • عبارت های کلیدی و شناسه ها
    • کامنت ها، indentation و statements
    • متغیرها و انواع داده در پایتون
    • ورودی و خروجی استاندارد
    • اپراتورها
    • Control flow if else
    • Control flow while loop
    • Control flow for loop
    • Control flow
  • لیست ها
    • Tuples بخش 1
    • Tuples بخش 2
    • مجموعه ها
    • دیکشنری
    • رشته ها
  • مقدمه
    • انواع تابع
    • آرگومان های تابع
    • توابع بازگشتی
    • توابع لامبدا
    • ماژول ها
    • بسته ها
    • مدیریت فایل
    • مدیریت استثنا
    • اشکال زدایی پایتون
  • آشنایی با Numpy
    • عملیات عددی در Numpy
  • شروع کار با Matplotlib
  • شروع کار با pandas
    • مبانی Data Frame
    • عملیات اصلی بر روی Data Frames
  •  پیچیدگی فضا و زمان بزرگ ترین اعداد را در یک لیست پیدا می کند
    • جستجوی باینری
    • یافتن عناصر مشترک در دو لیست
    • یافتن عناصر مشترک در دو لیست با HashtableDict
  • معرفی مجموعه داده IRIS و 2D scatter plot
    • بررسی 3D scatter plot
    • بررسی Pair plots
    • محدودیت های Pair Plots
    • هیستوگرام و معرفی PDF
    • تحلیل Univariate با PDF
    • بررسی CDF
    • میانگین، واریانس و انحراف استاندارد
    • میانگین
    • درصد و کوانتیل
    • بررسی IQR و MAD
    • Box-plot با Whiskers
    • بررسی Violin Plots
    • خلاصه سازی پلات ها، تحلیل Univariate، Bivariate و Multivariate 
    • تمرین کردن اجرای EDA در مجموعه داده Haberman 
  • چرا یاد بگیریم؟
    • معرفی وکتورها - وکتور ردیفی و وکتور ستونی
    • محصول دات و زاویه بین 2 وکتور (بردار)
    • پروژه و وکتور یونیت
    • معادله یک خط (2-D)، پلین(3-D) و (Hyperplane (n-D، هواپیما که از مبدا عبور می کند، از نرمال به یک Plane
    • فاصله یك نقطه از یك PlaneHyperplane و Half-Spaces
    • معادله یک دایره (2-D)، کره (3-D) و (Hypersphere (n-D
    • معادله یک بیضی (2-D)، الیپسوید (3 بعدی) و هایپرلیپسوئید (n-D)
    • مربع، مستطیل
    • Hyper Cube ،Hyper Cuboid
    • مرور
  • مقدمه ای بر آمار و احتمال
    • جمعیت و نمونه
    • توزیع GaussianNormal و PDF آن
    • CDF توزیع GaussianNormal 
    • توزیع متقارن، Skewness و Kurtosis
    • واریته نرمال استاندارد (Z) و استانداردسازی
    • تخمین تراکم کرنل
    • توزیع نمونه و قضیه محدودیت مرکزی
    • Q-Q plot - نحوه تست کردن: اگر متغیر تصادفی به طور نرمال توزیع شده باشد یا خیر
    • نحوه استفاده از توزیعات
    • نابرابری چبیشف
    • توزیع های یکنواخت گسسته و مداوم
    • نحوه نمونه گیری تصادفی از نقاط داده (توزیع Uniform)
    • توزیع برنولی و توزیع Binomial
    • توزیع نرمال لاگ
    • توزیع قانون قدرت
    • انتقال Box cox
    • کاربرد توزیع های non-gaussian
    • کوواریانس
    • ضریب همبستگی پیرسون
    • ضریب همبستگی رتبه Spearman
    • همبستگی در مقابل نسبت علت و معلول
    • نحوه استفاده از همبستگی ها
    • معرفی (Confidence interval (C.I
    • محاسبه فاصله اطمینان با توجه به توزیع
    • C.I برای میانگین متغیر تصادفی عادی
    • فاصله اطمینان با bootstrapping
    • متدولوژی تست فرضیه، فرضیه تهی و مقدار پی
    • فرضیه تست شهود با مثال پرتاب سکه
    • نمونه برداری مجدد و تست جایگرد
    • تست K-S برای شباهت دو توزیع
    • تست Code Snippet K-S
    • مثال دیگری از تست فرضیه
    • مثال دیگری از نمونه برداری مجدد و تست جایگرد
    • نحوه استفاده از تست فرضیه
    • نمونه برداری متناسب
    • مرور
  • پرسش و پاسخ
  • کاهش ابعاد چیست؟
    • وکتور ستونی و وکتور ردیفی
    • نحوه نمایش یک مجموعه داده
    • نحوه نمایش یک مجموعه داده به عنوان ماتریکس
    • پردازش داده ها نرمال سازی فیچر
    • میانگین ماتریکس داده
    • پردازش داده - استاندارد سازی ستون
    • کوواریانس ماتریکس داده
    • مجموعه داده MNIST 
    • کدنویسی برای لود کردن مجموعه داده MNIST
  • چرا PCA را یاد بگیریم؟
    • بینش هندسی PCA
    • عملکرد هدف ریاضی PCA
    • فرمول جایگزین PCA به حداقل رساندن فاصله
    • کاهش ابعاد مقادیر Eigen و وکتورهای Eigen 
    • PCA برای کاهش ابعاد و مصورسازی
    • مصورسازی مجموعه داده MNIST 
    • محدودیت های PCA
    • مثال کد PCA 
    • PCA برای کاهش ابعاد (نه مصورسازی)
  • t-SNE چیست؟
    • همسایگی یک نقطه، تعبیه
    • بینش هندسی t-SNE
    • مشکل ازدحام
    • نحوه اعمال t-SNE و تفسیر خروجی آن
    • t-SNE در MNIST
    • نمونه کد t-SNE
    • مرور
  • پرسش و پاسخ
    • بررسی مجموعه داده - بررسی Amazon Fine Food
    • تمیز کردن داده - Deduplication
    • چرا متن را به یک وکتور تبدیل کنید
    • (Bag of Words (BoW
    • پردازش متن - ریشه لغات
    • uni-gram، bi-gram و n-grams
    • چرا از لگاریتم در IDF استفاده می کنیم؟
    • Word2Vec  
    • Avg-Word2Vec و tf-idf weighted Word2Vec
    • Bag of Words (نمونه کد)
    • پردازش متن (نمونه کد) 
    • Bi-Grams و n-grams (نمونه کد)
    • TF-IDF (نمونه کد)
    • Word2Vec (نمونه کد)
    •  Avg-Word2Vec و TFIDF-Word2Vec (نمونه کد)
    • Assignment - اعمال t-SNE
  • نحوه کارکرد طبقه بندی
    • حاشیه نویسی ماتریکس داده
    • طبقه بندی در مقابل رگرسیون (مثال ها)
    • همسایگان K-Nearest شهود هندسی با یک نمونه اسباب بازی
    • موارد شکست KNN
    • اقدامات از راه دور اقلیدسی (L2) ، منهتن (L1) ، مینکوفسکی ، Hamming
    • فاصله Cosine و شباهت Cosine 
    • نحوه اندازه گیری تاثیر k-NN
    • پیچیدگی فضا و زمان TestEvaluation 
    • محدودیت های KNN 
    • سطح تصمیم گیری برای K-NN به عنوان تغییرات K
    • بررسی Overfitting و Underfitting
    • نیاز به اعتبارسنجی متقابل 
    • اعتبارسنجی متقابل K-fold
    • مصورسازی train، اعتبارسنجی و تست مجموعه داده ها
    • نحوه تعیین overfitting و underfitting
    • تقسیم مبتنی بر زمان
    • k-NN برای رگرسیون
    • Weighted k-NN
    • دایاگرام Voronoi 
    • درخت جستجوی باینری
    • نحوه ساخت kd-tree
    • یافتن همسایگان نزدیکترین با استفاده از kd-tree
    • محدودیت های kd-tree
    • پسوندها
    • هش کردن در مقابل LSH
    • LSH برای شباهت cosine 
    • LSH برای فاصله اقلیدسی
    • برچسب کلاس احتمالی
    • مرز SampleDecision  کد
    • اعتبارسنجی کد SampleCross
    • مرور
  • پرسش و پاسخ
  • مقدمه
  • مجموعه داده متعادل در مقابل نامتعادل
    • طبقه بندی مولتی کلاس
    •  k-NN - دادن فاصله یا ماتریکس شباهت
    • آموزش و تست تفاوت های مجموعه
    • تاثیر outliers
    • فاکتور outlier محلی (راه حل ساده میانگین فاصله تا Knn)
    • فاصله k
    • بررسی (Reachability-Distance(A,B
    • بررسی (reachability-density(A محلی
    • فاکتور outlier محلی (A)
    • تأثیر استاندارد سازی مقیاس و ستون
    • تفسیر
    • اهمیت ویژگی و انتخاب ویژگی های Forward 
    • مدیریت فیچرهای طبقه بندی و عددی
    • مدیریت مقادیر از دست رفته با imputation
    • نفرین ابعاد
    • تعصب واریانس تجارت کردن 
    • درک شهودی واریانس تعصب
    • مرور
    • بهترین و بدترین واریانس تعصب
  • دقت
    • ماتریس سردرگمی، TPR ،FPR ،FNR  ،TNR
    • دقت و یادآوری، نمره F1
    • منحنی ویژگی عملکرد گیرنده (ROC) و AUC
    • بررسی Log-loss
    • R-SquaredCoefficient تعیین
    • انحراف مطلق میانه (MAD)
    • توزیع خطاها
    • اعمال همسایه k-Nearest
    • مرور
  • احتمال شرطی
    • رویدادهای انحصاری مستقل و مشترک
    • تئوری Bayes با مثال ها
    • تمرین مشکلات بر روی تئوری Bayes
    • الگوریتم Naive Bayes
    • مثال اسباب بازی - آموزش و تست مراحل
    • Naive Bayes بر روی داده متنی
    • بررسی LaplaceAdditive Smoothing
    • احتمالات لگاریتمی برای ثبات عددی
    • تجارت تعصبات و واریانس
    • تفسیر و اهمیت ویژگی
    • داده نامتوازن
    • Outliers
    • مقادیر ناموجود
    • مدیریت ویژگی های عددی (Gaussian NB)
    • طبقه بندی چندکلاسی
    • ماتریس شباهت یا فاصله
    • ابعاد بزرگ
    • بهترین و بدترین موارد
    • مثال کد
    • تمرین 4- اعمال Naive Bayes
    • مرور
  • شهود هندسی رگرسیون منطقی
    • بررسی Sigmoid function Squashing
    • فرمول ریاضی تابع هدف
    • بررسی Weight vector
    • تنظیم L2 - بررسی Overfitting و Underfitting
    • نظم و کمبود L1
    • تفسیر احتمالی Gaussian Naive Bayes
    • تفسیر به حداقل رساندن ضرر
    • هایپرپارامترها و جستجوی تصادفی
    • استانداردسازی ستون
    • اهمیت ویژگی و تفسیر مدل
    • همگونی ویژگی ها
    • فضای زمان و پیچیدگی زمان TestRun
    • موارد دنیای واقعی
    • مهندسی ویژگی و داده های قابل تفکیک غیر خطی
    • نمونه کدنویسی - رگرسیون منطقی، GridSearchCV و RandomSearchCV
    • تمرین 5 - اعمال رگرسیون منطقی
    • الحاقات به مدل های خطی عمومی
  • شهود هندسی رگرسیون خطی
    • فرمول ریاضی
    • موارد دنیای واقعی
    • نمونه کد برای رگرسیون خطی
  • تفکیک
    • ابزارهای تفکیک آنلاین
    • ماکسیما و مینیما
    • بررسی Vector calculus Grad
    • شهود هندسی نزولی شیب
    • نرخ یادگیری
    •  نزول شیب برای رگرسیون خطی
    • الگوریتم SGD 
    •  بهینه سازی محدود و PCA
    • بررسی مجدد  فرمول رگرسیون منطقی
    • چرا تنظیم L1 باعث ایجاد کمبود می شود
    • تمرین 6 - پیاده سازی SGD برای رگرسیون منطقی
    • مرور
  • پرسش و پاسخ
  •  بینش هندسی
    • مشتق ریاضی
    • چرا ما برای هواپیماهای بردار پشتیبانی از مقادیر +1 و -1 استفاده می کنیم
    •  تفسیر مبتنی بر تابع ضرر (Hinge Loss)
    • فرم دوگانه فرمول SVM
    • ترفند kernel 
    • بررسی Polynomial Kernel
    • بررسی RBF-Kernel
    • بررسی Domain-specific Kernels
    • آموزش و پیچیدگی های زمان اجرا
    • خطاهای کنترل nu-SVM و بردارهای پشتیبانی
    • رگرسیون SVM
    •  موارد
    •  نمونه کد
    • تمرین 7 - اعمال SVM
    • مرور
  • پرسش و پاسخ
  • بینش هندسی درخت تصمیم گیری hyperplanes موازی محور
    • درخت تصمیم گیری نمونه
    •  ساختن درخت تصمیم گیری - آنتروپی
    • ساختن درخت تصمیم گیری - به دست آوردن اطلاعات
    • ساخت درخت تصمیم گیری - ناخالصی Gini
    • ساختن درخت تصمیم گیری - ساخت DT
    • ساختن درخت تصمیم گیری - جداسازی ویژگی های عددی
    • استاندارد سازی ویژگی
    • ساخت درخت تصمیم گیری - ویژگی های طبقه ای با بسیاری از مقادیر ممکن
    • Overfitting و Underfitting
    • آموزش و پیچیدگی زمان اجرا
    • رگرسیون با استفاده از درختان تصمیم گیری
    • موارد
    • نمونه های کد
    • تمرین 8 - اعمال درختان تصمیم گیری
    • مرور
  • پرسش و پاسخ
  • ensembles چیست؟
    • شهود جمع آوری بوت استرپ شده (جمع آوری)
    • جنگل تصادفی و ساخت آنها
    • تعصب واریانس تجارت کردن 
    • آموزش و پیچیدگی زمان اجرا 
    • نمونه BaggingCode
    • درختان کاملاً تصادفی
    • موارد درخت تصادفی
    •  تقویت شهود
    • باقیمانده، توابع از دست رفته و شیب ها
    •  تقویت شیب
    • تنظیم با Shrinkage
    • آموزش و پیچیدگی زمان اجر  
    • افزایش XGBoost + تصادفی سازی
    •  شهود هندسی AdaBoost
    • پشته سازی مدل ها
    • بررسی Cascading classifiers
    • مسابقات Kaggle در مقابل دنیای واقعی
    • تمرین 9 - اعمال جنگل های تصادفی و GBDT
    • مرور
  • مقدمه
    • Moving window برای Time Series Data
    • تجزیه فوریه
    • ویژگی های یادگیری عمیق LSTM
    • هیستوگرام تصویر
    • نکات کلیدی SIFT
    • ویژگی های یادگیری عمیق CNN
    • داده های ارتباطی
    • نمودار داده
    • متغیرهای شاخص
    • بررسی Feature binning
    • متغیرهای تعامل
    • تبدیل ریاضی
    • فیچرسازی مخصوص مدل
    • Feature orthogonality
    • فیچرسازی مخصوص دامنه
    • Feature slicing
    • راه حل های برندگان Kaggle
  • کالیبراسیون ModelsNeed برای کالیبراسیون
    • تولید و استقرار مدل های یادگیری ماشین
    • پلات های کالیبراسیون
    • Platt's Calibration Scaling
    • رگرسیون ایزوتونیک
    • نمونه های کد
    • مدل سازی با حضور outliers RANSAC
    • مدل های تولید
    • مدل های بازآموزی دوره ای
    • تست AB
    • چرخه عمر علم داده
    • بعد VC
  • Clustering چیست؟
    • یادگیری بدون نظارت
    • کاربردها
    • معیارها برای Clustering
    • بینش هندسی K-Means، سانتروئیدها
    • تابع هدفمند فرمول ریاضی K-Means
    • الگوریتم K-Means
    • نحوه فعال سازی ++K-Means
    • موارد شکست- محدودیت ها
    • K-Medoids
    • تعیین صحیح K
    • نمونه کد
    • پیچیدگی زمان و مکان
    • تمرین 10 - اعمال الگوریتم های DBSCAN clustering و Agglomerative و K-means
  •  بررسی Agglomerative و  Divisive ،Dendrogramsالگوریتم DBSCAN
    • بررسی Agglomerative Clustering
    • محدودیت ها و مزایای متدهای مجاورت
    • پیچیدگی زمان و مکا ن
    • محدودیت های Hierarchical Clustering
    • نمونه کد
    • تمرین 10 - اعمال الگوریتم های DBSCAN clustering و Agglomerative و K-means
  • clustering مبتنی بر چگالی
    • چگالی MinPts و Eps
    • نقاط Border، Noise و Core
    • نقاط متصل چگالی و Density edge
    • الگوریتم DBSCAN 
    • هایپرپارامترها - MinPts و Eps
    • مزایا و محدودیت های DBSCAN
    • پیچیدگی زمان و مکان
    • نمونه کد
    • تمرین 10 - اعمال الگوریتم های DBSCAN clustering و Agglomerative و K-means
    • مرور
  •  فرمول مسئله بررسی فیلم
    • فیلتر کردن مشارکتی دربرابر مبتنی بر محتوا
    • الگوریتم های مبتنی بر تشابه
    • Matrix Factorization PCA, SVD
    • Matrix Factorization NMF
    • Matrix Factorization برای Collaborative filtering
    • Matrix Factorization برای مهندسی فیچر
    • Clustering به عنوان MF
    • Hyperparameter tuning
    • Matrix Factorization برای سیستم های پیشنهادی راه حل جایزه Netflix
    • مشکل شروع سرد
    • وکتورهای کلمه به عنوان MF
    • Eigen-Faces
    • نمونه کد
    • تمرین 11 - اعمال Truncated SVD
    • مرور
  • پرسش و پاسخ
  • مشكل تجارت در دنیای واقعی
    • اهداف و محدودیت های تجاری
    • نقشه برداری از مسئله ML بررسی اجمالی داده ها
    • نقشه برداری در فرمول مسئله ML
    • نقشه برداری با معیارهای عملکرد مشکل ML
    • Hamming loss
    • بارگیری داده EDA
    • تجزیه و تحلیل EDA برچسب ها
    • پیش پردازش داده های EDA
    • طبقه بندی چند برچسبی - مدل سازی داده ها
    • تهیه اطلاعات
    • تقسیم Train-Test
    • Featurization
    • رگرسیون منطقی - One VS Rest
    • نمونه برداری از داده ها و برچسب ها + مدل های وزنی
    • تجدید نظر در رگرسیون منطقی
    • چرا از تکنیک های پیشرفته استفاده نمی شود
    • تکالیف
  • مشكل تجارت در دنیای واقعی - تعریف مشکل
    • اهداف و محدودیت های تجاری
    • نقشه برداری از مسئله ML بررسی اجمالی داده ها
    • نقشه برداری از مسئله ML مشکل ML و معیار عملکرد
    • نقشه برداری از یک مشکل ML تقسیم آزمایشی
    • آمار اولیه EDA
    • استخراج ویژگی اساسی EDA
    • پردازش متن EDA
    • استخراج ویژگی پیشرفته EDA
    • تجزیه و تحلیل ویژگی EDA
    • مصورسازی داده EDA - بررسی T-SNE
    • EDA TF-IDF وزن فیچرسازی Word2Vec را تحمل می کند
    • داده های بارگیری مدل های ML
    • مدل های تصادفی مدل های ML
    • مدل های ML رگرسیون منطقی و SVM خطی
    • مدل های یادگیری ماشینی - XGBoost
    • تکالیف
  • بیان مشکل الگوریتم های مبتنی بر تشابه
    • بیانیه مشکل محصولات با پوشاک مشابه را در تجارت الکترونیکی با استفاده از توضیحات محصول و تصاویر توصیه می کند
    • برنامه عمل
    • API تبلیغات محصول آمازون
    • پوشه ها و مسیرهای داده
    • بررسی اجمالی داده ها و اصطلاحات
    • تمیز کردن داده ها و درک داده های از دست رفته در ویژگی های مختلف
    • ردیف های تکراری را درک کنید
    • قسمت های تکراری را حذف کنید  قسمت 1
    • قسمت های تکراری را حذف کنید  قسمت 2
    • پیش پردازش متن، توکن سازی و Stop-word removal
    • Stemming
    • شباهت محصول مبتنی بر متن تبدیل متن به یک وکتور کلمات n-D
    • کد بسته بندی کلمات بر اساس شباهت محصول
    • کد برای شباهت محصول مبتنی بر TF-IDF
    • کد برای شباهت محصول مبتنی بر IDF
    •  تشابه محصول مبتنی بر معنایی متن Word2Vec (متن دلپذیر مبتنی بر شباهت معنایی)
    • کد برای میانگین شباهت محصول Word2Vec
    • Word2Vec وزنی TF-IDF
    • کد برای IDF وزن Word2Vec شباهت محصول
    • شباهت وزن با استفاده از نام تجاری و رنگ
    • کد برای تشابه وزنی
    • ساختن یک راه حل در دنیای واقعی
    • شباهت محصول بصری مبتنی بر یادگیری عمیق ConvNets چگونه به لبه های تصویر، اشکال ، قسمت ها فیچر اضافه کنیم؟
    • استفاده از Keras + Tensorflow برای استخراج ویژگی ها
    • شباهت محصول مبتنی بر شباهت بصری
    • اندازه گیری خوبی از تست AB راه حل ما
    • تمرین - نزدیکترین مدل همسایه وزنی را با استفاده از ویژوال، متن، مارک و رنگ بسازید
  • مشكل تجارت در دنیای واقعی - تعریف مشکل
    • اهداف و محدودیت های مشكل تجارت در دنیای واقعی
    •  نقشه برداری از مسئله ML بررسی اجمالی داده ها
    • نقشه برداری از مسئله ML مشکل ML 
    • نقشه برداری از یک مشکل ML تقسیم آزمایشی
    • بررسی توزیع کلاس تحلیل داده 
    • بررسی تحلیل داده ها - استخراج ویژگی از فایل های بایت
    • بررسی تحلیل داده، تحلیل Multivariate ویژگی ها از فایل های بایت
    • بررسی تحلیل داده، توزیع کلاس Train-Test
    • مدل های ML - فقط از فایل های بایت استفاده کنید
    •  k-NN
    • رگرسیون منطقی
    • جنگل تصادفی و Xgboost
    • چند پردازش و استخراج ویژگی فایل های ASM 
    • ویژگی اندازه فایل
    • تحلیل Univariate 
    • تحلیل t-SNE
    • مدل های ML در ویژگی های فایل ASM
    • مدل ها در تمام ویژگی های t-SNE
    • مدل های موجود در تمام ویژگی های جنگل تصادفی و Xgboost
    • تکالیف
  • مشكل تجارت در دنیای واقعی - تعریف مشکل
    • اهداف و محدودیت ها
    • نقشه برداری به یک مسئله ML بررسی اجمالی داده ها
    • نقشه برداری مشکل ML - فرمول مشکل ML
    • بررسی تحلیل داده - پیش پردازش داده ها
    • بررسی تحلیل داده - Temporal Train-Test split
    • بررسی تحلیل داده - تحلیل داده مقدماتی
    • بررسی تحلیل داده - نمایش ماتریکس پراکنده
    • بررسی تحلیل داده - میانگین رتبه بندی برای برش های مختلف
    • بررسی تحلیل داده - مشکل شروع سرما
    • محاسبه ماتریس شباهت - ماتریس شباهت کاربر-کاربر
    • محاسبه ماتریس شباهت - شباهت فیلم-فیلم
    • محاسبه ماتریس شباهت - آیا شباهت فیلم-فیلم کار می کند
    • کتابخانه سورپرایز مدل های ML
    • مرور کلی از استراتژی مدل سازی
    • نمونه گیری داده ها
    • درایو Google با فایل های متوسط
    • Featureizations برای رگرسیون
    • تحول داده ها برای Surprise
    • Xgboost با 13 ویژگی
    • مدل پایه سورپرایز
    • Xgboost به علاوه ی 13 ویژگی + مدل پایه سورپرایز
    • پیش بینی KNN سورپرایز
    • مدل های فاکتورسازی ماتریکس با استفاده از سورپرایز
    • ++SVD با بازخورد ضمنی
    • مدل های نهایی با تمام ویژگی ها و پیش بینی کننده ها
    • مقایسه مدل های مختلف
    • تکالیف
  • مشكل تجارت در دنیای واقعی - تعریف مشکل
    • اهداف و محدودیت های تجارت
    • داده فرمول مسئله ML
    • فرمول مشکل ML - نقشه برداری از دنیای واقعی به مشکل ML
    • فرمول مشکل ML - نقشه برداری دنیای واقعی به #مشکل ML
    • فرمول مشکل ML - ساخت داده - Train، CV و تست
    • بررسی تحلیل داده - خواندن داده ها و پیش پردازش
    • بررسی تحلیل داده - توزیع برچسب های کلاس
    • بررسی تحلیل داده - تحلیل داده های اکتشافی مدل "تصادفی"
    • تحلیل Univariate - ویژگی Gene
    • تحلیل Univariate - ویژگی تنوع
    • تحلیل Univariate - ویژگی متن
    • مدل های یادگیری ماشین تهیه داده ها
    • مدل پایه - Naive Bayes
    • طبقه بندی همسایگان K-Nearest
    • رگرسیون منطقی با تعادل کلاس
    • رگرسیون منطقی بدون تعادل کلاس
    • SVM خطی
    • جنگل تصادفی با ویژگی های رمزگذاری شده یک  one-hot 
    • جنگل تصادفی با ویژگی های response-coded
    • Stacking Classifier
    • Majority Voting classifier
    • تکالیف
  • بررسی مشكل تجارت در دنیای واقعی
    • اهداف و محدودیت ها
    • نقشه برداری در داده مشکل ML
    • نقشه برداری در مشکل ML - بررسی dask data frames
    • نقشه برداری در مشکل ML - ویژگی های فیلدها
    • نقشه برداری در مشکل ML - رگرسیون پیش بینی - سری های زمانی
    • نقشه برداری در مشکل ML - ماتریس های عملکرد
    • تمیز کردن داده - داده Latitude و Longitude
    • تمیز کردن داده - Trip Duration
    • تمیز کردن داده - سرعت 
    • تمیز کردن داده - فاصله 
    • تمیز کردن داده - کرایه 
    • تمیز کردن داده -  همه نقاط اشتباه را از بین ببرید
    • آماده سازی داده - تقسیم بندی Clustering 
    • آماده سازی داده - Time binning
    • آماده سازی داده - Smoothing time-series data
    • آماده سازی داده - Smoothing time-series data cont
    • آماده سازی داده - Time series and Fourier transforms
    • مقادیر previous-time-bin و ضریب ها
    • میانگین متحرک ساده
    • میانگین وزنی متحرک
    • میانگین متحرک وزنی نمایی
    • نتایج
    • مدل های رگرسیون تقسیم و ویژگی های Train-Test
    • رگرسیون خطی
    • رگرسیون جنگلی تصادفی
    • رگرسیون Xgboost
    • مقایسه مدل
    • تکالیف
  • تاریخچه شبکه های عصبی و یادگیری عمیق
    • نحوه کارکرد عصب های بایولوژیکی
    • رشد شبکه های عصبی بیولوژیکی
    • بازنمایی دیاگرامی رگرسیون منطقی و ادراک
    • (Multi-Layered Perceptron (MLP
    • نشانه گذاری
    • آموزش یک مدل تک نورونی
    • آموزش MLP Chain Rule
    • آموزش MLPM emoization
    • بررسی Backpropagation
    • توابع فعال سازی
    • ونیش کردن مشکل گرادیانت
    • تعصب واریانس تجارت کردن 
    • سطوح تصمیم گری - زمین بازی
  • Deep Multi-layer perceptrons 1980s to 2010s
    • تنظیم و لایه های Dropout 
    • (Rectified Linear Units (ReLU 
    • اولیه سازی وزن
    • نرمال سازی Batch 
    • Optimizers Hill-descent analogy in 2D
    • Optimizers Hill descent in 3D and contours
    • SGD Recap
    • Batch SGD با momentum
    • (Nesterov Accelerated Gradient (NAG
    • Optimizers  AdaGrad
    • Optimizers Adadelta و RMS Prop
    • Adam
    • کدام الگوریتم را انتخاب کنیم و چه وقت
    • کلیپ کردن و بررسی شیب
    • Softmax و Cross-entropy برای طبقه بندی مولتی کلاس
    • نحوه آموزش MLP عمیق
    • Auto Encoders
    • Word2Vec CBOW
    • Word2Vec Skip-gram
    • بهینه سازی های الگوریتمی Word2Vec 
  • بررسی Tensorflow و Keras
    • یادگیری عمیق GPU دربرابر CPU
    • Google Colaboratory
    • نصب TensorFlow
    • آموزش ها و مستندسازی آنلاین
    • Softmax Classifier در مجموعه داده MNIST 
    • MLP Initialization
    • مدل 1 - Sigmoid activation
    • مدل 2 - ReLU activation
    • مدل 3 - Batch Normalization
    • مدل 4 - Dropout
    • طبقه بندی MNIST در Keras
    • Hyperparameter tuning در Keras
    • تمرین - امتحان کردن معماری های مختلف MLP در مجموعه داده MNIST
  • الهام بخشی بیولوژیکی - Visual Cortex
    • Convolution Edge Detection در تصاویر
    • Convolution Padding و strides
    • Convolution بر روی تصاویر RGB 
    • Convolutional layer
    • Max-pooling
    • بهینه سازی آموزش CNN 
    • مثال CNN LeNet
    • مجموعه داده ImageNet 
    • Data Augmentation
    • Convolution Layers در Keras
    • AlexNet
    • VGGNet
    • شبکه Residual 
    • شبکه Inception 
    • یادگیری انتقال چیست؟
    • مثال کد - گربه ها درمقابل سگ ها
    • مثال کد - مجموعه داده MNIST 
    • تکلیف - امتحان شبکه های مختلف CNN در مجموعه داده MNIST
  • چرا RNNs؟
    • شبکه عصبی پیچشی
    • آموزش RNNs Backprop
    • انواع RNNs
    • نیاز به LSTMGRU
    • LSTM
    • GRUs
    • Deep RNN
    • Bidirectional RNN
    • مثال کد - طبقه بندی احساس IMDB
    • تمرین - بررسی Amazon Fine Food - مدل LSTM 
  • پرسش و پاسخ
  • شناسایی مشکل ماشین بدون راننده
    • مجموعه داده ها
    • Datasets#
    • درک داده و تحلیل فایل ها و پوشه ها
    • تصاویر Dash-cam و steering angles
    • تقسیم مجموعه داده -Train درمقابل Test
    • زوایای EDA Steering
    • Mean Baseline model simple
    • مدل یادگیری عمیق، یادگیری عمیق برای CNN رگرسیون، CNN+RNN
    • Batch، لود کردن مجموعه داده
    • NVIDIA's end to end CNN model
    • آموزش مدل
    • تست و مصورسازی output
    • اکستنشن ها
    • تکالیف
  • مشکل دنیای واقعی
    • نمایش موزیک
    • Char-RNN با abc-notation Char-RNN model
    • Char-RNN with abc-notation - آماده سازی داده
    • Char-RNN with abc-notationMany برای Many RNN,TimeDistributed-Dense layer
    • Char-RNN با abc-notation State full RNN
    • Char-RNN با abc-notation - تولید موزیک
    • Char-RNN با abc-notation - تولید موزیک tabla 
    • تولید موزیک MIDI
    • Survey blog
  • شناسایی اکتیویتی انشان - تعریف مشکل
    • درک مجموعه داده
    • پیش پردازش و تمیز کردن داده
    • تحلیل EDAUnivariate 
    • مصورسازی داده EDA با t-SNE 
    • مدل های کلاسیک ML 
    • مدل یادگیری عمیق
    • تمرین - ساخت مدل های عمیق تر LSTM و hyper-param tune them
  • تعریف مشکل
    • بررسی مسیر، directed-edge، edgelink و Graphs nodevertex
    • محدودیت ها و فرمت داده
    • نقشه برداری مشکل طبقه بندی تحت نظارت
    • ماتریکس ها و محدودیت های تجاری
    • EDA Basic Stats
    • Follower - EDA و following stats
    • تسک طبقه بندی باینری EDA
    • تقسیم تست و آموزش EDA  
    • مهندسی فیچر در شباهت های GraphsJaccard و Cosine
    • PageRank
    • کوتاه ترین مسیر
    • کامپوننت های متصل
    • Adar Index
    •  Kartz Centrality
    • HITS Score
    • SVD
    • فیچرهای وزنی
    • مدل سازی
  • معرفی پایگاه داده ها
    • چرا SQL؟
    • اجرای SQL statement
    • مجموعه داده IMDB 
    • نصب MySQL
    • بارگیری داده IMDB 
    • دستور USE, DESCRIBE, SHOW TABLES
    • دستور SELECT
    • دستور LIMIT, OFFSET
    • دستور ORDER BY
    • دستور DISTINCT
    • دستور WHERE, Comparison operators, NULL
    • اپراتورهای منطقی
    • توابع Aggregate - بررسی COUNT, MIN, MAX, AVG, SUM
    • GROUP BY
    • HAVING
    • سفارش  keywords#
    • جوین و جوین طبیعی
    • Inner, Left, Right و Outer joins
    • Sub QueriesNested QueriesInner Queries
    • DMLINSERT
    • DMLUPDATE و DELETE
    • DDLCREATE TABLE
    • DDLALTER ADD, MODIFY, DROP
    • DDLDROP TABLE, TRUNCATE, DELETE
    • زبان کنترل داده - GRANT, REVOKE
    • یادگیری منابع
  • پیش بینی AD-Click
  • مرور
    • سوالات
    • منابع خارجی برای سوالات مصاحبه

 

چگونه از طریق Appliedaicourse یاد بگیریم؟


برنامه تضمین شغل چگونه کار می کند؟


چرا باید پایتون یاد بگیریم؟


نصب پایتون، آناکوندا و پکیج های مرتبط


شناسه ها و کلید واژه ها
 

 

بروزرسانی ها

در تاریخ ۱۳۹۸/۱۲/۱۰ بروزرسانی جدید دوره با حجم 6.3 گیگابایت به مجموعه اضافه گردید. بروزرسانی جدید به خریداران قبلی مجموعه از طریق ایمیل ارسال می گردد. 

آیا این نوشته را دوست داشتید؟
AppliedAICourse Applied Machine Learning Course Publisher:AppliedAICourse Duration:150 hours Level:BEGINNER TO ADVANCED

01.01- How to Learn from Appliedaicourse
01.02- How the Job Guarantee program works
02.01- Python, Anaconda and relevant packages installations
02.02- Why learn Python
02.03- Keywords and identifiers
02.04- comments, indentation and statements
02.05- Variables and data types in Python
02.06- Standard Input and Output
02.07- Operators
02.08- Control flow if else
02.09- Control flow while loop
02.10 - Control flow for loop
02.11 - Control flow break and continue
03.01- Lists
03.02- Tuples part 1
03.03- Tuples part-2
03.04- Sets
03.05- Dictionary
03.06- Strings
04.01- Introduction
04.02- Types of functions
04.03- Function arguments
04.04- Recursive functions
04.05- Lambda functions
04.06- Modules
04.07- Packages
04.08- File Handling
04.09- Exception Handling
04.10 - Debugging Python
05.01- Numpy Introduction
05.02- Numerical operations on Numpy
06.01- Getting started with Matplotlib
07.01- Getting started with pandas
07.02- Data Frame Basics
07.03- Key Operations on Data Frames
08.01- Space and Time Complexity Find largest number in a list
08.02- Binary search
08.03- Find elements common in two lists
08.04- Find elements common in two lists using a HashtableDict
09.01- Introduction to IRIS dataset and 2D scatter plot
09.02- 3D scatter plot
09.03- Pair plots
09.04- Limitations of Pair Plots
09.05- Histogram and Introduction to PDF(Probability Density Function)
09.06- Univariate Analysis using PDF
09.07- CDF(Cumulative Distribution Function)
09.08- Mean, Variance and Standard Deviation
09.09- Median
09.10 - Percentiles and Quantiles
09.11 - IQR(Inter Quartile Range) and MAD(Median Absolute Deviation)
09.12 - Box-plot with Whiskers
09.13 - Violin Plots
09.14 - Summarizing Plots, Univariate, Bivariate and Multivariate analysis
09.15 - Multivariate Probability Density, Contour Plot
09.16 - Exercise Perform EDA on Haberman dataset
10.01- Why learn it
10.02- Introduction to Vectors(2-D, 3-D, n-D) , Row Vector and Column Vector
10.03- Dot Product and Angle between 2 Vectors
10.04- Projection and Unit Vector
10.05- Equation of a line (2-D), Plane(3-D) and Hyperplane (n-D), Plane Passing through origin, Normal to a Plane
10.06- Distance of a point from a PlaneHyperplane, Half-Spaces
10.07- Equation of a Circle (2-D), Sphere (3-D) and Hypersphere (n-D)
10.08- Equation of an Ellipse (2-D), Ellipsoid (3-D) and Hyperellipsoid (n-D)
10.09- Square ,Rectangle
10.10 - Hyper Cube,Hyper Cuboid
10.11 - Revision Questions
11.01- Introduction to Probability and Statistics
11.02- Population and Sample
11.03- GaussianNormal Distribution and its PDF(Probability Density Function)
11.04- CDF(Cumulative Distribution function) of GaussianNormal distribution
11.05- Symmetric distribution, Skewness and Kurtosis
11.06- Standard normal variate (Z) and standardization
11.07- Kernel density estimation
11.08- Sampling distribution & Central Limit theorem
11.09- Q-Q plotHow to test if a random variable is normally distributed or not
11.10 - How distributions are used
11.11 - Chebyshev's inequality
11.12 - Discrete and Continuous Uniform distributions
11.13 - How to randomly sample data points (Uniform Distribution)
11.14 - Bernoulli and Binomial Distribution
11.15 - Log Normal Distribution
11.16 - Power law distribution
11.17 - Box cox transform
11.18 - Applications of non-gaussian distributions
11.19 - Co-variance
11.20 - Pearson Correlation Coefficient
11.21 - Spearman Rank Correlation Coefficient
11.22 - Correlation vs Causation
11.23 - How to use correlations
11.24 - Confidence interval (C.I) Introduction
11.25 - Computing confidence interval given the underlying distribution
11.26 - C.I for mean of a normal random variable
11.27 - Confidence interval using bootstrapping
11.28 - Hypothesis testing methodology, Null-hypothesis, p-value
11.29 - Hypothesis Testing Intution with coin toss example
11.30 - Resampling and permutation test
11.31 - K-S Test for similarity of two distributions
11.32 - Code Snippet K-S Test
11.33 - Hypothesis testing another example
11.34 - Resampling and Permutation test another example
11.35 - How to use hypothesis testing
11.36 - Proportional Sampling
11.37 - Revision Questions
12.01- Questions & Answers
13.01- What is Dimensionality reduction
13.02- Row Vector and Column Vector
13.03- How to represent a data set
13.04- How to represent a dataset as a Matrix
13.05- Data Preprocessing Feature Normalisation
13.06- Mean of a data matrix
13.07- Data Preprocessing Column Standardization
13.08- Co-variance of a Data Matrix
13.09- MNIST dataset (784 dimensional)
13.10 - Code to Load MNIST Data Set
14.01- Why learn PCA
14.02- Geometric intuition of PCA
14.03- Mathematical objective function of PCA
14.04- Alternative formulation of PCA Distance minimization
14.05- Eigen values and Eigen vectors (PCA) Dimensionality reduction
14.06- PCA for Dimensionality Reduction and Visualization
14.07- Visualize MNIST dataset
14.08- Limitations of PCA
14.09- PCA Code example
14.10 - PCA for dimensionality reduction (not-visualization)
15.01- What is t-SNE
15.02- Neighborhood of a point, Embedding
15.03- Geometric intuition of t-SNE
15.04- Crowding Problem
15.05- How to apply t-SNE and interpret its output
15.06- t-SNE on MNIST
15.07- Code example of t-SNE
15.08- Revision Questions
16.01- Questions & Answers
17.01- Dataset overview Amazon Fine Food reviews(EDA)
17.02- Data Cleaning Deduplication
17.03- Why convert text to a vector
17.04- Bag of Words (BoW)
17.05- Text Preprocessing Stemming
17.06- uni-gram, bi-gram, n-grams
17.07- tf-idf (term frequency- inverse document frequency)
17.08- Why use log in IDF
17.09- Word2Vec
17.10 - Avg-Word2Vec, tf-idf weighted Word2Vec
17.11 - Bag of Words( Code Sample)
17.12 - Text Preprocessing( Code Sample)
17.13 - Bi-Grams and n-grams (Code Sample)
17.14 - TF-IDF (Code Sample)
17.15 - Word2Vec (Code Sample)
17.16 - Avg-Word2Vec and TFIDF-Word2Vec (Code Sample)
17.17 - Assignment-2 Apply t-SNE
18.01- How "Classification" works
18.02- Data matrix notation
18.03- Classification vs Regression (examples)
18.04- K-Nearest Neighbours Geometric intuition with a toy example
18.05- Failure cases of KNN
18.06- Distance measures Euclidean(L2) , Manhattan(L1), Minkowski, Hamming
18.07- Cosine Distance & Cosine Similarity
18.08- How to measure the effectiveness of k-NN
18.09- TestEvaluation time and space complexity
18.10 - KNN Limitations
18.11 - Decision surface for K-NN as K changes
18.12 - Overfitting and Underfitting
18.13 - Need for Cross validation
18.14 - K-fold cross validation
18.15 - Visualizing train, validation and test datasets
18.16 - How to determine overfitting and underfitting
18.17 - Time based splitting
18.18 - k-NN for regression
18.19 - Weighted k-NN
18.20 - Voronoi diagram
18.21 - Binary search tree
18.22 - How to build a kd-tree
18.23 - Find nearest neighbours using kd-tree
18.24 - Limitations of Kd tree
18.25 - Extensions
18.26 - Hashing vs LSH
18.27 - LSH for cosine similarity
18.28 - LSH for euclidean distance
18.29 - Probabilistic class label
18.30 - Code SampleDecision boundary
18.31 - Code SampleCross Validation
18.32 - Revision Questions
19.01- Questions & Answers
20.01- Introduction
20.02- Imbalanced vs balanced dataset
20.03- Multi-class classification
20.04- k-NN, given a distance or similarity matrix
20.05- Train and test set differences
20.06- Impact of outliers
20.07- Local outlier Factor (Simple solution Mean distance to Knn)
20.08- k distance
20.09- Reachability-Distance(A,B)
20.10 - Local reachability-density(A)
20.11 - Local outlier Factor(A)
20.12 - Impact of Scale & Column standardization
20.13 - Interpretability
20.14 - Feature Importance and Forward Feature selection
20.15 - Handling categorical and numerical features
20.16 - Handling missing values by imputation
20.17 - curse of dimensionality
20.18 - Bias-Variance tradeoff
20.19 - Intuitive understanding of bias-variance
20.20 - Revision Questions
20.21 - best and wrost case of algorithm
21.01- Accuracy
21.02- Confusion matrix, TPR, FPR, FNR, TNR
21.03- Precision and recall, F1-score
21.04- Receiver Operating Characteristic Curve (ROC) curve and AUC
21.05- Log-loss
21.06- R-SquaredCoefficient of determination
21.07- Median absolute deviation (MAD)
21.08- Distribution of errors
21.09- Assignment-3 Apply k-Nearest Neighbor
21.10 - Revision Questions
22.01- Questions & Answers
23.01- Conditional probability
23.02- Independent vs Mutually exclusive events
23.03- Bayes Theorem with examples
23.04- Exercise problems on Bayes Theorem
23.05- Naive Bayes algorithm
23.06- Toy example Train and test stages
23.07- Naive Bayes on Text data
23.08- LaplaceAdditive Smoothing
23.09- Log-probabilities for numerical stability
23.10 - Bias and Variance tradeoff
23.11 - Feature importance and interpretability
23.12 - Imbalanced data
23.13 - Outliers
23.14 - Missing values
23.15 - Handling Numerical features (Gaussian NB)
23.16 - Multiclass classification
23.17 - Similarity or Distance matrix
23.18 - Large dimensionality
23.19 - Best and worst cases
23.20 - Code example
23.21 - Assignment-4 Apply Naive Bayes
23.22 - Revision Questions
24.01- Geometric intuition of Logistic Regression
24.02- Sigmoid function Squashing
24.03- Mathematical formulation of Objective function
24.04- Weight vector
24.05- L2 Regularization Overfitting and Underfitting
24.06- L1 regularization and sparsity
24.07- Probabilistic Interpretation Gaussian Naive Bayes
24.08- Loss minimization interpretation
24.09- hyperparameters and random search
24.10 - Column Standardization
24.11 - Feature importance and Model interpretability
24.12 - Collinearity of features
24.13 - TestRun time space and time complexity
24.14 - Real world cases
24.15 - Non-linearly separable data & feature engineering
24.16 - Code sample Logistic regression, GridSearchCV, RandomSearchCV
24.17 - Assignment-5 Apply Logistic Regression
24.18 - Extensions to Generalized linear models
25.01- Geometric intuition of Linear Regression
25.02- Mathematical formulation
25.03- Real world Cases
25.04- Code sample for Linear Regression
26.01- Differentiation
26.02- Online differentiation tools
26.03- Maxima and Minima
26.04- Vector calculus Grad
26.05- Gradient descent geometric intuition
26.06- Learning rate
26.07- Gradient descent for linear regression
26.08- SGD algorithm
26.09- Constrained Optimization & PCA
26.10 - Logistic regression formulation revisited
26.11 - Why L1 regularization creates sparsity
26.12 - Assignment 6 Implement SGD for linear regression
26.13 - Revision questions
27.01- Questions & Answers
28.01- Geometric Intution
28.02- Mathematical derivation
28.03- Why we take values +1 and and -1 for Support vector planes
28.04- Loss function (Hinge Loss) based interpretation
28.05- Dual form of SVM formulation
28.06- kernel trick
28.07- Polynomial Kernel
28.08- RBF-Kernel
28.09- Domain specific Kernels
28.10 - Train and run time complexities
28.11 - nu-SVM control errors and support vectors
28.12 - SVM Regression
28.13 - Cases
28.14 - Code Sample
28.15 - Assignment-7 Apply SVM
28.16 - Revision Questions
29.01- Questions & Answers
30.01- Geometric Intuition of decision tree Axis parallel hyperplanes
30.02- Sample Decision tree
30.03- Building a decision TreeEntropy
30.04- Building a decision TreeInformation Gain
30.05- Building a decision Tree Gini Impurity
30.06- Building a decision Tree Constructing a DT
30.07- Building a decision Tree Splitting numerical features
30.08- Feature standardization
30.09- Building a decision TreeCategorical features with many possible values
30.10 - Overfitting and Underfitting
30.11 - Train and Run time complexity
30.12 - Regression using Decision Trees
30.13 - Cases
30.14 - Code Samples
30.15 - Assignment-8 Apply Decision Trees
30.16 - Revision Questions
31.01- Questions & Answers
32.01- What are ensembles
32.02- Bootstrapped Aggregation (Bagging) Intuition
32.03- Random Forest and their construction
32.04- Bias-Variance tradeoff
32.05- Train and run time complexity
32.06- BaggingCode Sample
32.07- Extremely randomized trees
32.08- Random Tree Cases
32.09- Boosting Intuition
32.10 - Residuals, Loss functions and gradients
32.11 - Gradient Boosting
32.12 - Regularization by Shrinkage
32.13 - Train and Run time complexity
32.14 - XGBoost Boosting + Randomization
32.15 - AdaBoost geometric intuition
32.16 - Stacking models
32.17 - Cascading classifiers
32.18 - Kaggle competitions vs Real world
32.19 - Assignment-9 Apply Random Forests & GBDT
32.20 - Revision Questions
33.01- Introduction
33.02- Moving window for Time Series Data
33.03- Fourier decomposition
33.04- Deep learning features LSTM
33.05- Image histogram
33.06- Keypoints SIFT
33.07- Deep learning features CNN
33.08- Relational data
33.09- Graph data
33.10 - Indicator variables
33.11 - Feature binning
33.12 - Interaction variables
33.13 - Mathematical transforms
33.14 - Model specific featurizations
33.15 - Feature orthogonality
33.16 - Domain specific featurizations
33.17 - Feature slicing
33.18 - Kaggle Winners solutions
34.01- Calibration of ModelsNeed for calibration
34.02- Productionization and deployment of Machine Learning Models
34.03- Calibration Plots
34.04- Platt's CalibrationScaling
34.05- Isotonic Regression
34.06- Code Samples
34.07- Modeling in the presence of outliers RANSAC
34.08- Productionizing models
34.09- Retraining models periodically
34.10 - AB testing
34.11 - Data Science Life cycle
34.12 - VC dimension
35.01- What is Clustering
35.02- Unsupervised learning
35.03- Applications
35.04- Metrics for Clustering
35.05- K-Means Geometric intuition, Centroids
35.06- K-Means Mathematical formulation Objective function
35.07- K-Means Algorithm
35.08- How to initialize K-Means++
35.09- Failure casesLimitations
35.10 - K-Medoids
35.11 - Determining the right K
35.12 - Code Samples
35.13 - Time and space complexity
35.14 - Assignment-10 Apply K-means, Agglomerative, DBSCAN clustering algorithms
36.01- Agglomerative & Divisive, Dendrograms
36.02- Agglomerative Clustering
36.03- Proximity methods Advantages and Limitations
36.04- Time and Space Complexity
36.05- Limitations of Hierarchical Clustering
36.06- Code sample
36.07- Assignment-10 Apply K-means, Agglomerative, DBSCAN clustering algorithms
37.01- Density based clustering
37.02- MinPts and Eps Density
37.03- Core, Border and Noise points
37.04- Density edge and Density connected points
37.05- DBSCAN Algorithm
37.06- Hyper Parameters MinPts and Eps
37.07- Advantages and Limitations of DBSCAN
37.08- Time and Space Complexity
37.09- Code samples
37.10 - Assignment-10 Apply K-means, Agglomerative, DBSCAN clustering algorithms
37.11 - Revision Questions
38.01- Problem formulation Movie reviews
38.02- Content based vs Collaborative Filtering
38.03- Similarity based Algorithms
38.04- Matrix Factorization PCA, SVD
38.05- Matrix Factorization NMF
38.06- Matrix Factorization for Collaborative filtering
38.07- Matrix Factorization for feature engineering
38.08- Clustering as MF
38.09- Hyperparameter tuning
38.10 - Matrix Factorization for recommender systems Netflix Prize Solution
38.11 - Cold Start problem
38.12 - Word vectors as MF
38.13 - Eigen-Faces
38.14 - Code example
38.15 - Assignment-11 Apply Truncated SVD
38.16 - Revision Questions
39.01- Questions & Answers
40.01- BusinessReal world problem
40.02- Business objectives and constraints
40.03- Mapping to an ML problem Data overview
40.04- Mapping to an ML problemML problem formulation
40.05- Mapping to an ML problemPerformance metrics
40.06- Hamming loss
40.07- EDAData Loading
40.08- EDAAnalysis of tags
40.09- EDAData Preprocessing
40.10 - Data Modeling Multi label Classification
40.11 - Data preparation
40.12 - Train-Test Split
40.13 - Featurization
40.14 - Logistic regression One VS Rest
40.15 - Sampling data and tags+Weighted models
40.16 - Logistic regression revisited
40.17 - Why not use advanced techniques
40.18 - Assignments
41.01- BusinessReal world problem Problem definition
41.02- Business objectives and constraints
41.03- Mapping to an ML problem Data overview
41.04- Mapping to an ML problem ML problem and performance metric
41.05- Mapping to an ML problem Train-test split
41.06- EDA Basic Statistics
41.07- EDA Basic Feature Extraction
41.08- EDA Text Preprocessing
41.09- EDA Advanced Feature Extraction
41.10 - EDA Feature analysis
41.11 - EDA Data Visualization T-SNE
41.12 - EDA TF-IDF weighted Word2Vec featurization
41.13 - ML Models Loading Data
41.14 - ML Models Random Model
41.15 - ML Models Logistic Regression and Linear SVM
41.16 - ML Models XGBoost
41.17 - Assignments
42.01- Problem Statement Recommend similar apparel products in e-commerce using product descriptions and Images
42.02- Plan of action
42.03- Amazon product advertising API
42.04- Data folders and paths
42.05- Overview of the data and Terminology
42.06- Data cleaning and understandingMissing data in various features
42.07- Understand duplicate rows
42.08- Remove duplicates Part 1
42.09- Remove duplicates Part 2
42.10 - Text Pre-Processing Tokenization and Stop-word removal
42.11 - Stemming
42.12 - Text based product similarity Converting text to an n-D vector bag of words
42.13 - Code for bag of words based product similarity
42.14 - TF-IDF featurizing text based on word-importance
42.15 - Code for TF-IDF based product similarity
42.16 - Code for IDF based product similarity
42.17 - Text Semantics based product similarity Word2Vec(featurizing text based on semantic similarity)
42.18 - Code for Average Word2Vec product similarity
42.19 - TF-IDF weighted Word2Vec
42.20 - Code for IDF weighted Word2Vec product similarity
42.21 - Weighted similarity using brand and color
42.22 - Code for weighted similarity
42.23 - Building a real world solution
42.24 - Deep learning based visual product similarityConvNets How to featurize an image edges, shapes, parts
42.25 - Using Keras + Tensorflow to extract features
42.26 - Visual similarity based product similarity
42.27 - Measuring goodness of our solution AB testing
42.28 - Exercise Build a weighted Nearest neighbor model using Visual, Text, Brand and Color
43.01- Businessreal world problem Problem definition
43.02- Businessreal world problem Objectives and constraints
43.03- Machine Learning problem mapping Data overview
43.04- Machine Learning problem mapping ML problem
43.05- Machine Learning problem mapping Train and test splitting
43.06- Exploratory Data Analysis Class distribution
43.07- Exploratory Data Analysis Feature extraction from byte files
43.08- Exploratory Data Analysis Multivariate analysis of features from byte files
43.09- Exploratory Data Analysis Train-Test class distribution
43.10 - ML models - using byte files only Random Model
43.11 - k-NN
43.12 - Logistic regression
43.13 - Random Forest and Xgboost
43.14 - ASM Files Feature extraction & Multiprocessing
43.15 - File-size feature
43.16 - Univariate analysis
43.17 - t-SNE analysis
43.18 - ML models on ASM file features
43.19 - Models on all features t-SNE
43.20 - Models on all features RandomForest and Xgboost
43.21 - Assignments
44.01- BusinessReal world problemProblem definition
44.02- Objectives and constraints
44.03- Mapping to an ML problemData overview
44.04- Mapping to an ML problemML problem formulation
44.05- Exploratory Data AnalysisData preprocessing
44.06- Exploratory Data AnalysisTemporal Train-Test split
44.07- Exploratory Data AnalysisPreliminary data analysis
44.08- Exploratory Data AnalysisSparse matrix representation
44.09- Exploratory Data AnalysisAverage ratings for various slices
44.10 - Exploratory Data AnalysisCold start problem
44.11 - Computing Similarity matricesUser-User similarity matrix
44.12 - Computing Similarity matricesMovie-Movie similarity
44.13 - Computing Similarity matricesDoes movie-movie similarity work
44.14 - ML ModelsSurprise library
44.15 - Overview of the modelling strategy
44.16 - Data Sampling
44.17 - Google drive with intermediate files
44.18 - Featurizations for regression
44.19 - Data transformation for Surprise
44.20 - Xgboost with 13 features
44.21 - Surprise Baseline model
44.22 - Xgboost + 13 features +Surprise baseline model
44.23 - Surprise KNN predictors
44.24 - Matrix Factorization models using Surprise
44.25 - SVD ++ with implicit feedback
44.26 - Final models with all features and predictors
44.27 - Comparison between various models
44.28 - Assignments
45.01- BusinessReal world problem Overview
45.02- Business objectives and constraints
45.03- ML problem formulation Data
45.04- ML problem formulation Mapping real world to ML problem
45.04- ML problem formulation Mapping real world to ML problem#
45.05- ML problem formulation Train, CV and Test data construction
45.06- Exploratory Data AnalysisReading data & preprocessing
45.07- Exploratory Data AnalysisDistribution of Class-labels
45.08- Exploratory Data Analysis "Random" Model
45.09- Univariate AnalysisGene feature
45.10 - Univariate AnalysisVariation Feature
45.11 - Univariate AnalysisText feature
45.12 - Machine Learning ModelsData preparation
45.13 - Baseline Model Naive Bayes
45.14 - K-Nearest Neighbors Classification
45.15 - Logistic Regression with class balancing
45.16 - Logistic Regression without class balancing
45.17 - Linear-SVM
45.18 - Random-Forest with one-hot encoded features
45.19 - Random-Forest with response-coded features
45.20 - Stacking Classifier
45.21 - Majority Voting classifier
45.22 - Assignments
46.01- BusinessReal world problem Overview
46.02- Objectives and Constraints
46.03- Mapping to ML problem Data
46.04- Mapping to ML problem dask dataframes
46.05- Mapping to ML problem FieldsFeatures
46.06- Mapping to ML problem Time series forecastingRegression
46.07- Mapping to ML problem Performance metrics
46.08- Data Cleaning Latitude and Longitude data
46.09- Data Cleaning Trip Duration
46.10 - Data Cleaning Speed
46.11 - Data Cleaning Distance
46.12 - Data Cleaning Fare
46.13 - Data Cleaning Remove all outlierserroneous points
46.14 - Data PreparationClusteringSegmentation
46.15 - Data PreparationTime binning
46.16 - Data PreparationSmoothing time-series data
46.17 - Data PreparationSmoothing time-series data cont
46.18 - Data Preparation Time series and Fourier transforms
46.19 - Ratios and previous-time-bin values
46.20 - Simple moving average
46.21 - Weighted Moving average
46.22 - Exponential weighted moving average
46.23 - Results
46.24 - Regression models Train-Test split & Features
46.25 - Linear regression
46.26 - Random Forest regression
46.27 - Xgboost Regression
46.28 - Model comparison
46.29 - Assignment
47.01- History of Neural networks and Deep Learning
47.02- How Biological Neurons work
47.03- Growth of biological neural networks
47.04- Diagrammatic representation Logistic Regression and Perceptron
47.05- Multi-Layered Perceptron (MLP)
47.06- Notation
47.07- Training a single-neuron model
47.08- Training an MLP Chain Rule
47.09- Training an MLPMemoization
47.10 - Backpropagation
47.11 - Activation functions
47.12 - Vanishing Gradient problem
47.13 - Bias-Variance tradeoff
47.14 - Decision surfaces Playground
48.01- Deep Multi-layer perceptrons1980s to 2010s
48.02- Dropout layers & Regularization
48.03- Rectified Linear Units (ReLU)
48.04- Weight initialization
48.05- Batch Normalization
48.06- OptimizersHill-descent analogy in 2D
48.07- OptimizersHill descent in 3D and contours
48.08- SGD Recap
48.09- Batch SGD with momentum
48.10 - Nesterov Accelerated Gradient (NAG)
48.11 - OptimizersAdaGrad
48.12 - Optimizers Adadelta andRMSProp
48.13 - Adam
48.14 - Which algorithm to choose when
48.15 - Gradient Checking and clipping
48.16 - Softmax and Cross-entropy for multi-class classification
48.17 - How to train a Deep MLP
48.18 - Auto Encoders
48.19 - Word2Vec CBOW
48.20 - Word2Vec Skip-gram
48.21 - Word2Vec Algorithmic Optimizations
49.01- Tensorflow and Keras overview
49.02- GPU vs CPU for Deep Learning
49.03- Google Colaboratory
49.04- Install TensorFlow
49.05- Online documentation and tutorials
49.06- Softmax Classifier on MNIST dataset
49.07- MLP Initialization
49.08- Model 1 Sigmoid activation
49.09- Model 2 ReLU activation
49.10 - Model 3 Batch Normalization
49.11 - Model 4 Dropout
49.12 - MNIST classification in Keras
49.13 - Hyperparameter tuning in Keras
49.14 - Exercise Try different MLP architectures on MNIST dataset
50.01- Biological inspiration Visual Cortex
50.02- ConvolutionEdge Detection on images
50.03- ConvolutionPadding and strides
50.04- Convolution over RGB images
50.05- Convolutional layer
50.06- Max-pooling
50.07- CNN Training Optimization
50.08- Example CNN LeNet [1998]
50.09- ImageNet dataset
50.10 - Data Augmentation
50.11 - Convolution Layers in Keras
50.12 - AlexNet
50.13 - VGGNet
50.14 - Residual Network
50.15 - Inception Network
50.16 - What is Transfer learning
50.17 - Code example Cats vs Dogs
50.18 - Code Example MNIST dataset
50.19 - Assignment Try various CNN networks on MNIST dataset#
51.01- Why RNNs
51.02- Recurrent Neural Network
51.03- Training RNNs Backprop
51.04- Types of RNNs
51.05- Need for LSTMGRU
51.06- LSTM
51.07- GRUs
51.08- Deep RNN
51.09- Bidirectional RNN
51.10 - Code example IMDB Sentiment classification
51.11 - Exercise Amazon Fine Food reviews LSTM model
52.01- Questions and Answers
53.01- Self Driving Car Problem definition
53.02- Datasets
53.02- Datasets#
53.03- Data understanding & Analysis Files and folders
53.04- Dash-cam images and steering angles
53.05- Split the dataset Train vs Test
53.06- EDA Steering angles
53.07- Mean Baseline model simple
53.08- Deep-learning modelDeep Learning for regression CNN, CNN+RNN
53.09- Batch load the dataset
53.10 - NVIDIA's end to end CNN model
53.11 - Train the model
53.12 - Test and visualize the output
53.13 - Extensions
53.14 - Assignment
54.01- Real-world problem
54.02- Music representation
54.03- Char-RNN with abc-notation Char-RNN model
54.04- Char-RNN with abc-notation Data preparation
54.05- Char-RNN with abc-notationMany to Many RNN ,TimeDistributed-Dense layer
54.06- Char-RNN with abc-notation State full RNN
54.07- Char-RNN with abc-notation Model architecture,Model training
54.08- Char-RNN with abc-notation Music generation
54.09- Char-RNN with abc-notation Generate tabla music
54.10 - MIDI music generation
54.11 - Survey blog
55.01- Human Activity Recognition Problem definition
55.02- Dataset understanding
55.03- Data cleaning & preprocessing
55.04- EDAUnivariate analysis
55.05- EDAData visualization using t-SNE
55.06- Classical ML models
55.07- Deep-learning Model
55.08- Exercise Build deeper LSTM models and hyper-param tune them
56.01- Problem definition
56.02- Overview of Graphs nodevertex, edgelink, directed-edge, path
56.03- Data format & Limitations
56.04- Mapping to a supervised classification problem
56.05- Business constraints & Metrics
56.06- EDABasic Stats
56.07- EDAFollower and following stats
56.08- EDABinary Classification Task
56.09- EDATrain and test split
56.10 - Feature engineering on GraphsJaccard & Cosine Similarities
56.11 - PageRank
56.12 - Shortest Path
56.13 - Connected-components
56.14 - Adar Index
56.15 - Kartz Centrality
56.16 - HITS Score
56.17 - SVD
56.18 - Weight features
56.19 - Modeling
57.01- Introduction to Databases
57.02- Why SQL
57.03- Execution of an SQL statement
57.04- IMDB dataset
57.05- Installing MySQL
57.06- Load IMDB data
57.07- USE, DESCRIBE, SHOW TABLES
57.08- SELECT
57.09- LIMIT, OFFSET
57.10 - ORDER BY
57.11 - DISTINCT
57.12 - WHERE, Comparison operators, NULL
57.13 - Logical Operators
57.14 - Aggregate Functions COUNT, MIN, MAX, AVG, SUM
57.15 - GROUP BY
57.16 - HAVING
57.17 - Order of keywords#
57.18 - Join and Natural Join
57.19 - Inner, Left, Right and Outer joins
57.20 - Sub QueriesNested QueriesInner Queries
57.21 - DMLINSERT
57.22 - DMLUPDATE , DELETE
57.23 - DDLCREATE TABLE
57.24 - DDLALTER ADD, MODIFY, DROP
57.25 - DDLDROP TABLE, TRUNCATE, DELETE
57.26 - Data Control Language GRANT, REVOKE
57.27 - Learning resources
58.01- AD-Click Predicition
59.01- Revision Questions
59.02- Questions
59.03- External resources for Interview Questions

پیشنهاد آموزش مرتبط در فرادرس

خرید لینک های دانلود
  • حجم فایل: 30.34GB
  • زبان: انگلیسی
  • زیرنویس انگلیسی: ندارد
  • قیمت: 12000 تومان
  • دوره کاربردی یادگیری ماشینی - Applied Machine Learning Course یک محصول ویژه است و دریافت لینک های دانلود آن با پرداخت هزینه امکان پذیر است. اطلاعات بیشتر

baran 8 ماه قبل

با سلام وقت بخیر
امکان ارسال دی وی دی هستش؟ یا فقط لینک دانلود در اختیارمون میذارید؟

مدیر سایت 8 ماه قبل

درود، در حال حاضر فقط امکان دریافت لینک های دانلود وجود دارد.

babak 8 ماه قبل

سلام...ممنون بابت این کورس ml......نمیشه زیر نویس رو تهیه کرد؟

مدیر سایت 8 ماه قبل

در حال حاضر زیرنویسی برای این دوره پیدا نکردیم. در صورتی که پیدا بشه یا دوره آپدیت بشه از طریق ایمیل بهتون اطلاع میدیم.