cytms

溫故而知新

Ensemble

Ensemble 有兩種方法: Bagging & Boosting

Bagging

主要是減低 variance (model 太複雜容易 overfit)

nn 沒有那麼容易 overfit (無法在 training set 上 overfit)

decision tree 很容易 overfit (只要他想就可以拿到 100% precision)

random forest: decision tree 做 bagging 的版本

OOB (Out-Of-Bag)

Boosting

主要是用在比較弱的 model 去 fit 你的 training data

加上 weight (在 training 的時候就會多考慮)

Adaboost

error 大的 weight 就要比較大

Decision Stump

沒什麼好解釋的

Gradient Boosting

跟 Adaboost 87% 像,可以自訂 objective function

[to be continued..]

Comments