網(wǎng)上有很多關(guān)于刷pos機顯示參數,xgboost參數調整筆記的知識,也有很多人為大家解答關(guān)于刷pos機顯示參數的問(wèn)題,今天pos機之家(www.xjcwpx.cn)為大家整理了關(guān)于這方面的知識,讓我們一起來(lái)看下吧!
本文目錄一覽:
刷pos機顯示參數
xgboost是目前最火熱的模型之一
調參是機器學(xué)習的黑暗藝術(shù),通常最優(yōu)的模型參數依賴(lài)于場(chǎng)景,基本上沒(méi)有一個(gè)普適的方法。xgboost是現階段使用特別多的一個(gè)模型,這里只能一個(gè)簡(jiǎn)單的調參指引
理解偏置-方差的權衡
這個(gè)偏置-方差 權衡的概念是一般機器學(xué)習或者統計課程當中的基本概念。其基本思路就是如果我們允許模型變得更加復雜,例如加深gbdt的每棵樹(shù),模型就擁有更好的逼近能力,從而得到偏置更小的模型,但是我們需要更多的訓練數據。大多數xgboost中的參數都是偏置-方差的權衡。最好的參數會(huì )權衡好最終模型的復雜程度和預測能力。這里將從過(guò)擬合控制和非平衡數據出發(fā)考慮參數
控制過(guò)擬合:
當我們觀(guān)察到訓練的時(shí)候準確率非常高,但是測試準確率很低的時(shí)候,就是模型過(guò)擬合的時(shí)候通常xgboost的使用中,我們有兩個(gè)方法去控制過(guò)擬合現象
第一個(gè)方法是直接控制模型的復雜度
這里面包括max_depth,min_child_weight和gamma
第二種方法是在模型中添加隨機性來(lái)提高魯棒性
包括subsample和colsample_bytree參數
我們還可以降低步長(cháng)eta,但是需要記得同時(shí)提高樹(shù)的棵樹(shù)
處理非平衡數據集
通常而言廣告的點(diǎn)擊率預估數據集都是非平衡的。這其實(shí)會(huì )影響最終xgboost學(xué)習得到的模型,通常我們有兩個(gè)方法來(lái)改善
如果最終模型是為了提高預測的auc
調整scale_pos_weight平衡正負樣本的權重
使用auc來(lái)做驗證
如果最終模型看重預測的正確率
通過(guò)設置參數max_delta_step來(lái)幫助模型收斂
以上就是關(guān)于刷pos機顯示參數,xgboost參數調整筆記的知識,后面我們會(huì )繼續為大家整理關(guān)于刷pos機顯示參數的知識,希望能夠幫助到大家!
