刷pos機(jī)顯示參數(shù),xgboost參數(shù)調(diào)整筆記

 新聞資訊  |   2023-04-24 09:48  |  投稿人:pos機(jī)之家

網(wǎng)上有很多關(guān)于刷pos機(jī)顯示參數(shù),xgboost參數(shù)調(diào)整筆記的知識(shí),也有很多人為大家解答關(guān)于刷pos機(jī)顯示參數(shù)的問題,今天pos機(jī)之家(m.afbey.com)為大家整理了關(guān)于這方面的知識(shí),讓我們一起來看下吧!

本文目錄一覽:

1、刷pos機(jī)顯示參數(shù)

刷pos機(jī)顯示參數(shù)

xgboost是目前最火熱的模型之一

調(diào)參是機(jī)器學(xué)習(xí)的黑暗藝術(shù),通常最優(yōu)的模型參數(shù)依賴于場景,基本上沒有一個(gè)普適的方法。xgboost是現(xiàn)階段使用特別多的一個(gè)模型,這里只能一個(gè)簡單的調(diào)參指引

理解偏置-方差的權(quán)衡

這個(gè)偏置-方差 權(quán)衡的概念是一般機(jī)器學(xué)習(xí)或者統(tǒng)計(jì)課程當(dāng)中的基本概念。其基本思路就是如果我們?cè)试S模型變得更加復(fù)雜,例如加深gbdt的每棵樹,模型就擁有更好的逼近能力,從而得到偏置更小的模型,但是我們需要更多的訓(xùn)練數(shù)據(jù)。大多數(shù)xgboost中的參數(shù)都是偏置-方差的權(quán)衡。最好的參數(shù)會(huì)權(quán)衡好最終模型的復(fù)雜程度和預(yù)測能力。這里將從過擬合控制和非平衡數(shù)據(jù)出發(fā)考慮參數(shù)

控制過擬合:

當(dāng)我們觀察到訓(xùn)練的時(shí)候準(zhǔn)確率非常高,但是測試準(zhǔn)確率很低的時(shí)候,就是模型過擬合的時(shí)候通常xgboost的使用中,我們有兩個(gè)方法去控制過擬合現(xiàn)象

第一個(gè)方法是直接控制模型的復(fù)雜度

這里面包括max_depth,min_child_weight和gamma

第二種方法是在模型中添加隨機(jī)性來提高魯棒性

包括subsample和colsample_bytree參數(shù)

我們還可以降低步長eta,但是需要記得同時(shí)提高樹的棵樹

處理非平衡數(shù)據(jù)集

通常而言廣告的點(diǎn)擊率預(yù)估數(shù)據(jù)集都是非平衡的。這其實(shí)會(huì)影響最終xgboost學(xué)習(xí)得到的模型,通常我們有兩個(gè)方法來改善

如果最終模型是為了提高預(yù)測的auc

調(diào)整scale_pos_weight平衡正負(fù)樣本的權(quán)重

使用auc來做驗(yàn)證

如果最終模型看重預(yù)測的正確率

通過設(shè)置參數(shù)max_delta_step來幫助模型收斂

以上就是關(guān)于刷pos機(jī)顯示參數(shù),xgboost參數(shù)調(diào)整筆記的知識(shí),后面我們會(huì)繼續(xù)為大家整理關(guān)于刷pos機(jī)顯示參數(shù)的知識(shí),希望能夠幫助到大家!

轉(zhuǎn)發(fā)請(qǐng)帶上網(wǎng)址:http://m.afbey.com/news/32817.html

你可能會(huì)喜歡:

版權(quán)聲明:本文內(nèi)容由互聯(lián)網(wǎng)用戶自發(fā)貢獻(xiàn),該文觀點(diǎn)僅代表作者本人。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如發(fā)現(xiàn)本站有涉嫌抄襲侵權(quán)/違法違規(guī)的內(nèi)容, 請(qǐng)發(fā)送郵件至 babsan@163.com 舉報(bào),一經(jīng)查實(shí),本站將立刻刪除。