了解怎么樣掌握python中的AdaBoost算法?這個(gè)問(wèn)題可能是我們?nèi)粘W(xué)習(xí)或工作經(jīng)常見(jiàn)到的。希望通過(guò)這個(gè)問(wèn)題能讓你收獲頗深。下面是小編給大家?guī)?lái)的參考內(nèi)容,讓我們一起來(lái)看看吧!
Python實(shí)現(xiàn)AdaBoost算法
計(jì)算弱分類器誤差
pred_train = models[m].predict(x_train) miss = [int(x) for x in (pred_train != y_train)] error = np.dot(w, miss)
計(jì)算弱分類器的權(quán)重
theta[m] = 0.5 * np.log((1-error)/error)
更新數(shù)據(jù)權(quán)重
for i in n_train: w[i] = w[i]*np.exp(-theta[m]*y_train[i]*pred_train[i])
正規(guī)化權(quán)重
for i in n_train: w[i] /= np.sum(w[i])
最終的預(yù)測(cè)
predict = np.dot(theta, [model[m].predict(x_test) for m in range(M)])
感謝各位的閱讀!看完上述內(nèi)容,你們對(duì)怎么樣掌握python中的AdaBoost算法大概了解了嗎?希望文章內(nèi)容對(duì)大家有所幫助。如果想了解更多相關(guān)文章內(nèi)容,歡迎關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道。
分享題目:怎么樣掌握python中的AdaBoost算法-創(chuàng)新互聯(lián)
鏈接分享:http://www.ekvhdxd.cn/article2/dhhhoc.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供電子商務(wù)、App設(shè)計(jì)、外貿(mào)網(wǎng)站建設(shè)、網(wǎng)站策劃、網(wǎng)站建設(shè)、用戶體驗(yàn)
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如需處理請(qǐng)聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來(lái)源: 創(chuàng)新互聯(lián)
猜你還喜歡下面的內(nèi)容