#
機(jī)器學(xué)習(xí)算法中回歸算法有很多,例如神經(jīng)網(wǎng)絡(luò)回歸算法、蟻群回歸算法,支持向量機(jī)回歸算法等,其中也包括本篇文章要講述的梯度下降算法,本篇文章將主要講解其基本原理以及基于Spark MLlib進(jìn)行實(shí)例示范,
看這篇文章前強(qiáng)烈建議你看看上一篇python實(shí)現(xiàn)梯度下降法: 一、為什么要提出隨機(jī)梯度下降算法 注意看梯度下降法權(quán)值的更新方式(推導(dǎo)過(guò)程在上一篇文章中有) 也就是說(shuō)每次更新權(quán)值都需要遍歷
1.梯度下降 1)什么是梯度下降? 因?yàn)樘荻认陆凳且环N思想,沒(méi)有嚴(yán)格的定義,所以用一個(gè)比喻來(lái)解釋什么是梯度下降。 簡(jiǎn)單來(lái)說(shuō),梯度下降就是從山頂找一條最短的路走到山腳最低的地方。但是因?yàn)檫x擇方向的原因