今天可以接着前天的话题继续写了
在完成为了使用现成函数lm.ridge做出的岭回归以后,来尝试下收拾这个东西的内部逻辑文章源自微观生活(93wg.com)微观生活-https://93wg.com/23310.html
原本想直接使用以前已经完成的结果来做后续对比的,但在指定optim函数的初始变量时发现一个很内伤的问题,那就是整个系数组中的常数值偏离太大,致使有限次数内老是收敛不到最好解,不得已只能祭出大招,把所有数据先做一遍z-score标准化文章源自微观生活(93wg.com)微观生活-https://93wg.com/23310.html
下列是前期筹备步骤,包含了导入数据,标准化,以及使用两个现成的函数发生的线性回归系数文章源自微观生活(93wg.com)微观生活-https://93wg.com/23310.html
代码部份:文章源自微观生活(93wg.com)微观生活-https://93wg.com/23310.html
就知道标准化能有点用途,至少这样就能够先把所有初始输入值设成0了文章源自微观生活(93wg.com)微观生活-https://93wg.com/23310.html
以前钻研一般的线性回归时,咱用过optim函数最小化残差平方以及,也就是最通俗的最小二乘法,情势是这样的:文章源自微观生活(93wg.com)微观生活-https://93wg.com/23310.html
而岭回归作为线性回归的一种衍生算法,其最重要的部份是在最小二乘法的进程中增添了一个部份,参数lambda乘以二次正则化项文章源自微观生活(93wg.com)微观生活-https://93wg.com/23310.html
那啥叫正则化项呢?我就按上面代码里的部份来解释吧,请稍稍细心察看下做最小二乘法时的代码结构,里面为了计算出残差平方以及至少用到了三个部份文章源自微观生活(93wg.com)微观生活-https://93wg.com/23310.html
目标列实际值,只无非每一换种加法,算法就换了个名字,这我就不延伸出去了文章源自微观生活(93wg.com)微观生活-https://93wg.com/23310.html
------------------End----------------文章源自微观生活(93wg.com)微观生活-https://93wg.com/23310.html
以上就是微观生活(93wg.com)关于“R语言——岭回归的二次正则化项”的详细内容,希望对大家有所帮助!
评论