1、 本科生学年论文题目:从理论到应用浅谈lasso模型指导教师: 学院: 姓名: 学号: 班级: 从理论到应用浅谈lasso模型【摘要】回归模型是我们在处理数据中常用的方法。其中,Lasso模型是一种适用于多重共线性问题,能够在参数估计的同时实现变量的选择的回归方法。本文从lasso模型的概念谈起,对其起源、思想、与岭回归的比较、通过lar的算法实现等方面进行了探究。另外还使用R语言对简单案例进行lasso模型的应用。最后简述了lasso模型的研究现状。【abstract】Regression model is our commonly used method in processing dat
2、a. Lasso model is a kind of regression method for multiple linear problems, which can be used to achieve parameter estimation and variable selection at the same time. This paper starts from the concept of the lasso model, including its origin, ideas, and the comparison of ridge regression, through l
3、ar algorithm implementation, etc. In addition, using R language to solve a simple case through lasso. At last, the research status of lasso model is introduced.【关键词】Lasso岭回归最小角回归R语言【key words】Lassoridge regressionlarR language目录一、 定义及基本信息4二、 起源与原理4三、 模型的思想4四、 Lasso与岭回归51、 岭回归的概念52、 Lasso与岭回归的比较5五、 L
4、asso的算法步骤61、 lasso算法实现的背景62、 最小角回归73、 用lar实现lasso7六、 案例分析81、 问题描述82、 简单线性回归求解93、 利用lasso求解11七、 应用与研究现状12八、 参考资料13一、 定义及基本信息Lasso模型是由Robert Tibshirani在1996年JRSSB上的一篇文章Regression shrinkage and selection via the lasso所提出的一种能够实现指标集合精简的估计方法。在参数估计的同时实现变量的选择(可以解决回归分析中的多重共线性问题)。全称:Least Absolute Shrinkage a
5、nd Selection Operator读音:lsu: 而不是lsoRobert Tibshirani 简介:生于1956年7月10日,担任斯坦福大学the Departments of Statistics and Health Research and Policy的教授。1985-1998年担任多伦多大学的教授。 他主要研究方向是致力于开发处理复杂数据的分析统计工具。Lasso模式是他最著名的贡献。同时在著名的 Generalized Additive Models, An Introduction to the Bootstrap, and The Elements of Stati
6、stical Learning三本书中都有他的编著。1二、 起源与原理在常规的回归分析中,假设我们有一组(xi,yi),i=1,2,.,N,其中xi=(xi1,.,xip)T,yi是第i维观测值的回归量的数据。普通最小二乘(OLS)通过最小化残差平方和来进行估计。它对数据的分析不那么令人满意通常有两个原因。一是预测精度:OLS往往偏差较低但方差大;预测精度有时可以用缩小或设置一些系数为0的方法来提高。通过这样做,我们牺牲一点偏差减少预测的方差值,因此可以提高整体预测准确性。第二个原因是可解释性的问题。在大量的预测值中,我们通常想确定一个展现出最强影响的更小的子集。 两个公认优秀的改善OLS估计
7、的方法是子集选择(subset selection)和岭回归(ridge regression)它们都有缺点。子集选择提供了可解释的模型但是可变性非常强,因为它是一个离散的过程回归量要么保留要么从模型中去掉。小的数据变化就会使得模型的选择改变,这会降低预测准确度。岭回归是连续缩小参数的过程,因此更稳定:然而它不会使得任何参数为0,没办法得出简单的可解释的模型。lasso模型就此提出,The least absolute shrinkage and selection operator,同时缩小(shrinkage)和设置成参数为0(selection),保持了子集选择和岭回归的良好特征。2三、
8、 模型的思想lasso是在回归系数的绝对值之和小于一个常数的约束条件下,使残差平方和最小化,从而能够产生某些严格等于0的回归系数,得到解释力较强的模型。给出一组测量数据x1, x2 .xp以及测量结果y,lasso符合线性模型yhat=b0 + b1x1+ b2x2 + . bpxp 它所使用的标准是: 当| bj |cement cementlm.solsummary(lm.sol)可以看到虽然R2接近于1,拟合优度较理想,但是自变量的p值均大于0.05,回归系数没有通过显著性检验。利用简单线性回归得到回归方程中的X与Y的关系不明显。F检验的值也非常大,说明自变量的显著性较低,需要进行变量选
9、择。利用car包中的vif()函数查看各自变量间的共线情况library(car)vif(lm.sol)从结果看,各自变量的VIF值都超过10,存在多重共线性,其中,X2与X4的VIF值均超过200。plot(X2 X4, col = red, data = cement)图中可以明显看出X2与X4存在线性关系。3、 利用lasso求解此时我们尝试用lars-lasso来求解这个方程。library(lars)x = as.matrix(cement, 1:4)y = as.matrix(cement, 5)(laa = lars(x, y, type = lar)可以看到lasso的变量选择
10、依次是X4,X1,X2,X3。plot(laa)可以看出各变量的系数的变化过程。summary(laa)其中Cp(衡量多重共线性,其值越小越好)可以看到在第3步以后cp值明显变小。说明lasso模型在实际应用中能够解决多重共线性的问题,有良好的应用。七、 应用与研究现状我们在知网中对lasso进行中文数据库的搜索,结果见下图:可以看到该模型在计算机、医学、经济等各个领域均有应用。见微知著的可以下结论其运用十分广泛。在应用和拓展方面的研究也十分丰富。下表中列出了部分内容。这些研究在数学层面考察了lasso产生最小预测误差模型的能力,并重新获得了真正的底层(稀疏)模型。重要的贡献者包括Bickel
11、, Buhlmann, Candes, Donoho, Johnstone, Meinshausen,van de Geer, Wainwright and Yu.也证明了lasso可以揭示更多的传统技术,给向前逐步选择方法带来了新的理解。另一个例子是graphical lasso拟合的稀疏高斯图,将其应用于逆协方差矩阵,提供了一个强有利的图选择方法(确定哪些边缘)。9随着计算机处理速度的不断提高和当今社会对于大数据处理的要求的不断进步,对lasso的研究必当更加深入,在各个领域的拓展也是值得期待的。八、 参考资料1 Wikipedia. Robert TibshiraniDB/OL. htt
12、ps:/en.wikipedia.org/wiki/Robert_Tibshirani.2 Tibshirani,R.Regression Shrinkage and Selection Via the LassoJJournal of the Royal Statical Society.Series B.58,267-2883Stanford University. A simple explanation of the Lasso and Least Angle RegressionDB/OL. http:/statweb.stanford.edu/tibs/lasso/simple.h
13、tml.4杨灿. 统计学习那些事DB/OL. http:/cos.name/2011/12/stories-about-statistical-learning/#more-4532.5 Efron B, Hastie T, Johnstone I and Tibshirani R. Least angle regression J. Ann. Stat., 2004, 32:409-499.6梁斌,陈敏,缪柏其,黄意球,陈钊. 基于LARS-Lasso的指数跟踪及其在股指期货套利策略中的应用J. 数理统计与管理,2011,06:1104-1113.7月之十三. LASSODB/OL. 46dfe.html, 2011-04-078薛毅, 陈立萍. 统计建模与R软件M. 北京:清华大学出版社, 2007. 279-2809 Robert, Tibshirani. Regression Shrinkage and Selection Via the Lasso:a retrospectiveJ. Royal Statistical Society, 2011, (73): 273-282- 11 -