稀疏统计学习及其应用

稀疏统计学习及其应用
分享
扫描下方二维码分享到微信
打开微信,点击右上角”+“,
使用”扫一扫“即可将网页分享到朋友圈。
作者: [美] (Trevor Hastie)
2018-01
版次: 1
ISBN: 9787115472618
定价: 89.00
装帧: 其他
开本: 16开
纸张: 胶版纸
分类: 教育
45人买过
  • 稀疏统计模型只具有少数非零参数或权重,经典地体现了化繁为简的理念,因而广泛应用于诸多领域。本书就稀疏性统计学习做出总结,以 lasso方法为中心,层层推进,逐渐囊括其他方法,深入探讨诸多稀疏性问题的求解和应用;不仅包含大量的例子和清晰的图表,还附有文献注释和课后练习,是深入学习统计学知识的参考。
      本书适合算法、统计学和机器学习专业人士。 Trevor Hastie 美国统计学家和计算机科学家,斯坦福大学统计学教授,英国皇家统计学会、国际数理统计协会和美国统计学会会士。Hastie参与开发了R中的大部分统计建模软件和环境,发明了主曲线和主曲面。 

    Robert Tibshirani 斯坦福大学统计学教授,国际数理统计协会、美国统计学会和加拿大皇家学会会士,1996年COPSS总统奖得主,提出lasso方法。Hastie和Tibshirani都是统计学习领域的泰山北斗,两人合著了The Elements of Statistical Learning,还合作讲授斯坦福大学的公开课“统计学习”。 

    Martin Wainwright 毕业于MIT,加州大学伯克利分校教授,以对统计与计算交叉学的理论和方法研究而闻名于学界,主要关注高维统计、机器学习、图模型和信息理论。2014年COPSS总统奖得主。 

    刘波(译者) 博士,重庆工商大学计算机科学与信息工程学院教师,主要从事机器学习理论、计算机视觉和最优化技术研究,同时爱好Hadoop和Spark平台上的大数分析,也对Linux平台的编程和Oracle数据库感兴趣。 

    景鹏杰(译者) 硕士,毕业于上海交通大学。硕士阶段主要从事模式识别与数据挖掘基础理论、生物医学大数据挖掘与建模等工作,在国际期刊及会议Bioinformatics,CCPR等上面发表数篇论文。目前从事期货交易系统开发工作。  第 1章引言  1

    第 2章 lasso线性模型   6 

    2.1引言  6 

    2.2 lasso估计   7 

    2.3交叉验证和推断  10 

    2.4 lasso解的计算  12 

    2.4.1基于单变量的软阈值法  12 

    2.4.2基于多变量的循环坐标下降法  13 

    2.4.3软阈值与正交基      15 

    2.5自由度  15 

    2.6 lasso解    16 

    2.7理论概述        17 

    2.8非负 garrote       17 

    2.9乌q惩罚和贝叶斯估计     19 

    2.10一些观点      20

    习题  21

    第 3章广义线性模型    24 

    3.1引言        24 

    3.2逻辑斯蒂回归模型   26 

    3.2.1示例:文本分类  27 

    3.2.2算法  29 

    3.3多分类逻辑斯蒂回归   30 

    3.3.1示例:手写数字  31 

    3.3.2算法  32 

    3.3.3组 lasso多分类  33 

    3.4对数线性模型及泊松广义线性模型     33 

    3.5 Cox比例风险模型   35 

    3.5.1交叉验证  37 

    3.5.2预验证   38 

    3.6支持向量机   39 

    3.7计算细节及 glmnet       43

    参考文献注释   44

    习题  45

    第 4章广义 lasso惩罚  47 

    4.1引言        47 

    4.2弹性网惩罚   47 

    4.3组 lasso  50 

    4.3.1组 lasso计算      53 

    4.3.2稀疏组 lasso  54 

    4.3.3重叠组 lasso  56 

    4.4稀疏加法模型和组 lasso     59 

    4.4.1加法模型和 back.tting  59 

    4.4.2稀疏加法模型和 back.tting  60 

    4.4.3优化方法与组 lasso     61 

    4.4.4稀疏加法模型的多重惩罚         64 

    4.5融合 lasso  65 

    4.5.1拟合融合 lasso   66 

    4.5.2趋势滤波  69 

    4.5.3近保序回归   70 

    4.6非凸惩罚        72

    参考文献注释   74

    习题  75

    第 5章优化方法  80 

    5.1引言        80 

    5.2凸优化条件   80 

    5.2.1优化可微问题        80 

    5.2.2非可微函数和次梯度     83 

    5.3梯度下降        84 

    5.3.1无约束的梯度下降      84 

    5.3.2投影梯度法   86 

    5.3.3近点梯度法   87 

    5.3.4加速梯度方法        90 

    5.4坐标下降        92 

    5.4.1可分性和坐标下降      93 

    5.4.2线性回归和 lasso  94 

    5.4.3逻辑斯蒂回归和广义线性模型  97 

    5.5仿真研究        99 

    5.6z小角回归  100 

    5.7交替方向乘子法      103 

    5.8优化?Czui小化算法   104 

    5.9双凸问题和交替zui小化  105 

    5.10筛选规则      108

    参考文献注释  111

    附录 A lasso的对偶   112

    附录 B DPP规则的推导  113

    习题           114

    第 6章统计推断  118 

    6.1贝叶斯 lasso       118 

    6.2自助法   121 

    6.3 lasso法的后选择推断  125 

    6.3.1协方差检验    125 

    6.3.2选择后推断的更广方案          128 

    6.3.3检验何种假设       133 

    6.3.4回到向前逐步回归    134 

    6.4通过去偏 lasso推断  134 

    6.5后选择推断的其他建议  136

    参考文献注释  137

    习题           138

    第 7章矩阵的分解、近似及填充    141 

    7.1引言   141 

    7.2奇异值分解  142 

    7.3缺失数据和矩阵填充      143 

    7.3.1 Net.x电影挑战赛    144 

    7.3.2基于原子范数的矩阵填充  146 

    7.3.3矩阵填充的理论结果    149 

    7.3.4间隔分解及相关方法  153 

    7.4减秩回归     154 

    7.5通用矩阵回归框架  156 

    7.6惩罚矩阵分解     157 

    7.7矩阵分解的相加形式      160 

    参考文献注释  164

    习题           165

    第 8章稀疏多元方法   169 

    8.1引言   169 

    8.2稀疏组成分分析      169 

    8.2.1背景  169 

    8.2.2稀疏主成分    171 

    8.2.3秩大于 1的解     174 

    8.2.4基于 Fantope投影的稀疏 PCA       176 

    8.2.5稀疏自编码和深度学习          176 

    8.2.6稀疏 PCA的一些理论    178 

    8.3稀疏典型相关分析  179 

    8.4稀疏线性判别分析  182 

    8.4.1标准理论和贝叶斯规则          182 

    8.4.2最近收缩中心       183 

    8.4.3 Fisher线性判别分析   184 

    8.4.4评分  188 

    8.5稀疏聚类     190 

    8.5.1聚类的一些背景知识    191 

    8.5.2稀疏层次聚类       191 

    8.5.3稀疏 K均值聚类    192 

    8.5.4凸聚类  193

    参考文献注释  195

    习题           196

    第 9章图和模型选择   202 

    9.1引言   202 

    9.2图模型基础  202 

    9.2.1分解和马尔可夫特性    202 

    9.2.2几个例子  204 

    9.3基于惩罚似然的图选择  206 

    9.3.1高斯模型的全局似然性          207 

    9.3.2图 lasso算法   208 

    9.3.3利用块对角化结构    210 

    9.3.4图 lasso的理论保证  211 

    9.3.5离散模型的全局似然性          212 

    9.4基于条件推断的图选择  213 

    9.4.1高斯分布下基于近邻的似然概率   214 

    9.4.2离散模型下基于近邻的似然概率   214 

    9.4.3混合模型下的伪似然概率  217 

    9.5带隐变量的图模型  218

    参考文献注释  219

    习题           221

    第 10章信号近似与压缩感知     225 

    10.1引言  225 

    10.2信号与稀疏表示   225 

    10.2.1正交基  225 

    10.2.2用正交基逼近      228 

    10.2.3用过完备基来重构    229 

    10.3随机投影与近似   231 

    10.3.1 Johnson?CLindenstrauss近似  231 

    10.3.2压缩感知    232 

    10.4乌0恢复与乌1恢复之间的等价性      234 

    10.4.1受限零空间性质      235 

    10.4.2受限零空间的充分条件   235 

    10.4.3证明   237

    参考文献注释  238

    习题           239

    第 11章 lasso的理论结果  242 

    11.1引言  242 

    11.1.1损失函数类型      242 

    11.1.2稀疏模型类型      243 

    11.2 lasso乌2误差的界限      244 

    11.2.1经典情形中的强凸性           244 

    11.2.2回归受限特征值      245 

    11.2.3基本一致性结果      246 

    11.3预测误差的界    250 

    11.4线性回归中的支持恢复   252 

    11.4.1 lasso的变量选择一致性         252 

    11.4.2定理 11.3的证明     256 

    11.5超越基础 lasso  259 

    参考文献注释  260

    习题           261

    参考文献           264
  • 内容简介:
    稀疏统计模型只具有少数非零参数或权重,经典地体现了化繁为简的理念,因而广泛应用于诸多领域。本书就稀疏性统计学习做出总结,以 lasso方法为中心,层层推进,逐渐囊括其他方法,深入探讨诸多稀疏性问题的求解和应用;不仅包含大量的例子和清晰的图表,还附有文献注释和课后练习,是深入学习统计学知识的参考。
      本书适合算法、统计学和机器学习专业人士。
  • 作者简介:
    Trevor Hastie 美国统计学家和计算机科学家,斯坦福大学统计学教授,英国皇家统计学会、国际数理统计协会和美国统计学会会士。Hastie参与开发了R中的大部分统计建模软件和环境,发明了主曲线和主曲面。 

    Robert Tibshirani 斯坦福大学统计学教授,国际数理统计协会、美国统计学会和加拿大皇家学会会士,1996年COPSS总统奖得主,提出lasso方法。Hastie和Tibshirani都是统计学习领域的泰山北斗,两人合著了The Elements of Statistical Learning,还合作讲授斯坦福大学的公开课“统计学习”。 

    Martin Wainwright 毕业于MIT,加州大学伯克利分校教授,以对统计与计算交叉学的理论和方法研究而闻名于学界,主要关注高维统计、机器学习、图模型和信息理论。2014年COPSS总统奖得主。 

    刘波(译者) 博士,重庆工商大学计算机科学与信息工程学院教师,主要从事机器学习理论、计算机视觉和最优化技术研究,同时爱好Hadoop和Spark平台上的大数分析,也对Linux平台的编程和Oracle数据库感兴趣。 

    景鹏杰(译者) 硕士,毕业于上海交通大学。硕士阶段主要从事模式识别与数据挖掘基础理论、生物医学大数据挖掘与建模等工作,在国际期刊及会议Bioinformatics,CCPR等上面发表数篇论文。目前从事期货交易系统开发工作。 
  • 目录:
    第 1章引言  1

    第 2章 lasso线性模型   6 

    2.1引言  6 

    2.2 lasso估计   7 

    2.3交叉验证和推断  10 

    2.4 lasso解的计算  12 

    2.4.1基于单变量的软阈值法  12 

    2.4.2基于多变量的循环坐标下降法  13 

    2.4.3软阈值与正交基      15 

    2.5自由度  15 

    2.6 lasso解    16 

    2.7理论概述        17 

    2.8非负 garrote       17 

    2.9乌q惩罚和贝叶斯估计     19 

    2.10一些观点      20

    习题  21

    第 3章广义线性模型    24 

    3.1引言        24 

    3.2逻辑斯蒂回归模型   26 

    3.2.1示例:文本分类  27 

    3.2.2算法  29 

    3.3多分类逻辑斯蒂回归   30 

    3.3.1示例:手写数字  31 

    3.3.2算法  32 

    3.3.3组 lasso多分类  33 

    3.4对数线性模型及泊松广义线性模型     33 

    3.5 Cox比例风险模型   35 

    3.5.1交叉验证  37 

    3.5.2预验证   38 

    3.6支持向量机   39 

    3.7计算细节及 glmnet       43

    参考文献注释   44

    习题  45

    第 4章广义 lasso惩罚  47 

    4.1引言        47 

    4.2弹性网惩罚   47 

    4.3组 lasso  50 

    4.3.1组 lasso计算      53 

    4.3.2稀疏组 lasso  54 

    4.3.3重叠组 lasso  56 

    4.4稀疏加法模型和组 lasso     59 

    4.4.1加法模型和 back.tting  59 

    4.4.2稀疏加法模型和 back.tting  60 

    4.4.3优化方法与组 lasso     61 

    4.4.4稀疏加法模型的多重惩罚         64 

    4.5融合 lasso  65 

    4.5.1拟合融合 lasso   66 

    4.5.2趋势滤波  69 

    4.5.3近保序回归   70 

    4.6非凸惩罚        72

    参考文献注释   74

    习题  75

    第 5章优化方法  80 

    5.1引言        80 

    5.2凸优化条件   80 

    5.2.1优化可微问题        80 

    5.2.2非可微函数和次梯度     83 

    5.3梯度下降        84 

    5.3.1无约束的梯度下降      84 

    5.3.2投影梯度法   86 

    5.3.3近点梯度法   87 

    5.3.4加速梯度方法        90 

    5.4坐标下降        92 

    5.4.1可分性和坐标下降      93 

    5.4.2线性回归和 lasso  94 

    5.4.3逻辑斯蒂回归和广义线性模型  97 

    5.5仿真研究        99 

    5.6z小角回归  100 

    5.7交替方向乘子法      103 

    5.8优化?Czui小化算法   104 

    5.9双凸问题和交替zui小化  105 

    5.10筛选规则      108

    参考文献注释  111

    附录 A lasso的对偶   112

    附录 B DPP规则的推导  113

    习题           114

    第 6章统计推断  118 

    6.1贝叶斯 lasso       118 

    6.2自助法   121 

    6.3 lasso法的后选择推断  125 

    6.3.1协方差检验    125 

    6.3.2选择后推断的更广方案          128 

    6.3.3检验何种假设       133 

    6.3.4回到向前逐步回归    134 

    6.4通过去偏 lasso推断  134 

    6.5后选择推断的其他建议  136

    参考文献注释  137

    习题           138

    第 7章矩阵的分解、近似及填充    141 

    7.1引言   141 

    7.2奇异值分解  142 

    7.3缺失数据和矩阵填充      143 

    7.3.1 Net.x电影挑战赛    144 

    7.3.2基于原子范数的矩阵填充  146 

    7.3.3矩阵填充的理论结果    149 

    7.3.4间隔分解及相关方法  153 

    7.4减秩回归     154 

    7.5通用矩阵回归框架  156 

    7.6惩罚矩阵分解     157 

    7.7矩阵分解的相加形式      160 

    参考文献注释  164

    习题           165

    第 8章稀疏多元方法   169 

    8.1引言   169 

    8.2稀疏组成分分析      169 

    8.2.1背景  169 

    8.2.2稀疏主成分    171 

    8.2.3秩大于 1的解     174 

    8.2.4基于 Fantope投影的稀疏 PCA       176 

    8.2.5稀疏自编码和深度学习          176 

    8.2.6稀疏 PCA的一些理论    178 

    8.3稀疏典型相关分析  179 

    8.4稀疏线性判别分析  182 

    8.4.1标准理论和贝叶斯规则          182 

    8.4.2最近收缩中心       183 

    8.4.3 Fisher线性判别分析   184 

    8.4.4评分  188 

    8.5稀疏聚类     190 

    8.5.1聚类的一些背景知识    191 

    8.5.2稀疏层次聚类       191 

    8.5.3稀疏 K均值聚类    192 

    8.5.4凸聚类  193

    参考文献注释  195

    习题           196

    第 9章图和模型选择   202 

    9.1引言   202 

    9.2图模型基础  202 

    9.2.1分解和马尔可夫特性    202 

    9.2.2几个例子  204 

    9.3基于惩罚似然的图选择  206 

    9.3.1高斯模型的全局似然性          207 

    9.3.2图 lasso算法   208 

    9.3.3利用块对角化结构    210 

    9.3.4图 lasso的理论保证  211 

    9.3.5离散模型的全局似然性          212 

    9.4基于条件推断的图选择  213 

    9.4.1高斯分布下基于近邻的似然概率   214 

    9.4.2离散模型下基于近邻的似然概率   214 

    9.4.3混合模型下的伪似然概率  217 

    9.5带隐变量的图模型  218

    参考文献注释  219

    习题           221

    第 10章信号近似与压缩感知     225 

    10.1引言  225 

    10.2信号与稀疏表示   225 

    10.2.1正交基  225 

    10.2.2用正交基逼近      228 

    10.2.3用过完备基来重构    229 

    10.3随机投影与近似   231 

    10.3.1 Johnson?CLindenstrauss近似  231 

    10.3.2压缩感知    232 

    10.4乌0恢复与乌1恢复之间的等价性      234 

    10.4.1受限零空间性质      235 

    10.4.2受限零空间的充分条件   235 

    10.4.3证明   237

    参考文献注释  238

    习题           239

    第 11章 lasso的理论结果  242 

    11.1引言  242 

    11.1.1损失函数类型      242 

    11.1.2稀疏模型类型      243 

    11.2 lasso乌2误差的界限      244 

    11.2.1经典情形中的强凸性           244 

    11.2.2回归受限特征值      245 

    11.2.3基本一致性结果      246 

    11.3预测误差的界    250 

    11.4线性回归中的支持恢复   252 

    11.4.1 lasso的变量选择一致性         252 

    11.4.2定理 11.3的证明     256 

    11.5超越基础 lasso  259 

    参考文献注释  260

    习题           261

    参考文献           264
查看详情
12
相关图书 / 更多
稀疏统计学习及其应用
稀疏傅里叶变换
[美]海塞姆·哈桑 著
稀疏统计学习及其应用
稀疏金融资产管理
徐凤敏 著
稀疏统计学习及其应用
稀疏信号处理在新一代无线通信中的应用
归琳 著
稀疏统计学习及其应用
稀疏统计学习:LASSO方法及其推广
[美]特雷弗·哈斯蒂;罗伯特·蒂布希拉尼;马丁·温赖特
稀疏统计学习及其应用
稀疏贝叶斯ISAR成像技术
张双辉、刘永祥、黎湘 著
稀疏统计学习及其应用
稀疏统计学习
Trevor、Hastie、Robert、Tibshirani、Martin 著
稀疏统计学习及其应用
稀疏矩阵计算优化
计卫星 著
稀疏统计学习及其应用
稀疏插值及其在多项式代数中的应用
唐敏 ;邓国强
稀疏统计学习及其应用
稀疏水声信号处理与压缩感知应用
伍飞云 著
稀疏统计学习及其应用
稀疏和低秩表示目标检测与跟踪及其军事应用
袁广林 著
稀疏统计学习及其应用
稀疏自适应滤波理论与应用
刘淑宇 著;郭莹
稀疏统计学习及其应用
稀疏信号处理技术及其在水声中的应用
张友文
您可能感兴趣 / 更多
稀疏统计学习及其应用
孩子,把你的手给我1:怎么说孩子才爱听,怎么教孩子才肯学?帮助每一位3-12岁孩子的父母结束与孩子的所有冲突!
[美]海姆·G.吉诺特
稀疏统计学习及其应用
怎样做成大事
[美]丹·加德纳(Dan Gardner) 著;贾拥民 译;湛庐文化 出品;[丹麦]傅以斌(Bent Flyvbjerg)
稀疏统计学习及其应用
1200年希腊罗马神话
[美]伊迪丝·汉密尔顿
稀疏统计学习及其应用
爱情心理学(新编本)
[美]罗伯特·J. 斯腾伯格 (美)凯琳·斯腾伯格 倪爱萍 译
稀疏统计学习及其应用
黄金圈法则
[美]西蒙·斯涅克 著;磨铁文化 出品
稀疏统计学习及其应用
汤姆·索亚历险记 彩图注音版 一二三四年级5-6-7-8-9岁小学生课外阅读经典 儿童文学无障碍有声伴读世界名著童话故事
[美]马克 吐温
稀疏统计学习及其应用
富兰克林自传 名家全译本 改变无数人命运的励志传奇 埃隆马斯克反复推荐 赠富兰克林签名照及精美插图
[美]本杰明·富兰克林 著;李自修 译
稀疏统计学习及其应用
意大利文艺复兴新艺术史
[美]迈克尔·韦恩·科尔 著;[美]斯蒂芬·J·坎贝尔;邵亦杨
稀疏统计学习及其应用
汤姆素亚历险记:中小学生课外阅读快乐读书吧 儿童文学无障碍有声伴读世界名著童话故事
[美]马克·吐温
稀疏统计学习及其应用
老人与海 彩图注音版 一二三四年级5-6-7-8-9岁小学生课外阅读经典 儿童文学无障碍有声伴读世界名著童话故事
[美]海明威
稀疏统计学习及其应用
养育的觉醒:全面激发孩子自驱力,教你如何心平气和做妈妈
[美]凯文·莱曼 著;唐晓璐 译;斯坦威 出品
稀疏统计学习及其应用
国际大奖图画书系列 共11册(小老鼠的恐惧的大书,大灰狼,红豆与菲比,别烦我,下雪了 ,穿靴子的猫 ,先有蛋,绿 ,特别快递,如果你想看鲸鱼 ,一个部落的孩子 ) 麦克米伦世纪
[美]莱恩·史密斯 (英)埃米莉·格雷维特 (美)劳拉·瓦卡罗·等/文 (英)埃米莉·格雷维特 等/图 彭懿 杨玲玲 阿甲 孙慧阳 白薇 译