新書推薦:
《
重写晚明史(全5册 精装)
》
售價:HK$
781.8
《
汉末晋初之际政治研究
》
售價:HK$
132.2
《
强者破局:资治通鉴成事之道
》
售價:HK$
80.6
《
鸣沙丛书·鼎革:南北议和与清帝退位
》
售價:HK$
121.0
《
从康德到黑格尔的发展:兼论宗教哲学(英国观念论名著译丛)
》
售價:HK$
60.5
《
突破不可能:用特工思维提升领导力
》
售價:HK$
77.3
《
王阳明大传:知行合一的心学智慧(精装典藏版)
》
售價:HK$
221.8
《
失衡与重塑——百年变局下的中国与世界经济
》
售價:HK$
132.2
內容簡介:
稀疏统计模型只具有少数非零参数或权重,经典地体现了化繁为简的理念,因而广泛应用于诸多领域。本书就稀疏性统计学习做出总结,以 lasso方法为中心,层层推进,逐渐囊括其他方法,深入探讨诸多稀疏性问题的求解和应用;不仅包含大量的例子和清晰的图表,还附有文献注释和课后练习,是深入学习统计学知识的参考。 本书适合算法、统计学和机器学习专业人士。
關於作者:
Trevor Hastie 美国统计学家和计算机科学家,斯坦福大学统计学教授,英国皇家统计学会、国际数理统计协会和美国统计学会会士。Hastie参与开发了R中的大部分统计建模软件和环境,发明了主曲线和主曲面。
Robert Tibshirani 斯坦福大学统计学教授,国际数理统计协会、美国统计学会和加拿大皇家学会会士,1996年COPSS总统奖得主,提出lasso方法。Hastie和Tibshirani都是统计学习领域的泰山北斗,两人合著了The Elements of Statistical Learning,还合作讲授斯坦福大学的公开课统计学习。
Martin Wainwright 毕业于MIT,加州大学伯克利分校教授,以对统计与计算交叉学的理论和方法研究而闻名于学界,主要关注高维统计、机器学习、图模型和信息理论。2014年COPSS总统奖得主。
Trevor Hastie 美国统计学家和计算机科学家,斯坦福大学统计学教授,英国皇家统计学会、国际数理统计协会和美国统计学会会士。Hastie参与开发了R中的大部分统计建模软件和环境,发明了主曲线和主曲面。
Robert Tibshirani 斯坦福大学统计学教授,国际数理统计协会、美国统计学会和加拿大皇家学会会士,1996年COPSS总统奖得主,提出lasso方法。Hastie和Tibshirani都是统计学习领域的泰山北斗,两人合著了The Elements of Statistical Learning,还合作讲授斯坦福大学的公开课统计学习。
Martin Wainwright 毕业于MIT,加州大学伯克利分校教授,以对统计与计算交叉学的理论和方法研究而闻名于学界,主要关注高维统计、机器学习、图模型和信息理论。2014年COPSS总统奖得主。
目錄 :
第 1章引言1
第 2章 lasso线性模型 6
2.1引言6
2.2 lasso估计 7
2.3交叉验证和推断10
2.4 lasso解的计算12
2.4.1基于单变量的软阈值法12
2.4.2基于多变量的循环坐标下降法13
2.4.3软阈值与正交基15
2.5自由度15
2.6 lasso解16
2.7理论概述17
2.8非负 garrote 17
2.9乌q惩罚和贝叶斯估计 19
2.10一些观点20
习题21
第 3章广义线性模型24
3.1引言24
3.2逻辑斯蒂回归模型 26
3.2.1示例:文本分类27
3.2.2算法29
3.3多分类逻辑斯蒂回归 30
3.3.1示例:手写数字31
3.3.2算法32
3.3.3组 lasso多分类33
3.4对数线性模型及泊松广义线性模型 33
3.5 Cox比例风险模型 35
3.5.1交叉验证37
3.5.2预验证 38
3.6支持向量机 39
3.7计算细节及 glmnet 43
参考文献注释 44
习题45
第 4章广义 lasso惩罚47
4.1引言47
4.2弹性网惩罚 47
4.3组 lasso50
4.3.1组 lasso计算53
4.3.2稀疏组 lasso54
4.3.3重叠组 lasso56
4.4稀疏加法模型和组 lasso 59
4.4.1加法模型和 back.tting59
4.4.2稀疏加法模型和 back.tting60
4.4.3优化方法与组 lasso 61
4.4.4稀疏加法模型的多重惩罚 64
4.5融合 lasso65
4.5.1拟合融合 lasso 66
4.5.2趋势滤波69
4.5.3近保序回归 70
4.6非凸惩罚72
参考文献注释 74
习题75
第 5章优化方法80
5.1引言80
5.2凸优化条件 80
5.2.1优化可微问题80
5.2.2非可微函数和次梯度 83
5.3梯度下降84
5.3.1无约束的梯度下降84
5.3.2投影梯度法 86
5.3.3近点梯度法 87
5.3.4加速梯度方法90
5.4坐标下降92
5.4.1可分性和坐标下降93
5.4.2线性回归和 lasso94
5.4.3逻辑斯蒂回归和广义线性模型97
5.5仿真研究99
5.6z小角回归100
5.7交替方向乘子法103
5.8优化?Czui小化算法 104
5.9双凸问题和交替zui小化105
5.10筛选规则108
参考文献注释111
附录 A lasso的对偶 112
附录 B DPP规则的推导113
习题 114
第 6章统计推断118
6.1贝叶斯 lasso 118
6.2自助法 121
6.3 lasso法的后选择推断125
6.3.1协方差检验125
6.3.2选择后推断的更广方案128
6.3.3检验何种假设 133
6.3.4回到向前逐步回归134
6.4通过去偏 lasso推断134
6.5后选择推断的其他建议136
参考文献注释137
习题 138
第 7章矩阵的分解、近似及填充141
7.1引言 141
7.2奇异值分解142
7.3缺失数据和矩阵填充143
7.3.1 Net.x电影挑战赛144
7.3.2基于原子范数的矩阵填充146
7.3.3矩阵填充的理论结果149
7.3.4间隔分解及相关方法153
7.4减秩回归 154
7.5通用矩阵回归框架156
7.6惩罚矩阵分解 157
7.7矩阵分解的相加形式160
参考文献注释164
习题 165
第 8章稀疏多元方法 169
8.1引言 169
8.2稀疏组成分分析169
8.2.1背景169
8.2.2稀疏主成分171
8.2.3秩大于 1的解 174
8.2.4基于 Fantope投影的稀疏 PCA 176
8.2.5稀疏自编码和深度学习176
8.2.6稀疏 PCA的一些理论178
8.3稀疏典型相关分析179
8.4稀疏线性判别分析182
8.4.1标准理论和贝叶斯规则182
8.4.2最近收缩中心 183
8.4.3 Fisher线性判别分析 184
8.4.4评分188
8.5稀疏聚类 190
8.5.1聚类的一些背景知识191
8.5.2稀疏层次聚类 191
8.5.3稀疏 K均值聚类192
8.5.4凸聚类193
参考文献注释195
习题 196
第 9章图和模型选择 202
9.1引言 202
9.2图模型基础202
9.2.1分解和马尔可夫特性202
9.2.2几个例子204
9.3基于惩罚似然的图选择206
9.3.1高斯模型的全局似然性207
9.3.2图 lasso算法 208
9.3.3利用块对角化结构210
9.3.4图 lasso的理论保证211
9.3.5离散模型的全局似然性212
9.4基于条件推断的图选择213
9.4.1高斯分布下基于近邻的似然概率 214
9.4.2离散模型下基于近邻的似然概率 214
9.4.3混合模型下的伪似然概率217
9.5带隐变量的图模型218
参考文献注释219
习题 221
第 10章信号近似与压缩感知 225
10.1引言225
10.2信号与稀疏表示 225
10.2.1正交基225
10.2.2用正交基逼近228
10.2.3用过完备基来重构229
10.3随机投影与近似 231
10.3.1 Johnson?CLindenstrauss近似231
10.3.2压缩感知232
10.4乌0恢复与乌1恢复之间的等价性234
10.4.1受限零空间性质235
10.4.2受限零空间的充分条件 235
10.4.3证明 237
参考文献注释238
习题 239
第 11章 lasso的理论结果242
11.1引言242
11.1.1损失函数类型242
11.1.2稀疏模型类型243
11.2 lasso乌2误差的界限244
11.2.1经典情形中的强凸性 244
11.2.2回归受限特征值245
11.2.3基本一致性结果246
11.3预测误差的界250
11.4线性回归中的支持恢复 252
11.4.1 lasso的变量选择一致性 252
11.4.2定理 11.3的证明 256
11.5超越基础 lasso259
参考文献注释260
习题 261
参考文献 264