统计学习基础:数据挖掘、推理与预测

统计学习基础
分享
扫描下方二维码分享到微信
打开微信,点击右上角”+“,
使用”扫一扫“即可将网页分享到朋友圈。
作者: [美]
出版社: 电子工业出版社
2004-01
版次: 1
ISBN: 9787505393318
定价: 45.00
装帧: 平装
开本: 16开
纸张: 胶版纸
页数: 381页
字数: 634千字
正文语种: 简体中文
  •   计算和信息技术的飞速发展带来了医学、生物学、财经和营销等诸多领域的海量数据。理解这些数据是一种挑战,这导致了统计学领域新工具的发展,并延伸到诸如数据挖掘、机器学习和生物信息学等新领域。许多工具都具有共同的基础,但常常用不同的术语来表达。本书介绍了这些领域的一些重要概念。尽管应用的是统计学方法,但强调的是概念,而不是数学。许多例子附以彩图。本书内容广泛,从有指导的学习(预测)到无指导的学习,应有尽有。包括神经网络、支持向量机、分类树和提升等主题,是同类书籍中介绍得最全面的。

      本书可作为高等院校相关专业本科生和研究生的教材,对于统计学相关人员、科学界和业界关注数据挖掘的人,本书值得一读。

       Trevor Hastie,Robert Tibshirani和Jerome Friedman都是斯坦福大学统计学教授,并在这个领域做出了杰出的贡献。Hastie和Tibshirani提出了广义和加法模型,并出版专著“Generalized Additive Models”。Hastie的主要研究领域为:非参数回归和分类、统计计算以及生物信息学、医 第1章绪论
    第2章有指导学习概述
    2.1引言
    2.2变量类型和术语
    2.3两种简单预测方法:最小二乘方和最近邻法
    2.4统计判决理论
    2.5高维空间的局部方法
    2.6统计模型、有指导学习和函数逼近
    2.7结构化回归模型
    2.8受限的估计方法类
    2.9模型选择和偏倚-方差权衡
    文献注释
    习题
    第3章回归的线性方法
    3.1引言
    3.2线性回归模型和最小二乘方
    3.3从简单的一元回归到多元回归
    3.4子集选择和系数收缩
    3.5计算考虑
    文献注释
    习题
    第4章分类的线性方法
    4.1引言
    4.2指示矩阵的线性回归
    4.3线性判别分析
    4.4逻辑斯缔回归
    4.5分离超平面
    文献注释
    习题
    第5章基展开与正则化
    5.1引言
    5.2分段多项式和样条
    5.3过滤和特征提取
    5.4光滑样条
    5.5光滑参数的自动选择
    5.6无参逻辑斯缔回归
    5.7多维样条函数
    5.8正则化和再生核希尔伯特空间
    5.9小波光滑
    文献注释
    习题
    第6章核方法
    6.1一维核光滑方法
    6.2选择核的宽度
    6.3IRp上的局部回归
    6.4IRp上结构化局部回归模型
    6.5局部似然和其他模型
    6.6核密度估计和分类
    6.7径向基函数和核
    6.8密度估计和分类的混合模型
    6.9计算考虑
    文献注释
    习题
    第7章模型评估与选择
    7.1引言
    7.2偏倚、方差和模型复杂性
    7.3偏倚-方差分解
    7.4训练误差率的乐观性
    7.5样本内预测误差的估计
    7.6有效的参数个数
    7.7贝叶斯方法和BIC
    7.8最小描述长度
    7.9Vapnik-Chernovenkis维
    7.10交叉验证
    7.11自助法
    文献注释
    习题
    第8章模型推理和平均
    8.1引言
    8.2自助法和极大似然法
    8.3贝叶斯方法
    8.4自助法和贝叶斯推理之间的联系
    8.5EM算法
    8.6从后验中抽样的MCMC
    8.7装袋
    8.8模型平均和堆栈
    8.9随机搜索:冲击
    文献注释
    习题
    第9章加法模型、树和相关方法
    9.1广义加法模型
    9.2基于树的方法
    9.3PRIM——凸点搜索
    9.4MARS:多元自适应回归样条
    9.5分层专家混合
    9.6遗漏数据
    9.7计算考虑
    文献注释
    习题
    第10章提升和加法树
    10.1提升方法
    10.2提升拟合加法模型
    10.3前向分步加法建模
    10.4指数损失函数和AdaBoost
    10.5为什么使用指数损失
    10.6损失函数和健壮性
    10.7数据挖掘的“现货”过程
    10.8例:垃圾邮件数据
    10.9提升树
    10.10数值优化
    10.11提升适当大小的树
    10.12正则化
    10.13可解释性
    10.14实例
    文献注释
    习题
    第11章神经网络
    11.1引言
    11.2投影寻踪回归
    11.3神经网络
    11.4拟合神经网络
    11.5训练神经网络的一些问题
    11.6例:模拟数据
    11.7例:ZIP编码数据
    11.8讨论
    11.9计算考虑
    文献注释
    习题
    第12章支持向量机和柔性判别
    12.1引言
    12.2支持向量分类器
    12.3支持向量机
    12.4线性判别分析的推广
    12.5柔性判别分析
    12.6罚判别分析
    12.7混合判别分析
    12.8计算考虑
    文献注释
    习题
    第13章原型方法和最近邻
    13.1引言
    13.2原型方法
    13.3K-最近邻分类器
    13.4自适应的最近邻方法
    13.5计算考虑
    文献注释
    习题
    第14章无指导学习
    14.1引言
    14.2关联规则
    14.3聚类分析
    14.4自组织映射
    14.5主成分、曲线和曲面
    14.6独立成分分析和探测性投影寻踪
    14.7多维定标
    文献注释
    习题
    术语表
    参考文献
  • 内容简介:
      计算和信息技术的飞速发展带来了医学、生物学、财经和营销等诸多领域的海量数据。理解这些数据是一种挑战,这导致了统计学领域新工具的发展,并延伸到诸如数据挖掘、机器学习和生物信息学等新领域。许多工具都具有共同的基础,但常常用不同的术语来表达。本书介绍了这些领域的一些重要概念。尽管应用的是统计学方法,但强调的是概念,而不是数学。许多例子附以彩图。本书内容广泛,从有指导的学习(预测)到无指导的学习,应有尽有。包括神经网络、支持向量机、分类树和提升等主题,是同类书籍中介绍得最全面的。

      本书可作为高等院校相关专业本科生和研究生的教材,对于统计学相关人员、科学界和业界关注数据挖掘的人,本书值得一读。

      
  • 作者简介:
    Trevor Hastie,Robert Tibshirani和Jerome Friedman都是斯坦福大学统计学教授,并在这个领域做出了杰出的贡献。Hastie和Tibshirani提出了广义和加法模型,并出版专著“Generalized Additive Models”。Hastie的主要研究领域为:非参数回归和分类、统计计算以及生物信息学、医
  • 目录:
    第1章绪论
    第2章有指导学习概述
    2.1引言
    2.2变量类型和术语
    2.3两种简单预测方法:最小二乘方和最近邻法
    2.4统计判决理论
    2.5高维空间的局部方法
    2.6统计模型、有指导学习和函数逼近
    2.7结构化回归模型
    2.8受限的估计方法类
    2.9模型选择和偏倚-方差权衡
    文献注释
    习题
    第3章回归的线性方法
    3.1引言
    3.2线性回归模型和最小二乘方
    3.3从简单的一元回归到多元回归
    3.4子集选择和系数收缩
    3.5计算考虑
    文献注释
    习题
    第4章分类的线性方法
    4.1引言
    4.2指示矩阵的线性回归
    4.3线性判别分析
    4.4逻辑斯缔回归
    4.5分离超平面
    文献注释
    习题
    第5章基展开与正则化
    5.1引言
    5.2分段多项式和样条
    5.3过滤和特征提取
    5.4光滑样条
    5.5光滑参数的自动选择
    5.6无参逻辑斯缔回归
    5.7多维样条函数
    5.8正则化和再生核希尔伯特空间
    5.9小波光滑
    文献注释
    习题
    第6章核方法
    6.1一维核光滑方法
    6.2选择核的宽度
    6.3IRp上的局部回归
    6.4IRp上结构化局部回归模型
    6.5局部似然和其他模型
    6.6核密度估计和分类
    6.7径向基函数和核
    6.8密度估计和分类的混合模型
    6.9计算考虑
    文献注释
    习题
    第7章模型评估与选择
    7.1引言
    7.2偏倚、方差和模型复杂性
    7.3偏倚-方差分解
    7.4训练误差率的乐观性
    7.5样本内预测误差的估计
    7.6有效的参数个数
    7.7贝叶斯方法和BIC
    7.8最小描述长度
    7.9Vapnik-Chernovenkis维
    7.10交叉验证
    7.11自助法
    文献注释
    习题
    第8章模型推理和平均
    8.1引言
    8.2自助法和极大似然法
    8.3贝叶斯方法
    8.4自助法和贝叶斯推理之间的联系
    8.5EM算法
    8.6从后验中抽样的MCMC
    8.7装袋
    8.8模型平均和堆栈
    8.9随机搜索:冲击
    文献注释
    习题
    第9章加法模型、树和相关方法
    9.1广义加法模型
    9.2基于树的方法
    9.3PRIM——凸点搜索
    9.4MARS:多元自适应回归样条
    9.5分层专家混合
    9.6遗漏数据
    9.7计算考虑
    文献注释
    习题
    第10章提升和加法树
    10.1提升方法
    10.2提升拟合加法模型
    10.3前向分步加法建模
    10.4指数损失函数和AdaBoost
    10.5为什么使用指数损失
    10.6损失函数和健壮性
    10.7数据挖掘的“现货”过程
    10.8例:垃圾邮件数据
    10.9提升树
    10.10数值优化
    10.11提升适当大小的树
    10.12正则化
    10.13可解释性
    10.14实例
    文献注释
    习题
    第11章神经网络
    11.1引言
    11.2投影寻踪回归
    11.3神经网络
    11.4拟合神经网络
    11.5训练神经网络的一些问题
    11.6例:模拟数据
    11.7例:ZIP编码数据
    11.8讨论
    11.9计算考虑
    文献注释
    习题
    第12章支持向量机和柔性判别
    12.1引言
    12.2支持向量分类器
    12.3支持向量机
    12.4线性判别分析的推广
    12.5柔性判别分析
    12.6罚判别分析
    12.7混合判别分析
    12.8计算考虑
    文献注释
    习题
    第13章原型方法和最近邻
    13.1引言
    13.2原型方法
    13.3K-最近邻分类器
    13.4自适应的最近邻方法
    13.5计算考虑
    文献注释
    习题
    第14章无指导学习
    14.1引言
    14.2关联规则
    14.3聚类分析
    14.4自组织映射
    14.5主成分、曲线和曲面
    14.6独立成分分析和探测性投影寻踪
    14.7多维定标
    文献注释
    习题
    术语表
    参考文献
查看详情
好书推荐 / 更多
统计学习基础
现代性
汪民安
统计学习基础
现代性的性别守望者·镜与灯
[美]芮塔·菲尔斯基(Rita Felski) 著
统计学习基础
世纪三书·世纪的诞生:中国革命与政治的逻辑(20世纪的中国第一部)
汪晖 著
统计学习基础
复眼的映像
桥本忍
统计学习基础
别再问我什么是嘻哈①
大和田俊之 著;耳田 译;[日]长谷川町藏
统计学习基础
理性与神秘
[法]阿尔贝·加缪 著;叶仁杰 译;朱佳琪
统计学习基础
荒诞的幽灵:现代虚无主义的根源与批判
[美]唐纳德·A.克罗斯比(Donald A. Crosby)
统计学习基础
生存还是毁灭:人生终极困境的坦率指南
[南非]大卫·贝纳塔
统计学习基础
不正义的多重面孔
[美]朱迪丝·N·施克莱 著;钱一栋 译
统计学习基础
卡利普索(美式幽默作家之王,全球累计销量破千万册!)
[美]大卫·塞达里斯 著
统计学习基础
未来生活简史:科技如何塑造未来(《未来简史》作者尤瓦尔·赫拉利重磅推荐)
[以色列]罗伊·泽扎纳 著;寇莹莹 译
统计学习基础
宇宙的起源:一本人人读得懂的宇宙学科普读物,为你揭晓宇宙起源之谜!
[英]约翰·巴罗 著;黄静 译;湛庐文化 出品