深入理解机器学习:从原理到算法

深入理解机器学习:从原理到算法
分享
扫描下方二维码分享到微信
打开微信,点击右上角”+“,
使用”扫一扫“即可将网页分享到朋友圈。
作者: [以色列] , [加拿大] ,
2016-07
版次: 1
ISBN: 9787111543022
定价: 79.00
装帧: 平装
开本: 16开
纸张: 胶版纸
页数: 309页
正文语种: 简体中文
原版书名: Understanding Machine Learning:From Theory to Algorithms
319人买过
  •   本书介绍机器学习方法的原理及方法,同时引入了学习的计算复杂性、凸性和稳定性、PAC贝叶斯方法、压缩界等概念,以及随机梯度下降、神经元网络和结构化输出等方法。作者既讲述重要的机器学习算法的工作原理和动机,还指出其固有的优势和缺点,是有兴趣了解机器学习理论和方法以及应用的学生和专业人员的良好教材或参考书。 沙伊·沙莱夫-施瓦茨(Shai Shalev-Shwartz) 以色列希伯来大学计算机及工程学院副教授,还在Mobileye公司研究自动驾驶。2009年之前他在芝加哥的丰田技术研究所工作。他的研究方向是机器学习算法。
    沙伊·本-戴维(Shai Ben-David) 加拿大滑铁卢大学计算机科学学院教授。先后在以色列理工学院、澳大利亚国立大学和康奈尔大学任教。 出版者的话 
    译者序 
    前言 
    致谢 
    第1章引论1 
    1.1什么是学习1 
    1.2什么时候需要机器学习2 
    1.3学习的种类3 
    1.4与其他领域的关系4 
    1.5如何阅读本书4 
    1.6符号6 
    第一部分理论基础 
    第2章简易入门10 
    2.1一般模型——统计学习理论框架10 
    2.2经验风险最小化11 
    2.3考虑归纳偏置的经验风险最小化12 
    2.4练习15 
    第3章一般学习模型17 
    3.1PAC学习理论17 
    3.2更常见的学习模型18 
    3.2.1放宽可实现假设——不可知PAC学习18 
    3.2.2学习问题建模19 
    3.3小结21 
    3.4文献评注21 
    3.5练习21 
    第4章学习过程的一致收敛性24 
    4.1一致收敛是可学习的充分条件24 
    4.2有限类是不可知PAC可学习的25 
    4.3小结26 
    4.4文献评注27 
    4.5练习27 
    第5章偏差与复杂性权衡28 
    5.1“没有免费的午餐”定理28 
    5.2误差分解31 
    5.3小结31 
    5.4文献评注32 
    5.5练习32 
    第6章VC维33 
    6.1无限的类也可学习33 
    6.2VC维概述34 
    6.3实例35 
    6.3.1阈值函数35 
    6.3.2区间35 
    6.3.3平行于轴的矩形35 
    6.3.4有限类36 
    6.3.5VC维与参数个数36 
    6.4PAC学习的基本定理36 
    6.5定理6.7的证明37 
    6.5.1Sauer引理及生长函数37 
    6.5.2有小的有效规模的类的一致收敛性39 
    6.6小结40 
    6.7文献评注41 
    6.8练习41 
    第7章不一致可学习44 
    7.1不一致可学习概述44 
    7.2结构风险最小化46 
    7.3最小描述长度和奥卡姆剃刀48 
    7.4可学习的其他概念——一致收敛性50 
    7.5探讨不同的可学习概念51 
    7.6小结53 
    7.7文献评注53 
    7.8练习54 
    第8章学习的运行时间56 
    8.1机器学习的计算复杂度56 
    8.2ERM规则的实现58 
    8.2.1有限集58 
    8.2.2轴对称矩形59 
    8.2.3布尔合取式59 
    8.2.4学习三项析取范式60 
    8.3高效学习,而不通过合适的ERM60 
    8.4学习的难度*61 
    8.5小结62 
    8.6文献评注62 
    8.7练习62 
    第二部分从理论到算法 
    第9章线性预测66 
    9.1半空间66 
    9.1.1半空间类线性规划67 
    9.1.2半空间感知器68 
    9.1.3半空间的VC维69 
    9.2线性回归70 
    9.2.1最小平方70 
    9.2.2多项式线性回归71 
    9.3逻辑斯谛回归72 
    9.4小结73 
    9.5文献评注73 
    9.6练习73 
    第10章boosting75 
    10.1弱可学习75 
    10.2AdaBoost78 
    10.3基础假设类的线性组合80 
    10.4AdaBoost用于人脸识别82 
    10.5小结83 
    10.6文献评注83 
    10.7练习84 
    第11章模型选择与验证85 
    11.1用结构风险最小化进行模型选择85 
    11.2验证法86 
    11.2.1留出的样本集86 
    11.2.2模型选择的验证法87 
    11.2.3模型选择曲线88 
    11.2.4k折交叉验证88 
    11.2.5训练验证测试拆分89 
    11.3如果学习失败了应该做什么89 
    11.4小结92 
    11.5练习92 
    第12章凸学习问题93 
    12.1凸性、利普希茨性和光滑性93 
    12.1.1凸性93 
    12.1.2利普希茨性96 
    12.1.3光滑性97 
    12.2凸学习问题概述98 
    12.2.1凸学习问题的可学习性99 
    12.2.2凸利普希茨/光滑有界学习问题100 
    12.3替代损失函数101 
    12.4小结102 
    12.5文献评注102 
    12.6练习102 
    第13章正则化和稳定性104 
    13.1正则损失最小化104 
    13.2稳定规则不会过拟合105 
    13.3Tikhonov正则化作为稳定剂106 
    13.3.1利普希茨损失108 
    13.3.2光滑和非负损失108 
    13.4控制适合与稳定性的权衡109 
    13.5小结111 
    13.6文献评注111 
    13.7练习111 
    第14章随机梯度下降114 
    14.1梯度下降法114 
    14.2次梯度116 
    14.2.1计算次梯度117 
    14.2.2利普希茨函数的次梯度118 
    14.2.3次梯度下降118 
    14.3随机梯度下降118 
    14.4SGD的变型120 
    14.4.1增加一个投影步120 
    14.4.2变步长121 
    14.4.3其他平均技巧121 
    14.4.4强凸函数*121 
    14.5用SGD进行学习123 
    14.5.1SGD求解风险极小化123 
    14.5.2SGD求解凸光滑学习问题的分析124 
    14.5.3SGD求解正则化损失极小化125 
    14.6小结125 
    14.7文献评注125 
    14.8练习126 
    第15章支持向量机127 
    15.1间隔与硬SVM127 
    15.1.1齐次情况129 
    15.1.2硬SVM的样本复杂度129 
    15.2软SVM与范数正则化130 
    15.2.1软SVM的样本复杂度131 
    15.2.2间隔、基于范数的界与维度131 
    15.2.3斜坡损失*132 
    15.3最优化条件与“支持向量”*133 
    15.4对偶*133 
    15.5用随机梯度下降法实现软SVM134 
    15.6小结135 
    15.7文献评注135 
    15.8练习135 
    第16章核方法136 
    16.1特征空间映射136 
    16.2核技巧137 
    16.2.1核作为表达先验的一种形式140 
    16.2.2核函数的特征*141 
    16.3软SVM应用核方法141 
    16.4小结142 
    16.5文献评注143 
    16.6练习143 
    第17章多分类、排序与复杂预测问题145 
    17.1一对多和一对一145 
    17.2线性多分类预测147 
    17.2.1如何构建Ψ147 
    17.2.2对损失敏感的分类148 
    17.2.3经验风险最小化149 
    17.2.4泛化合页损失149 
    17.2.5多分类SVM和SGD150 
    17.3结构化输出预测151 
    17.4排序153 
    17.5二分排序以及多变量性能测量157 
    17.6小结160 
    17.7文献评注160 
    17.8练习161 
    第18章决策树162 
    18.1采样复杂度162 
    18.2决策树算法163 
    18.2.1增益测量的实现方式164 
    18.2.2剪枝165 
    18.2.3实值特征基于阈值的拆分规则165 
    18.3随机森林165 
    18.4小结166 
    18.5文献评注166 
    18.6练习166 
    第19章最近邻167 
    19.1k近邻法167 
    19.2分析168 
    19.2.11NN准则的泛化界168 
    19.2.2“维数灾难”170 
    19.3效率实施*171 
    19.4小结171 
    19.5文献评注171 
    19.6练习171 
    第20章神经元网络174 
    20.1前馈神经网络174 
    20.2神经网络学习175 
    20.3神经网络的表达力176 
    20.4神经网络样本复杂度178 
    20.5学习神经网络的运行时179 
    20.6SGD和反向传播179 
    20.7小结182 
    20.8文献评注183 
    20.9练习183 
    第三部分其他学习模型 
    第21章在线学习186 
    21.1可实现情况下的在线分类186 
    21.2不可实现情况下的在线识别191 
    21.3在线凸优化195 
    21.4在线感知器算法197 
    21.5小结199 
    21.6文献评注199 
    21.7练习199 
    第22章聚类201 
    22.1基于链接的聚类算法203 
    22.2k均值算法和其他代价最小聚类203 
    22.3谱聚类206 
    22.3.1图割206 
    22.3.2图拉普拉斯与松弛图割算法206 
    22.3.3非归一化的谱聚类207 
    22.4信息瓶颈*208 
    22.5聚类的进阶观点208 
    22.6小结209 
    22.7文献评注210 
    22.8练习210 
    第23章维度约简212 
    23.1主成分分析212 
    23.1.1当dm时一种更加有效的求解方法214 
    23.1.2应用与说明214 
    23.2随机投影216 
    23.3压缩感知217 
    23.4PCA还是压缩感知223 
    23.5小结223 
    23.6文献评注223 
    23.7练习223 
    第24章生成模型226 
    24.1极大似然估计226 
    24.1.1连续随机变量的极大似然估计227 
    24.1.2极大似然与经验风险最小化228 
    24.1.3泛化分析228 
    24.2朴素贝叶斯229 
    24.3线性判别分析230 
    24.4隐变量与EM算法230 
    24.4.1EM是交替最大化算法232 
    24.4.2混合高斯模型参数估计的EM算法233 
    24.5贝叶斯推理233 
    24.6小结235 
    24.7文献评注235 
    24.8练习235 
    第25章特征选择与特征生成237 
    25.1特征选择237 
    25.1.1滤波器238 
    25.1.2贪婪选择方法239 
    25.1.3稀疏诱导范数241 
    25.2特征操作和归一化242 
    25.3特征学习244 
    25.4小结246 
    25.5文献评注246 
    25.6练习246 
    第四部分高级理论 
    第26章拉德马赫复杂度250 
    26.1拉德马赫复杂度概述250 
    26.2线性类的拉德马赫复杂度255 
    26.3SVM的泛化误差界256 
    26.4低1范数预测器的泛化误差界258 
    26.5文献评注259 
    第27章覆盖数260 
    27.1覆盖260 
    27.2通过链式反应从覆盖到拉德马赫复杂度261 
    27.3文献评注262 
    第28章学习理论基本定理的证明263 
    28.1不可知情况的上界263 
    28.2不可知情况的下界264 
    28.2.1证明m(ε,δ)≥0.5log(1/(4δ))/ε2264 
    28.2.2证明m(ε,1/8)≥8d/ε2265 
    28.3可实现情况的上界267 
    第29章多分类可学习性271 
    29.1纳塔拉詹维271 
    29.2多分类基本定理271 
    29.3计算纳塔拉詹维272 
    29.3.1基于类的一对多272 
    29.3.2一般的多分类到二分类约简273 
    29.3.3线性多分类预测器273 
    29.4好的与坏的ERM274 
    29.5文献评注275 
    29.6练习276 
    第30章压缩界277 
    30.1压缩界概述277 
    30.2例子278 
    30.2.1平行于轴的矩形278 
    30.2.2半空间279 
    30.2.3可分多项式279 
    30.2.4间隔可分的情况279 
    30.3文献评注280 
    第31章PAC贝叶斯281 
    31.1PAC贝叶斯界281 
    31.2文献评注282 
    31.3练习282 
    附录A技术性引理284 
    附录B测度集中度287 
    附录C线性代数294 
    参考文献297 
    索引305
  • 内容简介:
      本书介绍机器学习方法的原理及方法,同时引入了学习的计算复杂性、凸性和稳定性、PAC贝叶斯方法、压缩界等概念,以及随机梯度下降、神经元网络和结构化输出等方法。作者既讲述重要的机器学习算法的工作原理和动机,还指出其固有的优势和缺点,是有兴趣了解机器学习理论和方法以及应用的学生和专业人员的良好教材或参考书。
  • 作者简介:
    沙伊·沙莱夫-施瓦茨(Shai Shalev-Shwartz) 以色列希伯来大学计算机及工程学院副教授,还在Mobileye公司研究自动驾驶。2009年之前他在芝加哥的丰田技术研究所工作。他的研究方向是机器学习算法。
    沙伊·本-戴维(Shai Ben-David) 加拿大滑铁卢大学计算机科学学院教授。先后在以色列理工学院、澳大利亚国立大学和康奈尔大学任教。
  • 目录:
    出版者的话 
    译者序 
    前言 
    致谢 
    第1章引论1 
    1.1什么是学习1 
    1.2什么时候需要机器学习2 
    1.3学习的种类3 
    1.4与其他领域的关系4 
    1.5如何阅读本书4 
    1.6符号6 
    第一部分理论基础 
    第2章简易入门10 
    2.1一般模型——统计学习理论框架10 
    2.2经验风险最小化11 
    2.3考虑归纳偏置的经验风险最小化12 
    2.4练习15 
    第3章一般学习模型17 
    3.1PAC学习理论17 
    3.2更常见的学习模型18 
    3.2.1放宽可实现假设——不可知PAC学习18 
    3.2.2学习问题建模19 
    3.3小结21 
    3.4文献评注21 
    3.5练习21 
    第4章学习过程的一致收敛性24 
    4.1一致收敛是可学习的充分条件24 
    4.2有限类是不可知PAC可学习的25 
    4.3小结26 
    4.4文献评注27 
    4.5练习27 
    第5章偏差与复杂性权衡28 
    5.1“没有免费的午餐”定理28 
    5.2误差分解31 
    5.3小结31 
    5.4文献评注32 
    5.5练习32 
    第6章VC维33 
    6.1无限的类也可学习33 
    6.2VC维概述34 
    6.3实例35 
    6.3.1阈值函数35 
    6.3.2区间35 
    6.3.3平行于轴的矩形35 
    6.3.4有限类36 
    6.3.5VC维与参数个数36 
    6.4PAC学习的基本定理36 
    6.5定理6.7的证明37 
    6.5.1Sauer引理及生长函数37 
    6.5.2有小的有效规模的类的一致收敛性39 
    6.6小结40 
    6.7文献评注41 
    6.8练习41 
    第7章不一致可学习44 
    7.1不一致可学习概述44 
    7.2结构风险最小化46 
    7.3最小描述长度和奥卡姆剃刀48 
    7.4可学习的其他概念——一致收敛性50 
    7.5探讨不同的可学习概念51 
    7.6小结53 
    7.7文献评注53 
    7.8练习54 
    第8章学习的运行时间56 
    8.1机器学习的计算复杂度56 
    8.2ERM规则的实现58 
    8.2.1有限集58 
    8.2.2轴对称矩形59 
    8.2.3布尔合取式59 
    8.2.4学习三项析取范式60 
    8.3高效学习,而不通过合适的ERM60 
    8.4学习的难度*61 
    8.5小结62 
    8.6文献评注62 
    8.7练习62 
    第二部分从理论到算法 
    第9章线性预测66 
    9.1半空间66 
    9.1.1半空间类线性规划67 
    9.1.2半空间感知器68 
    9.1.3半空间的VC维69 
    9.2线性回归70 
    9.2.1最小平方70 
    9.2.2多项式线性回归71 
    9.3逻辑斯谛回归72 
    9.4小结73 
    9.5文献评注73 
    9.6练习73 
    第10章boosting75 
    10.1弱可学习75 
    10.2AdaBoost78 
    10.3基础假设类的线性组合80 
    10.4AdaBoost用于人脸识别82 
    10.5小结83 
    10.6文献评注83 
    10.7练习84 
    第11章模型选择与验证85 
    11.1用结构风险最小化进行模型选择85 
    11.2验证法86 
    11.2.1留出的样本集86 
    11.2.2模型选择的验证法87 
    11.2.3模型选择曲线88 
    11.2.4k折交叉验证88 
    11.2.5训练验证测试拆分89 
    11.3如果学习失败了应该做什么89 
    11.4小结92 
    11.5练习92 
    第12章凸学习问题93 
    12.1凸性、利普希茨性和光滑性93 
    12.1.1凸性93 
    12.1.2利普希茨性96 
    12.1.3光滑性97 
    12.2凸学习问题概述98 
    12.2.1凸学习问题的可学习性99 
    12.2.2凸利普希茨/光滑有界学习问题100 
    12.3替代损失函数101 
    12.4小结102 
    12.5文献评注102 
    12.6练习102 
    第13章正则化和稳定性104 
    13.1正则损失最小化104 
    13.2稳定规则不会过拟合105 
    13.3Tikhonov正则化作为稳定剂106 
    13.3.1利普希茨损失108 
    13.3.2光滑和非负损失108 
    13.4控制适合与稳定性的权衡109 
    13.5小结111 
    13.6文献评注111 
    13.7练习111 
    第14章随机梯度下降114 
    14.1梯度下降法114 
    14.2次梯度116 
    14.2.1计算次梯度117 
    14.2.2利普希茨函数的次梯度118 
    14.2.3次梯度下降118 
    14.3随机梯度下降118 
    14.4SGD的变型120 
    14.4.1增加一个投影步120 
    14.4.2变步长121 
    14.4.3其他平均技巧121 
    14.4.4强凸函数*121 
    14.5用SGD进行学习123 
    14.5.1SGD求解风险极小化123 
    14.5.2SGD求解凸光滑学习问题的分析124 
    14.5.3SGD求解正则化损失极小化125 
    14.6小结125 
    14.7文献评注125 
    14.8练习126 
    第15章支持向量机127 
    15.1间隔与硬SVM127 
    15.1.1齐次情况129 
    15.1.2硬SVM的样本复杂度129 
    15.2软SVM与范数正则化130 
    15.2.1软SVM的样本复杂度131 
    15.2.2间隔、基于范数的界与维度131 
    15.2.3斜坡损失*132 
    15.3最优化条件与“支持向量”*133 
    15.4对偶*133 
    15.5用随机梯度下降法实现软SVM134 
    15.6小结135 
    15.7文献评注135 
    15.8练习135 
    第16章核方法136 
    16.1特征空间映射136 
    16.2核技巧137 
    16.2.1核作为表达先验的一种形式140 
    16.2.2核函数的特征*141 
    16.3软SVM应用核方法141 
    16.4小结142 
    16.5文献评注143 
    16.6练习143 
    第17章多分类、排序与复杂预测问题145 
    17.1一对多和一对一145 
    17.2线性多分类预测147 
    17.2.1如何构建Ψ147 
    17.2.2对损失敏感的分类148 
    17.2.3经验风险最小化149 
    17.2.4泛化合页损失149 
    17.2.5多分类SVM和SGD150 
    17.3结构化输出预测151 
    17.4排序153 
    17.5二分排序以及多变量性能测量157 
    17.6小结160 
    17.7文献评注160 
    17.8练习161 
    第18章决策树162 
    18.1采样复杂度162 
    18.2决策树算法163 
    18.2.1增益测量的实现方式164 
    18.2.2剪枝165 
    18.2.3实值特征基于阈值的拆分规则165 
    18.3随机森林165 
    18.4小结166 
    18.5文献评注166 
    18.6练习166 
    第19章最近邻167 
    19.1k近邻法167 
    19.2分析168 
    19.2.11NN准则的泛化界168 
    19.2.2“维数灾难”170 
    19.3效率实施*171 
    19.4小结171 
    19.5文献评注171 
    19.6练习171 
    第20章神经元网络174 
    20.1前馈神经网络174 
    20.2神经网络学习175 
    20.3神经网络的表达力176 
    20.4神经网络样本复杂度178 
    20.5学习神经网络的运行时179 
    20.6SGD和反向传播179 
    20.7小结182 
    20.8文献评注183 
    20.9练习183 
    第三部分其他学习模型 
    第21章在线学习186 
    21.1可实现情况下的在线分类186 
    21.2不可实现情况下的在线识别191 
    21.3在线凸优化195 
    21.4在线感知器算法197 
    21.5小结199 
    21.6文献评注199 
    21.7练习199 
    第22章聚类201 
    22.1基于链接的聚类算法203 
    22.2k均值算法和其他代价最小聚类203 
    22.3谱聚类206 
    22.3.1图割206 
    22.3.2图拉普拉斯与松弛图割算法206 
    22.3.3非归一化的谱聚类207 
    22.4信息瓶颈*208 
    22.5聚类的进阶观点208 
    22.6小结209 
    22.7文献评注210 
    22.8练习210 
    第23章维度约简212 
    23.1主成分分析212 
    23.1.1当dm时一种更加有效的求解方法214 
    23.1.2应用与说明214 
    23.2随机投影216 
    23.3压缩感知217 
    23.4PCA还是压缩感知223 
    23.5小结223 
    23.6文献评注223 
    23.7练习223 
    第24章生成模型226 
    24.1极大似然估计226 
    24.1.1连续随机变量的极大似然估计227 
    24.1.2极大似然与经验风险最小化228 
    24.1.3泛化分析228 
    24.2朴素贝叶斯229 
    24.3线性判别分析230 
    24.4隐变量与EM算法230 
    24.4.1EM是交替最大化算法232 
    24.4.2混合高斯模型参数估计的EM算法233 
    24.5贝叶斯推理233 
    24.6小结235 
    24.7文献评注235 
    24.8练习235 
    第25章特征选择与特征生成237 
    25.1特征选择237 
    25.1.1滤波器238 
    25.1.2贪婪选择方法239 
    25.1.3稀疏诱导范数241 
    25.2特征操作和归一化242 
    25.3特征学习244 
    25.4小结246 
    25.5文献评注246 
    25.6练习246 
    第四部分高级理论 
    第26章拉德马赫复杂度250 
    26.1拉德马赫复杂度概述250 
    26.2线性类的拉德马赫复杂度255 
    26.3SVM的泛化误差界256 
    26.4低1范数预测器的泛化误差界258 
    26.5文献评注259 
    第27章覆盖数260 
    27.1覆盖260 
    27.2通过链式反应从覆盖到拉德马赫复杂度261 
    27.3文献评注262 
    第28章学习理论基本定理的证明263 
    28.1不可知情况的上界263 
    28.2不可知情况的下界264 
    28.2.1证明m(ε,δ)≥0.5log(1/(4δ))/ε2264 
    28.2.2证明m(ε,1/8)≥8d/ε2265 
    28.3可实现情况的上界267 
    第29章多分类可学习性271 
    29.1纳塔拉詹维271 
    29.2多分类基本定理271 
    29.3计算纳塔拉詹维272 
    29.3.1基于类的一对多272 
    29.3.2一般的多分类到二分类约简273 
    29.3.3线性多分类预测器273 
    29.4好的与坏的ERM274 
    29.5文献评注275 
    29.6练习276 
    第30章压缩界277 
    30.1压缩界概述277 
    30.2例子278 
    30.2.1平行于轴的矩形278 
    30.2.2半空间279 
    30.2.3可分多项式279 
    30.2.4间隔可分的情况279 
    30.3文献评注280 
    第31章PAC贝叶斯281 
    31.1PAC贝叶斯界281 
    31.2文献评注282 
    31.3练习282 
    附录A技术性引理284 
    附录B测度集中度287 
    附录C线性代数294 
    参考文献297 
    索引305
查看详情
系列丛书 / 更多
深入理解机器学习:从原理到算法
Java编程思想(第4版)
[美]Bruce Eckel 著;陈昊鹏 译
深入理解机器学习:从原理到算法
数据挖掘:概念与技术(原书第3版)
[美]Jiawei、[美]Micheling、[美]Jian Pei 著;范明、孟小峰 译
深入理解机器学习:从原理到算法
算法导论(原书第3版)
[美]Thomas、[美]Charles、[美]Ronald、[美]Clifford Stein 著;殷建平、徐云、王刚 译
深入理解机器学习:从原理到算法
数据结构与算法分析:Java语言描述
[美]马克·艾伦·维斯 著;陈越 译
深入理解机器学习:从原理到算法
C程序设计语言(第二版)
[美]Brian(布莱恩·克尼汉)、[美]Dennis M.Ritchie(丹尼斯·里奇) 著;徐宝文、李志 译
深入理解机器学习:从原理到算法
C程序设计语言(第2版·新版) 习题解答
吉米拜尔 著;杨涛 译;[美]汤朵
深入理解机器学习:从原理到算法
计算机科学丛书·云计算:概念、技术与架构
[美]Thomas、[英]Zaigham、[巴西]Ricardo Puttini 著;龚奕利、贺莲、胡创 译
深入理解机器学习:从原理到算法
数据库系统概念:(原书第6版)
[美]Abraham、Henry、S.Sudarshan 著;杨冬青、李红燕、唐世渭 译
深入理解机器学习:从原理到算法
深入理解计算机系统(原书第3版)
[美]兰德尔 E.布莱恩特(Randal E.·Bryant) 著;龚奕利、贺莲 译
深入理解机器学习:从原理到算法
编译原理:原理、技术与工具
[美]阿霍 著;赵建华 译
深入理解机器学习:从原理到算法
计算机科学导论:原书第3版
[美]Behrouz Forouzan 著;刘艺 译
深入理解机器学习:从原理到算法
软件工程:实践者的研究方法(原书第8版 本科教学版)
[美]罗杰 S. 普莱斯曼 著;郑人杰、马素霞 译
您可能感兴趣 / 更多
深入理解机器学习:从原理到算法
宇宙生命起源 生物科学
[以色列]马里奥·利维奥;[美]杰克·绍斯塔克
深入理解机器学习:从原理到算法
法律的目的解释
[以色列]阿哈龙·巴拉克 著
深入理解机器学习:从原理到算法
人类简史:历史的主宰
[以色列]尤瓦尔·赫拉利、[法]达尼埃 著;[比利时]戴维·范德默伦 编;磨铁文化 出品
深入理解机器学习:从原理到算法
鲁棒优化
[以色列]阿哈龙·本-塔尔 (美)洛朗·艾尔·加豪伊 (美)阿尔卡迪·涅米洛夫斯基
深入理解机器学习:从原理到算法
罗马政治观念中的自由
[以色列]维尔苏斯基
深入理解机器学习:从原理到算法
就这样,斯拉沃热成了齐泽克:一位声名鹊起的知识分子的社会学考察 齐泽克如何变得“一举成名天下知”的,世界上第一部齐泽克学术传记,解开齐泽克成名的秘密。
[以色列]埃利兰·巴莱尔
深入理解机器学习:从原理到算法
野性问题:活出你想要的人生 找到人生的方向感,成为那个你想要的自己
[以色列]拉斯·罗伯茨(RussRoberts) 著;赵阳 译;颉腾文化 出品
深入理解机器学习:从原理到算法
零售业需求预测 (以)马克西姆·C.科恩 等 著 罗敏,张莲民,朱妍 译
[以色列]马克西姆·C.科恩
深入理解机器学习:从原理到算法
高效说服力
[以色列]雅尼夫·扎伊德 著
深入理解机器学习:从原理到算法
做勇敢的父母:在爱与坚定中,成为孩子的生命之锚
[以色列]哈伊姆·奥梅尔HaimOmer
深入理解机器学习:从原理到算法
犹太文丛·黑泽废墟
[以色列]S.伊兹哈尔
深入理解机器学习:从原理到算法
知了绘本馆—巨人的新家
[以色列]玛雅·施莱弗 著