深度学习详解

深度学习详解
分享
扫描下方二维码分享到微信
打开微信,点击右上角”+“,
使用”扫一扫“即可将网页分享到朋友圈。
2024-09
版次: 1
ISBN: 9787115642110
定价: 99.80
装帧: 精装
开本: 16开
页数: 356页
字数: 478千字
8人买过
  • 本书根据李宏毅老师“机器学习”公开课中与深度学习相关的内容编写而成,介绍了卷积神经网络、Transformer、生成模型、自监督学习(包括 BERT 和 GPT)等深度学习常见算法,并讲解了对抗攻击、领域自适应、强化学习、元学习、终身学习、网络压缩等深度学习相关的进阶算法. 在理论严谨的基础上,本书保留了公开课中大量生动有趣的例子,帮助读者从生活化的角度理解深度学习的概念、建模过程和核心算法细节. 王琦, 上海交通大学人工智能教育部实验室博士研究生,硕士毕业于中国科学院大学.Datawhale成员,《Easy RL:强化学习教程》作者,英特尔边缘计算创新大使,Hugging Face社区志愿者,AI TIME成员.主要研究方向为强化学习、计算机视觉、深度学习.曾获“中国光谷·华为杯”第十九届中国研究生数学建模竞赛二等奖、中国大学生计算机设计大赛二等奖、亚太地区大学生数学建模竞赛(APMCM)二等奖和“挑战杯”全国大学生课外学术科技作品竞赛江苏省选拔赛二等奖等荣誉,发表SCI/EI论文多篇. 杨毅远, 牛津大学计算机系博士研究生,硕士毕业于清华大学.Datawhale成员,《Easy RL:强化学习教程》作者.主要研究方向为时间序列、数据挖掘、智能传感系统,深度学习.曾获国家奖学金、北京市优秀毕业生、清华大学优秀硕士学位论文、全国大学生智能汽车竞赛总冠军等荣誉,发表SCI/EI论文多篇. 江季, 网易高级算法工程师,硕士毕业于北京大学.Datawhale成员,《Easy RL:强化学习教程》作者.主要研究方向为强化学习、深度学习、大模型、机器人等.曾获得国家奖学金、上海市优秀毕业生等荣誉,取得强化学习与游戏AI等相关专利多项. 第 1 章 机器学习基础   1
    1.1 案例学习   2
    1.2 线性模型   7
    1.2.1 分段线性曲线   9
    1.2.2 模型变形   17
    1.2.3 机器学习框架   21
    第 2 章 实践方法论   22
    2.1 模型偏差   22
    2.2 优化问题   23
    2.3 过拟合   25
    2.4 交叉验证   29
    2.5 不匹配   30
    参考资料   31
    第 3 章 深度学习基础   32
    3.1 局部最小值与鞍点   32
    3.1.1 临界点及其种类   32
    3.1.2 判断临界值种类的方法   33
    3.1.3 逃离鞍点的方法   37
    3.2 批量和动量   39
    3.2.1 批量大小对梯度下降法的影响..40
    3.2.2 动量法   45
    3.3 自适应学习率   47
    3.3.1 AdaGrad   50
    3.3.2 RMSProp   53
    3.3.3 Adam   54
    3.4 学习率调度   54
    3.5 优化总结   56
    3.6 分类   57
    3.6.1 分类与回归的关系   57
    3.6.2 带有 softmax 函数的分类   58
    3.6.3 分类损失   59
    3.7 批量归一化   61
    3.7.1 放入深度神经网络   64
    3.7.2 测试时的批量归一化   67
    3.7.3 内部协变量偏移   68
    参考资料   69
    第 4 章 卷积神经网络   71
    4.1 观察 1:检测模式不需要整幅图像 .. 73
    4.2 简化 1:感受野   74
    4.3 观察 2:同样的模式可能出现在图像的不同区域 .. 78
    4.4 简化 2:共享参数   79
    4.5 简化 1 和简化 2 的总结 .. 81
    4.6 观察 3:下采样不影响模式检测 .. 86
    4.7 简化 3:汇聚   86
    4.8 卷积神经网络的应用:下围棋 .. 88
    参考资料   91
    第 5 章 循环神经网络   92
    5.1 独热编码   93
    5.2 什么是 RNN   94
    5.3 RNN 架构   96
    5.4 其他 RNN   97
    5.4.1 Elman 网络和 Jordan 网络   98
    5.4.2 双向循环神经网络   98
    5.4.3 LSTM   99
    5.4.4 LSTM 举例   101
    5.4.5 LSTM 运算示例   102
    5.5 LSTM 网络原理   105
    5.6 RNN 的学习方式   109
    5.7 如何解决 RNN 的梯度消失或梯度爆炸问题..113
    5.8 RNN 的其他应用   114
    5.8.1 多对一序列   114
    5.8.2 多对多序列   115
    5.8.3 序列到序列   117
    参考资料   119
    第 6 章 自注意力机制   120
    6.1 输入是向量序列的情况.. 120
    6.1.1 类型 1:输入与输出数量相同   122
    6.1.2 类型 2:输入是一个序列,输出是一个标签   123
    6.1.3 类型 3:序列到序列任务   124
    6.2 自注意力机制的运作原理..124
    6.3 多头自注意力   134
    6.4 位置编码   136
    6.5 截断自注意力   138
    6.6 对比自注意力与卷积神经网络   139
    6.7 对比自注意力与循环神经网络   141
    参考资料   143
    第 7 章 Transformer   145
    7.1 序列到序列模型   145
    7.1.1 语音识别、机器翻译与语音翻译   145
    7.1.2 语音合成   146
    7.1.3 聊天机器人   147
    7.1.4 问答任务   147
    7.1.5 句法分析   148
    7.1.6 多标签分类   149
    7.2 Transformer 结构   149
    7.3 Transformer 编码器   151
    7.4 Transformer 解码器   154
    7.4.1 自回归解码器   154
    7.4.2 非自回归解码器   161
    7.5 编码器–解码器注意力   162
    7.6 Transformer 的训练过程 .. 164
    7.7 序列到序列模型训练常用技巧   166
    7.7.1 复制机制   166
    7.7.2 引导注意力   166
    7.7.3 束搜索   167
    7.7.4 加入噪声   168
    7.7.5 使用强化学习训练   168
    7.7.6 计划采样   169
    参考资料   170
    第 8 章 生成模型   171
    8.1 生成对抗网络   171
    8.1.1 生成器   171
    8.1.2 判别器   175
    8.2 生成器与判别器的训练过程   176
    8.3 GAN 的应用案例   178
    8.4 GAN 的理论介绍   180
    8.5 WGAN 算法   183
    8.6 GAN 训练的难点与技巧 .. 188
    8.7 GAN 的性能评估方法   190
    8.8 条件型生成   194
    8.9 CycleGAN   196
    参考资料   199
    第 9 章 扩散模型   201
    9.1 扩散模型生成图片的过程..201
    9.2 去噪模块   202
    9.3 训练噪声预测器   203
    第 10 章 自监督学习   206
    10.1 BERT   207
    10.1.1 BERT 的使用方式   211
    10.1.2 BERT 有用的原因   221
    10.1.3 BERT 的变体   227
    10.2 GPT   230
    参考资料   234
    第 11 章 自编码器   235
    11.1 自编码器的概念   235
    11.2 为什么需要自编码器   237
    11.3 去噪自编码器   238
    11.4 自编码器应用之特征解耦   239
    11.5 自编码器应用之离散隐表征  242
    11.6 自编码器的其他应用   245
    第 12 章 对抗攻击   246
    12.1 对抗攻击简介   246
    12.2 如何进行网络攻击   248
    12.3 快速梯度符号法   251
    12.4 白箱攻击与黑箱攻击   252
    12.5 其他模态数据被攻击案例  256
    12.6 现实世界中的攻击   256
    12.7 防御方式中的被动防御   260
    12.8 防御方式中的主动防御   262
    第 13 章 迁移学习   264
    13.1 领域偏移   264
    13.2 领域自适应   265
    13.3 领域泛化   271
    参考资料   272
    第 14 章 强化学习   273
    14.1 强化学习的应用   274
    14.1.1 玩电子游戏   274
    14.1.2 下围棋   276
    14.2 强化学习框架   276
    14.2.1 第 1 步:定义函数   277
    14.2.2 第 2 步:定义损失   278
    14.2.3 第 3 步:优化   278
    14.3 评价动作的标准   282
    14.3.1 使用即时奖励作为评价标准   283
    14.3.2 使用累积奖励作为评价标准   283
    14.3.3 使用折扣累积奖励作为评价标准..284
    14.3.4 使用折扣累积奖励减去基线作为评价标准.. 285
    14.3.5 Actor-Critic   288
    14.3.6 优势 Actor-Critic    293
    参考资料   294
    第 15 章 元学习   295
    15.1 元学习的概念   295
    15.2 元学习的三个步骤   296
    15.3 元学习与机器学习   299
    15.4 元学习的实例算法   301
    15.5 元学习的应用   305
    参考资料   306
    第 16 章 终身学习   307
    16.1 灾难性遗忘   307
    16.2 终身学习的评估方法   311
    16.3 终身学习问题的主要解法 312
    第 17 章 网络压缩   316
    17.1 网络剪枝   316
    17.2 知识蒸馏   321
    17.3 参数量化   324
    17.4 网络架构设计   325
    17.5 动态计算   329
    参考资料   332
    第 18 章 可解释性机器学习   333
    18.1 可解释性人工智能的重要性  333
    18.2 决策树模型的可解释性   334
    18.3 可解释性机器学习的目标  335
    18.4 可解释性机器学习中的局部解释   335
    18.5 可解释性机器学习中的全局解释   342
    18.6 扩展与小结   345
    参考资料   345
    第 19 章 ChatGPT   346
    19.1 ChatGPT 简介和功能   346
    19.2 对 ChatGPT 的误解   346
    19.3 ChatGPT 背后的关键技术——预训练..349
    19.4 ChatGPT 带来的研究问题   352
    索引   354
  • 内容简介:
    本书根据李宏毅老师“机器学习”公开课中与深度学习相关的内容编写而成,介绍了卷积神经网络、Transformer、生成模型、自监督学习(包括 BERT 和 GPT)等深度学习常见算法,并讲解了对抗攻击、领域自适应、强化学习、元学习、终身学习、网络压缩等深度学习相关的进阶算法. 在理论严谨的基础上,本书保留了公开课中大量生动有趣的例子,帮助读者从生活化的角度理解深度学习的概念、建模过程和核心算法细节.
  • 作者简介:
    王琦, 上海交通大学人工智能教育部实验室博士研究生,硕士毕业于中国科学院大学.Datawhale成员,《Easy RL:强化学习教程》作者,英特尔边缘计算创新大使,Hugging Face社区志愿者,AI TIME成员.主要研究方向为强化学习、计算机视觉、深度学习.曾获“中国光谷·华为杯”第十九届中国研究生数学建模竞赛二等奖、中国大学生计算机设计大赛二等奖、亚太地区大学生数学建模竞赛(APMCM)二等奖和“挑战杯”全国大学生课外学术科技作品竞赛江苏省选拔赛二等奖等荣誉,发表SCI/EI论文多篇. 杨毅远, 牛津大学计算机系博士研究生,硕士毕业于清华大学.Datawhale成员,《Easy RL:强化学习教程》作者.主要研究方向为时间序列、数据挖掘、智能传感系统,深度学习.曾获国家奖学金、北京市优秀毕业生、清华大学优秀硕士学位论文、全国大学生智能汽车竞赛总冠军等荣誉,发表SCI/EI论文多篇. 江季, 网易高级算法工程师,硕士毕业于北京大学.Datawhale成员,《Easy RL:强化学习教程》作者.主要研究方向为强化学习、深度学习、大模型、机器人等.曾获得国家奖学金、上海市优秀毕业生等荣誉,取得强化学习与游戏AI等相关专利多项.
  • 目录:
    第 1 章 机器学习基础   1
    1.1 案例学习   2
    1.2 线性模型   7
    1.2.1 分段线性曲线   9
    1.2.2 模型变形   17
    1.2.3 机器学习框架   21
    第 2 章 实践方法论   22
    2.1 模型偏差   22
    2.2 优化问题   23
    2.3 过拟合   25
    2.4 交叉验证   29
    2.5 不匹配   30
    参考资料   31
    第 3 章 深度学习基础   32
    3.1 局部最小值与鞍点   32
    3.1.1 临界点及其种类   32
    3.1.2 判断临界值种类的方法   33
    3.1.3 逃离鞍点的方法   37
    3.2 批量和动量   39
    3.2.1 批量大小对梯度下降法的影响..40
    3.2.2 动量法   45
    3.3 自适应学习率   47
    3.3.1 AdaGrad   50
    3.3.2 RMSProp   53
    3.3.3 Adam   54
    3.4 学习率调度   54
    3.5 优化总结   56
    3.6 分类   57
    3.6.1 分类与回归的关系   57
    3.6.2 带有 softmax 函数的分类   58
    3.6.3 分类损失   59
    3.7 批量归一化   61
    3.7.1 放入深度神经网络   64
    3.7.2 测试时的批量归一化   67
    3.7.3 内部协变量偏移   68
    参考资料   69
    第 4 章 卷积神经网络   71
    4.1 观察 1:检测模式不需要整幅图像 .. 73
    4.2 简化 1:感受野   74
    4.3 观察 2:同样的模式可能出现在图像的不同区域 .. 78
    4.4 简化 2:共享参数   79
    4.5 简化 1 和简化 2 的总结 .. 81
    4.6 观察 3:下采样不影响模式检测 .. 86
    4.7 简化 3:汇聚   86
    4.8 卷积神经网络的应用:下围棋 .. 88
    参考资料   91
    第 5 章 循环神经网络   92
    5.1 独热编码   93
    5.2 什么是 RNN   94
    5.3 RNN 架构   96
    5.4 其他 RNN   97
    5.4.1 Elman 网络和 Jordan 网络   98
    5.4.2 双向循环神经网络   98
    5.4.3 LSTM   99
    5.4.4 LSTM 举例   101
    5.4.5 LSTM 运算示例   102
    5.5 LSTM 网络原理   105
    5.6 RNN 的学习方式   109
    5.7 如何解决 RNN 的梯度消失或梯度爆炸问题..113
    5.8 RNN 的其他应用   114
    5.8.1 多对一序列   114
    5.8.2 多对多序列   115
    5.8.3 序列到序列   117
    参考资料   119
    第 6 章 自注意力机制   120
    6.1 输入是向量序列的情况.. 120
    6.1.1 类型 1:输入与输出数量相同   122
    6.1.2 类型 2:输入是一个序列,输出是一个标签   123
    6.1.3 类型 3:序列到序列任务   124
    6.2 自注意力机制的运作原理..124
    6.3 多头自注意力   134
    6.4 位置编码   136
    6.5 截断自注意力   138
    6.6 对比自注意力与卷积神经网络   139
    6.7 对比自注意力与循环神经网络   141
    参考资料   143
    第 7 章 Transformer   145
    7.1 序列到序列模型   145
    7.1.1 语音识别、机器翻译与语音翻译   145
    7.1.2 语音合成   146
    7.1.3 聊天机器人   147
    7.1.4 问答任务   147
    7.1.5 句法分析   148
    7.1.6 多标签分类   149
    7.2 Transformer 结构   149
    7.3 Transformer 编码器   151
    7.4 Transformer 解码器   154
    7.4.1 自回归解码器   154
    7.4.2 非自回归解码器   161
    7.5 编码器–解码器注意力   162
    7.6 Transformer 的训练过程 .. 164
    7.7 序列到序列模型训练常用技巧   166
    7.7.1 复制机制   166
    7.7.2 引导注意力   166
    7.7.3 束搜索   167
    7.7.4 加入噪声   168
    7.7.5 使用强化学习训练   168
    7.7.6 计划采样   169
    参考资料   170
    第 8 章 生成模型   171
    8.1 生成对抗网络   171
    8.1.1 生成器   171
    8.1.2 判别器   175
    8.2 生成器与判别器的训练过程   176
    8.3 GAN 的应用案例   178
    8.4 GAN 的理论介绍   180
    8.5 WGAN 算法   183
    8.6 GAN 训练的难点与技巧 .. 188
    8.7 GAN 的性能评估方法   190
    8.8 条件型生成   194
    8.9 CycleGAN   196
    参考资料   199
    第 9 章 扩散模型   201
    9.1 扩散模型生成图片的过程..201
    9.2 去噪模块   202
    9.3 训练噪声预测器   203
    第 10 章 自监督学习   206
    10.1 BERT   207
    10.1.1 BERT 的使用方式   211
    10.1.2 BERT 有用的原因   221
    10.1.3 BERT 的变体   227
    10.2 GPT   230
    参考资料   234
    第 11 章 自编码器   235
    11.1 自编码器的概念   235
    11.2 为什么需要自编码器   237
    11.3 去噪自编码器   238
    11.4 自编码器应用之特征解耦   239
    11.5 自编码器应用之离散隐表征  242
    11.6 自编码器的其他应用   245
    第 12 章 对抗攻击   246
    12.1 对抗攻击简介   246
    12.2 如何进行网络攻击   248
    12.3 快速梯度符号法   251
    12.4 白箱攻击与黑箱攻击   252
    12.5 其他模态数据被攻击案例  256
    12.6 现实世界中的攻击   256
    12.7 防御方式中的被动防御   260
    12.8 防御方式中的主动防御   262
    第 13 章 迁移学习   264
    13.1 领域偏移   264
    13.2 领域自适应   265
    13.3 领域泛化   271
    参考资料   272
    第 14 章 强化学习   273
    14.1 强化学习的应用   274
    14.1.1 玩电子游戏   274
    14.1.2 下围棋   276
    14.2 强化学习框架   276
    14.2.1 第 1 步:定义函数   277
    14.2.2 第 2 步:定义损失   278
    14.2.3 第 3 步:优化   278
    14.3 评价动作的标准   282
    14.3.1 使用即时奖励作为评价标准   283
    14.3.2 使用累积奖励作为评价标准   283
    14.3.3 使用折扣累积奖励作为评价标准..284
    14.3.4 使用折扣累积奖励减去基线作为评价标准.. 285
    14.3.5 Actor-Critic   288
    14.3.6 优势 Actor-Critic    293
    参考资料   294
    第 15 章 元学习   295
    15.1 元学习的概念   295
    15.2 元学习的三个步骤   296
    15.3 元学习与机器学习   299
    15.4 元学习的实例算法   301
    15.5 元学习的应用   305
    参考资料   306
    第 16 章 终身学习   307
    16.1 灾难性遗忘   307
    16.2 终身学习的评估方法   311
    16.3 终身学习问题的主要解法 312
    第 17 章 网络压缩   316
    17.1 网络剪枝   316
    17.2 知识蒸馏   321
    17.3 参数量化   324
    17.4 网络架构设计   325
    17.5 动态计算   329
    参考资料   332
    第 18 章 可解释性机器学习   333
    18.1 可解释性人工智能的重要性  333
    18.2 决策树模型的可解释性   334
    18.3 可解释性机器学习的目标  335
    18.4 可解释性机器学习中的局部解释   335
    18.5 可解释性机器学习中的全局解释   342
    18.6 扩展与小结   345
    参考资料   345
    第 19 章 ChatGPT   346
    19.1 ChatGPT 简介和功能   346
    19.2 对 ChatGPT 的误解   346
    19.3 ChatGPT 背后的关键技术——预训练..349
    19.4 ChatGPT 带来的研究问题   352
    索引   354
查看详情
12