深度学习基础(第二版)
Nithin Buduma, Nikhil Buduma, Joe Papa
杜春晓 译
出版时间:2024年06月
页数:374
“这本书提供了一个开始深入学习的好方法,有大量的例子和对概念的完美诠释。对于对该领域感兴趣的任何读者来说,都是一本完美的书。”
——Vishwesh Ravi Shrimali
ADAS工程师

我们身处AI研究大爆炸的中心。深度学习解锁超人感知力,不仅推动自动驾驶车辆的研发,而且在围棋等多种高难度游戏中击败人类专家对手,甚至还可以生成惊人般流畅的文章。但揭秘这些突破往往需要具有机器学习和数学博士学位。
本书作为更新后的第二版,继续介绍这些创新背后的基础知识。行文尽量少用行话,并力求简洁。熟悉Python的程序员、软件工程专业人士和计算机科学专业的学生读了本书,有望自己实现这些突破,并对其进行推理和论证,其研究深度不亚于该领域的些顶尖开发者。
● 了解机器学习术语背后的数学知识。
● 探究机器学习和神经网络的基础。
● 管理网络加深过程出现的问题。
● 搭建神经网络,分析复杂图像。
● 用自编码器高效降维。
● 深入序列分析,用其研究语言。
● 探讨复杂机器学习模型的解释方法。
● 收获生成建模的理论和实用知识。
● 理解强化学习的基础。
  1. 前言
  2. 第1章 深度学习线性代数入门
  3. 1.1 数据结构和运算
  4. 1.1.1 矩阵运算
  5. 1.1.2 向量运算
  6. 1.1.3 矩阵—向量乘法
  7. 1.2 基本空间
  8. 1.2.1 列空间
  9. 1.2.2 零空间
  10. 1.3 特征向量和特征值
  11. 1.4 小结
  12. 第2章 概率论基础
  13. 2.1 事件和概率
  14. 2.2 条件概率
  15. 2.3 随机变量
  16. 2.4 期望
  17. 2.5 方差
  18. 2.6 贝叶斯定理
  19. 2.7 熵、交叉熵和KL散度
  20. 2.8 连续概率分布
  21. 2.9 小结
  22. 第3章 神经网络
  23. 3.1 构建智能体
  24. 3.2 传统计算机程序的局限
  25. 3.3 机器学习原理
  26. 3.4 神经元
  27. 3.5 用神经元表示线性感知器
  28. 3.6 前馈神经网络
  29. 3.7 线性神经元及其限制
  30. 3.8 sigmoid、Tanh和ReLU神经元
  31. 3.9 softmax输出层
  32. 3.10 小结
  33. 第4章 训练前馈神经网络
  34. 4.1 快餐问题
  35. 4.2 梯度下降
  36. 4.3 Delta法则和学习率
  37. 4.4 sigmoid神经元的梯度下降
  38. 4.5 反向传播算法
  39. 4.6 随机和小批量梯度下降
  40. 4.7 测试集、验证集和过拟合
  41. 4.8 深度神经网络防过拟合
  42. 4.9 小结
  43. 第5章 用PyTorch实现神经网络
  44. 5.1 PyTorch简介
  45. 5.2 安装PyTorch
  46. 5.3 PyTorch张量
  47. 5.3.1 张量初始化
  48. 5.3.2 张量的属性
  49. 5.3.3 张量运算
  50. 5.4 PyTorch中的梯度
  51. 5.5 PyTorch nn模块
  52. 5.6 PyTorch数据集和数据加载器
  53. 5.7 用PyTorch构建MNIST分类器
  54. 5.8 小结
  55. 第6章 超越梯度下降
  56. 6.1 梯度下降的挑战
  57. 6.2 深度网络误差曲面的局部最小值
  58. 6.3 模型的可识别性
  59. 6.4 深度网络虚假局部最小值有多讨厌?
  60. 6.5 误差曲面的平缓区域
  61. 6.6 当梯度指错方向
  62. 6.7 基于动量的优化
  63. 6.8 二阶方法简述
  64. 6.9 学习率自适应
  65. 6.9.1 AdaGrad算法——累积历史梯度
  66. 6.9.2 RMSProp算法——梯度的指数加权移动平均
  67. 6.9.3 Adam算法——整合动量和RMSProp算法
  68. 6.10 关于优化器选择的思考
  69. 6.11 小结
  70. 第7章 卷积神经网络
  71. 7.1 人类视觉神经元
  72. 7.2 特征选择的不足
  73. 7.3 原始深度神经网络无法扩展
  74. 7.4 滤波器和特征图
  75. 7.5 卷积层的完整描述
  76. 7.6 最大汇聚
  77. 7.7 卷积网络全架构
  78. 7.8 用卷积网络完成MNIST示例
  79. 7.9 图像预处理流水线让模型更健壮
  80. 7.10 用批量归一化加速训练
  81. 7.11 组归一化适用于内存受限的学习任务
  82. 7.12 为CIFAR-10构建卷积网络
  83. 7.13 可视化卷积网络中的学习
  84. 7.14 极深网络的残差学习和跳跃连接
  85. 7.15 构造具有超人视觉的残差网络
  86. 7.16 利用卷积滤波器复制艺术风格
  87. 7.17 用卷积滤波器解决其他领域的问题
  88. 7.18 小结
  89. 第8章 嵌入和表示学习
  90. 8.1 学习低维表示
  91. 8.2 主成分分析
  92. 8.3 自编码器架构的动机
  93. 8.4 用PyTorch实现自编码器
  94. 8.5 去噪让表示更健壮
  95. 8.6 自编码器中的稀疏性问题
  96. 8.7 上下文比输入向量包含更多信息
  97. 8.8 Word2Vec框架
  98. 8.9 实现Skip-Gram架构
  99. 8.10 小结
  100. 第9章 序列分析模型
  101. 9.1 分析不定长输入
  102. 9.2 用神经N-Grams处理seq2seq问题
  103. 9.3 实现词性标注器
  104. 9.4 依存分析和SyntaxNet框架
  105. 9.5 束搜索和全局标准化
  106. 9.6 有状态深度学习模型示例
  107. 9.7 循环神经网络
  108. 9.8 梯度消失难题
  109. 9.9 长短期记忆单元
  110. 9.10 PyTorch库的RNN模型基础版
  111. 9.11 实现情感分析模型
  112. 9.12 用循环神经网络解决seq2seq任务
  113. 9.13 用注意力增强循环网络
  114. 9.14 神经翻译网络剖析
  115. 9.15 自注意力机制和transformer模型
  116. 9.16 小结
  117. 第10章 生成模型
  118. 10.1 生成对抗网络
  119. 10.2 变分自编码器
  120. 10.3 实现VAE
  121. 10.4 基于分值的生成模型
  122. 10.5 去噪自编码器和分值匹配
  123. 10.6 小结
  124. 第11章 模型解释方法
  125. 11.1 概览
  126. 11.2 决策树和基于树的算法
  127. 11.3 线性回归
  128. 11.4 评估特征重要性的方法
  129. 11.4.1 特征重要性排列
  130. 11.4.2 部分依赖图
  131. 11.5 根由萃取
  132. 11.6 LIME方法
  133. 11.7 SHAP方法
  134. 11.8 小结
  135. 第12章 记忆增强神经网络
  136. 12.1 神经图灵机
  137. 12.2 基于注意力的存储访问
  138. 12.3 NTM存储寻址机制
  139. 12.4 可微分神经计算机
  140. 12.5 DNC免冲突写入机制
  141. 12.6 DNC存储重用
  142. 12.7 DNC写入的临时连接
  143. 12.8 理解DNC读取头
  144. 12.9 DNC控制器网络
  145. 12.10 DNC可视化实践
  146. 12.11 用PyTorch实现DNC
  147. 12.12 教DNC阅读和理解
  148. 12.13 小结
  149. 第13章 深度强化学习
  150. 13.1 深度强化学习掌握Atari游戏玩法
  151. 13.2 强化学习是什么?
  152. 13.3 马尔科夫决策过程
  153. 13.3.1 策略
  154. 13.3.2 未来奖赏
  155. 13.3.3 折扣未来奖赏
  156. 13.4 探讨还是利用
  157. 13.4.1 -贪婪
  158. 13.4.2 退火-贪婪
  159. 13.5 策略和价值学习
  160. 13.6 用策略梯度解决倒立摆平衡问题
  161. 13.6.1 OpenAI Gym工具集
  162. 13.6.2 创建智能体
  163. 13.6.3 构建模型和优化器
  164. 13.6.4 采样行动
  165. 13.6.5 跟踪历史
  166. 13.6.6 策略梯度主函数
  167. 13.6.7 PGAgent解决倒立摆平衡任务的性能
  168. 13.7 信赖域策略优化
  169. 13.8 近端策略优化
  170. 13.9 Q-学习和深度Q网络
  171. 13.9.1 Bellman等式
  172. 13.9.2 价值迭代问题
  173. 13.9.3 近似Q函数
  174. 13.9.4 Deep Q-Network
  175. 13.9.5 训练DQN
  176. 13.9.6 学习稳定性
  177. 13.9.7 目标Q网络
  178. 13.9.8 经验回放
  179. 13.9.9 从Q函数到策略
  180. 13.9.10 DQN和马尔科夫假设
  181. 13.9.11 马尔科夫假设的DQN解决方案
  182. 13.9.12 用DQN玩Breakout游戏
  183. 13.9.13 构建架构
  184. 13.9.14 堆叠帧
  185. 13.9.15 搭建训练操作流水线
  186. 13.9.16 更新目标Q网络
  187. 13.9.17 实现经验回放
  188. 13.9.18 DQN主循环
  189. 13.9.19 用DQNAgent玩Breakout游戏的结果分析
  190. 13.10 改进并超越DQN
  191. 13.10.1 深度循环Q网络
  192. 13.10.2 异步优势演员—评论员智能体
  193. 13.10.3 无监督强化学习和辅助学习
  194. 13.11 小结
书名:深度学习基础(第二版)
译者:杜春晓 译
国内出版社:中国电力出版社
出版时间:2024年06月
页数:374
书号:978-7-5198-8774-2
原版书书名:Fundamentals of Deep Learning, Second Edition
原版书出版商:O'Reilly Media
Nithin Buduma
 
Nithin Buduma是Cresta公司的机器学习科学家。该公司是客服中心智能这一领域的引领者。
 
 
Nikhil Buduma
 
Nikhil Buduma是日金山Ambience Healthcare公司的合伙人和首席科学家。该公司为医疗保健服务开发自主技术。
 
 
Joe Papa
 
Joe Papa在研究和开发领域有超过25年的经验,他是TeachMe.AI的创始人。他拥有电机工程硕士学位,并在Booz Allen Hamilton和Perspecta Labs领导使用PyTorch的AI研究团队。Joe指导过成百上千的数据科学家,并在Udemy教过全世界超过6000名学生。
 
 
本书封面的动物是一种北太平洋冠带鱼(学名:Lophotus capellei),别名独角鱼。它是冠带鱼科(Lophotidae)家族的一员,生活在大西洋和太平洋的深水区。因研究者难以接触到这种鱼类,目前对其所知甚少。然而,人们曾捕获的一些长达6英尺。
购买选项
定价:128.00元
书号:978-7-5198-8774-2
出版社:中国电力出版社