机器学习实战
Aurélien Géron
王静源, 贾玮, 边蕤, 邱俊涛 译
出版时间:2018年08月
页数:459
随着一系列的突破,深度学习点燃了整个机器学习领域。 现在,即使是对这项技术毫无基础的程序员,也可以使用简单高效的工具来实现“可以自动从数据中学习”的程序。本书将展示如何做到这一点。
通过具体的例子、非常少的理论和两个成熟的Python框架——Scikit-learn 和 TensorFlow ,作者将帮助你很直观地理解并掌握构建智能系统所需要的概念和工具。你将学习各种技术,从简单的线性回归到深度神经网络等。每章的习题可以帮助你应用所学的知识,你只需要有一些编程经验即可。
● 探索机器学习的全景图,特别是神经网络。
● 使用Scikit-Learn构建一个端到端的机器学习项目。
● 探索多种训练模型,包括支持向量机、决策树、随机森林和集成方法。
● 使用TensorFlow库建立和训练神经网络。
● 深入神经网络架构,包括卷积网络、递归网络和深度强化学习。
● 学习可用于训练和伸缩深度神经网络的技巧。
● 应用可以工作的代码示例,无须掌握过多的机器学习理论或算法细节。
  1. 前言
  2. 第一部分 机器学习基础
  3. 第1章 机器学习概览
  4. 什么是机器学习
  5. 为什么要使用机器学习
  6. 机器学习系统的种类
  7. 监督式/无监督式学习
  8. 批量学习和在线学习
  9. 基于实例与基于模型的学习
  10. 机器学习的主要挑战
  11. 训练数据的数量不足
  12. 训练数据不具代表性
  13. 质量差的数据
  14. 无关特征
  15. 训练数据过度拟合
  16. 训练数据拟合不足
  17. 退后一步
  18. 测试与验证
  19. 练习
  20. 第2章 端到端的机器学习项目
  21. 使用真实数据
  22. 观察大局
  23. 框架问题
  24. 选择性能指标
  25. 检查假设
  26. 获取数据
  27. 创建工作区
  28. 下载数据
  29. 快速查看数据结构
  30. 创建测试集
  31. 从数据探索和可视化中获得洞见
  32. 将地理数据可视化
  33. 寻找相关性
  34. 试验不同属性的组合
  35. 机器学习算法的数据准备
  36. 数据清理
  37. 处理文本和分类属性
  38. 自定义转换器
  39. 特征缩放
  40. 转换流水线
  41. 选择和训练模型
  42. 培训和评估训练集
  43. 使用交叉验证来更好地进行评估
  44. 微调模型
  45. 网格搜索
  46. 随机搜索
  47. 集成方法
  48. 分析最佳模型及其错误
  49. 通过测试集评估系统
  50. 启动、监控和维护系统
  51. 试试看
  52. 练习
  53. 第3章 分类
  54. MNIST
  55. 训练一个二元分类器
  56. 性能考核
  57. 使用交叉验证测量精度
  58. 混淆矩阵
  59. 精度和召回率
  60. 精度/召回率权衡
  61. ROC曲线
  62. 多类别分类器
  63. 错误分析
  64. 多标签分类
  65. 多输出分类
  66. 练习
  67. 第4章 训练模型
  68. 线性回归
  69. 标准方程
  70. 计算复杂度
  71. 梯度下降
  72. 批量梯度下降
  73. 随机梯度下降
  74. 小批量梯度下降
  75. 多项式回归
  76. 学习曲线
  77. 正则线性模型
  78. 岭回归
  79. 套索回归
  80. 弹性网络
  81. 早期停止法
  82. 逻辑回归
  83. 概率估算
  84. 训练和成本函数
  85. 决策边界
  86. Softmax回归
  87. 练习
  88. 第5章 支持向量机
  89. 线性SVM分类
  90. 软间隔分类
  91. 非线性SVM分类
  92. 多项式核
  93. 添加相似特征
  94. 高斯RBF核函数
  95. 计算复杂度
  96. SVM回归
  97. 工作原理
  98. 决策函数和预测
  99. 训练目标
  100. 二次规划
  101. 对偶问题
  102. 核化SVM
  103. 在线SVM
  104. 练习
  105. 第6章 决策树
  106. 决策树训练和可视化
  107. 做出预测
  108. 估算类别概率
  109. CART训练算法
  110. 计算复杂度
  111. 基尼不纯度还是信息熵
  112. 正则化超参数
  113. 回归
  114. 不稳定性
  115. 练习
  116. 第7章 集成学习和随机森林
  117. 投票分类器
  118. bagging和pasting
  119. Scikit-Learn的bagging和pasting
  120. 包外评估
  121. Random Patches和随机子空间
  122. 随机森林
  123. 极端随机树
  124. 特征重要性
  125. 提升法
  126. AdaBoost
  127. 梯度提升
  128. 堆叠法
  129. 练习
  130. 第8章 降维
  131. 维度的诅咒
  132. 数据降维的主要方法
  133. 投影
  134. 流形学习
  135. PCA
  136. 保留差异性
  137. 主成分
  138. 低维度投影
  139. 使用Scikit-Learn
  140. 方差解释率
  141. 选择正确数量的维度
  142. PCA压缩
  143. 增量PCA
  144. 随机PCA
  145. 核主成分分析
  146. 选择核函数和调整超参数
  147. 局部线性嵌入
  148. 其他降维技巧
  149. 练习
  150. 第二部分 神经网络和深度学习
  151. 第9章 运行TensorFlow
  152. 安装
  153. 创建一个计算图并在会话中执行
  154. 管理图
  155. 节点值的生命周期
  156. TensorFlow中的线性回归
  157. 实现梯度下降
  158. 手工计算梯度
  159. 使用自动微分
  160. 使用优化器
  161. 给训练算法提供数据
  162. 保存和恢复模型
  163. 用TensorBoard来可视化图和训练曲线
  164. 命名作用域
  165. 模块化
  166. 共享变量
  167. 练习
  168. 第10章 人工神经网络简介
  169. 从生物神经元到人工神经元
  170. 生物神经元
  171. 具有神经元的逻辑计算
  172. 感知器
  173. 多层感知器和反向传播
  174. 用TensorFlow的高级API来训练MLP
  175. 使用纯TensorFlow训练DNN
  176. 构建阶段
  177. 执行阶段
  178. 使用神经网络
  179. 微调神经网络的超参数
  180. 隐藏层的个数
  181. 每个隐藏层中的神经元数
  182. 激活函数
  183. 练习
  184. 第11章 训练深度神经网络
  185. 梯度消失/爆炸问题
  186. Xavier初始化和He初始化
  187. 非饱和激活函数
  188. 批量归一化
  189. 梯度剪裁
  190. 重用预训练图层
  191. 重用TensorFlow模型
  192. 重用其他框架的模型
  193. 冻结低层
  194. 缓存冻结层
  195. 调整、丢弃或替换高层
  196. 模型动物园
  197. 无监督的预训练
  198. 辅助任务中的预训练
  199. 快速优化器
  200. Momentum优化
  201. Nesterov梯度加速
  202. AdaGrad
  203. RMSProp
  204. Adam优化
  205. 学习速率调度
  206. 通过正则化避免过度拟合
  207. 提前停止
  208. 1和2正则化
  209. dropout
  210. 最大范数正则化
  211. 数据扩充
  212. 实用指南
  213. 练习
  214. 第12章 跨设备和服务器的分布式TensorFlow
  215. 一台机器上的多个运算资源
  216. 安装
  217. 管理GPU RAM
  218. 在设备上操作
  219. 并行执行
  220. 控制依赖
  221. 多设备跨多服务器
  222. 开启一个会话
  223. master和worker服务
  224. 分配跨任务操作
  225. 跨多参数服务器分片变量
  226. 用资源容器跨会话共享状态
  227. 使用TensorFlow队列进行异步通信
  228. 直接从图中加载数据
  229. 在TensorFlow集群上并行化神经网络
  230. 一台设备一个神经网络
  231. 图内与图间复制
  232. 模型并行化
  233. 数据并行化
  234. 练习
  235. 第13章 卷积神经网络
  236. 视觉皮层的组织结构
  237. 卷积层
  238. 过滤器
  239. 多个特征图的叠加
  240. TensorFlow实现
  241. 内存需求
  242. 池化层
  243. CNN架构
  244. LeNet-5
  245. AlexNet
  246. GoogLeNet
  247. ResNet
  248. 第14章 循环神经网络
  249. 循环神经元
  250. 记忆单元
  251. 输入和输出序列
  252. TensorFlow中的基本RNN
  253. 通过时间静态展开
  254. 通过时间动态展开
  255. 处理长度可变输入序列
  256. 处理长度可变输出序列
  257. 训练RNN
  258. 训练序列分类器
  259. 训练预测时间序列
  260. 创造性的RNN
  261. 深层RNN
  262. 在多个GPU中分配一个深层RNN
  263. 应用丢弃机制
  264. 多个时间迭代训练的难点
  265. LSTM单元
  266. 窥视孔连接
  267. GRU单元
  268. 自然语言处理
  269. 单词嵌入
  270. 用于机器翻译的编码器-解码器网络
  271. 练习
  272. 第15章 自动编码器
  273. 高效的数据表示
  274. 使用不完整的线性自动编码器实现PCA
  275. 栈式自动编码器
  276. TensorFlow实现
  277. 权重绑定
  278. 一次训练一个自动编码器
  279. 重建可视化
  280. 特征可视化
  281. 使用堆叠的自动编码器进行无监控的预训练
  282. 去噪自动编码器
  283. TensorFlow实现
  284. 稀疏自动编码器
  285. TensorFlow实现
  286. 变分自动编码器
  287. 生成数字
  288. 其他自动编码器
  289. 练习
  290. 第16章 强化学习
  291. 学习奖励z1u1i优化
  292. 策略搜索
  293. OpenAI gym介绍
  294. 神经网络策略
  295. 评估行为:信用分配问题
  296. 策略梯度
  297. 马尔可夫决策过程
  298. 时间差分学习与Q学习
  299. 探索策略
  300. 逼近Q学习
  301. 使用深度学习玩吃豆人游戏
  302. 练习
  303. 致谢
  304. 附录A 练习答案
  305. 附录B 机器学习项目清单
  306. 附录C SVM对偶问题
  307. 附录D 自动微分
  308. 附录E 其他流行的ANN架构
书名:机器学习实战
作者:Aurélien Géron
译者:王静源, 贾玮, 边蕤, 邱俊涛 译
国内出版社:机械工业出版社
出版时间:2018年08月
页数:459
书号:978-7-111-60302-3
原版书书名:Hands-On Machine Learning with Scikit-Learn and TensorFlow
原版书出版商:O'Reilly Media
Aurélien Géron
 
Aurélien Géron是机器学习方面的顾问。他曾是Google软件工程师,在2013年到2016年主导了YouTube视频分类工程。2002年和2012年,他还是Wifirst公司(一家法国的无线ISP)的创始人和首席技术官,2001年是Ployconseil公司(现在管理电动汽车共享服务Autolib)的创始人和首席技术官。