码农的零门槛AI课:基于fastai与PyTorch的深度学习
Jeremy Howard, Sylvain Gugger
陈志凯, 熊英鹰 译
出版时间:2023年06月
页数:572
“程序员要想精通深度学习,这本书是极好的学习范本之一。”
——Peter Norvig
谷歌公司研究总监
“这本书简单实用,并且用动手实践的方式为大家揭开了深度学习的神秘面纱。”
——Curtis Langlotz
斯坦福大学医学和影像信息学人工智能中心(AIMI 中心)主任

人们通常认为只有数学博士和大型科技公司才能涉足深度学习这个专属领域。但在本书中,大家可以看到在几乎没有任何数学背景、只有少量数据和代码的情况下,程序员只要熟悉Python,就可以在深度学习中取得令人惊叹的结果。那么是怎么实现的呢?通过fastai库即可,这是第一个深度学习应用程序中常用的且提供持续稳定接口的库。
在这本书中,fast.ai的创建者杰里米·霍华德(Jeremy Howard)和西尔文· 古格(Sylvain Gugger)向大家展示了使用fastai和PyTorch在大量任务上训练模型的方式。并且,大家还将逐步深入了解深度学习的理论,以便全面理解算法背后的原理。
● 训练计算机视觉、自然语言处理、表格数据和协同过滤模型
● 学习在实践中重要且前沿的深度学习技术
● 通过了解深度学习模型的工作原理,来提高模型训练的准确率、速度和可靠性
● 了解如何将自己的模型转换为Web应用程序
● 从头开始实现深度学习算法
● 思考模型训练背后的伦理
● 从PyTorch联合创始人Soumith Chintala的序中获得领悟
  1. 前言
  2. 第Ⅰ部分 上手实践深度学习
  3. 第1章 你的深度学习之旅
  4. 人人都可以学会深度学习
  5. 神经网络简史
  6. 作者介绍
  7. 如何学习深度学习
  8. 你的项目和思维模式
  9. 构建模型相关的库和运行环境:PyTorch、fastai和Jupyter(它们都不重要)
  10. 你的第一个模型
  11. 找一台拥有合适GPU的计算机用于深度学习
  12. 运行你的第一个notebook
  13. 什么是机器学习
  14. 什么是神经网络
  15. 一些深度学习的术语
  16. 机器学习的局限性
  17. 图像识别器工作的方式
  18. 图像识别器在学习什么
  19. 图像识别器可处理非图像任务
  20. 术语回顾
  21. 深度学习不仅仅用于图像分类
  22. 验证集和测试集
  23. 根据判断定义测试集
  24. 选择你想要冒险探索的方向
  25. 问题
  26. 深入研究
  27. 第2章 从模型到输出
  28. 深度学习的实践
  29. 开始你的项目
  30. 深度学习的研究进展
  31. 传动系统方法
  32. 收集数据
  33. 从数据到数据加载器
  34. 数据增强
  35. 训练模型,并使用模型进行数据清洗
  36. 将模型转换为在线应用程序
  37. 使用模型进行推理
  38. 从模型创建notebook应用
  39. 让notebook成为一个真正的应用程序
  40. 部署你的应用程序
  41. 如何避免灾难
  42. 不可预见的后果和反馈回路
  43. 写下来
  44. 问题
  45. 深入研究
  46. 第3章 数据伦理
  47. 数据伦理的主要案例
  48. 各种Bug和追索权:漏洞百出的医疗保健福利算法
  49. 反馈回路:YouTube的推荐系统
  50. 偏见:拉塔尼亚·斯威尼“已被捕”
  51. 为什么伦理如此重要
  52. 在产品设计中结合机器学习
  53. 数据伦理专题
  54. 追索权和问责制
  55. 反馈回路
  56. 偏见
  57. 谣言
  58. 识别和解决伦理问题
  59. 分析你正在做的项目
  60. 落地流程
  61. 多元的力量
  62. 公平、问责和透明
  63. 政策的作用
  64. 监管的有效性
  65. 权利与政策
  66. 汽车:前车之鉴
  67. 结论
  68. 问题
  69. 深入研究
  70. 上手实践深度学习:圆满完成
  71. 第Ⅱ部分 理解fastai的应用
  72. 第4章 深入探索谜底:训练数字分类器
  73. 像素:计算机视觉的基础
  74. 第一次尝试:像素相似度
  75. Numpy数组和PyTorch张量
  76. 使用广播机制计算指标
  77. 随机梯度下降法
  78. 梯度计算
  79. 通过学习率迭代
  80. 一个直观的随机梯度下降案例
  81. 梯度下降的总结
  82. MNIST损失函数
  83. sigmoid
  84. 随机梯度下降及小批次
  85. 将它们集成在一起
  86. 创建一个优化器
  87. 增加一个非线性特征
  88. 更深入一些
  89. 术语回顾
  90. 问题
  91. 深入研究
  92. 第5章  图像分类
  93. 从猫狗识别到宠物分类
  94. 图像尺寸的预处理
  95. 检查和调试数据块
  96. 交叉熵损失
  97. 查看激活值和标签
  98. softmax
  99. 对数似然
  100. 使用对数函数
  101. 模型解释
  102. 改进我们的模型
  103. 学习率查找器
  104. 解冻与迁移学习
  105. 区别学习率
  106. 选择训练的周期数
  107. 更深的网络架构
  108. 结论
  109. 问题
  110. 深入研究
  111. 第6章 其他计算机视觉问题
  112. 多标签分类
  113. 数据
  114. 构建数据块
  115. 二元交叉熵
  116. 回归
  117. 配置数据
  118. 训练模型
  119. 结论
  120. 问题
  121. 深入研究
  122. 第7章 训练最高水准的模型
  123. Imagenette
  124. 标准化
  125. 渐进式调整尺寸
  126. 测试期的数据增强
  127. Mixup
  128. 标签平滑
  129. 结论
  130. 问题
  131. 深入研究
  132. 第8章 深入协同过滤
  133. 了解数据
  134. 学习潜在特征
  135. 创建DataLoaders
  136. 从头开始进行协同过滤
  137. 权重衰减
  138. 创建我们自己的嵌入模块
  139. 嵌入和偏差的解释
  140. 使用fastai.collab
  141. 嵌入距离
  142. 启动协同过滤模型的自助取样
  143. 用于协同过滤的深度学习
  144. 结论
  145. 问题
  146. 深入研究
  147. 第9章 深入学习表格建模
  148. 分类嵌入
  149. 超越深度学习
  150. 数据集
  151. Kaggle竞赛
  152. 查看数据
  153. 决策树
  154. 处理日期
  155. 使用TabularPandas和TabularProc
  156. 创建决策树
  157. 分类变量
  158. 随机森林
  159. 创建一个随机森林
  160. out-of-bag error
  161. 模型解释
  162. 树预测置信度的方差
  163. 特征重要性
  164. 删除低重要性特征
  165. 删除冗余特征
  166. 部分依赖
  167. 数据泄露
  168. 树解释器
  169. 外推与神经网络
  170. 外推问题
  171. 查找域外数据
  172. 使用神经网络
  173. 集成
  174. boosting
  175. 将嵌入与其他方法相结合
  176. 结论
  177. 问题
  178. 深入研究
  179. 第10章 NLP深度探究:RNN
  180. 文本预处理
  181. 分词
  182. 用fastai进行分词
  183. 根据子词分词
  184. 使用fastai进行数值化
  185. 将文本分批作为语言模型的输入
  186. 训练文本分类器
  187. 使用数据块来训练语言模型
  188. 微调语言模型
  189. 保存和加载模型
  190. 文本生成
  191. 创建分类器的数据加载器
  192. 微调分类模型
  193. 虚假信息和语言模型
  194. 结论
  195. 问题
  196. 深入研究
  197. 第11章 使用fastai的中间层API来处理数据
  198. 深入研究fastai的分层API
  199. 转换
  200. 编写自定义转换
  201. 管道
  202. TfmdLists和Dataset:转换后的集合
  203. TfmdLists
  204. Datasets
  205. 应用中间层数据API:孪生体(Siamese Pair)
  206. 结论
  207. 问题
  208. 深入研究
  209. 理解fastai的应用:总结
  210. 第Ⅲ部分 深度学习基础
  211. 第12章 从零开始制作语言模型.
  212. 数据
  213. 从零开始构建你的第一个语言模型
  214. PyTorch语言模型
  215. 我们的第一个循环神经网络
  216. 改进RNN
  217. 维持RNN的状态
  218. 创建更多的标志
  219. 多层循环神经网络
  220. 模型
  221. 激活值消失/爆炸
  222. LSTM
  223. 从零开始构建LSTM
  224. 使用LSTM训练一个语言模型
  225. 对LSTM进行正则化
  226. dropout
  227. 激活单元正则化和时序激活单元正则化
  228. 训练一个权重绑定正则化LSTM
  229. 结论
  230. 问题
  231. 深入研究
  232. 第13章 卷积神经网络
  233. 卷积的魔力
  234. 应用一个卷积核
  235. PyTorch中的卷积
  236. 步长和填充
  237. 理解卷积方程
  238. 我们的第一个卷积神经网络
  239. 创建CNN
  240. 理解卷积运算
  241. 感受野
  242. 关于Twitter的提示
  243. 彩色图像
  244. 改善训练稳定性
  245. 简单基准
  246. 增加批次大小
  247. 1周期训练
  248. 批次归一化
  249. 结论
  250. 问题
  251. 深入研究
  252. 第14章 ResNet
  253. 回到Imagenette
  254. 建立现代CNN:ResNet
  255. 跳连
  256. 最先进的ResNet
  257. 瓶颈层
  258. 结论
  259. 问题
  260. 深入研究
  261. 第15章 深入研究应用架构
  262. 计算机视觉
  263. cnn_learner
  264. unet_learner
  265. Siamese网络
  266. 自然语言处理
  267. 表格
  268. 结论
  269. 问题
  270. 深入研究
  271. 第16章 训练过程
  272. 建立基线
  273. 通用优化器
  274. 动量
  275. RMSProp
  276. Adam
  277. 解耦权重衰减
  278. 回调
  279. 创建一个回调函数
  280. 回调排序和异常
  281. 结论
  282. 问题
  283. 深入研究
  284. 深度学习基础:总结
  285. 第Ⅳ部分 从零开始学习深度学习
  286. 第17章 神经网络基础
  287. 从零开始构建神经网络层
  288. 建立神经元模型
  289. 从零开始进行矩阵乘法
  290. 逐元素运算
  291. 广播
  292. 爱因斯坦求和
  293. 前向和反向传播
  294. 定义神经网络层并对其初始化
  295. 梯度和反向传播
  296. 重构模型
  297. 迈向PyTorch
  298. 结论
  299. 问题
  300. 深入研究
  301. 第18章 用CAM做CNN的解释
  302. CAM和hook
  303. 梯度CAM
  304. 结论
  305. 问题
  306. 深入研究
  307. 第19章 从零开始构建fastai Learner
  308. 数据
  309. 数据集
  310. Module和Parameter
  311. 简单的CNN
  312. 损失
  313. Learner
  314. 回调
  315. 调整学习率安排表
  316. 结论
  317. 问题
  318. 深入研究
  319. 第20章 总结
  320. 附录A 创建一个博客
  321. 附录B 数据科学项目的检查表
书名:码农的零门槛AI课:基于fastai与PyTorch的深度学习
译者:陈志凯, 熊英鹰 译
国内出版社:电子工业出版社
出版时间:2023年06月
页数:572
书号:978-7-121-45572-8
原版书书名:Deep Learning for Coders with fastai and PyTorch
原版书出版商:O'Reilly Media
Jeremy Howard
 
Jeremy Howard是fast.ai的创始研究员,fast.ai研究所致力于让大家更容易上手深度学习。同时,他也是旧金山大学杰出的研究科学家和世界经济论坛全球AI理事会成员。
 
 
Sylvain Gugger
 
Sylvain Gugger是Hugging Face的研究工程师。此前,他曾是fast.ai的研究科学家,主要研究如何通过设计和改进技术让模型在资源有限的情况下训练得更快,以使更多的人使用深度学习。
 
 
购买选项
定价:179.00元
书号:978-7-121-45572-8
出版社:电子工业出版社