深度学习进阶:自然语言处理
斋藤康毅
陆宇杰 译
出版时间:2020年10月
页数:400
畅销书《深度学习入门:基于Python的理论与实现》续作带你快速直达自然语言处理领域!
本书有什么特点?
● 简明易懂
本书内容精炼,聚焦深度学习视角下的自然语言处理,延续前作的行文风格,采用通俗的语言和大量直观的示意图详细讲解,帮助读者加深对深度学习技术的理解,轻松入门自然语言处理。
● 侧重原理
不依赖外部库,使用Python 3从零开始创建深度学习程序,通过亲自创建程序并运行,读者可透彻掌握word2vec、RNN、LSTM、GRU、seq2seq和Attention等技术背后的运行原理。
● 学习曲线平缓
按照“文字介绍→代码实现→分析结果→发现问题→进行改善”的流程,逐步深入,读者只需具备基础的神经网络和Python知识,即可轻松读懂。
  1. 译者序
  2. 前言 
  3. 第1章 神经网络的复习 
  4. 1.1 数学和Python的复习 
  5. 1.1.1 向量和矩阵 
  6. 1.1.2 矩阵的对应元素的运算 
  7. 1.1.3 广播 
  8. 1.1.4 向量内积和矩阵乘积 
  9. 1.1.5 矩阵的形状检查 
  10. 1.2 神经网络的推理 
  11. 1.2.1 神经网络的推理的全貌图 
  12. 1.2.2 层的类化及正向传播的实现
  13. 1.3 神经网络的学习 
  14. 1.3.1 损失函数
  15. 1.3.2 导数和梯度 
  16. 1.3.3 链式法则 
  17. 1.3.4 计算图 
  18. 1.3.5 梯度的推导和反向传播的实现 
  19. 1.3.6 权重的更新 
  20. 1.4 使用神经网络解决问题 
  21. 1.4.1 螺旋状数据集 
  22. 1.4.2 神经网络的实现 
  23. 1.4.3 学习用的代码 
  24. 1.4.4 Trainer类 
  25. 1.5 计算的高速化 
  26. 1.5.1 位精度 
  27. 1.5.2 GPU(CuPy) 
  28. 1.6 小结 
  29. 第2章 自然语言和单词的分布式表示 
  30. 2.1 什么是自然语言处理 
  31. 2.2 同义词词典 
  32. 2.2.1 WordNet 
  33. 2.2.2 同义词词典的问题 
  34. 2.3 基于计数的方法 
  35. 2.3.1 基于Python的语料库的预处理 
  36. 2.3.2 单词的分布式表示 
  37. 2.3.3 分布式假设 
  38. 2.3.4 共现矩阵 
  39. 2.3.5 向量间的相似度 
  40. 2.3.6 相似单词的排序 
  41. 2.4 基于计数的方法的改进 
  42. 2.4.1 点互信息 
  43. 2.4.2 降维 
  44. 2.4.3 基于SVD的降维 
  45. 2.4.4 PTB数据集 
  46. 2.4.5 基于PTB数据集的评价 
  47. 2.5 小结 
  48. 第3章 word2vec 
  49. 3.1 基于推理的方法和神经网络 
  50. 3.1.1 基于计数的方法的问题 
  51. 3.1.2 基于推理的方法的概要 
  52. 3.1.3 神经网络中单词的处理方法 
  53. 3.2 简单的word2vec 
  54. 3.2.1 CBOW模型的推理 
  55. 3.2.2 CBOW模型的学习 
  56. 3.2.3 word2vec的权重和分布式表示 
  57. 3.3 学习数据的准备 
  58. 3.2.1 上下文和目标词 
  59. 3.3.2 转化为one-hot表示 
  60. 3.4 CBOW模型的实现 
  61. 3.5 word2vec的补充说明 
  62. 3.5.1 CBOW模型和概率 
  63. 3.5.2 skip-gram模型 
  64. 3.5.3 基于计数与基于推理 
  65. 3.6 小结 
  66. 第4章 word2vec的高速化 
  67. 4.1 word2vec的改进① 
  68. 4.1.1 Embedding层 
  69. 4.1.2 Embedding层的实现 
  70. 4.2 word2vec的改进② 
  71. 4.2.1 中间层之后的计算问题 
  72. 4.2.2 从多分类到二分类 
  73. 4.2.3 Sigmoid函数和交叉熵误差 
  74. 4.2.4 多分类到二分类的实现 
  75. 4.2.5 负采样 
  76. 4.2.6 负采样的采样方法 
  77. 4.2.7 负采样的实现 
  78. 4.3 改进版word2vec的学习 
  79. 4.3.1 CBOW模型的实现 
  80. 4.3.2 CBOW模型的学习代码 
  81. 4.3.3 CBOW模型的评价 
  82. 4.4 wor2vec相关的其他话题 
  83. 4.4.1 word2vec的应用例 
  84. 4.4.2 单词向量的评价方法 
  85. 4.5 小结 
  86. 第5章 RNN 
  87. 5.1 概率和语言模型 
  88. 5.1.1 概率视角下的word2vec 
  89. 5.1.2 语言模型 
  90. 5.1.3 将CBOW模型用作语言模型? 
  91. 5.2 RNN 
  92. 5.2.1 循环的神经网络 
  93. 5.2.2 展开循环 
  94. 5.2.3 Backpropagation Through Time 
  95. 5.2.4 Truncated BPTT 
  96. 5.2.5 Truncated BPTT的mini-batch学习 
  97. 5.3 RNN的实现 
  98. 5.3.1 RNN层的实现 
  99. 5.3.2 Time RNN层的实现 
  100. 5.4 处理时序数据的层的实现 
  101. 5.4.1 RNNLM的全貌图 
  102. 5.4.2 Time层的实现 
  103. 5.5 RNNLM的学习和评价 
  104. 5.5.1 RNNLM的实现 
  105. 5.5.2 语言模型的评价 
  106. 5.5.3 RNNLM的学习代码 
  107. 5.5.4 RNNLM的Trainer类 
  108. 5.6 小结 
  109. 第6章 Gated RNN 
  110. 6.1 RNN的问题 
  111. 6.1.1 RNN的复习 
  112. 6.1.2 梯度消失和梯度爆炸 
  113. 6.1.3 梯度消失和梯度爆炸的原因 
  114. 6.1.4 梯度爆炸的对策 
  115. 6.2 梯度消失和LSTM 
  116. 6.2.1 LSTM的接口 
  117. 6.2.2 LSTM层的结构 
  118. 6.2.3 输出门 
  119. 6.2.4 遗忘门 
  120. 6.2.5 新的记忆单元 
  121. 6.2.6 输入门 
  122. 6.2.7 LSTM的梯度的流动 
  123. 6.3 LSTM的实现 
  124. 6.4 使用LSTM的语言模型 
  125. 6.5 进一步改进RNNLM 
  126. 6.5.1 LSTM层的多层化 
  127. 6.5.2 基于Dropout抑制过拟合 
  128. 6.5.3 权重共享 
  129. 6.5.4 更好的RNNLM的实现 
  130. 6.5.5 前沿研究 
  131. 6.6 小结 
  132. 第7章 基于RNN生成文本 
  133. 7.1 使用语言模型生成文本 
  134. 7.1.1 使用RNN生成文本的步骤 
  135. 7.1.2 文本生成的实现 
  136. 7.1.3 更好的文本生成 
  137. 7.2 seq2seq模型 
  138. 7.2.1 seq2seq的原理 
  139. 7.2.2 时序数据转换的简单尝试
  140. 7.2.3 可变长度的时序数据 
  141. 7.2.4 加法数据集 
  142. 7.3 seq2seq的实现 
  143. 7.3.1 Encoder类 
  144. 7.3.2 Decoder类 
  145. 7.3.3 Seq2seq类 
  146. 7.3.4 seq2seq的评价 
  147. 7.4 seq2seq的改进 
  148. 7.4.1 反转输入数据(Reverse) 
  149. 7.4.2 偷窥(Peeky) 
  150. 7.5 seq2seq的应用 
  151. 7.5.1 聊天机器人 
  152. 7.5.2 算法学习 
  153. 7.5.3 自动图像描述 
  154. 7.6 小结 
  155. 第8章 Attention 
  156. 8.1 Attention的结构 
  157. 8.1.1 seq2seq存在的问题 
  158. 8.1.2 编码器的改进 
  159. 8.1.3 解码器的改进① 
  160. 8.1.4 解码器的改进② 
  161. 8.1.5 解码器的改进③ 
  162. 8.2 带Attention的seq2seq的实现 
  163. 8.2.1 编码器的实现 
  164. 8.2.2 解码器的实现 
  165. 8.2.3 seq2seq的实现 
  166. 8.3 Attention 的评价 
  167. 8.3.1 日期格式转换问题 
  168. 8.3.2 带Attention的seq2seq的学习 
  169. 8.3.3 Attention的可视化 
  170. 8.4 关于Attention的其他话题 
  171. 8.4.1 双向RNN 
  172. 8.4.2 Attention层的使用方法 
  173. 8.4.3 seq2seq的深层化和skip connection 
  174. 8.5 Attention的应用 
  175. 8.5.1 Google Neural Machine Translation(GNMT) 
  176. 8.5.2 Transformer 
  177. 8.5.3 Neural Turing Machine(NTM) 
  178. 8.6 小结 
  179. 附录A sigmoid函数和tanh函数的导数 
  180. A.1 sigmoid函数 
  181. A.2 tanh函数 
  182. A.3 小结 
  183. 附录B 运行WordNet 
  184. B.1 NLTK的安装 
  185. B.2 使用WordNet获得同义词 
  186. B.3 WordNet和单词网络 
  187. B.4 基于WordNet的语义相似度 
  188. 附录C GRU 
  189. C.1 GRU的接口 
  190. C.2 GRU的计算图 
  191. 后记 
  192. 参考文献 
书名:深度学习进阶:自然语言处理
作者:斋藤康毅
译者:陆宇杰 译
国内出版社:人民邮电出版社
出版时间:2020年10月
页数:400
书号:978-7-115-54764-4
原版书书名:ゼロから作るDeep Learning2―自然言語処理編
原版书出版商:O'Reilly Media
斋藤康毅
 
1984年生于日本长崎县,东京工业大学毕业,并完成东京大学研究生院课程。目前在某企业从事人工智能相关的研究和开发工作。著有《深度学习入门:基于Python的理论与实现》,同时也是Introducing Python、Python in Practice、The Elements of Computing Systems、Building Machine Learning Systems with Python的日文版译者。
 
 
购买选项
定价:99.00元
书号:978-7-115-54764-4
出版社:人民邮电出版社