生成式AI入门与AWS实战
Chris Fregly, Antje Barth, Shelbee Eigenbrode
生成式AI技术兴趣小组 译
出版时间:2024年05月
页数:238
“我对这本书的出版感到非常兴奋——它很好地融合了重要的背景知识、理论信息及详细的实践代码和深入讲解。我很喜欢阅读它,相信你也会喜欢!”
——Jeff Barr
AWS副总裁兼首席布道师

如今,企业正迅速地将生成式AI整合到其产品和服务中。但是,关于这项技术的影响和前景,存在大量的炒作(和误解)。通过这本书,来自AWS的Chris Fregly、Antje Barth和Shelbee......展开全部内容介绍
  1. 第1章 生成式AI用例、基础知识和项目生命周期
  2. 1.1 用例和任务
  3. 1.2 基础模型和模型中心
  4. 1.3 生成式AI项目生命周期
  5. 1.4 AWS上的生成式AI
  6. 1.5 为什么选择基于AWS构建生成式AI
  7. 1.6 在AWS上构建生成式AI应用程序
  8. 1.7 小结
  9. 第2章 提示工程与上下文学习
  10. 2.1 提示与完成
  11. 2.2 token
  12. 2.3 提示工程
  13. 2.4 提示结构
  14. 2.4.1 指令
  15. 2.4.2 上下文
  16. 2.5 通过少样本推理进行上下文学习
  17. 2.5.1 零样本推理
  18. 2.5.2 单样本推理
  19. 2.5.3 少样本推理
  20. 2.5.4 上下文学习出错
  21. 2.5.5 上下文学习实践
  22. 2.6 提示工程实践
  23. 2.7 推理配置参数
  24. 2.8 小结
  25. 第3章 大型语言基础模型
  26. 3.1 大型语言基础模型简介
  27. 3.2 分词器
  28. 3.3 嵌入向量
  29. 3.4 Transformer
  30. 3.4.1 输入和上下文窗口
  31. 3.4.2 嵌入层
  32. 3.4.3 编码器
  33. 3.4.4 自注意力
  34. 3.4.5 解码器
  35. 3.4.6 Softmax输出
  36. 3.5 基于Transformer的基础模型的类别
  37. 3.6 预训练数据集
  38. 3.7 缩放定律
  39. 3.8 计算最优模型
  40. 3.9 小结
  41. 第4章 显存和计算优化
  42. 4.1 显存容量的挑战
  43. 4.2 数据类型和数值精度
  44. 4.3 量化
  45. 4.3.1 fp16
  46. 4.3.2 bfloat16
  47. 4.3.3 fp8
  48. 4.3.4 int8
  49. 4.4 优化自注意力层
  50. 4.4.1 FlashAttention
  51. 4.4.2 分组查询注意力
  52. 4.5 分布式GPU集群计算
  53. 4.5.1 分布式数据并行
  54. 4.5.2 全分片数据并行
  55. 4.6 基于AWS的分布式计算
  56. 4.6.1 通过Amazon SageMaker进行全分片数据并行
  57. 4.6.2 AWS Neuron SDK和AWS Trainium
  58. 4.7 小结
  59. 第5章 微调和评估
  60. 5.1 指令微调简介
  61. 5.1.1 Llama2-Chat
  62. 5.1.2 Falcon-Chat
  63. 5.1.3 FLAN-T5
  64. 5.2 指令数据集
  65. 5.2.1 多任务指令数据集
  66. 5.2.2 FLAN:示例多任务指令数据集
  67. 5.2.3 提示模板
  68. 5.2.4 将自定义数据集转换为指令数据集
  69. 5.3 指令微调的过程
  70. 5.3.1 Amazon SageMaker Studio
  71. 5.3.2 Amazon SageMaker JumpStart
  72. 5.3.3 将Amazon SageMaker Estimator用于Hugging Face
  73. 5.4 模型评估
  74. 5.4.1 评估指标
  75. 5.4.2 基准测试和数据集
  76. 5.5 小结
  77. 第6章 高效参数微调
  78. 6.1 全量微调与PEFT
  79. 6.2 LoRA和QLoRA
  80. 6.2.1 LoRA基础
  81. 6.2.2 秩
  82. 6.2.3 目标模块和网络层
  83. 6.2.4 应用LoRA
  84. 6.2.5 将LoRA 适配器与原始模型合并
  85. 6.2.6 维护独立的LoRA适配器
  86. 6.2.7 全量微调与LoRA性能比较
  87. 6.2.8 QLoRA
  88. 6.3 Prompt Tuning和软提示
  89. 6.4 小结
  90. 第7章 基于人类反馈的强化学习微调
  91. 7.1 与人类价值观对齐:有用的、诚实的、无害的
  92. 7.2 强化学习概述
  93. 7.3 训练自定义奖励模型
  94. 7.3.1 通过人机交互收集训练数据集
  95. 7.3.2 人类标注者的示例指令
  96. 7.3.3 通过Amazon SageMaker Ground Truth进行人工标注
  97. 7.3.4 准备训练奖励模型的排序数据
  98. 7.3.5 训练奖励模型
  99. 7.4 现有奖励模型:Meta的有害性检测器
  100. 7.5 通过人类反馈进行强化学习微调
  101. 7.5.1 在RLHF中使用奖励模型
  102. 7.5.2 近端策略优化强化学习算法
  103. 7.5.3 使用PPO进行RLH微调
  104. 7.5.4 缓解奖励破解
  105. 7.5.5 通过RLHF进行参数高效微调
  106. 7.6 评估RLHF微调模型
  107. 7.6.1 定性评估
  108. 7.6.2 定量评估
  109. 7.6.3 载入评估模型
  110. 7.6.4 定义评估指标聚合函数
  111. 7.6.5 比较前后的评估指标
  112. 7.7 小结
  113. 第8章 模型部署优化
  114. 8.1 模型推理优化
  115. 8.1.1 剪枝
  116. 8.1.2 通过GPTQ进行训练后量化
  117. 8.1.3 蒸馏
  118. 8.2 大模型推理容器
  119. 8.3 AWS Inferentia:专为推理而打造的硬件
  120. 8.4 模型更新和部署策略
  121. 8.4.1 A/B测试
  122. 8.4.2 影子模型部署
  123. 8.5 指标和监控
  124. 8.6 自动伸缩
  125. 8.6.1 自动伸缩策略
  126. 8.6.2 定义自动伸缩策略
  127. 8.7 小结
  128. 第9章 通过RAG和agent实现基于上下文的推断
  129. 9.1 大语言模型的局限性
  130. 9.1.1 幻觉
  131. 9.1.2 知识截断
  132. 9.2 RAG
  133. 9.2.1 外部知识源
  134. 9.2.2 RAG工作流
  135. 9.2.3 文档加载
  136. 9.2.4 分块
  137. 9.2.5 文档检索和重新排序
  138. 9.2.6 提示增强
  139. 9.3 RAG编排和实现
  140. 9.3.1 文档加载和分块
  141. 9.3.2 向量embedding存储和检索
  142. 9.3.3 检索链
  143. 9.3.4 通过MMR进行重新排序
  144. 9.4 agent
  145. 9.4.1 ReAct框架
  146. 9.4.2 PAL框架
  147. 9.5 生成式AI应用程序
  148. 9.6 FMOps:实施生成式人工智能项目生命周期 
  149. 9.6.1 实验注意事项
  150. 9.6.2 开发注意事项
  151. 9.6.3 生产部署注意事项
  152. 9.7 小结
  153. 第10章 多模态基础模型
  154. 10.1 用例
  155. 10.2 多模态提示工程实践
  156. 10.3 图像生成和增强
  157. 10.3.1 图像生成
  158. 10.3.2 图像编辑和增强
  159. 10.4 图像补全、图像外部填充、depth-to-image
  160. 10.4.1 图像补全
  161. 10.4.2 图像外部填充
  162. 10.4.3 depth-to-image
  163. 10.5 图像描述和视觉问答
  164. 10.5.1 图像描述
  165. 10.5.2 内容审查
  166. 10.5.3 视觉问答
  167. 10.6 模型评估
  168. 10.6.1 文生图任务
  169. 10.6.2 正向扩散
  170. 10.6.3 非语言推理
  171. 10.7 扩散模型架构
  172. 10.7.1 正向扩散
  173. 10.7.2 反向扩散
  174. 10.7.3 U-Net
  175. 10.8 Stable Diffusion 2架构
  176. 10.8.1 文本编码器
  177. 10.8.2 U-Net和扩散过程
  178. 10.8.2 文本条件控制
  179. 10.8.3 交叉注意力
  180. 10.8.4 采样器
  181. 10.8.5 图像解码器
  182. 10.9 Stable Diffusion XL架构
  183. 10.9.1 U-Net和交叉注意力
  184. 10.9.2 精修器
  185. 10.9.3 条件控制
  186. 10.10 小结
  187. 第11章 通过Stable Diffusion进行受控生成和微调
  188. 11.1 ControlNet
  189. 11.2 微调
  190. 11.2.1 DreamBooth
  191. 11.2.2 DreamBooth和PEFT-LoRA
  192. 11.2.3 文本反演
  193. 11.3 通过RLHF进行人类偏好对齐
  194. 11.4 小结
  195. 第12章 Amazon Bedrock:用于生成式AI的托管服务
  196. 12.1 Bedrock基础模型
  197. 12.1.1 Amazon Titan基础模型
  198. 12.1.2 来自StabilityAI公司的Stable Diffusion基础模型
  199. 12.2 Bedrock推理API
  200. 12.3 大语言模型
  201. 12.3.1 生成SQL代码
  202. 12.3.2 总结文本
  203. 12.3.3 嵌入
  204. 12.4 微调
  205. 12.5 agent
  206. 12.6 多模态模型
  207. 12.6.1 文生图
  208. 12.6.2 图生图
  209. 12.7 数据隐私和网络安全
  210. 12.8 治理和监控
  211. 12.9 小结
购买选项
定价:99.80元
书号:978-7-115-64416-9
出版社:人民邮电出版社