生成式AI入门与AWS实战
Chris Fregly, Antje Barth, Shelbee Eigenbrode
生成式AI技术兴趣小组 译
出版时间:2024年05月
页数:238
“我对这本书的出版感到非常兴奋——它很好地融合了重要的背景知识、理论信息及详细的实践代码和深入讲解。我很喜欢阅读它,相信你也会喜欢!”
——Jeff Barr
AWS副总裁兼首席布道师

如今,企业正迅速地将生成式AI整合到其产品和服务中。但是,关于这项技术的影响和前景,存在大量的炒作(和误解)。通过这本书,来自AWS的Chris Fregly、Antje Barth和Shelbee Eigenbrode将帮助CTO、机器学习从业者、应用程序开发者、业务分析师、数据工程师和数据科学家找到实际的方法来使用这一令人兴奋的新技术。
通过本书,你将学习生成式AI项目生命周期,包括确定用例、模型选择、模型微调、RAG、RLHF和模型量化、优化与部署。你还将探索不同类型的模型,包括大语言模型和多模态模型,如用于生成图像的Stable Diffusion和用于回答有关图像问题的Flamingo/IDEFICS。
● 将生成式AI应用于你的业务用例
● 确定哪种生成式AI模型适合你的任务
● 实践提示工程和上下文学习
● 通过LoRA在你的数据集上微调生成式AI模型
● 通过RLHF使生成式AI模型与人类价值观对齐
● 通过RAG增强你的模型
● 探索LangChain和ReAct等以开发agent
● 通过Amazon Bedrock构建生成式AI应用程序
  1. 第1章 生成式AI用例、基础知识和项目生命周期
  2. 1.1 用例和任务
  3. 1.2 基础模型和模型中心
  4. 1.3 生成式AI项目生命周期
  5. 1.4 AWS上的生成式AI
  6. 1.5 为什么选择基于AWS构建生成式AI
  7. 1.6 在AWS上构建生成式AI应用程序
  8. 1.7 小结
  9. 第2章 提示工程与上下文学习
  10. 2.1 提示与完成
  11. 2.2 token
  12. 2.3 提示工程
  13. 2.4 提示结构
  14. 2.4.1 指令
  15. 2.4.2 上下文
  16. 2.5 通过少样本推理进行上下文学习
  17. 2.5.1 零样本推理
  18. 2.5.2 单样本推理
  19. 2.5.3 少样本推理
  20. 2.5.4 上下文学习出错
  21. 2.5.5 上下文学习实践
  22. 2.6 提示工程实践
  23. 2.7 推理配置参数
  24. 2.8 小结
  25. 第3章 大型语言基础模型
  26. 3.1 大型语言基础模型简介
  27. 3.2 分词器
  28. 3.3 嵌入向量
  29. 3.4 Transformer
  30. 3.4.1 输入和上下文窗口
  31. 3.4.2 嵌入层
  32. 3.4.3 编码器
  33. 3.4.4 自注意力
  34. 3.4.5 解码器
  35. 3.4.6 Softmax输出
  36. 3.5 基于Transformer的基础模型的类别
  37. 3.6 预训练数据集
  38. 3.7 缩放定律
  39. 3.8 计算最优模型
  40. 3.9 小结
  41. 第4章 显存和计算优化
  42. 4.1 显存容量的挑战
  43. 4.2 数据类型和数值精度
  44. 4.3 量化
  45. 4.3.1 fp16
  46. 4.3.2 bfloat16
  47. 4.3.3 fp8
  48. 4.3.4 int8
  49. 4.4 优化自注意力层
  50. 4.4.1 FlashAttention
  51. 4.4.2 分组查询注意力
  52. 4.5 分布式GPU集群计算
  53. 4.5.1 分布式数据并行
  54. 4.5.2 全分片数据并行
  55. 4.6 基于AWS的分布式计算
  56. 4.6.1 通过Amazon SageMaker进行全分片数据并行
  57. 4.6.2 AWS Neuron SDK和AWS Trainium
  58. 4.7 小结
  59. 第5章 微调和评估
  60. 5.1 指令微调简介
  61. 5.1.1 Llama2-Chat
  62. 5.1.2 Falcon-Chat
  63. 5.1.3 FLAN-T5
  64. 5.2 指令数据集
  65. 5.2.1 多任务指令数据集
  66. 5.2.2 FLAN:示例多任务指令数据集
  67. 5.2.3 提示模板
  68. 5.2.4 将自定义数据集转换为指令数据集
  69. 5.3 指令微调的过程
  70. 5.3.1 Amazon SageMaker Studio
  71. 5.3.2 Amazon SageMaker JumpStart
  72. 5.3.3 将Amazon SageMaker Estimator用于Hugging Face
  73. 5.4 模型评估
  74. 5.4.1 评估指标
  75. 5.4.2 基准测试和数据集
  76. 5.5 小结
  77. 第6章 高效参数微调
  78. 6.1 全量微调与PEFT
  79. 6.2 LoRA和QLoRA
  80. 6.2.1 LoRA基础
  81. 6.2.2 秩
  82. 6.2.3 目标模块和网络层
  83. 6.2.4 应用LoRA
  84. 6.2.5 将LoRA 适配器与原始模型合并
  85. 6.2.6 维护独立的LoRA适配器
  86. 6.2.7 全量微调与LoRA性能比较
  87. 6.2.8 QLoRA
  88. 6.3 Prompt Tuning和软提示
  89. 6.4 小结
  90. 第7章 基于人类反馈的强化学习微调
  91. 7.1 与人类价值观对齐:有用的、诚实的、无害的
  92. 7.2 强化学习概述
  93. 7.3 训练自定义奖励模型
  94. 7.3.1 通过人机交互收集训练数据集
  95. 7.3.2 人类标注者的示例指令
  96. 7.3.3 通过Amazon SageMaker Ground Truth进行人工标注
  97. 7.3.4 准备训练奖励模型的排序数据
  98. 7.3.5 训练奖励模型
  99. 7.4 现有奖励模型:Meta的有害性检测器
  100. 7.5 通过人类反馈进行强化学习微调
  101. 7.5.1 在RLHF中使用奖励模型
  102. 7.5.2 近端策略优化强化学习算法
  103. 7.5.3 使用PPO进行RLH微调
  104. 7.5.4 缓解奖励破解
  105. 7.5.5 通过RLHF进行参数高效微调
  106. 7.6 评估RLHF微调模型
  107. 7.6.1 定性评估
  108. 7.6.2 定量评估
  109. 7.6.3 载入评估模型
  110. 7.6.4 定义评估指标聚合函数
  111. 7.6.5 比较前后的评估指标
  112. 7.7 小结
  113. 第8章 模型部署优化
  114. 8.1 模型推理优化
  115. 8.1.1 剪枝
  116. 8.1.2 通过GPTQ进行训练后量化
  117. 8.1.3 蒸馏
  118. 8.2 大模型推理容器
  119. 8.3 AWS Inferentia:专为推理而打造的硬件
  120. 8.4 模型更新和部署策略
  121. 8.4.1 A/B测试
  122. 8.4.2 影子模型部署
  123. 8.5 指标和监控
  124. 8.6 自动伸缩
  125. 8.6.1 自动伸缩策略
  126. 8.6.2 定义自动伸缩策略
  127. 8.7 小结
  128. 第9章 通过RAG和agent实现基于上下文的推断
  129. 9.1 大语言模型的局限性
  130. 9.1.1 幻觉
  131. 9.1.2 知识截断
  132. 9.2 RAG
  133. 9.2.1 外部知识源
  134. 9.2.2 RAG工作流
  135. 9.2.3 文档加载
  136. 9.2.4 分块
  137. 9.2.5 文档检索和重新排序
  138. 9.2.6 提示增强
  139. 9.3 RAG编排和实现
  140. 9.3.1 文档加载和分块
  141. 9.3.2 向量embedding存储和检索
  142. 9.3.3 检索链
  143. 9.3.4 通过MMR进行重新排序
  144. 9.4 agent
  145. 9.4.1 ReAct框架
  146. 9.4.2 PAL框架
  147. 9.5 生成式AI应用程序
  148. 9.6 FMOps:实施生成式人工智能项目生命周期 
  149. 9.6.1 实验注意事项
  150. 9.6.2 开发注意事项
  151. 9.6.3 生产部署注意事项
  152. 9.7 小结
  153. 第10章 多模态基础模型
  154. 10.1 用例
  155. 10.2 多模态提示工程实践
  156. 10.3 图像生成和增强
  157. 10.3.1 图像生成
  158. 10.3.2 图像编辑和增强
  159. 10.4 图像补全、图像外部填充、depth-to-image
  160. 10.4.1 图像补全
  161. 10.4.2 图像外部填充
  162. 10.4.3 depth-to-image
  163. 10.5 图像描述和视觉问答
  164. 10.5.1 图像描述
  165. 10.5.2 内容审查
  166. 10.5.3 视觉问答
  167. 10.6 模型评估
  168. 10.6.1 文生图任务
  169. 10.6.2 正向扩散
  170. 10.6.3 非语言推理
  171. 10.7 扩散模型架构
  172. 10.7.1 正向扩散
  173. 10.7.2 反向扩散
  174. 10.7.3 U-Net
  175. 10.8 Stable Diffusion 2架构
  176. 10.8.1 文本编码器
  177. 10.8.2 U-Net和扩散过程
  178. 10.8.2 文本条件控制
  179. 10.8.3 交叉注意力
  180. 10.8.4 采样器
  181. 10.8.5 图像解码器
  182. 10.9 Stable Diffusion XL架构
  183. 10.9.1 U-Net和交叉注意力
  184. 10.9.2 精修器
  185. 10.9.3 条件控制
  186. 10.10 小结
  187. 第11章 通过Stable Diffusion进行受控生成和微调
  188. 11.1 ControlNet
  189. 11.2 微调
  190. 11.2.1 DreamBooth
  191. 11.2.2 DreamBooth和PEFT-LoRA
  192. 11.2.3 文本反演
  193. 11.3 通过RLHF进行人类偏好对齐
  194. 11.4 小结
  195. 第12章 Amazon Bedrock:用于生成式AI的托管服务
  196. 12.1 Bedrock基础模型
  197. 12.1.1 Amazon Titan基础模型
  198. 12.1.2 来自StabilityAI公司的Stable Diffusion基础模型
  199. 12.2 Bedrock推理API
  200. 12.3 大语言模型
  201. 12.3.1 生成SQL代码
  202. 12.3.2 总结文本
  203. 12.3.3 嵌入
  204. 12.4 微调
  205. 12.5 agent
  206. 12.6 多模态模型
  207. 12.6.1 文生图
  208. 12.6.2 图生图
  209. 12.7 数据隐私和网络安全
  210. 12.8 治理和监控
  211. 12.9 小结
书名:生成式AI入门与AWS实战
译者:生成式AI技术兴趣小组 译
国内出版社:人民邮电出版社
出版时间:2024年05月
页数:238
书号:978-7-115-64416-9
原版书书名:Generative AI on AWS
原版书出版商:O'Reilly Media
Chris Fregly
 
Chris Fregly是AWS的首席AI和机器学习开发者和布道者,居住在旧金山。他经常在全世界的AI和机器学习会议上演讲,包括O’Reilly AI Superstream系列。之前,Chris曾是PipelineAI的创建者,Databricks的解决方案工程师,以及Netflix的软件工程师。
 
 
Antje Barth
 
Antje Barth是AWS的高级AI和机器学习开发者和倡导者,居住于德国杜塞尔多夫。Antje是“Women in Big Data”杜塞尔多夫分部的联合创始人,她频繁在全世界的AI和机器学习会议和聚会上演讲。她同时也任职于O’Reilly AI Superstream大会并策划内容。
 
 
Shelbee Eigenbrode
 
Shelbee Eigenbrode是AWS生成式AI首席解决方案架构师。她在多个技术领域获得了超过35项专利。
 
 
本书封面插图中的动物是棕背嘲鸫(Mimus dorsalis)。
这种非迁徙性、陆生的嘲鸫栖息在阿根廷和玻利维亚的干旱地带,如灌木丛和荒漠灌木丛中。它们在那里觅食并在仙人掌或灌木中筑巢。由于对棕背嘲鸫的研究较少,关于它的饮食、觅食和繁殖行为知之甚少。
幸运的是,棕背嘲鸫的叫声录音相对容易获得。目击者描述棕背嘲鸫的歌声为一系列重复的刺耳音符和轻笑。总的来说,嘲鸫以其模仿其他鸟类的歌声以及昆虫和两栖动物的声音而闻名,通常声音很大且快速连续。一组研究人员甚至将它们——凭借它们创造新颖歌曲模式的能力——与伟大的古典作曲家和现代艺术家如Kendrick Lamar相提并论。
尽管棕背嘲鸫的种群数量尚未精确量化,但国际自然保护联盟(IUCN)将其归类为无危物种。O’Reilly图书封面插图中的许多动物都是濒危物种,它们都对世界至关重要。
购买选项
定价:99.80元
书号:978-7-115-64416-9
出版社:人民邮电出版社