基于GPT-3、ChatGPT、GPT-4等Transformer架构的自然语言处理
Google 工程总监Antonio Gulli作序推荐!分享Transformer的工作原理和如何利用其解决NLP问题。随书附赠代码、习题答案、附录、参考资料和彩图,扫描封底二维码下载。

作者:[法]丹尼斯·罗斯曼(Denis Rothman)著 叶伟民 译

定价:99.8元

印次:1-6

ISBN:9787302648727

出版日期:2024.01.01

印刷日期:2025.01.22

图书责编:王军

图书分类:零售

电子书
在线购买
分享
内容简介
作者简介
前言序言
资源下载
查看详情 查看详情 查看详情

Transformer正在颠覆AI领域。市面上有这么平台和Transformer模型,哪些最符合你的需求? 将引领你进入Transformer的世界,将讲述不同模型和平台的优势,指出如何消除模型的缺点和问题。本书将引导你使用Hugging Face从头开始预训练一个RoBERTa模型,包括构建数据集、定义数据整理器以及训练模型等。 《基于GPT-3、ChatGPT、GPT-4等Transformer架构的自然语言处理》分步展示如何微调GPT-3等预训练模型。研究机器翻译、语音转文本、文本转语音、问答等NLP任务,并介绍解决NLP难题的技术,甚至帮助你应对假新闻焦虑(详见第13章)。 从书中可了解到,诸如OpenAI的高级平台将Transformer扩展到语言领域、计算机视觉领域,并允许使用DALL-E 2、ChatGPT和GPT-4生成代码。通过本书,你将了解到Transformer的工作原理以及如何实施Transformer来决NLP问题。 主要内容 ? 了解用于解决复杂语言问题的新技术 ? 将GPT-3与T5、GPT-2和基于BERT的Transformer的结果进行对比 ? 使用TensorFlow、PyTorch和GPT-3执行情感分析、文本摘要、非正式语言分析、机器翻译等任务 ? 了解ViT和CLIP如何标注图像(包括模糊化),并使用DALL-E从文本生成图像 ? 学习ChatGPT和GPT-4的高级提示工程机制

Denis Rothman 毕业于法国巴黎索邦大学和狄德罗大学,设计了首批获得专利的编码和嵌入系统,编写了首批获得专利的AI 认知机器人和机器人。他的职业生涯始于为Moët et Chandon 提供NLP(自然语言处理)聊天机器人,并为空中客车公司(前身为Aerospatiale)提供AI 战术防御优化器。此后,Denis 为IBM 和**品牌开发了AI资源优化器,并最终发展为在全球范围内使用的APS(高级规划和调度)解决方案。

前 言 Transformer 是自然语言理解(Natural Language Understanding,NLU)的游戏规则改变者,NLU 是自然语言处理(Natural Language Processing,NLP)的一个子集。NLU已成为全球数字经济中AI 的支柱之一。 Transformer 模型标志着AI 新时代的开始。语言基础已成为语言建模、聊天机器人、个人助理、问答、文本摘要、语音转文本、情绪分析、机器翻译等的支柱。社交网络正在取代实体接触,电子商务正在取代实体购物,数字报纸、流媒体正在取代实体剧院,远程文档咨询正在取代实体访问,远程工作正在取代现场办公,我们正在见证数百个领域的类似趋势。如果没有理解AI 语言,社会上使用网络浏览器、流媒体服务和任何涉及语言的数字活动都将非常困难。我们的社会从物理信息到海量数字信息的范式转变迫使AI 进入一个新时代。AI 已经发展到数十亿级参数模型,以应对万亿级单词数据集的挑战。 Transformer 架构具有革命性和颠覆性,它打破了过往RNN 和CNN 的主导地位。BERT 和GPT 模型放弃了循环网络层,使用自注意力机制取而代之。Transformer 模型优于RNN 和CNN。这是AI 历史上划时代的重大变化。 Transformer 编码器和解码器包含单独训练的注意力头(attention head),并能使用GPU、TPU 等尖端硬件进行并行化。注意力头可以使用GPU 运行,从而为十亿级参数模型和即将出现的万亿级参数模型打开大门。OpenAI 在一台具有10 000个GPU和285 000 个CPU 内核的...

暂无课件

样章下载

暂无网络资源

扫描二维码
下载APP了解更多

目录
荐语
查看详情 查看详情
第1 章 Transformer 模型介绍 1

1.1 Transformer 的生态系统 2

1.1.1 工业4.0      2

1.1.2 基础模型     3

1.2 使用Transformer 优化NLP模型     6

1.3 我们应该使用哪些资源 8

1.3.1 Transformer 4.0 无缝API 的崛起    9

1.3.2 选择即用型API驱动库    11

1.3.3 选择Transformer模型    11

1.3.4 工业4.0 AI 专家的技能要求    12

1.4 本章小结     13

1.5 练习题     14

第2 章 Transformer 模型架构入门      15

2.1 Transformer 的崛起:注意力就是一切     16

2.1.1 编码器堆叠   17

2.1.2 解码器堆叠   37

2.2 训练和性能    40

2.3 Hugging Face 的Transformer模型      40

2.4 本章小结     41

2.5 练习题     42

第3 章 微调BERT 模型    43

3.1 BERT 的架构    44

3.2 微调BERT     50

3.2.1 选择硬件   50

3.2.2 安装使用BERT 模型必需的Hugging Face PyTorch接口    50

3.2.3 导入模块   50

3.2.4 指定Torch 使用CUDA     51

3.2.5 加载数据集   51

3.2.6 创建句子、标注列表以及添...

"在不到4 年的时间里,Transformer 模型以其强大的性能和创新的思想,迅速在NLP 社区崭露头角,打破了过去30 年的记录。BERT、T5 和GPT 等模型现在已成为计算机视觉、语音识别、翻译、蛋白质测序、编码等各个领域中新应用的基础构件。因此,斯坦福大学最近提出了“基础模型”这个术语,用于定义基于巨型预训练Transformer 的一系列大型语言模型。所有这些进步都归功于一些简单的想法。
《基于GPT-3、ChatGPT、GPT-4等Transformer架构的自然语言处理》可作为所有对Transformer 工作原理感兴趣的人的参考书。作者在理论和实践两方面都做出了出色的工作,详细解释了如何逐步使用Transformer。阅读完本书后,你将能使用这一**进的技术集合来增强你的深度学习应用能力。本书在详细介绍BERT、RoBERTa、T5 和GPT-3 等流行模型前,先讲述了Transformer 的架构以便为你的学习奠定坚实基础。本书还讲述了如何将Transformer 应用于许多用例,如文本摘要、图像标注、问答、情感分析和假新闻分析等。
如果你对这些主题感兴趣,那么本书绝对是值得一读的。
——Antonio Gulli
Google 工程总监Antonio Gulli"