更新时间:2023-07-17 19:52:07
封面
版权信息
作者简介
内容简介
前言
第1章 导论
1.1 基于深度学习的自然语言处理
1.2 本书章节脉络
1.3 自然语言处理算法流程
1.4 小结
第2章 Python开发环境配置
2.1 Linux服务器
2.1.1 MobaXterm
2.1.2 使用MobaXterm连接远程服务器
2.1.3 在服务器上安装Python开发环境
2.1.4 使用Anaconda国内源
2.1.5 pip设定永久阿里云源
2.2 Python虚拟环境
2.3 PyCharm远程连接服务器
2.4 screen任务管理
2.5 Docker技术
2.6 小结
第3章 自然语言处理的发展进程
3.1 人工规则与自然语言处理
3.2 机器学习与自热语言处理
3.2.1 词袋模型
3.2.2 n-gram
3.2.3 频率与逆文档频率
3.3 深度学习与自然语言处理
3.4 小结
第4章 无监督学习的原理与应用
4.1 浅层无监督预训练模型
4.2 深层无监督预训练模型
4.2.1 BERT
4.2.2 Self-Attention Layer原理
4.2.3 Self-Attention Layer的内部运算逻辑
4.2.4 Multi-Head Self-Attention
4.2.5 Layer Normalization
4.2.6 BERT预训练
4.2.7 BERT的微调过程
4.3 其他预训练模型
4.3.1 RoBERTa
4.3.2 ERNIE
4.3.3 BERT_WWM
4.3.4 ALBERT
4.3.5 Electra
4.3.6 NEZHA
4.3.7 NLP预训练模型对比
4.4 自然语言处理四大下游任务
4.4.1 句子对分类任务
4.4.2 单句子分类任务
4.4.3 问答任务
4.4.4 单句子标注任务
4.5 小结
第5章 无监督学习进阶
5.1 生成式对抗网络
5.2 元学习
5.2.1 Metric-Based Method
5.2.2 Model-Based Method
5.2.3 Pretrain-Based Method
5.3 小结
第6章 预训练
6.1 赛题任务
6.2 环境搭建
6.3 代码框架
6.4 数据分析实践
6.4.1 数据预处理
6.4.2 预训练任务模型构建与数据生成
6.4.3 模型训练
6.5 小结
第7章 文本分类
7.1 数据分析
7.2 环境搭建
7.3 代码框架
7.4 文本分类实践
7.4.1 数据预处理
7.4.2 模型构建
7.4.3 数据迭代器
7.4.4 模型训练
7.4.5 模型预测
7.5 小结
第8章 机器阅读理解
8.1 机器阅读理解的定义
8.1.1 完形填空
8.1.2 多项选择
8.1.3 片段抽取
8.1.4 自由回答
8.1.5 其他任务
8.2 评测方法
8.3 研究方法
8.3.1 基于规则的方法
8.3.2 基于神经网络的方法
8.3.3 基于深层语义的图匹配方法
8.4 经典结构
8.4.1 BiDAF模型
8.4.2 QANet模型
8.4.3 基于BERT模型的机器阅读理解
8.5 多文档机器阅读理解实践
8.5.1 疫情政务问答助手
8.5.2 信息检索