人民邮电出版社有限公司店铺主页二维码
人民邮电出版社有限公司 微信认证
人民邮电出版社微店,为您提供最全面,最专业的一站式购书服务
微信扫描二维码,访问我们的微信店铺
你可以使用微信联系我们,随时随地的购物、客服咨询、查询订单和物流...

深度学习高手笔记:基础算法+*应用 套装2册

179.70
运费: ¥ 0.00-20.00
深度学习高手笔记:基础算法+*应用 套装2册 商品图0
深度学习高手笔记:基础算法+*应用 套装2册 商品缩略图0

商品详情

书名:深度学习高手笔记:基础算法+*应用 套装2册
定价:239.6
ISBN:9787115830357
作者:刘岩(@大师兄)
版次:1
出版时间:2022-10

内容提要:

《深度学习高手笔记 卷1:基础算法》

本书通过扎实、详细的内容和清晰的结构,从算法理论、算法源码、实验结果等方面对深度学习算法进行分析和介绍。本书共三篇,*篇主要介绍深度学习在计算机视觉方向的一些卷积神经网络,从基础骨干网络、轻量级 CNN、模型架构搜索 3 个方向展开,介绍计算机视觉方向的里程碑算法;*篇主要介绍深度学习在自然语言处理方向的重要突破,包括基础序列模型和模型预训练;第三篇主要介绍深度学习在模型优化上的进展,包括模型优化方法。

通过阅读本书,读者可以深入理解主流的深度学习基础算法,搭建起自己的知识体系,领会算法的本质,学习模型优化方法。无论是从事深度学习科研的教师及学生,还是从事算法落地实践的工作人员,*能从本书中获益。

《深度学习高手笔记 卷2:*应用》

本书通过扎实、详细的内容,从理论知识、算法源码、实验结果等方面对深度学习中涉及的算法进行分析和介绍。本书共三篇,*篇主要介绍深度学习在目标检测与分割方向的前沿算法,包括双阶段检测、单阶段检测、无锚点检测、特征融合、损失函数、语义分割这 6 个方向;*篇主要介绍深度学习在场景文字检测与识别方向的重要突破,主要介绍场景文字检测、场景文字识别这两个阶段的算法;第三篇主要介绍深度学习的其他算法与应用,包括图像翻译、图神经网络、二维结构识别、人像抠图、图像预训练、多模态预训练这6个方向的算法。附录部分介绍双线性插值、匈牙利算法、Shift-and-Stitch、德劳内三角化、图像梯度、仿射变换矩阵等内容。

本书结构清晰,内容广度与深度齐备。通过阅读本书,读者可以了解前沿的深度学习算法,扩展自己的算法知识面。无论是从事深度学习科研的教师及学生,还是从事算法落地实践的工作人员,*能从本书中获益。






作者简介:

刘岩, 澳门大学计算机科学专业硕士, 目前*职于京东*售-技术与数据中心。在学生期间从事人工智能相关研究,发表多篇计算机视觉、自然语言处理等方向的专利和学术论文。毕业后从事深度学习相关工作,擅长前沿人工智能算法的原理分析和应用落地,擅长计算机视觉、自然语言处理等方向的技术, 先后参与并负责了多个深度学习算法在不同场景的业务落地,如光学字符识别、公式识别、人脸识别、手势识别、视频抠像、文本分类/命名实体识别、预训练语言模型、语音识别、图神经网络等。目前主要负责电商场景下预训练语言模型的研发以及舆情风险的智能识别与治理。他的知乎账号: 大师兄。



目录:

《深度学习高手笔记 卷1:基础算法》

第 一篇 卷积神经网络

第 1章 基础骨干网络 3

1.1 起源:LeNet-5和AlexNet 4

1.1.1 从LeNet-5开始4

1.1.2 觉醒:AlexNet 6

1.2 更深:VGG 11

1.2.1 VGG介绍11

1.2.2 VGG的训练和测试 13

1.3 更宽:GoogLeNet14

1.3.1 背景知识14

1.3.2 Inception v117

1.3.3 GoogLeNet 19

1.3.4 Inception v219

1.3.5 Inception v320

1.3.6 Inception v421

1.3.7 Inception-ResNet23

1.4 跳跃连接:ResNet 26

1.4.1 残差网络 26

1.4.2 残差网络背后的原理 28

1.4.3 残差网络与模型集成 33

1.5 注意力:SENet 33

1.5.1 SE块 33

1.5.2 SE-Inception 和 SE-ResNet34

1.5.3 SENet 的复杂性分析 35

1.5.4 小结 35

1.6 更密:DenseNet 36

1.6.1 DenseNet 算法解析及源码实现37

1.6.2 压缩层 38

1.6.3 小结 38

1.7 模型集成:DPN 39

1.7.1 高阶 RNN、DenseNet 和残差网络39

1.7.2 DPN 详解41

1.7.3 小结.42

1.8 像素向量:iGPT 43

1.8.1 iGPT 详解44

1.8.2 实验结果分析48

1.8.3 小结 49

1.9 Visual Transformer 之 Swin Transformer 49

1.9.1 网络结构详解50

1.9.2 Swin Transformer 家族59

1.9.3 小结.60

1.10 Vision Transformer 之 CSWin Transformer60

1.10.1 CSWin Transformer 概述61

1.10.2 十字形窗口自注意力机制61

1.10.3 局部加强位置编码 62

1.10.4 CSWin Transformer 块63

1.10.5 CSWin Transformer 的复杂度 63

1.10.6 小结 64

1.11 MLP :MLP-Mixer 64

1.11.1 网络结构 64

1.11.2 讨论 67

第 2 章  轻量级 CNN68

2.1 SqueezeNet 68

2.1.1 SqueezeNet 的压缩策略 69

2.1.2 点火模块 69

2.1.3 SqueezeNet 的网络结构 70

2.1.4 SqueezeNet 的性能 72

2.1.5 小结 72

2.2 MobileNet v1 和 MobileNet v2 73

2.2.1 MobileNet v1 73

2.2.2 MobileNet v2 77

2.2.3 小结 79

2.3 Xception 80

2.3.1 Inception 回顾 80

2.3.2 Xception 详解 81

2.3.3 小结 82

2.4 ResNeXt 82

2.4.1 从全连接讲起83

2.4.2 简化 Inception 83

2.4.3 ResNeXt 详解84

2.4.4 分组卷积 84

2.4.5 小结 85

2.5 ShuffleNet v1 和 ShuffleNet v2 85

2.5.1 ShuffleNet v185

2.5.2 ShuffleNet v288

2.5.3 小结 92

2.6 CondenseNet 92

2.6.1 分组卷积的问题 93

2.6.2 可学习分组卷积 93

2.6.3 架构设计 96

2.6.4 小结 96

第 3 章  模型架构搜索 97

3.1 PolyNet 97

3.1.1 结构多样性98

3.1.2 多项式模型98

3.1.3 对照实验 100

3.1.4 Very Deep PolyNet 101

3.1.5 小结102

3.2 NAS 103

3.2.1 NAS-CNN103

3.2.2 NAS-RNN106

3.2.3 小结 108

3.3 NASNet 108

3.3.1 NASNet 控制器 109

3.3.2 NASNet 的强化学习110

3.3.3 计划 DropPath110

3.3.4 其他*参数111

3.3.5 小结 111

3.4 PNASNet 112

3.4.1 更小的搜索空间 112

3.4.2 SMBO 113

3.4.3 代理函数 114

3.4.4 PNASNet 的实验结果115

3.4.5 小结 116

3.5 AmoebaNet 116

3.5.1 搜索空间 117

3.5.2 年龄进化 118

3.5.3 AmoebaNet 的网络结构120

3.5.4 小结 121

3.6 MnasNet 121

3.6.1 优化目标 122

3.6.2 搜索空间 124

3.6.3 优化策略 125

3.6.4 小结 126

3.7 MobileNet v3 126

3.7.1 参考结构 127

3.7.2 网络搜索 127

3.7.3 人工设计 129

3.7.4 修改 SE 块 131

3.7.5 Lite R-ASPP 132

3.7.6 小结 133

3.8 EfficientNet v1 133

3.8.1 背景知识 133

3.8.2 EfficientNet v1 详解135

3.8.3 小结 137

3.9 EfficientNet v2 137

3.9.1 算法动机 137

3.9.2 EfficientNet v2 详解139

3.10 RegNet 141

3.10.1 设计空间 141

3.10.2 RegNet 详解 145

3.10.3 小结 151

*篇  自然语言处理

第 4 章  基础序列模型 155

4.1 LSTM 和 GRU 155

4.1.1 序列模型的背景 155

4.1.2 LSTM 157

4.1.3 GRU 159

4.1.4 其他 LSTM 159

4.2 注意力机制 160

4.2.1 机器翻译的注意力机制160

4.2.2 图解注意力机制 161

4.2.3 *注意力模型 166

4.2.4 小结 170

4.3 Transformer 170

4.3.1 Transformer 详解171

4.3.2 位置嵌入 177

4.3.3 小结 178

4.4 Transformer-XL 179

4.4.1 Transformer 的缺点 179

4.4.2 相对位置编码181

4.4.3 Transformer-XL 详解 183

4.4.4 小结 185

第 5 章  模型预训练 186

5.1 RNN 语言模型 187

5.1.1 语言模型中的 RNN187

5.1.2 训练数据 188

5.1.3 训练细节 188

5.2 ELMo 189

5.2.1 双向语言模型189

5.2.2 ELMo 详解191

5.2.3 应用 ELMo 到下游任务192

5.2.4 小结.192

5.3 GPT-1、GPT-2 和 GPT-3 192

5.3.1 GPT-1:无监督学习193

5.3.2 GPT-2:多任务学习196

5.3.3 GPT-3:海量参数197

5.3.4 小结 200

5.4 BERT 200

5.4.1 BERT 详解 201

5.4.2 小结 205

5.5 BERT“魔改”之 RoBERTa、ALBERT、MT-DNN 和 XLM 205

5.5.1 成熟版 BERT :RoBERTa 206

5.5.2 更快的 BERT :ALBERT 207

5.5.3 多任务 BERT :MT-DNN 207

5.5.4 多语言 BERT :XLM 209

5.5.5 小结211

5.6 XLNet 211

5.6.1 背景知识.212

5.6.2 XLNet 详解213

5.6.3 小结.216

5.7 ERNIE(清华大学) 216

5.7.1 加入知识图谱的动机217

5.7.2 异构信息融合217

5.7.3 DAE.220

5.7.4 ERNIE-T 的微调220

5.7.5 小结221

5.8 ERNIE(百度)和 ERNIE 2.0 221

5.8.1 ERNIE-B222

5.8.2 ERNIE 2.0.223

5.8.3 小结226

第三篇  模型优化

第 6 章  模型优化方法229

6.1 Dropout 230

6.1.1 什么是 Dropout.230

6.1.2 Dropout 的数学原理231

6.1.3 Dropout 是一个正则网络232

6.1.4 CNN 的 Dropout232

6.1.5 RNN 的 Dropout233

6.1.6 Dropout 的变体234

6.1.7 小结.236

6.2 BN 237

6.2.1 BN 详解237

6.2.2 BN 的背后原理240

6.2.3 小结.243

6.3 LN .243

6.3.1 BN 的问题.244

6.3.2 LN 详解.244

6.3.3 对照实验245

6.3.4 小结247

6.4 WN 247

6.4.1 WN 的计算247

6.4.2 WN 的原理248

6.4.3 BN 和 WN 的关系249

6.4.4 WN 的参数初始化249

6.4.5 均值 BN.249

6.4.6 小结 249

6.5 IN 250

6.5.1 IST 中的 IN250

6.5.2 IN 与 BN 对比250

6.5.3 TensorFlow 中的 IN.251

6.5.4 小结.252

6.6 GN 252

6.6.1 GN 算法252

6.6.2 GN 的源码253

6.6.3 GN 的原理253

6.6.4 小结 253

6.7 SN 254

6.7.1 SN 详解.254

6.7.2 SN 的优点.256

6.7.3 小结 256


《深度学习高手笔记 卷2:*应用》

第 一篇  目标检测与分割

第 1 章  双阶段检测 3

11 R-CNN 4

111 R-CNN 检测流程 5

112 候选区域提取 6

113 预训练及微调 7

114 训练数据准备 7

115 NMS 8

116 小结 9

12 SPP-Net 9

121 空间金字塔池化 10

122 SPP-Net 的推理流程 11

123 小结 13

13 Fast R-CNN 13

131 Fast R-CNN 算法介绍 13

132 数据准备 14

133 Fast R-CNN 网络结构 15

134 多任务损失函数 16

135 Fast R-CNN 的训练细节17

136 Fast R-CNN 的推理流程18

137 小结 18

14 Faster R-CNN 18

141 区域候选网络 18

142 Faster R-CNN 的训练 22

143 小结 22

15 R-FCN 23

151 提出动机 23

152 R-FCN 的网络 24

153 R-FCN 结果可视化 26

154 小结 27

16 Mask R-CNN 27

161 Mask R-CNN 的动机 28

162 Mask R-CNN 详解 28

163 小结 31

17 MaskX R-CNN 31

171 权值迁移函数   32

172 MaskX R-CNN 的训练 32

173 小结 33

18 DCNv1 和 DCNv2 33

181 DCNv1 33

182 DCNv2 36

183 小结 39

第 2 章  单阶段检测 40

21 YOLOv1 41

211 YOLOv1 的网络结构 42

212 损失函数 44

213 小结 46

22 SSD 和 DSSD 47

221 SSD 48

222 DSSD 51

223 小结 53

23 YOLOv2 54

231 YOLOv2:更快,更高 54

232 YOLO9000:更强 59

233 小结 61

24 YOLOv3 61

241 多标签任务 62

242 骨干网络 62

243 多尺度特征 63

244 锚点聚类 63

245 YOLOv3 一些失败的尝试 64

246 小结 64

25 YOLOv4 65

251 背景介绍 65

252 数据 65

253 模型 69

254 后处理 78

255 YOLOv4 改进介绍 79

256 小结 82

第 3 章  无锚点检测 83

31 DenseBox 84

311 DenseBox 的网络结构 84

312 多任务模型 85

313 训练数据 86

314 结合关键点检测 87

315 测试 88

316 小结 88

32 CornerNet 89

321 背景 89

322 CornerNet 详解 90

323 小结 95

33 CornerNet-Lite 96

331 CornerNet-Saccade 96

332 CornerNet-Squeeze 99

333  小结 99

34 CenterNet 99

341 网络结构 100

342 数据准备 102

343 损失函数 103

344 推理过程 104

345 小结 104

35 FCOS 104

351 算法背景 105

352 FCOS 的网络结构 105

353 多尺度预测 107

354 测试 107

355 小结 107

36 DETR 107

361 网络结构 108

362 损失函数 109

363 小结 111

第 4 章  特征融合 112

41 FPN 113

411 CNN 中的常见骨干网络 113

412 FPN 的网络结构 114

413 FPN 的应用 116

414 小结 116

42 PANet 117

421 PANet 117

422 小结 120

43 NAS-FPN 121

431 NAS-FPN 算法详解 121

432 NAS-FPN Lite 125

433 小结 125

44 Effi cientDet 125

441 BiFPN 126

442 EfficientDet 详解 127

443 小结 128

第 5 章  损失函数  129

51 Focal Loss 129

511 Focal Loss 介绍 130

512 RetinaNet132

513 小结132

52 IoU 损失 133

人民邮电出版社有限公司店铺主页二维码
人民邮电出版社有限公司 微信公众号认证
人民邮电出版社微店,为您提供最全面,最专业的一站式购书服务
扫描二维码,访问我们的微信店铺
随时随地的购物、客服咨询、查询订单和物流...

深度学习高手笔记:基础算法+*应用 套装2册

手机启动微信
扫一扫购买

收藏到微信 or 发给朋友

1. 打开微信,扫一扫左侧二维码

2. 点击右上角图标

点击右上角分享图标

3. 发送给朋友、分享到朋友圈、收藏

发送给朋友、分享到朋友圈、收藏

微信支付

支付宝

扫一扫购买

打开微信,扫一扫

或搜索微信号:renyoushe
人民邮电出版社官方微信公众号

收藏到微信 or 发给朋友

1. 打开微信,扫一扫左侧二维码

2. 点击右上角图标

点击右上角分享图标

3. 发送给朋友、分享到朋友圈、收藏

发送给朋友、分享到朋友圈、收藏