机器学习公式详解 第2二版 周志华"西瓜书"《机器学习》伴侣书南瓜书新版 机器学习人工智能入门基础教程
运费: | ¥ 0.00-20.00 |
商品详情
书名:机器学习公式详解第2版
定价:89.8
ISBN:9787115615725
作者:谢文睿,秦州,贾彬彬
版次:第1版
出版时间:2023-06
内容提要:
周志华老师的《机器学习》(俗称“西瓜书”)是机器学习领域的*入门教材之一。本书是《机器学习公式详解》(俗称“南瓜书”)的第2 版。相较于第1 版,
本书对“西瓜书”中除了公式以外的重、难点内容加以解析,以过来人视角给出学习建议,旨在对比较难理解的公式和重点内容扩充具体的例子说明,以及对跳步
过大的公式补充具体的推导细节。
全书共16 章,与“西瓜书”章节、公式对应,每个公式的推导和解释*以本科数学基础的视角进行讲解,希望能够帮助读者快速掌握各个机器学习算法背后的数学原理。
本书思路清晰,视角独特,结构合理,可作为高等院校计算机及相关专业的本科生或研究生教材,也可供对机器学习感兴趣的研究人员和工程技术人员阅读参考
作者简介:
谢文睿
北京工业大学硕士,Datawhale开源项目负责人,百度算法工程师,研究方向为机器学习与自然语言处理。
秦州
康奈尔大学计算机硕士,Datawhale成员,阿里巴巴算法*,研究方向为图计算与自然语言处理, 在NeurIPS、AAAI、CIKM等会议上录用多篇学术论文并获得
CIKM 2019*应用论文奖。
贾彬彬
工学博士,兰州理工大学讲师,研究方向为机器学习与数据挖掘,在TKDE、TNNLS、PRJ、ICML、AAAI等期刊和会议上共发表学术论文十余篇,并担任ICML、
NeurIPS、ICLR、AAAI、IJCAI 等会议的程序委员会委员(PC Member)。
目录:
序(王斌 小米AI 实验室主任、NLP *科学家)
前言
主要符号表
资源与支持
第 1 章 绪论 1
1.1 引言 1
1.2 基本术语 1
1.3 假设空间 5
1.4 归纳偏好 5
1.4.1 式(1.1) 和式(1.2) 的解释 6
第 2 章 模型评估与选择 8
2.1 经验误差与过拟合 8
2.2 评估方法 9
2.2.1 算法参数(*参数)与模型参数 10
2.2.2 验证集 10
2.3 性能度量 11
2.3.1 式(2.2) ~ 式(2.7) 的解释 11
2.3.2 式(2.8) 和式(2.9) 的解释 11
2.3.3 图2.3 的解释 11
2.3.4 式(2.10) 的推导 11
2.3.5 式(2.11) 的解释 12
2.3.6 式(2.12) ~ 式(2.17) 的解释 13
2.3.7 式(2.18) 和式(2.19) 的解释 13
2.3.8 式(2.20) 的推导 14
2.3.9 式(2.21) 和式(2.22) 的推导 16
2.3.10 式(2.23) 的解释 18
2.3.11 式(2.24) 的解释 19
2.3.12 式(2.25) 的解释 20
2.4 比较检验 22
2.4.1 式(2.26) 的解释 22
2.4.2 式(2.27) 的推导 23
2.5 偏差与方差 26
2.5.1 式(2.37) ~ 式(2.42) 的推导 26
参考文献 29
第3 章 线性模型 30
3.1 基本形式 30
3.2 线性回归 30
3.2.1 属性数值化 30
3.2.2 式(3.4) 的解释 31
3.2.3 式(3.5) 的推导 32
3.2.4 式(3.6) 的推导 32
3.2.5 式(3.7) 的推导 33
3.2.6 式(3.9) 的推导 35
3.2.7 式(3.10) 的推导 36
3.2.8 式(3.11) 的推导 36
3.3 对率回归 39
3.3.1 式(3.27) 的推导 39
3.3.2 梯度下降法 41
3.3.3 牛顿法 42
3.3.4 式(3.29) 的解释 44
3.3.5 式(3.30) 的推导 44
3.3.6 式(3.31) 的推导 45
3.4 线性判别分析 46
3.4.1 式(3.32) 的推导 46
3.4.2 式(3.37) ~ 式(3.39) 的推导 47
3.4.3 式(3.43) 的推导 48
3.4.4 式(3.44) 的推导 48
3.4.5 式(3.45) 的推导 49
3.5 多分类学习 52
3.5.1 图3.5 的解释 52
3.6 类别不平衡问题 52
参考文献 52
第4 章 决策树 53
4.1 基本流程 53
4.2 划分选择 54
4.2.1 式(4.1) 的解释 54
4.2.2 式(4.2) 的解释 58
4.2.3 式(4.4) 的解释 58
4.2.4 式(4.5) 的推导 59
4.2.5 式(4.6) 的解释 59
4.3 剪枝处理 62
4.4 连续值与缺失值 63
4.4.1 式(4.7) 的解释 63
4.4.2 式(4.8) 的解释 64
4.4.3 式(4.12) 的解释 64
4.5 多变量决策树 64
4.5.1 图4.10 的解释 65
4.5.2 图4.11 的解释 65
参考文献 66
第5 章 神经网络 67
5.1 神经元模型 67
5.2 感知机与多层网络 67
5.2.1 式(5.1) 和式(5.2) 的推导 67
5.2.2 图5.5 的解释 70
5.3 误差逆传播算法 70
5.3.1 式(5.10) 的推导 70
5.3.2 式(5.12) 的推导 70
5.3.3 式(5.13) 的推导 71
5.3.4 式(5.14) 的推导 72
5.3.5 式(5.15) 的推导 73
5.4 全局*小与局部极小 73
5.5 其他常见神经网络 73
5.5.1 式(5.18) 的解释 73
5.5.2 式(5.20) 的解释 73
5.5.3 式(5.22) 的解释 74
5.5.4 式(5.23) 的解释 74
5.6 深度学习 74
5.6.1 什么是深度学习 75
5.6.2 深度学习的起源 75
5.6.3 怎么理解特征学习 75
参考文献 75
第6 章 支持向量机 77
6.1 间隔与支持向量 77
6.1.1 图6.1 的解释 77
6.1.2 式(6.1) 的解释 77
6.1.3 式(6.2) 的推导 78
6.1.4 式(6.3) 的推导 78
6.1.5 式(6.4) 的推导 80
6.1.6 式(6.5) 的解释 80
6.2 对偶问题 80
6.2.1 凸优化问题 80
6.2.2 KKT 条件 80
6.2.3 拉格朗日对偶函数 81
6.2.4 拉格朗日对偶问题 82
6.2.5 式(6.9) 和式(6.10) 的推导 85
6.2.6 式(6.11) 的推导 85
6.2.7 式(6.13) 的解释 86
6.3 核函数 87
6.3.1 式(6.22) 的解释 87
6.4 软间隔与正则化 87
6.4.1 式(6.35) 的推导 87
6.4.2 式(6.37) 和式(6.38) 的推导 87
6.4.3 式(6.39) 的推导 87
6.4.4 式(6.40) 的推导 88
6.4.5 对率回归与支持向量机的关系 88
6.4.6 式(6.41) 的解释 89
6.5 支持向量回归 89
6.5.1 式(6.43) 的解释 89
6.5.2 式(6.45) 的推导 90
6.5.3 式(6.52) 的推导 91
6.6 核方法 92
6.6.1 式(6.57) 和式(6.58) 的解释 92
6.6.2 式(6.65) 的推导 92
6.6.3 式(6.66) 和式(6.67) 的解释 93
6.6.4 式(6.70) 的推导 94
6.6.5 核对率回归 98
参考文献 99
第7 章 贝叶斯分类器 100
7.1 贝叶斯决策论 100
7.1.1 式(7.5) 的推导 100
7.1.2 式(7.6) 的推导 100
7.1.3 判别式模型与生成式模型 100
7.2 极大似然估计 101
7.2.1 式(7.12) 和式(7.13) 的推导 101
7.3 朴素贝叶斯分类器 104
7.3.1 式(7.16) 和式(7.17) 的解释 104
7.3.2 式(7.18) 的解释 104
7.3.3 贝叶斯估计 105
7.3.4 Categorical 分布 105
7.3.5 Dirichlet 分布 106
7.3.6 式(7.19) 和式(7.20) 的推导 106
7.4 半朴素贝叶斯分类器 110
7.4.1 式(7.21) 的解释 110
7.4.2 式(7.22) 的解释 111
7.4.3 式(7.23) 的推导 111
7.4.4 式(7.24) 和式(7.25) 的推导 112
7.5 贝叶斯网 112
7.5.1 式(7.27) 的解释 112
7.6 EM 算法 113
7.6.1 Jensen 不等式 113
7.6.2 EM 算法的推导 113
参考文献 121
第8 章 集成学习 122
8.1 个体与集成 123
8.1.1 式(8.1) 的解释 123
8.1.2 式(8.2) 的解释 123
8.1.3 式(8.3) 的推导 123
8.2 Boosting 124
8.2.1 式(8.4) 的解释 125
8.2.2 式(8.5) 的解释 125
8.2.3 式(8.6) 的推导 126
8.2.4 式(8.7) 的推导 126
8.2.5 式(8.8) 的推导 127
8.2.6 式(8.9) 的推导 127
8.2.7 式(8.10) 的解释 128
8.2.8 式(8.11) 的推导 128
8.2.9 式(8.12) 的解释 129
8.2.10 式(8.13) 的推导 129
8.2.11 式(8.14) 的推导 130
8.2.12 式(8.16) 的推导 131
8.2.13 式(8.17) 的推导 131
8.2.14 式(8.18) 的推导 132
8.2.15 式(8.19) 的推导 132
8.2.16 AdaBoost 的个人推导 133
8.2.17 进一步理解权重更新公式 137
8.2.18 能够接受带权样本的基学习算法 139
8.3 Bagging 与随机森林 140
8.3.1 式(8.20) 的解释 140
8.3.2 式(8.21) 的推导 140
8.3.3 随机森林的解释 141
8.4 结合策略 141
8.4.1 式(8.22) 的解释 141
8.4.2 式(8.23) 的解释 141
8.4.3 硬投票和软投票的解释 141
8.4.4 式(8.24) 的解释 142
8.4.5 式(8.25) 的解释 142
8.4.6 式(8.26) 的解释 142
8.4.7 元学习器的解释 142
8.4.8 Stacking 算法的解释 143
8.5 多样性 143
8.5.1 式(8.27) 的解释 143
8.5.2 式(8.28) 的解释 143
8.5.3 式(8.29) 的解释 143
8.5.4 式(8.30) 的解释 144
8.5.5 式(8.31) 的推导 144
8.5.6 式(8.32) 的解释 144
8.5.7 式(8.33) 的解释 145
8.5.8 式(8.34) 的解释 145
8.5.9 式(8.35) 的解释 145
8.5.10 式(8.36) 的解释 145
8.5.11 式(8.40) 的解释 145
8.5.12 式(8.41) 的解释 146
8.5.13 式(8.42) 的解释 146
8.5.14 多样性增强的解释 146
8.6 Gradient Boosting、GBDT、XGBoost的联系与区别 147
8.6.1 从梯度下降的角度解释AdaBoost 147
8.6.2 梯度提升 149
8.6.3 梯度提升树(GBDT) 151
8.6.4 XGBoost 152
参考文献 152
第9 章 聚类 153
9.1 聚类任务 153
9.2 性能度量 153
9.2.1 式(9.5) 的解释 153
9.2.2 式(9.6) 的解释 155
9.2.3 式(9.7) 的解释 155
9.2.4 式(9.8) 的解释 156
9.2.5 式(9.12) 的解释 156
9.3 距离计算 156
9.3.1 式(9.21) 的解释 156
9.4 原型聚类 157
9.4.1 式(9.28) 的解释 157
9.4.2 式(9.29) 的解释 157
9.4.3 式(9.30) 的解释 158
9.4.4 式(9.31) 的解释 159
9.4.5 式(9.32) 的解释 159
9.4.6 式(9.33) 的推导 160
9.4.7 式(9.34) 的推导 161
9.4.8 式(9.35) 的推导 162
9.4.9 式(9.36) 的解释 164
9.4.10 式(9.37) 的推导 164
9.4.11 式(9.38) 的推导 165
9.4.12 图9.6 的解释 166
9.5 密度聚类 166
9.5.1 密度直达、密度可达与密度相连 167
9.5.2 图9.9 的解释 168
9.6 层次聚类 168
第 10 章 降维与度量学习 170
10.1 预备知识 170
10.1.1 符号约定 170
10.1.2 矩阵与单位阵、向量的乘法 170
10.2 矩阵的F 范数与迹 171
10.3 k 近邻学习 173
10.3.1 式(10.1) 的解释 173
10.3.2 式(10.2) 的推导 174
10.4 低维嵌入 175
10.4.1 图10.2 的解释 175
10.4.2 式(10.3) 的推导 175
10.4.3 式(10.4) 的推导 176
10.4.4 式(10.5) 的推导 177
10.4.5 式(10.6) 的推导 177
10.4.6 式(10.10) 的推导 178
10.4.7 式(10.11) 的解释 179
10.4.8 图10.3 关于MDS 算法的解释 179
10.5 主成分分析 180
10.5.1 式(10.14) 的推导 180
10.5.2 式(10.16) 的解释 184
10.5.3 式(10.17) 的推导 186
10.5.4 根据式(10.17) 求解式(10.16) 188
10.6 核化线性降维 188
10.6.1 式(10.19) 的解释 189
10.6.2 式(10.20) 的解释 189
10.6.3 式(10.21) 的解释 190
10.6.4 式(10.22) 的解释 190
10.6.5 式(10.24) 的推导 190
10.6.6 式(10.25) 的解释 191
10.7 流形学习 191
10.7.1 等度量映射(Isomap) 的解释 191
10.7.2 式(10.28) 的推导 192
10.7.3 式(10.31) 的推导 194
10.8 度量学习 196
10.8.1 式(10.34) 的解释 196
10.8.2 式(10.35) 的解释 197
10.8.3 式(10.36) 的解释 197
10.8.4 式(10.37) 的解释 198
10.8.5 式(10.38) 的解释 198
10.8.6 式(10.39) 的解释 198
参考文献 199
第 11 章 特征选择与稀疏学习 200
11.1 子集搜索与评价 200
11.1.1 式(11.1) 的解释 200
11.1.2 式(11.2) 的解释 200
11.2 过滤式选择 201
11.3 包裹式选择 201
11.4 嵌入式选择与L1 正则化 202
11.4.1 式(11.5) 的解释 202
<
- 人民邮电出版社有限公司 (微信公众号认证)
- 人民邮电出版社微店,为您提供最全面,最专业的一站式购书服务
- 扫描二维码,访问我们的微信店铺
- 随时随地的购物、客服咨询、查询订单和物流...