周志华老师的《机器学习》的勘误

原帖地址: http://cs.nju.edu.cn/zhouzh/zhouzh.files/publication/MLbook2016.htm

由于勘误是不断更新的,本博客并不会实时更新,因此建议看原贴,原贴是周老师实时更新的勘误,本博客只是部分勘误

勘误修订

[部分修订是为了更便于读者理解,并非原文有误]

(第一版第十次印刷, 2016年9月):

(第一版第九次印刷, 2016年8月):

(第一版第八次印刷, 2016年5月):

    • p.5, 第2段倒数第3行: “3、2、2” –> “3、3、3”
    • p.5, 第2段倒数第2行: “4×3×3+1=374×3×3+1=374 \times 3 \times 3 + 1 = 37” –> “4 \times 4 \times 4 + 1 = 654 \times 4 \times 4 + 1 = 654 \times 4 \times 4 + 1 = 65”
    • p.26, 边注第2行: “2.6 节” –> “2.5 节”
    • p.41, 式(2.33)上面一行: “正态分布, 且均值 …… 因此变量” –> “正态分布. McNemar检验考虑变量”
    • p.41, 式(2.33)旁加边注: “e01+e10e01+e10e_{01} + e_{10} 通常很小, 需考虑连续性校正, 因此分子中有 −1−1-1 项”
    • p.45, 第一个边注: “由式(2.37)” –> “考虑到噪声不依赖于fff, 由式(2.37)”
    • p.63, 式(3.45)下面一行: “N−1" role="presentation" style="position: relative;">N−1N−1N-1个最大” –> “d′d′d'个最大非零”
    • p.63, 式(3.45)下面第2行: “矩阵.” –> “矩阵, d′≤N−1d′≤N−1d'\le N-1.”; 加边注: “最多有N−1N−1N-1个非零特征值”
    • p.63, 式(3.45)下面第3行: “N−1N−1N-1维” –> “d′d′d'维”
    • p.63, 式(3.45)下面第4行: “N−1N−1N-1通常远小于数据原有的属性数” –> “d′d′d'通常远小于数据原有的属性数ddd”
    • p.100, 图5.5, 左图最上面的 “阈值0.5" role="presentation" style="position: relative;">0.50.50.5” –> “阈值1.51.51.5”
    • p.100, 图5.5, 左图最右边的 “阈值0.50.50.5” –> “阈值−1.5−1.5-1.5”
    • p.100, 图5.5, 左图中间的”1  -1  -1  1” –> “1  1  -1  -1”
    • p.125, 式(6.18): “ysysy_s” –> “1/ys1/ys1/y_s”
    • p.136, 式(6.54): 右边最后一项中的四处 ”iii” –> “j" role="presentation" style="position: relative;">jjj”
    • p.136, 式(6.54): 右边最后一项中最后的 ”\bmx\bmx{\bm x}” –> “\bmxi\bmxi{\bm x}_i”
    • p.152, 第三个式子等号右端: “0.3750.3750.375” –> “0.6250.6250.625”
    • p.153, 第3行: “0.0380.0380.038” –> “0.0630.0630.063”
    • p.153, 第6行: “0.0380.0380.038” –> “0.0630.0630.063”
    • p.160, 式(7.29)下面第2行: “需多少字节来描述DDD” –> “对D" role="presentation" style="position: relative;">DDD描述得有多好”;加边注: “可以从统计学习角度理解, 将两项分别视为结构风险和经验风险”
    • p.239, 式(10.39)第二行式子: 去掉上标 “222”
    • p.244, 第13行: “Locally” –> “Nonlinear dimensionality reduction by locally”
    • p.244, 第14行: “2316” –> “2326”
    • p.249, 式(11.2): “i=1" role="presentation" style="position: relative;">i=1i=1i=1” –> “k=1k=1k=1”
    • p.253, 倒数第5行: “[Boyd and Vandenberghe, 2004]” –> “[Combettes and Wajs, 2005]”
    • p.263, 倒数第4行, 插入: “Combettes, P. L. and V. R. Wajs. (2005). “Signal recovery by proximal forward-backward splitting.” \textit{Mutiscale Modeling & Simulation}, 4(4):1168–1200.”
    • p.277, 式(12.29): “E(h)−E^(h)E(h)−E^(h)E(h) - \hat{E}(h)” –> “∣∣E(h)−E^(h)∣∣|E(h)−E^(h)|\left| E(h) - \hat{E}(h) \right|”
    • p.299, 式(13.9)后第三段第2行: “关于 DuDuD_u” –> “涉及 CuCuC_u”

(第一版第七次印刷, 2016年4月):

    • p.42, 表2.5下面一段的第三行: “服从正态分布,其均值” –> “的均值”
    • p.42, 倒数第二行加边注: “原始检验要求kkk较大(例如>30" role="presentation" style="position: relative;">>30>30>30),若kkk较小则倾向于认为无显著区别”

(第一版第六次印刷, 2016年4月):

  • p.56, 图3.1中,红色第一和第二个点的坐标互换
  • p.114, 图5.15中, 卷积层 16@10x10 和 采样层 16@5x5 各去掉 8 个方块
  • p.301, 式(13.12)的下一行: “(\bmflT\bmfuT)T" role="presentation" style="position: relative;">(\bmfTl\bmfTu)T(\bmflT\bmfuT)T({\bm f}_l^{\rm T}\,{\bm f}_u^{\rm T})^{\rm T}” –> “(\bmfTl;\bmfTu)(\bmflT;\bmfuT)({\bm f}_l^{\rm T}; {\bm f}_u^{\rm T})”
  • p.372, 图16.2: 从”s=健康”到”s=溢水”的 “r=1” –> “r=-1”
  • p.376, 图16.5的边注: “第 4 行中式(16.4)的参数” –> “该参数在第4行使用”
  • p.385, 第二行: “在使用策略时并不需要ϵ−ϵ−\epsilon-贪心” –> “而不是为了最终使用”
  • p.387, 倒数第二行: “ϵ−ϵ−\epsilon-贪心策略, 而执行(第5行)的是原始策略” –> “原始策略, 而执行(第4行)的是ϵ−ϵ−\epsilon-贪心策略”
  • p.393, 第四段第一行: 去掉 “[Kuleshov and Precup, 2000]和”
  • p.395, 去掉最后一行
  • p.396, 去掉第一行
  • p.402, 式(A.32)加边注: “机器学习中 WW\bf W 通常是对称矩阵”

(第一版第五次印刷, 2016年3月):

    • p.62, 第1行加边注: “(\bmμ0−\bmμ1)T\bmw(\bmμ0−\bmμ1)T\bmw(\bm{\mu}_0 - \bm{\mu}_1)^{\rm T} \bm{w} 是标量”
    • p.78, 图4.4, 从右往左数: 第二个叶结点改为“好瓜”,第三个叶结点改为“坏瓜”
    • p.85, 图4.8, 从右往左数: 第二个叶结点改为“好瓜”,第三个叶结点改为“坏瓜”
    • p.85, 图4.8, 中间分支底层: “硬挺”–> “硬滑”
    • p.89, 图4.9, 中间分支底层: “硬挺”–> “硬滑”
    • p.103, 最后一行的式子: 求和的”qqq” –> “l" role="presentation" style="position: relative;">lll”
    • p.399, 式(A.9): “A1σnA1σnA_{1 \sigma n}” –> “AnσnAnσnA_{n \sigma n}”
    • p.400, 第1行: “(1,4,3,2)” –> “(3,1,2)”
    • p.402, 式(A.32)最后一行的式子中: “2A2A2{\mathbf A}” –> “2AT2AT2{\mathbf A}^{\rm T}”

(第一版第四次印刷, 2016年3月):

    • p.59, 式(3.27)加边注: “考虑 yi∈{0,1}yi∈{0,1}y_i \in \{0, 1\}”

(第一版第三次印刷, 2016年3月):

    • p.15, 第5行: “居功” –> “厥功”
    • p.55, 最后一行: 式子括号中的逗号改为分号
    • p.125, 第3行: “减小” –> “增大”
    • p.125, 第4行,第6行: “减幅” –> “增幅”
    • p.125, 第5行: “减小” –> “增长”

(第一版第二次印刷, 2016年2月):

    • p.38, 第6行: “ϵm′ϵm′\epsilon^{m'}” –> “(mm′)ϵm′(mm′)ϵm′{m \choose m'} \epsilon^{m'}”
    • p.119, 第14行: “318–362” –> “533–536”
    • p.404, 式(B.3)最后一行的式子 –> “λg(\bmx)=0λg(\bmx)=0\lambda g({\bm x})=0”

(第一版第一次印刷, 2016年1月):

    • p.6, 图1.2: 图中两处”清脆” –> “浊响”
    • p.28, 第3段倒数第2行: “大量” –> “不少”
    • p.28, 边注: “例如 ……上百亿个参数” –> “机器学习常涉及两类参数: 一类是算法的参数, 亦称”超参数”, 数目常在10以内; 另一类是模型的参数, 数目可能很多, 例如……上百亿个参数. 两者调参方式相似, 均是产生多个模型之后基于某种评估方法来进行选择; 不同之处在于前者通常是由人工设定多个参数候选值后产生模型, 后者则是通过学习来产生多个候选模型(例如神经网络在不同轮数停止训练).”
    • p.31, 倒数第3行: “Event” –> “Even”
    • p.256, 第4段: “固定住αiαi{\bf \alpha}_i” –> “以αiαi{\bf \alpha}_i为初值”
    • p.256, 最后一段第1行: “Ei=Ei={\bf E}_i =” –> “Ei=X−Ei=X−{\bf E}_i = {\bf X} - ”
    • p.385, 式(16.25)和(16.26): 两处”ririr_i” –> “RiRiR_i”
    • p.385, 式(16.25)下一行: “若改用……” –> “其中RiRiR_i表示第iii条轨迹上自状态x" role="presentation" style="position: relative;">xxx至结束的累积奖赏. 若改用……”
    • p.386, 式(16.28)下一行: “始终为1” –> “对于ai=π(xi)ai=π(xi)a_i=\pi(x_i)始终为1”
    • p.386, 图16.11, 第4步: 两处 “π(x)π(x)\pi(x)” –> “π(xi)π(xi)\pi(x_i)”
    • p.386, 图16.11, 第6步的式子 –> “R=1T−t(∑Ti=t+1ri)∏T−1i=t+1I(ai=π(xi))piR=1T−t(∑i=t+1Tri)∏i=t+1T−1I(ai=π(xi))piR=\frac{1}{T-t}\left(\sum_{i=t+1}^T r_i\right) \prod_{i=t+1}^{T-1} \frac{\mathbb I(a_i=\pi(x_i))}{p_i}”
    • p.386, 图16.11, 边注”计算修正的累积奖赏.” –> “计算修正的累积奖赏. 连乘内下标大于上标的项取值为1.”; 去掉边注”重要性采样系数.”

周志华《机器学习》勘误表相关推荐

  1. 周志华-机器学习西瓜书-第三章习题3.3 编程实现对率回归

    本文为周志华机器学习西瓜书第三章课后习题3.3答案,编程实现对率回归,数据集为书本第89页的数据 使用tensorflow实现过程 # coding=utf-8 import tensorflow a ...

  2. 周志华机器学习(6):支持向量机

    周志华机器学习(6):支持向量机 6 支持向量机 6.1 间隔与支持向量 6.2 对偶问题(dual problem) 6.3 核函数 6.4 软间隔与正则化 基本是大段摘录西瓜书加上一些自己的解释补 ...

  3. 周志华机器学习--绪论

    周志华机器学习–绪论 第一章 绪论 第二章 模型评估与选择 第三章 线性模型 第四章 决策树 第五章 支持向量机 第六章 神经网络 第七章 贝叶斯分类器 第八章 集成学习和聚类 文章目录 周志华机器学 ...

  4. 周志华机器学习(西瓜书)学习笔记(持续更新)

    <周志华机器学习>笔记 第1章 绪论 1.1 引言 1.2 基本术语 1.3 假设空间 1.4 归纳偏好 1.5 发展历程 1.6 应用现状 第2章 模型评估与选择 2.1 经验误差与过拟 ...

  5. 【读书笔记】周志华 机器学习 第二章 模型评估和选择

    第二章 模型评估和选择 1 欠拟合和过拟合 偏差和方差 1.1 欠拟合和过拟合 1.2 偏差和方差 2 评估方法 性能度量 2.1 评估方法 2.1.1 留出法 2.2.2 交叉验证法 2.2.3 自 ...

  6. 周志华机器学习--模型评估与选择

    周志华机器学习–模型评估与选择 第一章 绪论 第二章 模型评估与选择 第三章 线性模型 第四章 决策树 第五章 支持向量机 第六章 神经网络 第七章 贝叶斯分类器 第八章 集成学习和聚类 文章目录 周 ...

  7. 周志华机器学习-决策树

    周志华机器学习-决策树 第一章 绪论 第二章 模型评估与选择 第三章 线性模型 第四章 决策树 第五章 支持向量机 第六章 神经网络 第七章 贝叶斯分类器 第八章 集成学习和聚类 文章目录 周志华机器 ...

  8. 周志华机器学习-支持向量机

    周志华机器学习-支持向量机 第一章 绪论 第二章 模型评估与选择 第三章 线性模型 第四章 决策树 第五章 支持向量机 第六章 神经网络 第七章 贝叶斯分类器 第八章 集成学习和聚类 – 文章目录 周 ...

  9. 《周志华机器学习详细公式推导版》发布,Datawhale开源项目pumpkin-book

    点击上方↑↑↑蓝字关注我们~ 「2019 Python开发者日」全日程揭晓,请扫码咨询 ↑↑↑ 来源 | Datawhale(ID:Datawhale) 如果让你推荐两本国内机器学习的入门经典作,你会 ...

  10. 【强烈推荐】Github star 10K+,周志华机器学习详细公式推导!

    关注上方"深度学习技术前沿",选择"星标公众号", 资源干货,第一时间送达! [导读]:今天给大家推荐一本超级nice的机器学习理论推导书籍,它就是<西瓜 ...

最新文章

  1. 2022-2028年中国汽车印制电路板(汽车PCB)产业深度调研及投资前景预测报告
  2. Druid 大数据分析之快速应用(单机模式)
  3. 与用户登录有关的命令w who whoami last lastb lastlog
  4. buu [AFCTF2018]Morse
  5. Android Studio获得sha1码
  6. robotframework 配置过程中遇到的问题
  7. 在windows storage server 2008上创建iscsi磁盘
  8. 【Java虚拟机】运行时数据区
  9. 多线程、多核技术是什么技术?
  10. HTML+CSS实现小米账号注册界面
  11. mysql 存储过程 汉字取拼音或者首字母
  12. 查看Mysql数据库版本
  13. C语言符号优先级速查
  14. TTL转RS232电路--分享原理图和参考资料
  15. spark 和 elk 技术栈对比?
  16. java String的intern()方法
  17. axios get怎么还会显示跨域_axios 跨域问题的解决 (接口 Phal 框架)
  18. Shellcode生成工具Donut测试分析
  19. Java标识符和关键字
  20. 【开源专访】Sea.js创始人玉伯的前端开发之路

热门文章

  1. 微信小程序—一键复制文本
  2. 同盾设备指纹简单分析及手机相关ID了解
  3. 【转载】城域网IPv6过渡技术—NAT444与DS-lite详解
  4. python面向对象的特征_python 面向对象的三大特性
  5. 微原实验二 数码转换
  6. 【实战】python-docx---每页表格固定显示行数
  7. VScode安装及个性化插件设置
  8. 安装命令:pip install xlrd ,pandas操作Excel学习笔记__7000
  9. 月份加日期前面用on还是in_年月日前什么时候用in,什么时候用on
  10. 184、商城业务-检索服务-页面基本数据渲染