概述
9.1 证明:
p≥1
时,闵可夫斯基距离满足距离度量的四条基本性质。
0≤p<1
时,闵可夫斯基距离只满足非负性、规范性和对称性,不满足三角不等式。当p趋向于无穷大时,闵可夫斯基距离等于对应分量的最大绝对距离,也称为切比雪夫距离:
解答:
- 当
p>0
时,
非负性:显然为正。
规范性:当 xi=xj 时,有 (∑nu=1|xiu−xju|p)1p=0 ;当 (∑nu=1|xiu−xju|p)1p=0 时,假设 xi≠xj ,则 (∑nu=1|xiu−xju|p)1p≠0 ,与条件矛盾,故假设不成立,应有 xi=xj 。
对称性:绝对值不变,故距离不变。显然
闵可夫斯基不等式
当 p≥1 时,则有如下不等式成立,称为闵可夫斯基不等式:
(∑i=1n|ai+bi|p)1p≤(∑i=1n|ai|p)1p+(∑i=1n|bi|p)1p.
其中 ai,bi 为实数或者复数。
- 当
p≥1
时,根据闵可夫斯基不等式,有
(∑u=1n|xiu−xju|p)1p=(∑u=1n|xiu−xku+xku−xju|p)1p≤(∑u=1n|xiu−xku|p)1p+(∑u=1n|xku−xju|p)1p,(1)
即三角不等式成立。
至于 0≤p<1 时,怎么证明此不等式不成立就不知道了。
- 切比雪夫距离:
limp→+∞(∑u=1n|xiu−xju|p)1p=maxu|xiu−xju|limp→+∞(∑u=1n(|xiu−xju|maxu|xiu−xju|)p)1p=maxu|xiu−xju|.(2)
(|xiu−xju|maxu|xiu−xju|) 大于0小于等于1:对于小于1的项,当 p→+∞ 时趋向于0,只有为1的项保留下来了, p→+∞ 时还为1。因为只有有限个等于1的项,所以求和可以认为等于一个常数a,且 a≥1 ,则 limp→+∞a1p=1 。于是(2)的第二个等式成立。
9.2 同一样本空间中的集合X与Z之间的距离可以通过豪斯多夫距离计算:
其中,
试证明:豪斯多夫距离满足距离度量的四条基本性质。
解答:
非负性:显然。
规范性:
当
X=Z
时,有
disth(X,Z)=0
,所以
distH(X,Z)=0
.
当
distH(X,Z)=0
时,表明
disth(X,Z)
和
disth(Z,H)
中最大的那个为0,又因为不可能为负,所以两个只能都为0。而
disth(X,Z)=0
意味着X中的任一点到Z的距离为0,这表示X中的任一点都必须属于Z,也就是说
X⊂Z
。同样,由
disth(Z,H)=0
可以知道
Z⊂X
。于是有
X=Z
。
对称性:显然。
三角不等式:
对不等式右边求
miny
,有
对不等式右边求
maxx
,有
对不等式左边求
maxx
,有
参考:http://www.math.harvard.edu/library/sternberg/slides/1180910.pdf
9.3 分析k均值算法能否找到最小化(9.24)的最优解。
解答:
k均值算法是用迭代的方法求解优化问题(9.24)的,每次迭代分为两步:计算簇中心;根据样本到簇中心的距离重新聚类。两个步骤都可以使得代价函数降低(至于为什么,可以阅读PRML p.425),又因为代价函数是有界的(聚类方法是有限的),所以不断迭代之后,最终一定能收敛,但不一定收敛到全局最小。而且收敛结果是对初值敏感的,不同的初值得到的聚类结果可能有很大差别。
上面只是简单的叙述,至于能不能严格证明:k均值算法不一定收敛到最优解,就不得而知了。目前只听说过证明收敛性的。
9.4 编程实现k均值算法,设置三组不同的k值、三组不同初始中心点,在西瓜数据集4.0上进行实验比较,并讨论什么样的初始中心有助于得到好结果。
解答:西瓜书《机器学习》课后答案——chapter9 _9.4
9.5 基于DBSCAN的概念定义,若x为核心对象,由x密度可达的所有样本构成的集合为X,试证明:X满足连接性和最大性。
解答:
连接性:对
∀xi∈X,∀xj∈X
,有
xi
和
xj
密度相连。
xi∈X
,
xj∈X
分别表示
xi
由
x
密度可达,
最大性:对
∀xi∈X
,
xj
由
xi
密度可达,则
xj∈C
。
因为
xi∈X
,所以
xi
由
x
密度可达,又因为
9.6 试析AGNES算法使用最小距离和最大距离的区别。
解答:
当两个类簇比较大且距离比较远,但是有两个点距离对方比较近时,那么单链接算法会把这两个类簇合并,导致产生拉长的类簇而不是一般情况下的圆形类簇,这被称为链式效应。因为这个算法经常由于链式效应而把不相似的对象放到同一类簇中,所以是空间压缩的(space contracting)。
当两个类簇中至少有一对比较远离的对象时,全链接算法会最后合并这两个类簇,于是相似对象会长时间待在不同类簇中,这被称为分离效果(dissection effect)。所以,全链接算法是空间扩张的(space dilating)。
参考:Finding Groups in Data: An Introduction to Cluster Analysis. L Kaufman , PJ Rousseeuw. 1990. p.225.
9.7 聚类结果中若每个簇都有一个凸包(包含簇样本的凸多面体),且这些凸包不相交,则称为凸聚类。试析本章介绍的哪些聚类算法只能产生凸聚类,哪些能产生非凸聚类。
解答:
k-means算法是凸聚类算法,生成的类簇有凸包包围并且凸包互不相交;
DBSCAN算法是非凸聚类算法;
9.8 试设计一个聚类性能度量指标,并与9.2中的指标比较。
9.9 设计一个能用于混合属性的非度量距离。
用于相似性度量的距离不一定要满足距离的定义,这样的距离称非度量距离。
9.10 设计一个能自动确定聚类数的改进k均值算法,编程实现并在西瓜数据集4.0上运行。
最后
以上就是英勇蚂蚁为你收集整理的西瓜书《机器学习》课后答案——chapter9的全部内容,希望文章能够帮你解决西瓜书《机器学习》课后答案——chapter9所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
发表评论 取消回复