概述
于剑《机器学习》第一章引言笔记
对象特性输入表示:观测得到的对象特性描述。
对象特性输出表示:学习得到的对象特性描述。
丑小鸭定理
不存在独立于问题而普遍适用的特征表示,特征的有效与否是问题依赖的。——“如果选定的特征不合理,那么世界上所有事物之间的相似程度都一样,丑小鸭与白天鹅之间的区别和两只白天鹅之间的区别一样大。”
No free lunch 定理:
在大量廉价数据中,普遍存在错误和无关紧要的测量。
对象特性输入表示
通常分为:向量表示 ,网络表示和混合表示。
设有N个对象,
O
=
{
o
1
,
o
2
,
.
.
.
,
o
N
}
O = {o_1,o_2,...,o_N}
O={o1,o2,...,oN}表示对象集合,其中
o
k
o_k
ok表示第k个对象。
X
=
{
x
1
,
x
2
,
.
.
.
,
x
N
}
X = {x_1,x_2,...,x_N}
X={x1,x2,...,xN}表示对象特性输入表示,
x
k
x_k
xk表示对象
o
k
o_k
ok的特性输入表示,
x
k
=
[
x
1
k
,
x
2
k
,
.
.
.
,
x
p
k
]
T
x_k = {[x_{1k},x_{2k},...,x_{pk}]}^T
xk=[x1k,x2k,...,xpk]T,
p
p
p表示对象输入特征的维数,因此,
X
=
[
x
τ
k
]
p
×
N
X = [x_{tau k}]_{ptimes N}
X=[xτk]p×N
相似性矩阵:
S
(
X
)
=
[
s
k
l
]
N
×
N
S(X) = [s_{kl}]_{Ntimes N}
S(X)=[skl]N×N,其中
s
k
l
s_{kl}
skl表示对象
o
k
o_k
ok和对象
o
l
o_l
ol的相似性,
s
k
l
s_{kl}
skl越大则对象
o
k
o_k
ok和
o
l
o_l
ol之间相似性越大,对象
o
k
o_k
ok可以由行向量
[
s
k
1
,
s
k
2
.
.
.
,
s
k
N
]
[s_{k1},s_{k2}...,s_{kN}]
[sk1,sk2...,skN]表示。
同理,相异性矩阵:
D
(
X
)
=
[
d
k
l
]
N
×
N
D(X)=[d_{kl}]_{Ntimes N}
D(X)=[dkl]N×N,其中
d
k
l
d_{kl}
dkl表示对象
o
k
o_k
ok和对象
o
l
o_l
ol的相异性,
d
k
l
d_{kl}
dkl越大则对象
o
k
o_k
ok和
o
l
o_l
ol之间相异性越大,对象
o
k
o_k
ok可以由行向量
[
d
k
1
,
d
k
2
.
.
.
,
d
k
N
]
[d_{k1},d_{k2}...,d_{kN}]
[dk1,dk2...,dkN]表示。
对象特性输出表示
Y = y 1 , y 2 , . . . , y N Y = {y_1,y_2,...,y_N} Y=y1,y2,...,yN,其中 y k y_k yk表示对象 o k o_k ok的特性输出表示,通常用矩阵 [ y τ k ] d × N [y_{tau k}]_{dtimes N} [yτk]d×N来表示,其中 d d d表示对象输出特征的维数。
最后
以上就是娇气玉米为你收集整理的于剑《机器学习》第一章笔记于剑《机器学习》第一章引言笔记的全部内容,希望文章能够帮你解决于剑《机器学习》第一章笔记于剑《机器学习》第一章引言笔记所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
发表评论 取消回复