概述
题目
Fast Multi-Instance Multi-Label Learning
快速多实例多标签搜索
算法思路
要处理多个标签的问题,最简单的方法是通过为每个标签独立训练一个模型,将其退化为一系列单标签问题。
基于标签
l
l
l分类模型对实例
x
mathbf{x}
x的分类:
f
l
(
x
)
=
w
l
⊤
W
0
x
f_{l}(mathbf{x})=mathbf{w}_{l}^{top} W_{0} mathbf{x}
fl(x)=wl⊤W0x
实例
x
mathbf{x}
x的分类,
W
0
W_{0}
W0是映射原始特征向量映射到共享空间的
m
×
d
mtimes d
m×d维矩阵,
w
l
mathbf{w}_{l}
wl是标签
l
l
l的
m
m
m维权重向量,
d
d
d和
m
m
m分别是特征空间和共享空间的维度。
多实例多标签学习任务中的对象通常具有复杂的语义,因此,具有不同内容的示例可能会被分配相同的标签。 例如,标有苹果的图像的内容可以是手机、笔记本电脑或只是一个真正的苹果。 很难训练单个模型将具有如此多样化内容的图像分类到同一类别中。 相反,我们建议为一个复杂的标签学习多个模型,一个用于子概念,并自动决定一个示例属于哪个子概念。 每个子概念的模型要简单得多,并且可能更容易训练以适应数据。
f
l
(
x
)
=
max
k
=
1
⋯
K
f
l
,
k
(
x
)
=
max
k
=
1
⋯
K
w
l
,
k
⊤
W
0
x
f_{l}(mathbf{x})=max _{k=1 cdots K} f_{l, k}(mathbf{x})=max _{k=1 cdots K} mathbf{w}_{l, k}^{top} W_{0} mathbf{x}
fl(x)=k=1⋯Kmaxfl,k(x)=k=1⋯Kmaxwl,k⊤W0x
在这样的处理方式下,实例
x
mathbf{x}
x的分类模型也改变了,
w
l
,
k
mathbf{w}_{l, k}
wl,k是标签
l
l
l的第
k
k
k个子概念的
m
m
m维权重向量
依照标准的多示例学习假设,则一个包的分类器如下
f
l
(
X
)
=
max
x
∈
X
f
l
(
x
)
f_{l}(X)=max _{mathbf{x} in X} f_{l}(mathbf{x})
fl(X)=x∈Xmaxfl(x)
标签
l
l
l对于包
X
X
X的预测值取
l
l
l对包中实例的最大预测值。
我们将具有最大预测的实例称为标签
l
l
l上
X
X
X 的关键实例。使用上述模型,对于示例 X 及其相关标签 l 之一,我们将 R(X; l) 定义为
R
(
X
,
l
)
=
∑
j
∈
Y
ˉ
I
[
f
j
(
X
)
>
f
l
(
X
)
]
R(X, l)=sum_{j in bar{Y}} Ileft[f_{j}(X)>f_{l}(X)right]
R(X,l)=j∈Yˉ∑I[fj(X)>fl(X)]
其中
Y
ˉ
bar{Y}
Yˉ表示
X
X
X 的不相关标签集,
I
[
.
]
I[ .]
I[.] 是指示函数,如果参数为真则返回 1,否则返回 0。本质上
R
(
X
,
l
)
R(X,l)
R(X,l) 计算了在包
X
X
X上的预测值大于标签
l
l
l的不相关标签的数量。(可以理解为,
R
(
X
,
l
)
R(X,l)
R(X,l)越大,则在整个标签集合的排序中,
X
X
X与
l
l
l越不相关。)
基于
R
(
X
,
l
)
R(X,l)
R(X,l),原文又提出了排名误差:
ϵ
(
X
,
l
)
=
∑
i
=
1
R
(
X
,
l
)
1
i
epsilon(X, l)=sum_{i=1}^{R(X, l)} frac{1}{i}
ϵ(X,l)=i=1∑R(X,l)i1
很明显,对于较低的
l
l
l 排名,排名误差更大。 最后,整个数据集的排名误差如下:
Rank Error
=
∑
i
=
1
n
∑
l
∈
Y
i
ϵ
(
X
,
l
)
text { Rank Error }=sum_{i=1}^{n} sum_{l in Y_{i}} epsilon(X, l)
Rank Error =i=1∑nl∈Yi∑ϵ(X,l)
后面是损失函数优化看不懂了
最后
以上就是成就黄豆为你收集整理的多示例论文泛读--2019-1-Fast Multi-Instance Multi-Label Learning的全部内容,希望文章能够帮你解决多示例论文泛读--2019-1-Fast Multi-Instance Multi-Label Learning所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
发表评论 取消回复