如何选择损失函数
1.交叉熵 CrossEntropy
交叉熵与熵相对, 如同协方差与方差
熵考察的是单个的信息(分布)的期望:
H
(
p
)
=
−
∑
i
=
1
n
p
(
x
i
)
log
p
(
x
i
)
交叉熵考察的是两个信息的(分布)的期望
H
(
p
,
q
)
=
−
∑
i
=
1
n
p
(
x
i
)
log
q
(
x
i
)
2.交叉熵代价函数
L
H
(
x
,
z
)
=
−
∑
k
=
1
d
x
k
log
z
k
+
(
1
−
x
k
)
log
(
1
−
z
k
)
3.KL散度
KL散度和交叉熵都是衡量两个分布之间的性质,不同的是,交叉熵针对的是原始信号
(
x
k
)
和其重构信号
(
z
k
)
,而KL散度是:
H
(
ρ
|
|
ρ
^
)
=
−
∑
j
=
1
m
[
ρ
j
log
ρ
^
j
+
(
1
−
ρ
j
)
log
(
1
−
ρ
^
j
)
]
其中:
ρ
^
=
1
k
∑
k
i
=
1
h
i
(遍历的是层内的所有输出,
∑
j
=
1
m
则
是
遍
历
所
有
的
层
)