如何选择 损失函数 Loss Function

  • Post author:
  • Post category:其他


如何选择损失函数

1.交叉熵 CrossEntropy

交叉熵与熵相对, 如同协方差与方差

熵考察的是单个的信息(分布)的期望:








H




(


p


)


=

















i


=


1








n







p


(





x






i







)


log




p


(





x






i







)









交叉熵考察的是两个信息的(分布)的期望








H




(


p


,


q




)


=

















i


=


1








n







p


(





x






i







)


log




q




(





x






i







)









2.交叉熵代价函数











L






H









(




x




,




z




)


=

















k


=


1








d












x






k







log







z








k







+


(


1








x






k







)


log




(


1








z








k







)









3.KL散度

KL散度和交叉熵都是衡量两个分布之间的性质,不同的是,交叉熵针对的是原始信号








(





x






k







)











和其重构信号








(





z








k







)











,而KL散度是:








H




(


ρ




|






|









ρ






^









)


=

















j


=


1








m










[








ρ






j







log












ρ






^













j







+


(


1








ρ






j







)


log




(


1













ρ






^













j







)





]












其中:













ρ






^









=





1






k























k








i


=


1












h






i
















(遍历的是层内的所有输出,




















j


=


1








m
























































































)