解决二进制分类问题时,我认为caffe有两种可能的方法。
第一个"SigmoidCrossEntropyLossLayer"
与一个输出单元一起使用。
另一个正在"SoftmaxWithLossLayer"
与两个输出单元一起使用。我的问题是这两种方法有什么区别?
我应该使用哪一个?
非常感谢你!
如果您对数学"Sigmoid"
有所0.5*x_i
了解-0.5*x_i
,则可以将类别1和类别0的层的预测类别概率“复制”为,则该"SoftmaxWithLoss"
层总计为"SigmoindWithCrossEntropy"
单个输出预测x_i
。
因此,我相信可以说这两种方法可以看作是预测二进制输出的等效方法。
本文收集自互联网,转载请注明来源。
如有侵权,请联系[email protected] 删除。
我来说两句