Cross Entropy vs Cross Entropy Loss
这俩是有区别的,我一直没有注意直到我发现公式上的区别。我没有注意的原因应该是 regression 没有显式使用 cross entropy loss,而 classification 的 cross entropy loss 是对原生 cross entropy 的扩展。
假设有两个 probability distributions:
The cross entropy of distribution
但在 classification 问题下,这个
可以是 labels,比如 可以是 predictions,比如- 也就是说
和 也不一定成立了
- 也就是说
我们接着定义:
- 也就是反向的 labels,比如
- 也就是反向的 labels,比如
- 也就是反向的 predictions,比如
- 也就是反向的 predictions,比如
那么 binary cross entropy loss 就可以定义为:
这也就是常见的写法:
Comments