甘斯生成器的损失函数

Muh*_*que 2 artificial-intelligence machine-learning computer-vision conv-neural-network generative-adversarial-network

我已经深入研究了甘斯,并在 pytorch 中实现了它,现在我正在研究甘斯背后的核心统计数据,当时我在看那个网站Mathematics behing Gans 它说

“Loss(G) = - Loss(D),请注意,我们将生成器成本定义为鉴别器成本的负数。这是因为我们没有明确的方法来评估生成器的成本。”

但是在实现 gan 时,我们将生成器的损失定义为:

生成器生成的图像的鉴别器输出与原始论文和以下代码中的真实标签之间的二进制熵交叉熵损失(由我实现和测试)

    # train generator
    z_ = to.randn(minibatch,100 ).view(-1, 100, 1, 1)
    z_ = Variable(z_.cuda())
    gen_images = generator(z_)

    D_fake_decisions = discriminator(gen_images).squeeze()
    G_loss = criterion(D_fake_decisions,real_labels)

    discriminator.zero_grad()
    generator.zero_grad()
    G_loss.backward()
    opt_Gen.step()
Run Code Online (Sandbox Code Playgroud)

请解释一下两者之间的区别,正确的是

代码链接:https : //github.com/mabdullahrafique/Gan_with_Pytorch/blob/master/DCGan_mnist.ipynb

谢谢

小智 5

鉴别器的工作是执行二元分类来检测真假,所以它的损失函数是二元交叉熵。

Generator 所做的是 Density Estimation,从噪声到真实数据,并将其提供给 Discriminator 以欺骗它。

设计中遵循的方法是将其建模为 MinMax 游戏。现在让我们看一下成本函数:

来源:https://towardsdatascience.com/generative-adversarial-networks-history-and-overview-7effbb713545

有人解释为:

J(D) 中的第一项表示将实际数据馈送到判别器,判别器希望预测一个的对数概率最大化,表明数据是真实的。第二项表示 G 生成的样本。这里,鉴别器希望最大化预测为零的对数概率,表明数据是假的。另一方面,生成器试图最小化鉴别器正确的对数概率。这个问题的解决方案是博弈的一个平衡点,即判别器损失的鞍点。

由于鉴别器试图将生成器样本的概率最大化为零,生成器的工作变成了最大化为 1。这相当于使生成器的成本函数成为负交叉熵,其中 J(D) 中的第一项现在将是常数。

来源:https : //towardsdatascience.com/generative-adversarial-networks-history-and-overview-7effbb713545