Google Inceptionism:按类获取图片

ytr*_*ewq 5 computer-vision neural-network deep-learning caffe

在着名的Google Inceptionism文章 http://googleresearch.blogspot.jp/2015/06/inceptionism-going-deeper-into-neural.html中, 它们显示了为每个类获取的图像,例如香蕉或蚂蚁.我想对其他数据集做同样的事情.

文章确实描述了它是如何获得的,但我觉得解释是不够的.

有一个相关的代码 https://github.com/google/deepdream/blob/master/dream.ipynb

但它的作用是产生一个随机的梦幻图像,而不是指定一个类并了解它在网络中的样子,如上文所示.

任何人都可以提供更具体的概述,或者如何为特定类生成图像的代码/教程?(最好假设caffe框架)

Fla*_*ara 3

我认为这段代码是重现 Google 团队发布的图像的一个很好的起点。程序看起来很清楚:

\n\n
    \n
  1. 从纯噪声图像和一个类开始(比如“猫”)
  2. \n
  3. 执行前向传递并反向传播关于强加的类标签的错误
  4. \n
  5. 使用数据层计算的梯度更新初始图像
  6. \n
\n\n

其中涉及一些技巧,可以在原始论文中找到。

\n\n

看来主要的区别在于谷歌人试图获得更“真实”的图像:

\n\n
\n

就其本身而言,\xe2\x80\x99 并不能很好地工作,但如果我们强加一个先验约束,即图像应该具有与自然图像类似的统计数据,例如需要关联的相邻像素,那么它就可以很好地工作。

\n
\n