小编com*_*fox的帖子

使用张量流实现 LDA(潜在狄利克雷分配)的优势

我想用tensorflow来实现LDA作为实践,我认为tensorflow版本可能有以下优点:

  • 快速地。如果我可以使用内置的ops来表达采样过程。
  • 易于并行化。许多 ops 已经通过并行化优化实现,所以这个 lda 应该很容易在 gpus 或分布式集群上运行。
  • 更短更干净的代码。像许多其他模型一样,尤其是神经网络,使用 tensorflow 构建此类模型涉及的代码更少。

而在我检查了 lda 的一些 python 实现之后(例如,https://github.com/ariddell/lda/),我不知道可以使用什么 tensorflow 操作,应该构建什么样的图以及应该使用什么优化器我选择。因为 gibbs 采样的过程看起来像是文档主题、主题词矩阵和主题计数表的元素更新。那么tensorflow可以做些什么来简化和优化这个过程呢?

我是否可以将生成的 doc 与实际输入 doc 的可能性视为优化目标,并利用梯度提升优化器来最小化可能性的负数,从而获得 alpha、beta 和 doc-topics 分布?因为如果这是可以处理的,那么这里绝对可以使用 tensorflow。

lda tensorflow

3
推荐指数
1
解决办法
4612
查看次数

标签 统计

lda ×1

tensorflow ×1