小编Zah*_*bar的帖子

Word Embedding、LookupTable、Word Embedding 可视化

我需要问几个关于词嵌入的问题......可能是基本的。

  1. 当我们将一个词的 one-hot 向量(例如 king)[0 0 0 1 0]转换为嵌入向量时E = [0.2, 0.4, 0.2, 0.2]......结果词向量中的每个索引是否有任何重要性?例如E[1],哪个是 0.2....具体E[1]定义了什么(尽管我知道它基本上是到另一个空间的转换)...或词向量共同定义上下文但不是单独定义...
  2. 与原始 one-hot 向量相比,词向量的维度(减少或增加)如何重要?
  3. 我们如何根据嵌入层定义查找表?
  4. 查找表是一种随机生成的表,还是已经针对数据中的数据实例进行了单独训练,我们稍后仅在神经网络操作中使用它?5- 是否有任何方法可以在隐藏层可视化嵌入向量(就像我们在基于图像的神经网络处理中所做的那样)?

提前致谢

text-mining word2vec deep-learning word-embedding

6
推荐指数
1
解决办法
5184
查看次数