Bor*_*lov 2 nlp machine-learning word2vec
从广义上讲,word2vec的训练是一个过程,在这个过程中,通常在同一个上下文中的单词在向量空间中聚集在一起.我们首先随机改变平面上的单词然后随着每次迭代形成越来越多的集群.我想我理解了这一点,但是我们怎样才能确保反义词或很少出现在同一语境中的词语最终不会出现在附近的群集中?另外,我们怎么能知道更无关紧要的词语比不那么无关紧要的词语更远.
Nov*_*vak 5
我们做不到.这就是word2vec的问题.我们无法区分否定同义词和反义词,因为正如你所说,这些词经常出现在同一个语境中.
归档时间:
7 年,2 月 前
查看次数:
242 次
最近记录: