MrR*_*ROY 148 c machine-learning hashmap nearest-neighbor locality-sensitive-hash
我注意到LSH似乎是一种寻找具有高维属性的类似项目的好方法.
在阅读了论文http://www.slaney.org/malcolm/yahoo/Slaney2008-LSHTutorial.pdf之后,我仍然对这些公式感到困惑.
有没有人知道一个博客或文章解释这个简单的方法?
gre*_*ess 246
我在LSH中看到的最好的教程是:大规模数据集挖掘.检查第3章 - 查找类似项目 http://infolab.stanford.edu/~ullman/mmds/ch3a.pdf
我还推荐以下幻灯片:http: //www.cs.jhu.edu/%7Evandurme/papers/VanDurmeLallACL10-slides.pdf.幻灯片中的示例帮助我理解了余弦相似性的散列.
我借用了Benjamin Van Durme和Ashwin Lall的两张幻灯片,ACL2010并尝试解释LSH家族对余弦距离的直觉.


我在python中有一些示例代码(只有50行),它使用余弦相似性. https://gist.github.com/94a3d425009be0f94751
mvo*_*zis 35
向量空间中的推文可以是高维数据的一个很好的例子.
查看我的博客文章,将Locality Sensitive Hashing应用于推文以找到类似的推文.
http://micvog.com/2013/09/08/storm-first-story-detection/
而且因为一张图片是千言万语,请查看下图:
http://micvog.files.wordpress.com/2013/08/lsh1.png
希望能帮助到你.@mvogiatzis
nil*_*lsi 21
这是斯坦福大学的一个演讲,解释了它.这给我带来了很大的不同.第二部分更多是关于LSH,但第一部分也包括它.
概述图片(幻灯片中还有更多内容):

高维数据中的邻近搜索 - 第1部分:http: //www.stanford.edu/class/cs345a/slides/04-highdim.pdf
高维数据中的邻近搜索 - 第2部分:http: //www.stanford.edu/class/cs345a/slides/05-LSH.pdf
重要的是要强调不同的相似性度量具有不同的LSH实现.
在我的博客中,我试图彻底解释LSH的minHashing(jaccard相似性度量)和simHashing(余弦距离度量)的情况.我希望你觉得它很有用:https: //aerodatablog.wordpress.com/2017/11/29/locality-sensitive-hashing-lsh/