zookeeper与spring cloud配置服务器有什么区别?它们都将配置存储在服务器中并使其可供客户端使用.
应该何时使用另一个?
在Mahout中,使用API方法支持基于项目的推荐:
ItemBasedRecommender.mostSimilarItems(int productid, int maxResults, Rescorer rescorer)
Run Code Online (Sandbox Code Playgroud)
但是在Spark Mllib中,似乎ALS中的API可以获取推荐的产品,但必须通过以下方式提供userid:
MatrixFactorizationModel.recommendProducts(int user, int num)
Run Code Online (Sandbox Code Playgroud)
有没有办法获得基于类似产品的推荐产品,而无需提供用户ID信息,类似于mahout执行基于项目的推荐的方式.
recommendation-engine mahout apache-spark apache-spark-mllib
我正在努力更好地理解lucene如何评分我的搜索,以便我可以对我的搜索配置或文档内容进行必要的调整.
以下是分数细分的一部分.
产品:
0.34472802 = queryWeight, product of:
2.2 = boost
7.880174 = idf(docFreq=48, maxDocs=47667)
0.019884655 = queryNorm
1.9700435 = fieldWeight in 14363, product of:
1.0 = tf(freq=1.0), with freq of:
1.0 = termFreq=1.0
7.880174 = idf(docFreq=48, maxDocs=47667)
0.25 = fieldNorm(doc=14363)
0.26806915 = (MATCH) max of:
0.07832639 = (MATCH) weight(shortDescription:tires^1.1 in 14363) [DefaultSimilarity], result of:
0.07832639 = score(doc=14363,freq=1.0 = termFreq=1.0
Run Code Online (Sandbox Code Playgroud)
我理解如何计算提升,因为这是我的配置值
但是如何计算idf(7.880174 = idf值).
根据lucene,idf公式为:idf(t)= 1 + log(numDocs /(docFreq + 1))
我检查了核心管理控制台,发现我的docFreq = maxDocs = 47667.
使用lucene的公式,我无法计算预期的7.880174.相反,我得到:idf = 3.988 = …
apache-spark ×1
cloud ×1
config ×1
lucene ×1
mahout ×1
scoring ×1
solr ×1
spring ×1
spring-cloud ×1