Gui*_*ume 25 java solr mongodb
我一直在四处寻找如何将MongoDB与Solr结合使用,这里的一些问题有部分反应,但没有什么真正具体的(更像是理论).在我的应用程序中,我将在MongoDB中存储大量的文档(可能高达数亿),我想对这些文档的某些属性实现全文搜索,所以我猜Solr是最好的方法这个.
我想知道的是我应该如何配置/执行所有内容以使其具有良好的性能?现在,这就是我做的事(我知道它不是最优的):
1-在MongoDB中插入对象时,我将其添加到Solr
SolrServer server = getServer();
SolrInputDocument document = new SolrInputDocument();
document.addField("id", documentId);
...
server.add(document);
server.commit();
Run Code Online (Sandbox Code Playgroud)
2-当更新对象的属性时,由于Solr不能只更新一个字段,首先我从MongoDB中检索对象然后用对象和新属性的所有属性更新Solr索引并执行类似的操作
StreamingUpdateSolrServer update = new StreamingUpdateSolrServer(url, 1, 0);
SolrInputDocument document = new SolrInputDocument();
document.addField("id", documentId);
...
update.add(document);
update.commit();
Run Code Online (Sandbox Code Playgroud)
3-查询时,首先查询Solr,然后在检索文档列表时,SolrDocumentList我会查看每个文档,并且:
4-删除时,我还没有完成那部分,并且不确定如何在Java中完成
那么有人建议如何以更有效的方式为这里描述的每个场景做到这一点?喜欢这样做的过程,当在Solr中有大量文档并一次添加一个文档时,它不会花费1小时来重建索引?我的要求是用户可能希望一次添加一个文档,我希望他们能够立即检索它
jpo*_*ntz 14
你的方法实际上很好.一些流行的框架(如Compass)正在执行您在较低级别描述的内容,以便自动镜像通过ORM框架执行的索引更改(请参阅http://www.compass-project.org/overview.html).
除了你描述的内容之外,我还会定期重新索引MongoDB中的所有数据,以确保Solr和Mongo同步(可能没有你想象的那么长,具体取决于文档的数量,字段的数量,每个字段的令牌数量和分析器的性能:我经常使用复杂的分析器在不到15分钟的时间内创建500到800万个文档(大约20个字段,但文本字段很短)的索引,只需确保你的RAM缓冲区不是太小,在添加所有文档之前不会提交/优化.
关于性能,提交成本高,优化成本高.根据对您最重要的事情,您可以在Solrconfig.xml中更改mergefactor的值(高值可提高写入性能,而低值可提高读取性能,10值是一个很好的值).
你似乎害怕索引构建时间.但是,由于Lucene索引存储是基于段的,因此写吞吐量不应过多依赖于索引的大小(http://lucene.apache.org/java/2_3_2/fileformats.html).但是,预热时间会增加,所以你应该确保
此外,如果数据在写入MongoDB后仅几个X毫秒就可以搜索,如果可以接受,则可以使用UpdateHandler的commitWithin功能.这样Solr就不得不经常提交.
有关Solr性能因素的更多信息,请参阅 http://wiki.apache.org/solr/SolrPerformanceFactors
要删除文档,您可以按文档ID(在schema.xml中定义)或通过查询删除:http: //lucene.apache.org/solr/api/org/apache/solr/client/solrj/SolrServer.html
| 归档时间: |
|
| 查看次数: |
5550 次 |
| 最近记录: |