在下载的solr的解压包的事例中,默认只有一个Core(collection1),如果想添加自己的Core,比如我想添加一个Core(item),可以使用如下的步骤:
1. 在Solr的Home目录的solr目录中创建文件夹item(在C:\solr-tomcat\solr中创建item).
如果你还不了解什么是Solr的Home目录,可以看下这个博客,一看便知:http://josh-persistence.iteye.com/blog/2028500
2.在新创建的item目录中创建两个文件夹data和conf。
3.将collection1中的conf目录下的所有文件copy到新创建的conf目录下。
4.使用如下的url增加item Core。
http://localhost:9898/solr/admin/cores?action=CREATE&name=item&instanceDir=item&config=solrconfig.xml&schema=schema.xml&dataDir=data
(9898是Solr启动的端口,如果Solr是在Tomcat中启动,则是Tomcat的端口)
如果成功创建,则会显示类似如下的信息:
<response> <lst name="responseHeader"> <int name="status">0</int> <int name="QTime">4220</int> </lst> <str name="core">item</str> </response>
如果多次创建,则会显示类似如下的错误信息:
<str name="msg">Core with name 'item' already exists.</str>
解决这个错误,只需要删除item目录下的core.properties文件然后重新执行如下url即可新增item Core
http://localhost:9898/solr/admin/cores?action=CREATE&name=item&instanceDir=item&config=solrconfig.xml&schema=schema.xml&dataDir=data
5. 经过以上步骤后,item这个Core应该已经创建成功,可通过类似如下的URL查看
http://localhost:9898/solr/#/~cores/collection1
相关推荐
solr6.x_IK中文分词工具,solr6.x_IK中文分词工具,solr6.x_IK中文分词工具
solr.warsolr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包...
solr 6.x.x , ik 分词器, 可以实现对一段汉字进行分词处理, 支持配置扩展词语, 在分词时, 对特定词语不进行分词
solr更新到6.x的版本了,ik-analyzer-5.x.jar又不好使了。 无意间从"随-忆"的博客中看到了如何去修改源代码,从而让分词器能够适应6.x的版本,亲自尝试了一下,果然可以,于是奉上了自己重新编译的jar包。 6.x的版本...
这是属于Solr7.X版本的全量、增量更新jar包,有很多版本的这个jar包是没有更新过的,因为这个jar包是爱好者开发的,并不是官方维护,所以很难找到,我是用了两天才找到。
IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。此包兼容solr7.x
但当我们使用solr 6.x进行配置的时候,就发现会各种各样的报错,最常出现的问题就是抽象方法错误,其实就是因为我们使用的IKAnalyzer版本和solr版本不匹配导致系统无法根据配置文件实例化类,也就无法找到相应的方法...
基于solr5.x版本,在此之上,已经配置了相应的jar包,IKAnalyzer中文分词器,和一个简单的solrHome.下载之后可以直接放到tomcat的webapps路径下启动tomcat就能运行看到效果了。
Mastering Apache Solr 7.x An expert guide to advancing, optimizing, and scaling your enterprise search 英文无水印转化版pdf pdf所有页面使用FoxitReader、PDF-XChangeViewer、SumatraPDF和Firefox测试都...
支持solr6.x的中文分词,对solr7的支持暂时没有测试过
有 ik-analyzer-solr7以及5.5,买一赠一非常完美,下载就能用简单方便。
solr4.X所用中文分词器jar,亲测可用,无需额外配置,解压后替换原有分词器jar及相关文件即可,文件及分词器说明解压后可见
适应solr5.x的中文分词IKAnalyzer
solr 5.x定时生成索引依赖jar
solr定时索引使用到的定时调度器jar包, 可使用于solr7.x版本
solr5.x(含5.4)可用的ikanalyzer中文分词 <fieldType name="text_ik" class="solr.TextField"> <tokenizer class="org.wltea.analyzer.lucene.IKTokenizerFactory" useSmart="false" /> ...
ikanalyzer-solr5.zip ikanalyzer-solr5.zip ikanalyzer-solr5.zip
IKAnalyzer5.2.1根据IKAnalyzer2012FF_u1_custom基础上修改,支持lucence5.x以上版本。增加连续数字、字母、英语及其组合智能分词(可关闭isIndistinct)支持lucence5.x以上版本。配置文件:...