Solr自带的分词器对英文支持较好,但不适合针对中文的分词,我们这里使用IKAnalyzer为例讲解Solr的分词器配置
一、下载
见附件
二、拷贝IKAnalyzer2012FF_u1_custom.jar文件至'运用路径'/WEB-INF/lib下
注:“运用路径”一般有两种,第2种solr-webapp在服务每次重启后,会从example/webapps/solr.war重新解压一份
1、tomcat部署solr:apache-tomcat/webapp/solr/WEB-INF/lib
2、Solr自带jetty:solr/example/solr-webapp/webapp/WEB-INF/lib
三、打开core(如:example/solr/collection1)-->conf-->schema.xml
在最后</scheml>内加入
<fieldType name="text_ik" class="solr.TextField"> <analyzer type="index" isMaxWordLength="false" class="org.wltea.analyzer.lucene.IKAnalyzer"/> <analyzer type="query" isMaxWordLength="true" class="org.wltea.analyzer.lucene.IKAnalyzer"/> </fieldType>
四、自定义分词器使用
在需要使用中文分词器的field标签配置fieldType的引用,type="text_ik"要和fieldType的name一致
<field name="shortName" type="text_ik" indexed="true" required="false" stored="true"/>
附言:
1、schema.xml中的copyField作用:创建文档索引时将指定字段
2、如果Solr启动提示java.lang.UnsupportedClassVersionError:org/wltea/analyzer/lucene/IKAnalyzer
则请下载IKAnalyzer另一个版本,再进行测试。如果问题仍旧,请升级JDK版本
配置完毕,重启Solr即可
相关推荐
solr中文分词jar包ik-analyzer 含class配置 ik-analyzer-7.5.0
支持solr5以上的ikanalyzer包和配置文件
solr7,ik-analyzer中文分词,带配置文件,放到solr的classes目录即可配置自己的分词规定
1.ik中文分词器适配最新版本solr7和solr8,下载后解压,将target下的ik-analyzer-7.7.1.jar包放入Solr服务的`Jetty`或`Tomcat`的`webapp/WEB-INF/lib/`目录下。 2.将`resources`目录下的5个配置文件放入solr服务的`...
对于solr5.x系列中文分词器在solr中配置如下 <fieldType name="text_ik" class="solr.TextField"> <analyzer type="index" useSmart="false" class="org.wltea.analyzer.lucene.IKAnalyzer"/> <analyzer type=...
通过继承Analyzer编写自定义类UseSmartIKAnalyzer和NotUseSmartIKAnalyzer,实现智能分词和最细粒度分词,支持solr4.7通过配置schema.xml实现不同的分词效果 <fieldType name="text_ik" class="solr.TextField"> ...
IK配置+两个Jar包,实现与Solr 7.2.1版本的对接,对中文语句进行分词处理,可自行扩展词库字段ext.dict以及停止词字典dict
ik-analyzer-solr 用于solr 7.x-8.x的ik-analyzer 简介 适应最新版本的solr 7&8; 扩展IK首词库: 分词工具 词库中词的数量 ...关闭默认主词典请在IKAnalyzer.cfg.xml配置文件中设置use_main_dict为fals
IKAnalyzer,一个第三方的分词器可以很好的扩展中文词库,包含jar包和简单配置文件;solr自带了一些中文分词器,比较好用的是SmartChineseAnalyzer,但是扩展性比较差不能自定义扩展中文词库
这是一个分词器.可以结合solr6来使用. 配置的详情,我会更新csdn
另:为了方便自定义ik-analyzer的设置,可以把ik-analyzer-8.3.0.jar中的配置文件 也复制过来 cp -r ik-analyzer-8.3.1/* ../solr/WEB-INF/classes 2、修改/usr/local/solrhome/test_core目录中的managed-schema...
solr6对应的IKAnalyzer分词器jar包,使用方法: 1. 添加分词器的jar文件:在文件夹`contrib`下新建一个文件夹`rd-lib`,并将`IKAnalyzer2012_u6.jar`拷贝进来,这个文件夹用来存放第三方jar文件,后面做数据导入时候...
使用IK分词器,应为该集群使用到的solr版本为4.10.3-cdh5.7.5,所以使用的 IK 包为IKAnalyzer2012FF_u1.jar,如果是3x的solr,使用IKAnalyzer2012_u6.jar solr-4.10.3下载地址:...
IKAnalyzer中文分词器本身已经不支持最新的solr 5,集成到solr中分词会报错,这里将解决了solr 5支持问题的最新IK包共享出来,希望能帮到各位! 附上IK在schema.xml中的配置: <fieldType name="text_ik" class=...
网上有很多关于IKAnalyzer分词器的jar,但当我们使用solr 6.x进行配置的时候,就发现会各种各样的报错,最常出现的问题就是抽象方法错误,其实就是因为我们使用的IKAnalyzer版本和solr版本不匹配导致系统无法根据...
ik-analyzer-solr7(支持solr7),数据类型long改为plong
solr 6.x.x , ik 分词器, 可以实现对一段汉字进行分词处理, 支持配置扩展词语, 在分词时, 对特定词语不进行分词
IK中文分词器,solr配置用jar包,适用于solr5版本,欢迎下载。。。
Ikik-analyzer-solr-6.6.2 中文分词器适用于6.6.2版本和相关配置文件