1,文件位置说明
solr服务器目录位于D:\solr_tomcat;
tomcat目录位于D:\tomcat-6.0.18;
solr项目位于D:\tomcat-6.0.18\webapps\solr;
2,IKAnalyzer中文分词包下载,地址为 http://code.google.com/p/ik-analyzer/downloads/list,下载IKAnalyzer3.2.5Stable_bin.zip这个版本。
3,解压IKAnalyzer3.2.5Stable_bin.zip,把ext_stopword.dic、IKAnalyzer.cfg.xml文件拷贝到D:\tomcat-6.0.18\webapps\solr\WEB-INF\classes下,把IKAnalyzer3.2.5Stable.jar拷贝到D:\tomcat-6.0.18\webapps\solr\WEB-INF\lib下。
4,打开D:\solr_tomcat\conf\schema.xml,添加以下代码:
<fieldType name="text_ik" class="solr.TextField"> <analyzer type="index"> <tokenizer class="org.wltea.analyzer.solr.IKTokenizerFactory" isMaxWordLength="false"/> <filter class="solr.StopFilterFactory" ignoreCase="true" words="stopwords.txt" enablePositionIncrements="true" /> <filter class="solr.LowerCaseFilterFactory"/> </analyzer> <analyzer type="query"> <tokenizer class="org.wltea.analyzer.solr.IKTokenizerFactory" isMaxWordLength="true"/> <filter class="solr.StopFilterFactory" ignoreCase="true" words="stopwords.txt" enablePositionIncrements="true" /> <filter class="solr.SynonymFilterFactory" synonyms="synonyms.txt" ignoreCase="true" expand="true"/> <filter class="solr.LowerCaseFilterFactory"/> </analyzer> </fieldType>
5,重启tomcat,打开http://localhost/solr/admin/analysis.jsp,Field下拉框选择Type,右侧输入框输入text_ik,下面输入框输入中文句子,即可查看分词效果。
相关推荐
此为solr8的ikanalyzer中文分词包
solr-ik中文分词器资源包,包括ext.dic,,IKAnalyzer.cfg.xml,,ik-analyzer-solr5-5.x.jar,,managed-schema,,solr-analyzer-ik-5.1.0.jar,,stopword.dic solr-ik分词 solr中文分词 ik分词资源
IKAnalyzer中文分词器本身已经不支持最新的solr 5,集成到solr中分词会报错,这里将解决了solr 5支持问题的最新IK包共享出来,希望能帮到各位! 附上IK在schema.xml中的配置: <fieldType name="text_ik" class=...
solr配置ikanalyzer分词文件以使用说明
solr5 IK-Analyzer中文分词。jar里面有IKAnalyzer.cfg.xml、stopword.dic
NULL 博文链接:https://jsxzzliang.iteye.com/blog/852460
solr4.10.3+IK Analyzer For Solr4.x 发现资源不太好找,或者比较“贵 ” 自己发一个
solr 5.4.0 完整包,包含ikanalyzer 中文分词器 只需修改web.xml中的索引目录指向地址。
solr分词 IKAnalyzer2012FF_hf1.rar,solr中文分词搜索
solr5.x(含5.4)可用的ikanalyzer中文分词 <fieldType name="text_ik" class="solr.TextField"> <analyzer type="index"> <tokenizer class="org.wltea.analyzer.lucene.IKTokenizerFactory" useSmart="false" /> ...
IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。此包兼容solr7.x
solr5.5.4对应的中文分词器下载,如果solr为tomcat方式部署,下载后解压该压缩文件,将下面的jar文件复制到solr项目的lib目录下,将里面的配置其他配置文件复制到classes目录下即可。
solr-ik分词器的资源包,包括:ext.dic;ikanalyzer.cfg.xml;ik-analyzer-solr5-5.x.jar;solr-analyzer-ik-5.1.0.jar;stopword.dic 五个文件
Solr安装与整合中文分词IKAnalyzer,作为初学者,跟随网络上前辈的脚步,一步步实现,谢谢前辈们
最新Solr环境搭建与IKAnalyzer3分词整合
NULL 博文链接:https://lpyyn.iteye.com/blog/2074539
solr6对应的IKAnalyzer分词器jar包,使用方法: 1. 添加分词器的jar文件:在文件夹`contrib`下新建一个文件夹`rd-lib`,并将`IKAnalyzer2012_u6.jar`拷贝进来,这个文件夹用来存放第三方jar文件,后面做数据导入时候...
亲测在solr6.6配置ik智能分词成功。具体步骤见压缩包里的readme.txt
solr7.x ikanalyzer pinyin 分词。亲测solr7.3.1可用。
支持solr5.5 solr6.0中IK分词需要的资料