`
mlcsdev
  • 浏览: 15284 次
  • 来自: 南宁
社区版块
存档分类
最新评论

Solr分词器大补贴:mlcsseg

阅读更多

 

0. 序言

       经常遇到不少人询问如何在solr4.x中集成各种分词器,其实也算是咱曾经的工作之一:按照solr的接口把一些分词器对接起来。所幸之前一直都接触这方面的内容因而没走什么弯路,值此团队开博之时,正好把一些代码重新整理共享一下。

 

1. 设计

       Java系的中文分词挺多了,ik,paoding,mmseg4j,ictclas4j,ansj等等,目前选取实现的是ik和ansj。将分词器扩展到solr易用模式我们考虑了2点:1. 大部分分词器的扩展自定义词库的功能都是读取本地文件,solr在单机环境读取的资源路径是磁盘但在solrcloud模式下读取的资源路径是zookeeper, 因此需要把分词器读取扩展自定义的词库改成以solr资源路径为准的。2. 在solrcloud模式下分词器触发扩展词库操作必须是每个replica都自己去做一遍,自己写solr的requesthandler是不能进行同索引分发的(比如mmseg4j写的触发操作handler), 因此要保证每个replica能同时能进行更新到同样的词库。

对于这两点,我们采用的方式是1:为分词器添加inputstream的读扩展词接口; 2:定时线程检查配置文件是否需要更新词库(会存在微小的时间范围内的不同replica词库不一致,最终会一致,但为了简单一点,没有采用zookeeper监听的方式,也不可能禁止重载词库的时候禁止solr读写)

 

2. 代码

代码托管在github:https://github.com/mlcsdev/mlcsseg   支持版本 4.3 ~ 4.7的solr

4个子项目:

   mlcsseg-common: 公用功能,所有分词器都要依赖这个

   mlcsseg-filter       :   可动态变更的停用词、同义词 过滤器

   mlcsseg-ik           :    ik分词器

   mlcsseg-ansj       :    ansj分词器

其中除了mlcsseg-ansj,都是直接mvn package就出的包就可以使用的。

mlcsseg-ansj需要用mvn assembly:assembly 方式打包带上两个它自己的jar包,你也可以直接手动从lib中拷出来用。(mlcsseg-ansj 本身至少要3个包,加上common 一共4个)

 

3. 使用

以mlcsseg-ik和mlcsseg-filter为例, 把三个对应jar拷贝到一个目录,并在solrconfig中设置好;

在schema.xml中增加如下内容

 

   <fieldType name="text_ik" class="solr.TextField" positionIncrementGap="100">
      <analyzer type="index">
        <tokenizer class="org.wltea.analyzer.lucene.IKTokenizerFactory" useSmart="false" conf="ik.conf"/>
        <filter class="solr.StopFilterFactory" ignoreCase="true" words="stopwords.txt" enablePositionIncrements="true" />
        <!-- in this example, we will only use synonyms at query time
        <filter class="solr.SynonymFilterFactory" synonyms="index_synonyms.txt" ignoreCase="true" expand="false"/>
        -->
         <filter class="solr.LowerCaseFilterFactory"/>
      </analyzer>
      <analyzer type="query">
        <tokenizer class="org.wltea.analyzer.lucene.IKTokenizerFactory" useSmart="true" conf="ik.conf"/>
          <filter class="solr.LowerCaseFilterFactory"/>
           <filter class="org.apache.solr.analysis.DStopFilterFactory" ignoreCase="true" enablePositionIncrements="true" conf="stop.conf"/>
           <filter class="org.apache.solr.analysis.DSynonymFilterFactory" ignoreCase="true" expand="true" conf="synonym.conf"/>
      </analyzer>
   </fieldType>
        说明:

 

1. 每个tokenizerFactory以及tokenfilterFactory 的属性中多包含了一个 conf=xxxx.conf 的项,xxxx.conf的内容是一个properties格式的配置:

lastupdate=11223
files=extDic.txt,extDic1.txt,synonyms.txt,isynonyms.txt

    其中的 lastupdate 是一个数字,只要这次修改比上一次大就会触发更新操作;files是分词器或者过滤器对应读取的词典文件名,编码必须是UTF-8,多个以英文逗号分隔。

 

2. xxxx.conf文件需要放在对应索引的config路径,例如单机模式放在[collection]/conf下。cloud模式放在./configs/[collection]/下。 也就是和schema solrconfig放在一起。

 

在上面的xml中,ik分词器在index时候配置了useSmart=false, 表示不开启智能切分,但在query时候开启了。 (默认useSmart是false)

 

再来看下ansj的配置:

 

 <fieldType name="text_ansj" class="solr.TextField" positionIncrementGap="100">
     <analyzer type="index">
       <tokenizer class="org.ansj.solr.AnsjTokenizerFactory" conf="ansj.conf"/>
     </analyzer>
	 <analyzer type="query">
       <tokenizer class="org.ansj.solr.AnsjTokenizerFactory" analysisType="1"/>
     </analyzer>
   </fieldType>

 配置方式和ik一样,analysisType="1" 表示分词类型,1代表标准切分,不写默认是0。是索引类型切分(也就是可能多分出一点词)

还有一个:rmPunc="false" 表示不去除标点符号。默认不写是true,表示去掉标点符号。

 

4. 一些经验

1. 我们并没有去修改分词器逻辑(IK调整了点智能分词算法),因此效果如何就不是特别关心的事了。如果要将单字切分出来,就把单字作为扩展字库。

2. 目前IK扩展词库支持同义词词库格式,但ansj的还不支持同义词词库格式。

3. 默认zookeeper保存1M大小的文件,cloud模式下如果扩展词库过大,需要切成很多份来使用。

4. 需要照顾查全率的时候,可以在index时候使用多切,query时候用智能切分,但这种方式必然可能会出现index切分不能完全包含query切分;也可以index,query都使用多切分的方式,但这样同义词就用得不方便了(例如“颜色”“色彩”是同义词,你期望query时的同义扩展,即搜“色彩”时候也能匹配到“颜色”,但多分可能导致“彩”字出现,而索引却没有;如果讲同义扩展放到index这边,那么修改同义词库时候就必须重建一次索引)。

 

5. 总结

ik的效率并不太好,我们希望重新实现一个简单高效的分词器。如果有时间会加入mmseg4j的接口。

欢迎大家使用,并给我们提出各个方面的意见和建议~

分享到:
评论
17 楼 a925907195 2016-01-27  
猫哥,赞一个
16 楼 lgnlgn 2015-01-26  
gbwl_cgl 写道
您好!
请问一下如果是在cloud模式下,ansj自定义词库的情况下,我的词典文件是直接放在./configs/[collection]/下吗?

是的
15 楼 gbwl_cgl 2015-01-15  
您好!
请问一下如果是在cloud模式下,ansj自定义词库的情况下,我的词典文件是直接放在./configs/[collection]/下吗?
14 楼 轻轻小丸子 2014-09-26  
猫猫
13 楼 lgnlgn 2014-09-26  
确实应该只需要依赖lucene,你是不是没选对分支,master是4.6 solr4.6是没问题的;

chenbo19867758 写道
经测算maven依赖的是lucene4.6.1 不兼容solr4.5.1
感觉楼主没有测试过就说兼容4.3~4.7!!!

12 楼 chenbo19867758 2014-09-18  
经测算maven依赖的是lucene4.6.1 不兼容solr4.5.1
感觉楼主没有测试过就说兼容4.3~4.7!!!
11 楼 chenbo19867758 2014-09-18  
solr4.5.1 报错
 org.apache.solr.handler.dataimport.SolrWriter -64880 [Thread-18] ERROR org.apache.solr.handler.dataimport.SolrWriter  - Exception while solr commit.
java.lang.UnsupportedOperationException: this codec can only be used for reading
        at org.apache.lucene.codecs.lucene42.Lucene42FieldInfosFormat.getFieldInfosWriter(Lucene42FieldInfosFormat.java:103)
        at org.apache.lucene.index.DocFieldProcessor.flush(DocFieldProcessor.java:87)
        at org.apache.lucene.index.DocumentsWriterPerThread.flush(DocumentsWriterPerThread.java:465)
        at org.apache.lucene.index.DocumentsWriter.doFlush(DocumentsWriter.java:506)
10 楼 chenbo19867758 2014-09-18  
files是分词器或者过滤器对应读取的词典文件名,编码必须是UTF-8,

注意这个地方
9 楼 chenbo19867758 2014-09-17  
solr配置报错4.5.1
coreUnibib: org.apache.solr.common.SolrException:org.apache.solr.common.SolrException: Plugin init failure for [schema.xml] fieldType "text_ik": Plugin init failure for [schema.xml] analyzer/tokenizer: Error instantiating class: 'org.wltea.analyzer.lucene.IKTokenizerFactory'. Schema file is /solr/solr_home/coreUnibib/schema.xml
8 楼 chenbo19867758 2014-09-17  
coreUnibib: org.apache.solr.common.SolrException:org.apache.solr.common.SolrException: Plugin init failure for [schema.xml] fieldType "text_ik": Plugin init failure for [schema.xml] analyzer/tokenizer: Error instantiating class: 'org.wltea.analyzer.lucene.IKTokenizerFactory'. Schema file is /solr/solr_home/coreUnibib/schema.xml
7 楼 chenbo19867758 2014-09-17  
建议直接导出jar包。
6 楼 lgnlgn 2014-08-08  
senhui19 写道
你好,最近发现solr升级到了4.9,尝试使用了下你写的插件,配置成功后,使用分词时出现了异常情况,不能能否做个升级适配呢?谢谢。


这事估计没人料理了,只能建议你把依赖改成4.9以后自行修改源码
5 楼 senhui19 2014-08-01  
你好,最近发现solr升级到了4.9,尝试使用了下你写的插件,配置成功后,使用分词时出现了异常情况,不能能否做个升级适配呢?谢谢。
4 楼 syncml 2014-06-09  
每个tokenizerFactory以及tokenfilterFactory 的属性中多包含了一个 conf=xxxx.conf 的项,xxxx.conf的内容是一个properties格式的配置:



conf文件能说得详细一点吗
3 楼 mlcsdev 2014-05-14  
xinggg22 写道
没提供maven的repo下载吗?

没有,你只要打包出来拿jar包来用就行了,暂没提供打包好的
2 楼 xinggg22 2014-05-14  
没提供maven的repo下载吗?
1 楼 qindongliang1922 2014-03-28  
猫猫,厉害 哈哈哈哈哈!

相关推荐

Global site tag (gtag.js) - Google Analytics