`
linliangyi2007
  • 浏览: 1003546 次
  • 性别: Icon_minigender_1
  • 来自: 福州
社区版块
存档分类
最新评论

发布 IK Analyzer 3.2.3 稳定版 for Lucene3.0

阅读更多
IK Analyzer 3.2.3版本修订

在3.2.0版本基础上,更新如下:
1.优化词典匹配算法,将IK分词器速度提高至80万字/秒
2.添加对韩文、日文的支持,采用单字切分
3.增加IKQueryParser的 setMaxWordLength 方法,使其支持最大词长切分

PS:如果您使用的是Solr1.3或者v2.9之前的Lucene,请下载IK Analyzer3.1.6GA使用! IK Analyzer3.2.X仅支持Lucene3.0以上版本。

下载地址

IKAnalyzer3.2.3稳定版发布包

IKAnalyzer3.2.3稳定版源代码
分享到:
评论
21 楼 linliangyi2007 2011-04-26  
peterwei 写道
linliangyi2007 写道
IK Analyzer 3.2.3版本修订

在3.2.0版本基础上,更新如下:
1.优化词典匹配算法,将IK分词器速度提高至80万字/秒
2.添加对韩文、日文的支持,采用单字切分
3.增加IKQueryParser的 setMaxWordLength 方法,使其支持最大词长切分

PS:如果您使用的是Solr1.3或者v2.9之前的Lucene,请下载IK Analyzer3.1.6GA使用! IK Analyzer3.2.X仅支持Lucene3.0以上版本。

下载地址

IKAnalyzer3.2.3稳定版发布包

IKAnalyzer3.2.3稳定版源代码

下一阶段研发重点是搜索引擎相关,冒似你这个能用在站内搜索吧?中文,拼音支持吗?有空研究下。送上精华。


目前分词不输出拼音,因为考虑到多音字问题。实际上,从接口设计上而言,不应该把拼音搜索方式并进索引,而应该提供拼音suggest更合理
20 楼 peterwei 2011-04-25  
linliangyi2007 写道
IK Analyzer 3.2.3版本修订

在3.2.0版本基础上,更新如下:
1.优化词典匹配算法,将IK分词器速度提高至80万字/秒
2.添加对韩文、日文的支持,采用单字切分
3.增加IKQueryParser的 setMaxWordLength 方法,使其支持最大词长切分

PS:如果您使用的是Solr1.3或者v2.9之前的Lucene,请下载IK Analyzer3.1.6GA使用! IK Analyzer3.2.X仅支持Lucene3.0以上版本。

下载地址

IKAnalyzer3.2.3稳定版发布包

IKAnalyzer3.2.3稳定版源代码

下一阶段研发重点是搜索引擎相关,冒似你这个能用在站内搜索吧?中文,拼音支持吗?有空研究下。送上精华。
19 楼 linliangyi2007 2011-04-25  
cookiejj2010 写道
希望问下 IK如何在分词结果中过滤动词谓词形容词副词这样的内容 只保留名词 非常感谢 我只需要分词功能 正在使用IK_Analyzer


有的啊,IK的说明文档都有说明的啊,另外最新版本是3.2.8,请更新
18 楼 kanny87929 2011-04-25  
好东西一定要支持
17 楼 cookiejj2010 2011-04-25  
希望问下 IK如何在分词结果中过滤动词谓词形容词副词这样的内容 只保留名词 非常感谢 我只需要分词功能 正在使用IK_Analyzer
16 楼 linliangyi2007 2011-01-10  
多多08 写道
我照着敲了一遍,为什么在这一行:
iwriter.addDocument(doc); 
报了一个Exception in thread "main" java.lang.NoSuchMethodError: org.apache.lucene.analysis.Token.setTermBuffer(Ljava/lang/String;)V
at org.wltea.analyzer.lucene.IKTokenizer.toToken(IKTokenizer.java:57)
at org.wltea.analyzer.lucene.IKTokenizer.next(IKTokenizer.java:42)
at org.apache.lucene.analysis.TokenStream.next(TokenStream.java:79)
at org.apache.lucene.index.DocumentsWriter$ThreadState$FieldData.invertField(DocumentsWriter.java:1522)
at org.apache.lucene.index.DocumentsWriter$ThreadState$FieldData.processField(DocumentsWriter.java:1412)
at org.apache.lucene.index.DocumentsWriter$ThreadState.processDocument(DocumentsWriter.java:1121)
at org.apache.lucene.index.DocumentsWriter.updateDocument(DocumentsWriter.java:2442)
at org.apache.lucene.index.DocumentsWriter.addDocument(DocumentsWriter.java:2424)
at org.apache.lucene.index.IndexWriter.addDocument(IndexWriter.java:1464)
at org.apache.lucene.index.IndexWriter.addDocument(IndexWriter.java:1442)
at other.IKAnalyzerDemo2.main(IKAnalyzerDemo2.java:52)
急待回复,谢谢


你的Lucene版本不配套
15 楼 多多08 2011-01-10  
我照着敲了一遍,为什么在这一行:
iwriter.addDocument(doc); 
报了一个Exception in thread "main" java.lang.NoSuchMethodError: org.apache.lucene.analysis.Token.setTermBuffer(Ljava/lang/String;)V
at org.wltea.analyzer.lucene.IKTokenizer.toToken(IKTokenizer.java:57)
at org.wltea.analyzer.lucene.IKTokenizer.next(IKTokenizer.java:42)
at org.apache.lucene.analysis.TokenStream.next(TokenStream.java:79)
at org.apache.lucene.index.DocumentsWriter$ThreadState$FieldData.invertField(DocumentsWriter.java:1522)
at org.apache.lucene.index.DocumentsWriter$ThreadState$FieldData.processField(DocumentsWriter.java:1412)
at org.apache.lucene.index.DocumentsWriter$ThreadState.processDocument(DocumentsWriter.java:1121)
at org.apache.lucene.index.DocumentsWriter.updateDocument(DocumentsWriter.java:2442)
at org.apache.lucene.index.DocumentsWriter.addDocument(DocumentsWriter.java:2424)
at org.apache.lucene.index.IndexWriter.addDocument(IndexWriter.java:1464)
at org.apache.lucene.index.IndexWriter.addDocument(IndexWriter.java:1442)
at other.IKAnalyzerDemo2.main(IKAnalyzerDemo2.java:52)
急待回复,谢谢
14 楼 mfkdzhou 2010-08-31  
谢谢,楼主有大作,我刚学LUCENE,用IK后发现我想搜索“周杰伦”  输入 "周" 可以找到,输入"杰伦" 可以找到...但是输入"周杰伦" 为什么找不到呢?
13 楼 dilantaya 2010-07-13  
lz 的工作对我们很有帮助!
12 楼 bastengao 2010-07-11  
支持,支持
11 楼 lym6520 2010-05-18  
恩,用你的分词器,很不错,继续努力啊!
10 楼 midstr 2010-05-18  
谢谢牛人,正在用IK
9 楼 100Air 2010-05-18  
支持楼主,一直用你的分词器!
8 楼 gqf2008 2010-05-18  
支持楼主,加油!
7 楼 rentianchou 2010-05-18  
我来支持下
6 楼 凯旋人生 2010-05-18  
多谢了楼主,接下来的项目会使用IK。
5 楼 ryxxlong 2010-05-18  
来支持一下,加油!
4 楼 neptune 2010-05-18  
一直用你的分词器,感谢linliangyi2007,加油。
3 楼 tsyouaschen 2010-05-15  
希望能早日看到,中英文混合分词!!非常期待
2 楼 linliangyi2007 2010-05-15  
tsyouaschen 写道
非常的感谢大牛。。
希望越做越好,我非常的喜欢这个中文分词。


感谢支持

相关推荐

Global site tag (gtag.js) - Google Analytics