package com.test.lucene;
import java.io.BufferedReader;
import java.io.File;
import java.io.FileReader;
import java.io.IOException;
import java.io.Reader;
import java.util.Date;
import org.apache.lucene.analysis.Analyzer;
import org.apache.lucene.analysis.standard.StandardAnalyzer;
import org.apache.lucene.document.Document;
import org.apache.lucene.document.Field;
import org.apache.lucene.index.IndexWriter;
import org.apache.lucene.index.IndexWriter.MaxFieldLength;
import org.apache.lucene.queryParser.ParseException;
import org.apache.lucene.queryParser.QueryParser;
import org.apache.lucene.search.IndexSearcher;
import org.apache.lucene.search.Query;
import org.apache.lucene.search.ScoreDoc;
import org.apache.lucene.search.Searcher;
import org.apache.lucene.search.TopDocs;
import org.apache.lucene.search.TopScoreDocCollector;
import org.apache.lucene.store.Directory;
import org.apache.lucene.store.FSDirectory;
import org.apache.lucene.store.SimpleFSDirectory;
import org.apache.lucene.util.Version;
public class HelloLucene {
/**
*
* @throws IOException
*/
@SuppressWarnings("deprecation")
public static void createIndex () throws IOException{
//存储索引文件
Directory indexDir = new SimpleFSDirectory(new File("D://luceneIndex"));
//需要检索的文件信息
File dataDir = new File("D://luceneTest");
//在一个文档被索引之前,首先对文档内容进行分词处理 (分词器)
Analyzer luceneAnalyzer = new StandardAnalyzer(Version.LUCENE_33);
//File [] dataFiles = dataDir.listFiles();
//IndexWriter 是 Lucene 用来创建索引的一个核心的类,他的作用是把一个个的 Document 对象加到索引中来
//第一个参数是索引存放位置
//第二个参数是Analyzer类的一个实现
//第三个boolean参数 true表示创建一个新的索引 false表示在原有索引基础上操作
//第四个参数 最大文件长度 MaxFileLength UNLIMITED无限的
IndexWriter indexWriter = new IndexWriter(indexDir, luceneAnalyzer, true,IndexWriter.MaxFieldLength.LIMITED);
long startTime = new Date().getTime();
//遍历dataDir下所有文件
indexDirectory(indexWriter,dataDir);
// if(dataDir.isHidden() || dataDir.exists() || dataDir.canRead())
// return;
// System.out.println("path: "+dataDir.getCanonicalPath());
// Document doc=new Document();
// doc.add(new Field("contents",new FileReader(dataDir)));
// doc.add(new Field("filename",dataDir.getCanonicalPath(),Field.Store.YES,Field.Index.ANALYZED));
// indexWriter.addDocument(doc);
indexWriter.optimize();
indexWriter.close();//创建结束
long endTime = new Date().getTime();
System.out.println("索引数: "+indexWriter.numDocs());
System.out.println("用时"+(endTime-startTime)+"毫秒来创建文件中的索引."+dataDir.getPath());
}
/**
* 遍历dataDir下所有文件 进行索引
* @param indexWriter
* @param dataDir
* @throws IOException
*/
public static void indexDirectory(IndexWriter indexWriter,File dataDir) throws IOException{
File [] dataFiles = dataDir.listFiles();
// FileReader fr = new FileReader(dataDir);
// BufferedReader br = new BufferedReader(fr);
// String line = br.readLine();
//
// int j=1;
// while (line != null)
// {
// line = br.readLine();
// j=j+1;
// }
// br.close();
// fr.close();
for (int i = 0; i < dataFiles.length; i++) {
if (dataFiles[i].isDirectory()) {
//递归
indexDirectory(indexWriter,dataFiles[i]);
} else if(dataFiles[i].isFile() && dataFiles[i].getName().endsWith(".txt")){
System.out.println("files: "+dataFiles[i].getCanonicalPath());
//文档
Document document = new Document();
Reader txtReader = new FileReader(dataFiles[i]);
//Field.Store.YES 存储 Field.Index.ANALYZED 分词
document.add(new Field("path",dataFiles[i].getCanonicalPath(),Field.Store.YES,Field.Index.NOT_ANALYZED));
document.add(new Field("fileName",dataFiles[i].getName(),Field.Store.YES,Field.Index.ANALYZED));
// 另外一个构造函数,接受一个Reader对象
document.add(new Field("contents",txtReader));
indexWriter.addDocument(document);
}
}
}
@SuppressWarnings("deprecation")
public static void searchIndex() throws IOException, ParseException{
String queryStr = "filename:令狐冲";
//在一个文档被索引之前,首先对文档内容进行分词处理 (分词器)
Analyzer luceneAnalyzer = new StandardAnalyzer(Version.LUCENE_33);
//主机索引目录//D:\\usr\\local\\wings\\SEARCH_INDEX\\WINGS D:\\luceneIndex
File indexDir = new File("D:\\luceneIndex");
FSDirectory directory = FSDirectory.open(indexDir);
IndexSearcher indexSearcher=new IndexSearcher(directory,true);
QueryParser parserContents = new QueryParser(Version.LUCENE_33, "contents", luceneAnalyzer);
QueryParser parserFilename = new QueryParser(Version.LUCENE_33,"filename", luceneAnalyzer);
//生成Query对象
Query query = parserFilename.parse(queryStr);
//搜索结果
TopScoreDocCollector collector = TopScoreDocCollector.create(50, false);
//开始计时
long start = new Date().getTime();
indexSearcher.search(query, collector);
//搜索结果TopScoreDocCollector里面有 TopDocs,TopDocs里面有scoreDocs[]数组,里面保存着索引值.
ScoreDoc[] hits = collector.topDocs().scoreDocs;
System.out.println("共有: "+hits.length+"条记录...");
//循环ScoreDoc数据,并使用indexSearch.doc方法把Document还原,再拿出对应的字段的值
for (int i = 0; i < hits.length; i++) {
// new method is.doc()
//使用indexSearch.doc方法把Document还原
Document doc = indexSearcher.doc(hits[i].doc);
System.out.println(doc.getField("fileName") + "------------"+ hits[i].toString());
}
indexSearcher.close();
//结束计时
long end = new Date().getTime();
System.out.println("用时"+(end-start)+"毫秒来搜索文件中的索引.");
}
public static void main(String[] args) throws ParseException{
try {
createIndex();
System.out.println("--------------------------------");
searchIndex();
} catch (IOException e) {
e.printStackTrace();
}
}
}
分享到:
相关推荐
lucene实例lucene实例lucene实例lucene实例lucene实例lucene实例lucene实例lucene实例lucene实例
lucene,lucene教程,lucene讲解。 为了对文档进行索引,Lucene 提供了五个基础的类 public class IndexWriter org.apache.lucene.index.IndexWriter public abstract class Directory org.apache.lucene.store....
lucene3.0 lucene3.0 lucene3.0 lucene3.0 lucene3.0
lucene学习lucene学习lucene学习lucene学习lucene学习lucene学习lucene学习lucene学习lucene学习lucene学习lucene学习lucene学习lucene学习lucene学习lucene学习lucene学习lucene学习lucene学习lucene学习lucene学习...
Lucene3.0特性Lucene3.0特性
赠送jar包:lucene-core-7.7.0.jar; 赠送原API文档:lucene-core-7.7.0-javadoc.jar; 赠送源代码:lucene-core-7.7.0-sources.jar; 赠送Maven依赖信息文件:lucene-core-7.7.0.pom; 包含翻译后的API文档:lucene...
lucene学习教程lucene讲义 叫你用lucene算法
lucene.NET 中文分词 高亮 lucene.NET 中文分词 高亮 lucene.NET 中文分词 高亮 lucene.NET 中文分词 高亮
lucene3源码分析
本课程由浅入深的介绍了Lucene4的发展历史,开发环境搭建,分析lucene4的中文分词原理,深入讲了lucenne4的系统架构,分析lucene4索引实现原理及性能优化,了解关于lucene4的搜索算法优化及利用java结合lucene4实现...
赠送jar包:lucene-core-7.2.1.jar; 赠送原API文档:lucene-core-7.2.1-javadoc.jar; 赠送源代码:lucene-core-7.2.1-sources.jar; 赠送Maven依赖信息文件:lucene-core-7.2.1.pom; 包含翻译后的API文档:lucene...
lucene-analyzers-common-4.2.0.jar; lucene-analyzers-kuromoji-4.2.0.jar; lucene-analyzers-phonetic-4.2.0.jar; lucene-codecs-4.2.0.jar; lucene-core-4.2.0.jar; lucene-grouping-4.2.0.jar; lucene-...
Annotated Lucene 中文版 Lucene源码剖析
《Lucene实战(第2版)》基于Apache的Lucene 3.0,从Lucene核心、Lucene应用、案例分析3个方面详细系统地介绍了Lucene,包括认识Lucene、建立索引、为应用程序添加搜索功能、高级搜索技术、扩展搜索、使用Tika提取文本...
c#下实现Lucene时间区间查询匹配。主要还是对Lucene查循对像Query的实现
lucenetest.rar,lucene,全文检索,lucene例子 lucenetest.rar,lucene,全文检索,lucene例子lucenetest.rar,lucene,全文检索,lucene例子
Lucene3.5全部源码,打包jar文件,可以直接打开查看源码,Lucene开发必备
lucene
lucene-core-2.9.4,lucene-core-3.0.2,lucene-core-3.0.3,lucene-core-3.4.0
本书深入浅出地介绍了Lucene——一个开源的使用Java语言编写的全文搜索引擎开发包。它通过浅显的语言、大量的图注、丰富的代码示例,以及清晰的结构为读者呈现出作为优秀开源项目的Lucene 所体现的强大功能。全书共...