今天看到Solr4.0于是心血来潮重新整理一下,因为之前只整理过3.6的,而且还没有发到博客上。
下载地址http://lucene.apache.org/solr/
点击下面的4.0
转向到http://www.apache.org/dyn/closer.cgi/lucene/solr/4.0.0
我推荐大家用这个
http://labs.mop.com/apache-mirror/lucene/solr/4.0.0
你懂得,这是猫扑哦。
好吧,下载完毕后,我们解压,看到下图
之后进入example文件夹,打开README.txt
部分内容如下
This directory contains an instance of the Jetty Servlet container setup to
run Solr using an example configuration.
To run this example:
java -jar start.jar
in this example directory, and when Solr is started connect to
http://localhost:8983/solr/
To add documents to the index, use the post.jar (or post.sh script) in
the example/exampledocs subdirectory (while Solr is running), for example:
cd exampledocs
java -jar post.jar *.xml
Or: sh post.sh *.xml
按照以上步骤,可以启动Solr了.
之后访问http://localhost:8983/solr/select?q=*:*
到此说明一切都很顺利,通过post.jar也将一个文档存到了Solr服务器上。
Tomcat部署Solr
在解压出来的文件夹当中找到example\webapps\solr.war
这个便是Solr应用,我们将其拷贝到tomcat\webapp\目录下,然后启动
目的是展包,当然也可以用winrar解压出来,不过我们这样做的原因是为了看报错信息。
启动Tomcat
报错信息如下
之前3.6版本的时候,我使用JNDI在tomcat\conf\localhost\下创建solr.xml
不过这次我们就跟随问题源头,看提示信息来完成Solr部署吧
其实最主要的就是Solr的Home环境设置,这里我不多说,我们看最关键的一行
这里在我们的Tomcat目录中的bin目录里去查看solr\solr.xml,却没有找到,那么很简单。我们来创建一下,这里就直接使用多核吧。
回到Solr4.0解压后的文件夹的example目录下,我们看到multicore
很好,我们看到了solr.xml,另外还有其他文件夹,这里不分拆单独拷贝solr.xml了,此时我们应当把所有文件都复制
然后再tomcat的bin目录下创建solr文件夹将这些粘贴进去即可。
重新启动后无报错信息,我们访问http://localhost:8080/solr/ 便看到了熟悉的界面了。
前面两章已经可以运行起Solr4.0了。接下来要跟Solr通讯进行数据交互,关于Solr支持的DIH数据导入,我不写了。
回到solr4.0解压出的文件夹中找到dist
新建一个Java工程,这里我就新建了一个Web工程,将solrj和solrj-lib文件夹中的jar文件放到项目依赖中去。
- package org.solrj.root;
- import java.io.IOException;
- import org.apache.solr.client.solrj.SolrServer;
- import org.apache.solr.client.solrj.SolrServerException;
- import org.apache.solr.client.solrj.impl.HttpSolrServer;
- public class Root {
- public static void main(String[] args) {
- SolrServer server=new HttpSolrServer("http://localhost:8080/solr/core0/");
- try {
- //test
- server.deleteByQuery( "*:*" );
- } catch (SolrServerException e) {
- e.printStackTrace();
- } catch (IOException e) {
- e.printStackTrace();
- }
- }
- }
执行后,没有异常,说明没有问题
- public static void addIndexDoc(SolrServer server) throws SolrServerException, IOException {
- //注意这里添加的字段名必须是 服务器上schema定义了的,不了解的请了解schema.xml去。
- SolrInputDocument doc1 = new SolrInputDocument();
- doc1.addField("id", "dog1001", 1.0f);
- doc1.addField("name", "jack", 1.0f);
- doc1.addField("price", 10);
- SolrInputDocument doc2 = new SolrInputDocument();
- doc2.addField("id", "dog1002", 1.0f);
- doc2.addField("name", "jim", 1.0f);
- doc2.addField("price", 15);
- Collection<SolrInputDocument> docs = new ArrayList<SolrInputDocument>();
- docs.add( doc1 );
- docs.add( doc2 );
- server.add(docs);
- server.commit();
- }
执行添加方法
添加成功后,查询如下图
这说明我们添加成功
既然可以完成添加索引文档了,那么肯定要考虑到中文分词
将压缩包解压,mmseg4j-all-1.9.0-with-dic.jar该文件放置于solr应用的Web-inf\lib目录中去
- <fieldType name="textComplex" class="solr.TextField" >
- <analyzer>
- <tokenizer class="com.chenlb.mmseg4j.solr.MMSegTokenizerFactory" mode="complex" />
- </analyzer>
- </fieldType>
- <fieldType name="textMaxWord" class="solr.TextField" >
- <analyzer>
- <tokenizer class="com.chenlb.mmseg4j.solr.MMSegTokenizerFactory" mode="max-word" />
- </analyzer>
- </fieldType>
- <fieldType name="textSimple" class="solr.TextField" >
- <analyzer>
- <tokenizer class="com.chenlb.mmseg4j.solr.MMSegTokenizerFactory" mode="simple" />
- </analyzer>
- </fieldType>
将以上片段添加到schema.xml文件中去,这样我们添加了三个字段类型,这三种类型交给了分词器来处理。
也就是说我们在添加了文档包含这些字段的时候,就会进行分词索引。
我们变更comments字段为分词类型,如下图
- SolrInputDocument doc1 = new SolrInputDocument();
- doc1.addField("id", "dog1003", 1.0f);
- doc1.addField("name", "lucy", 1.0f);
- doc1.addField("price", 10);
- doc1.addField("comments", "出生在上海,原名杨颖,香港新一代潮流教主,拥有四分之一baby童年照(10张)德国血统。爷爷是德国人。");
- SolrInputDocument doc2 = new SolrInputDocument();
- doc2.addField("id", "dog1004", 1.0f);
- doc2.addField("name", "sim", 1.0f);
- doc2.addField("price", 15);
- doc2.addField("comments", "自从全家移居上海,父母一直为糊口奔驰,在小学一年级时就要自己放学,“当时太小,不知危险,反而最怕过马路。");
我们修改之前写的addIndexDoc函数,重新添加。并且执行。
如果要进行查询,请记得将Tomcat server.xml 添加URIEncoding="UTF-8"
下面我们尝试一下查询关键字
http://localhost:8080/solr/core0/select?q=comments:*上海
请使用Chrome浏览器
很好,我们看到了查询结果
那么我们如何看分词情况呢?
之前使用的都是SolrInputDocument来完成像服务器提交数据,但是Solr给我们提供了更便捷的方法
支持直接使用Java PoJo类来完成提交数据
那么我们先写一个Pojo类,如下package org.solrj.root;
- package org.solrj.root;
- import org.apache.solr.client.solrj.beans.Field;
- public class Dog {
- @Field
- private String id;
- @Field
- private String name;
- @Field
- private Float price;
- @Field
- private String comments;
- public String getId() {
- return id;
- }
- public void setId(String id) {
- this.id = id;
- }
- public String getName() {
- return name;
- }
- public void setName(String name) {
- this.name = name;
- }
- public Float getPrice() {
- return price;
- }
- public void setPrice(Float price) {
- this.price = price;
- }
- public String getComments() {
- return comments;
- }
- public void setComments(String comments) {
- this.comments = comments;
- }
- }
我们在相应的保持一致的字段上添加了注解。
接下来我们写一个向服务器添加的函数。
- public static void addIndexDocWithPojo(SolrServer server) throws SolrServerException, IOException{
- Dog dog1=new Dog();
- dog1.setComments("大家好,我是中国狗,我在北京");
- dog1.setId("dog1005");
- dog1.setName("天语");
- dog1.setPrice(520.6f);
- Dog dog2=new Dog();
- dog2.setComments("大家好,我是日本狗,我在东京");
- dog2.setId("dog1006");
- dog2.setName("索尼");
- dog2.setPrice(520.6f);
- List<Dog> dogs=new ArrayList<Dog>();
- dogs.add(dog1);
- dogs.add(dog2);
- server.addBeans(dogs);
- server.commit();
- }
当然这个函数还是在之前写过的Root类中。
这样就可以完成了直接使用Java Pojo的文档提交。
提交后,便可以查看我们的检索结果了。
Solr为我们提供了强大的后台查看。
添加有了,自然需要查询,那么接着来把查询的代码补上。
创建新的方法
- public static void searchDocMapToPojo(SolrServer server) throws SolrServerException{
- SolrQuery solrQuery = new SolrQuery()
- .setQuery("comments:*德国")
- .setHighlight(true)
- .setHighlightSimplePost("</em>")
- .setHighlightSimplePre("<em>")
- .addHighlightField("comments");
- QueryResponse rsp = server.query(solrQuery);
- List<Dog> list=rsp.getBeans(Dog.class);
- System.out.println(list);
- for(int i=0;i<list.size();i++){
- System.out.println(rsp.getHighlighting().get(list.get(i).getId()).get("comments"));
- }
- }
这样执行后,可以看匹配到的高亮内容。
删除和修改,请查看solr api
http://dl.iteye.com/topics/download/b570d149-25a6-3dd1-8e82-c4a340009dcf
相关推荐
附件包含100个以上示例,包括solr.xml、solrconfig.xml等在Jetty、Tomcat等应用服务器下的详细配置。
基于最新的Solr 4.0搜索引擎教程,包含大量示例讲解,是学习Solr4不可多得的教程。
Solr服务器搭建详细步骤。
solr 集群搭建,其中包含相关的安装包,以及详细的安装文档
solr环境搭建详解
solr 集群搭建1
linux下solr的搭建,,详细的描述了solr的搭建过程,文档还是比较用心写的,有不明白的地方欢迎邮件询问:1005576543@qq.com
solr测试搭建,入门,搭建solr索引服务的启动。
包含solr的环境搭建及配置文件详解,和solrJ项目
自己写的 hadoop nutch solr 环境搭建手册,成功搭建后写的,会有红色标注容易出错的地方
apache-tomcat-8.5.24+ikanalyzer-solr6.5+solr-7.2.0,目前使用docker进行镜像安装,安装参考:https://www.jianshu.com/p/7c4d9d7dcd94
最新Solr环境搭建与IKAnalyzer3分词整合
apache官方的solr4.0的源代码包,可以通过分析源代码提高理解,或者通过编译源码进行二次开发
linux环境下搭建solr相关的工具包,解压即用,内含tomcatsolr以及IK分词器,jdk选择1.7以上的版本即可
solr环境搭建的相关资料,包括solr4.10.3的项目war包以及分词器所需的jar包
Solr集群搭建:Solr提供的分布式搜索方案,当你需要大规模,容错,分布式索引和检索能力时使用 SolrCloud。当一个系统的索引数据量少的时候是不需要使用SolrCloud的,当索引量很大,搜索请求并发很高,这时需要使用...
如何使用solr搭建服务器
solr7.2.1环境搭建和中文分词器IK配置 亲测可用,安装过程自己记录的。
NULL 博文链接:https://kunkun39.iteye.com/blog/1765564
Apache Solr 是一个开源的搜索服务器,Solr 使用 Java 语言开发,主要基于 HTTP 和 Apache ...定制 Solr 索引的实现方法很简单,用 POST 方法向 Solr 服务器发送一个描述所有 Field 及其内容的 XML 文档就可以了。