- 浏览: 232949 次
- 性别:
- 来自: 上海
最新评论
-
feilian09:
怎么解决的!
httpclient 解析 dwr -
zhaiang:
你确定能够实现分组并且自定义排序?貌似不行啊...
solr facet 分组查询 -
aibrooks:
根本就不行 按照你说的
intellij idea 结合 tomcat 完成自动编译 -
epy:
很不错,谢谢。
ibatis集成c3p0 -
llscp:
楼主怎么解决的/
httpclient 解析 dwr
一.安装jdk6,tomcat5.5。
二.解压solr1.3,创建以下目录:
/usr/local/solr/solrApps: 保存的是solr.war
/usr/local/solr/multicore : 保存的是多核 solr的配制文件
拷贝solr1.3解压目录里的dist/apache-solr-1.3.0.war到solrApps里,example/multicore里的文件到multicore里。
三.配制如下:
1.在tomcat/conf/Catalina/localhost目录里增加solr.xml内容如下:
<?xml version="1.0" encoding="UTF-8" ?>
<Context docBase="/usr/local/solr/solrApps/solr.war" debug="0" crossContext="true" >
<Environment name="solr/home" type="java.lang.String" value="/usr/local/solr/multicore" override="true" />
</Context>
2.修改solr/multicore/solr.xml配制solr的多核参数为:
<solr persistent="false" sharedLib="paodingLib"> //增加一个共享lib配制,存放中文分词paoding的文件。
<!--adminPath: RequestHandler path to manage cores. If 'null' (or absent), cores will not be manageable via REST --> <cores adminPath="/admin/cores"> <core name="core0" instanceDir="core0" /> <core name="core1" instanceDir="core1" /> </cores> </solr>3.配制multicore/core0/conf/solrconfig.xml,内容如下:
<config>
<updateHandler class="solr.DirectUpdateHandler2" /> <dataDir>/usr/local/solr/multicore/sodao</dataDir> //此处配制每个core创建个自索引文件的目录,在配制目录下自动创建一个index目录,保存索引文件 <requestDispatcher handleSelect="true" > <requestParsers enableRemoteStreaming="false" multipartUploadLimitInKB="2048" /> </requestDispatcher> <requestHandler name="standard" class="solr.StandardRequestHandler" default="true" /> <requestHandler name="/update" class="solr.XmlUpdateRequestHandler" /> <requestHandler name="/admin/" <pre name="code" class="java"></pre>class="org.apache.solr.handler.admin.AdminHandlers" /> <!-- config for the admin interface --> <admin> <defaultQuery>solr</defaultQuery> </admin> </config>
这个目录里的schema.xml为创建索引文件的配制。
四、起动tomcat,输入http://localhost:8080/solr,测试
五、配制中文paoding分词
1.在网上下载paoding分词,将分词的lib包放到/usr/local/solr/multicore放到这个目录下面,并编写如下类:
package net.qhsoft.analyzer; import java.io.Reader; import java.util.Map; import net.paoding.analysis.analyzer.PaodingTokenizer; import net.paoding.analysis.analyzer.TokenCollector; import net.paoding.analysis.knife.PaodingMaker; import net.paoding.analysis.analyzer.impl.MostWordsTokenCollector; import net.paoding.analysis.analyzer.impl.MaxWordLengthTokenCollector; import org.apache.lucene.analysis.TokenStream; import org.apache.solr.analysis.BaseTokenizerFactory; public class ChineseTokenizerFactory extends BaseTokenizerFactory { /** * 最多切分 默认模式 */ public static final String MOST_WORDS_MODE = "most-words"; /** * 按最大切分 */ public static final String MAX_WORD_LENGTH_MODE = "max-word-length"; private String mode = null; public void setMode(String mode) { if (mode==null||MOST_WORDS_MODE.equalsIgnoreCase(mode) || "default".equalsIgnoreCase(mode)) { this.mode=MOST_WORDS_MODE; } else if (MAX_WORD_LENGTH_MODE.equalsIgnoreCase(mode)) { this.mode=MAX_WORD_LENGTH_MODE; } else { throw new IllegalArgumentException("不合法的分析器Mode参数设置:" + mode); } } @Override public void init(Map<String, String> args) { super.init(args); setMode(args.get("mode")); } public TokenStream create(Reader input) { return new PaodingTokenizer(input, PaodingMaker.make(), createTokenCollector()); } private TokenCollector createTokenCollector() { if( MOST_WORDS_MODE.equals(mode)) return new MostWordsTokenCollector(); if( MAX_WORD_LENGTH_MODE.equals(mode)) return new MaxWordLengthTokenCollector(); throw new Error("never happened"); } }打成一个net.jar包,也放到lib包里面
2. 把paoding的字典放到/usr/local/solr/multicore下面的dic目录里,并编辑/etc/profile文件,增加:
export PAODING_DIC_HOME=/usr/local/solr/multicore/dic
3.将lib目录下的paoding-analysis.properties,paoding-dic-home.properties两个文件考到/usr/local/solr目录下面。
发表评论
-
solr定制文档hash
2017-08-18 19:27 336我们知道,solr在添加文档建索引的时候,通过文档id来进 ... -
Distributed Requests
2017-08-15 13:22 427Distributed Requests Query al ... -
collection async
2017-08-14 16:43 442Asynchronous Calls Since ... -
Collections API timeouts
2017-08-13 00:32 356Such timeout can occur when So ... -
Solr原子更新
2014-12-30 17:13 854Solr4.0开始支持简单的原子更新和添加字段 参数 ... -
solr分组聚合
2014-12-30 17:12 7348在大型电子商务网站中,在商品列表页,我们都可以看到商品按分类 ... -
solr 空格关键词
2011-03-16 22:57 3950在应用中,可能会遇到英文短语作为一个检索词进行索引,而索引的分 ... -
索引排序
2011-03-14 00:21 1415solr 后添加的索引或修改后的索引,在搜索时排到后面去了,有 ... -
IK自定义词库
2011-01-13 14:30 2372ik 支持api级的用户词库加载,和配置级的词库文件指定,无 ... -
解决Tomcat Too Many Open Files问题
2010-12-27 10:07 2566这个问题是第一次在Linux环境下碰到,把解决的方法记录下来。 ... -
solr 查询参数说明
2010-12-27 10:05 2312常用 q - 查询字符串,必须的。 fl - 指定返回 ... -
solrJ查询使用方法
2010-12-27 10:05 1729public class SolrJSearch { ... -
solr的复制功能
2010-12-27 10:03 2213参考朋友chenlb的文章:http://www.iteye. ... -
solr更换memcached缓存的方法
2010-12-27 09:56 19171、补丁文件2个,src/java/org/apache/so ... -
Solr调优
2010-12-27 09:54 3714Schema设计的思考 索引字段的数量(Indexed Fie ... -
solr的一些查询语法
2010-12-27 09:54 2956Solr 及 lucene 的 query 使用方法初級 ... -
Solr的检索运算符
2010-12-27 09:53 1805“:” 指定字段查指定值,如返回所有值*:*² “?” 表示 ... -
查找相似页面
2010-12-27 09:52 1387MLT 要求字段被储存或使用检索词向量,检索词向量以一种以文档 ... -
solr 1.3 更多扩展点
2010-12-27 09:51 1258在 Solr 1.3 中,扩展 Solr 以及配置和重新整理扩 ... -
solr一些概念
2010-12-27 09:50 1408一、 醒目显示的查询参 ...
相关推荐
solr 5.0.0 + tomcat7 安装 + IKAnalyzer中文分词操作, 步骤详细可用,包含 IKAnalyzer的jar
Solr如何进行索引和搜索 索引:客户端(可以是浏览器可以是java程序)发送post请求到solr服务器,发给solr服务器一个文档(xml、json),就可以进行一个添加索引删除索引、修改索引的操作。 搜索:客户端(可以是...
解压直接在linux上用命令跑起来就能用了,已经配置好。127.0.0.1:8080/solr/index.html
solr4.9+tomcat+zookeeper集群
solr+ tomcat 项目整合!
solr+tomcat完成搜索功能,solr+tomcat完成搜索功能,solr+tomcat完成搜索功能
solr8+tomcat9+实时批量更新数据库+ik中文分词器,solr所用的工具与需要的jar,最新版本
支持solr5.5 solr6.0中IK分词需要的资料
linux+tomcat+mysql+solr调优,整理的比较粗糙,给大家分享参考下
介绍了Solr5.5内部使用的分词原理,有助于开发者自定义自己的分词器时掌握分词的基础知识。
Solr5.5搜索引擎之分词原理说明.docx 介绍了Solr5.5内部使用的分词原理,有助于开发者自定义自己的分词器时掌握分词的基础知识。
这个主要是整合了solr的spring+hibernate+webservice的一个框架代码,给大家讲解了solr的批次汇入和增删改查方法的实现方式,给初学者一些代码参考,希望能够帮助大家
处理过的简单的solr部署+tomcat 只需拷贝到tomcat就行
solr5.5.4.war&tomcat8.5.20,solr环境已经配置好。直接启动Tomcat即可使用,使用的java环境是1.8的版本,低版本没测试过。solrHhome配置在Tomcat目录下,solr日志配置在Tomcat日志目录下。
Solr的Multicore(分片)配置,内容很好!
使用Solr3.2 + Paoding中文分词的搜索引擎 使用Demo 测试放在C盘根目录
solr-7.7.2+ik-analyzer-solr7x solr-7.7.2+ik-analyzer-solr7x
几乎全新搭建ssm+shiro+solr7+mybatis逆向+maven多项目初步搭建测试,只是大致框架,接下来自己写,下面是linux 下solr7+tomcat8+IK中文分词器 环境 https://download.csdn.net/download/laysolitary/10686971
solr5.5使用的IK分词IKAnalyzer2012FF_u2.jar包,亲测可用。以及solr5.5同mysql数据同步用到的solr-dataimportscheduler-1.1.1.jar包,亲测可用。
solr6.0+mysql+IK分词集成