Lucene学习笔记
Lucene的概述:
1.1 什么是lucene
http://cloudera.iteye.com/blog/656459
这是一篇很好的文章。下面便是取自这里。
Lucene是一个全文搜索框架,而不是应用产品。因此它并不像http://www.baidu.com/ 或者google Desktop那么拿来就能用,它只是提供了一种工具让你能实现这些产品。
1.2 lucene能做什么
要回答这个问题,先要了解lucene的本质。实际上lucene的功能很单一,说到底,就是你给它若干个字符串,然后它为你提供一个全文搜索服务,告诉你你要搜索的关键词出现在哪里。知道了这个本质,你就可以发挥想象做任何符合这个条件的事情了。你可以把站内新闻都索引了,做个资料库;你可以把一个数据库表的若干个字段索引起来,那就不用再担心因为“%like%”而锁表了;你也可以写个自己的搜索引擎……
1.3 你该不该选择lucene
下面给出一些测试数据,如果你觉得可以接受,那么可以选择。
测试一:250万记录,300M左右文本,生成索引380M左右,800线程下平均处理时间300ms。
测试二:37000记录,索引数据库中的两个varchar字段,索引文件2.6M,800线程下平均处理时间1.5ms。
2 lucene的工作方式
lucene提供的服务实际包含两部分:一入一出。所谓入是写入,即将你提供的源(本质是字符串)写入索引或者将其从索引中删除;所谓出是读出,即向用户提供全文搜索服务,让用户可以通过关键词定位源。
2.1写入流程
源字符串首先经过analyzer处理,包括:分词,分成一个个单词;去除stopword(可选)。
将源中需要的信息加入Document的各个Field中,并把需要索引的Field索引起来,把需要存储的Field存储起来。
将索引写入存储器,存储器可以是内存或磁盘。
2.2读出流程
用户提供搜索关键词,经过analyzer处理。
对处理后的关键词搜索索引找出对应的Document。
用户根据需要从找到的Document中提取需要的Field。
3 一些需要知道的概念
lucene用到一些概念,了解它们的含义,有利于下面的讲解。
3.1 analyzer
Analyzer 是分析器,它的作用是把一个字符串按某种规则划分成一个个词语,并去除其中的无效词语,这里说的无效词语是指英文中的“of”、 “the”,中文中的 “的”、“地”等词语,这些词语在文章中大量出现,但是本身不包含什么关键信息,去掉有利于缩小索引文件、提高效率、提高命中率。
分词的规则千变万化,但目的只有一个:按语义划分。这点在英文中比较容易实现,因为英文本身就是以单词为单位的,已经用空格分开;而中文则必须以某种方法将连成一片的句子划分成一个个词语。具体划分方法下面再详细介绍,这里只需了解分析器的概念即可。
3.2 document
用户提供的源是一条条记录,它们可以是文本文件、字符串或者数据库表的一条记录等等。一条记录经过索引之后,就是以一个Document的形式存储在索引文件中的。用户进行搜索,也是以Document列表的形式返回。
3.3 field
一个Document可以包含多个信息域,例如一篇文章可以包含“标题”、“正文”、“最后修改时间”等信息域,这些信息域就是通过Field在Document中存储的。
Field有两个属性可选:存储和索引。通过存储属性你可以控制是否对这个Field进行存储;通过索引属性你可以控制是否对该Field进行索引。这看起来似乎有些废话,事实上对这两个属性的正确组合很重要,下面举例说明:
还是以刚才的文章为例子,我们需要对标题和正文进行全文搜索,所以我们要把索引属性设置为真,同时我们希望能直接从搜索结果中提取文章标题,所以我们把标题域的存储属性设置为真,但是由于正文域太大了,我们为了缩小索引文件大小,将正文域的存储属性设置为假,当需要时再直接读取文件;我们只是希望能从搜索解果中提取最后修改时间,不需要对它进行搜索,所以我们把最后修改时间域的存储属性设置为真,索引属性设置为假。上面的三个域涵盖了两个属性的三种组合,还有一种全为假的没有用到,事实上Field不允许你那么设置,因为既不存储又不索引的域是没有意义的。
3.4 term
term是搜索的最小单位,它表示文档的一个词语,term由两部分组成:它表示的词语和这个词语所出现的field。
3.5 tocken
tocken是term的一次出现,它包含trem文本和相应的起止偏移,以及一个类型字符串。一句话中可以出现多次相同的词语,它们都用同一个term表示,但是用不同的tocken,每个tocken标记该词语出现的地方。
3.6 segment
添加索引时并不是每个document都马上添加到同一个索引文件,它们首先被写入到不同的小文件,然后再合并成一个大索引文件,这里每个小文件都是一个segment。
4 lucene的结构
lucene包括core和sandbox两部分,其中core是lucene稳定的核心部分,sandbox包含了一些附加功能,例如highlighter、各种分析器。 Lucene core有七个包:analysis,document,index,queryParser,search,store,util。对于4.5版本不是这7个包,而是如下:
关于这些的详细介绍,后面再说。
环境的准备:
1. 先下载开发的jar包:http://lucene.apache.org/
http://apache.dataguru.cn/lucene/java/4.5.0/
我们把zip和src下载下来就可以了。
2. 对于开源的框架,一般使用都有2个步骤
a) 添加jar包
为了项目的可移植性,我们应该建立一个lib文件夹,专门放外部的jar包,然后把需要的jar包放入到这个目录,最后在链接进项目里面
b) 配置文件
3. 根据开发文档搭建环境
a) 先读readme文件,他会告诉你怎么用,告诉你这项目是什么
b) 再根据a)的指导,读取相应的文件,也就是docs/index.html
c) Index只指导我们看demon,于是只能网上搜索demo怎么用
下面是demon的使用方法:
http://blog.csdn.net/wyj0613/article/details/12318825
我们按照这个做法做就是了(预告:最后没有找到怎么搭建工程的方法)
i) 定义环境变量:CLASSPATH的值如下:
D:\soft_framework_utiles\lucene-4.5.0\lucene-4.5.0\core\lucene-core-4.5.0.jar;
D:\soft_framework_utiles\lucene-4.5.0\lucene-4.5.0\demo\lucene-demo-4.5.0.jar;D:\soft_framework_utiles\lucene-4.5.0\lucene-4.5.0\queryparser\lucene-queryparser-4.5.0.jar;
D:\soft_framework_utiles\lucene-4.5.0\lucene-4.5.0\analysis\common\lucene-analyzers-common-4.5.0.jar;
把这个4个jar放进去就是了。
j) 开始测试demonà建立索引
java org.apache.lucene.demo.IndexFiles -index [index folder] -docs[docs folder]
设置要生成的索引的文件夹和要解析的docs
我们的doc目录用:demo\lf_test_docs_dir
生成的index目录用:demo\lf_test_index_dir
下面就是执行过程:
我们可以去看index目录的生成的文件:
k) 开始测试demonà执行查询
java org.apache.lucene.demo.SearchFiles
将会出现“Query:”提示符,在其后输入关键字,回车,即可得到查询结果
由于SearchFiles是查找当前目录下面的index目录作为索引文件目录,所以这
里报错了,我们可以用-index参数指定我们的index目录:
可以看到查询mozilla得到3个文档有这个关键字。
4. 到教学的东西,那么我们就查资料吧,下面是做法
需要的jar包是:
Ø lucene-core-4.5.0.jar 核心包
Ø lucene-analyzers-common-4.5.0.jar 分词器
Ø lucene-highlighter-4.5.0.jar 高亮器
添加到项目buildpath:
如下显示就对了:
5. 写我们自己的代码了
先生成索引:(代码插件挺好用啊)
    Document document 
 
    
    =
 
    
     LuceneUtiles.getDocument(filePath);
 
    
    //
 
    
     存放索引的目录
 
    
    
 
    
    
Directory indexDirectory 
 
    
    =
 
    
     FSDirectory.open(
 
    
    new
 
    
     File(indexPath));
 
    
    //
 
    
     这里默认使用的模式是:openMode = OpenMode.CREATE_OR_APPEND;
 
    
    //
 
    
     IndexWriterConfig的父类构造是初始化的
 
    
    
 
    
    
IndexWriterConfig indexWriterConfig 
 
    
    =
 
    
     
 
    
    new
 
    
    
IndexWriterConfig(Version.LUCENE_45, analyzer);
 
    
    //
 
    
    索引的维护是用IndexWriter来做的,把doc添加进去,更新,删除就行了
 
    
    
 
    
    
IndexWriter indexWriter 
 
    
    =
 
    
     
 
    
    new
 
    
    
IndexWriter(indexDirectory,indexWriterConfig);
indexWriter.addDocument(document);
 
    
    //
 
    
     所有io操作的,最后都应该关闭,比如file,network,database等
 
    
    
 
    
    
indexWriter.close();
查询:
 
    
    public
 
    
     
 
    
    void
 
    
     searchFromIndex() 
 
    
    throws
 
    
     IOException
{
    
 
    
    //
 
    
     只能全小写才可以!因为我们term没有经过分词器处理!
    
 
    
    //
 
    
     所以只能用直接跟索引库的关键字一一对应的值
    
 
    
    //
 
    
     以后讲解把索引字符串也处理的方法
 
    
    
 
    
    
    String queryString 
 
    
    =
 
    
     
 
    
    "
 
    
    binary
 
    
    "
 
    
    ;
    
 
    
    //
 
    
     1.收索字符串--->Query对象
 
    
    
 
    
    
    Query query 
 
    
    =
 
    
     
 
    
    null
 
    
    ;
    {
        
 
    
    //
 
    
     注意:
        
 
    
    //
 
    
     因为文件在建立索引的时候(分词器那里),就已经做了一次大小写转换了,
        
 
    
    //
 
    
     存的索引全是小写的
        
 
    
    //
 
    
     而我们这里搜索的时候没有通过分词器,所以我们的数据没有转化,
        
 
    
    //
 
    
     那么如果这里是大写类型就搜不到任何东西!!!
 
    
    
 
    
    
        Term term 
 
    
    =
 
    
     
 
    
    new
 
    
     Term(
 
    
    "
 
    
    fileContent
 
    
    "
 
    
    ,queryString);
        
 
    
    //
 
    
     至于这里用什么Query,以后再说
 
    
    
 
    
    
        query 
 
    
    =
 
    
     
 
    
    new
 
    
     TermQuery(term);
    }
    
 
    
    //
 
    
     2.进行查询
 
    
    
 
    
    
    TopDocs topDocs 
 
    
    =
 
    
     
 
    
    null
 
    
    ;
    IndexSearcher searcher 
 
    
    =
 
    
     
 
    
    null
 
    
    ;
    IndexReader indexReader 
 
    
    =
 
    
     
 
    
    null
 
    
    ;
    {
        
 
    
    //
 
    
     指定索引的文件位置
 
    
    
 
    
    
        indexReader 
 
    
    =
 
    
     DirectoryReader.open(FSDirectory.open(
 
    
    new
 
    
    
        File(indexPath)));
        searcher 
 
    
    =
 
    
     
 
    
    new
 
    
     IndexSearcher(indexReader);
        Filter filter 
 
    
    =
 
    
     
 
    
    null
 
    
    ;
        
 
    
    //
 
    
     搜索
        
 
    
    //
 
    
      过滤器,可以过滤一些文件,null就是不用过滤器
        
 
    
    //
 
    
      数字代表每次查询多少条,也就是一次数据的读取读多少条,
        
 
    
    //
 
    
     1000,10000等比较合适,默认是50
        
 
    
    //
 
    
     
 
    
    
 
    
    
        topDocs 
 
    
    =
 
    
     searcher.search(query, filter, 
 
    
    1000
 
    
    );
    }
    
 
    
    //
 
    
     3.打印结果
 
    
    
 
    
    
    {
        System.out.println(
        
 
    
    "
 
    
    总共有【
 
    
    "
 
    
    +
 
    
    topDocs.totalHits
 
    
    +
 
    
    "
 
    
    】条匹配结果
 
    
    "
 
    
    );
        
 
    
    //
 
    
     这是返回的数据
 
    
    
 
    
    
        
 
    
    for
 
    
     (
 
    
    int
 
    
     i 
 
    
    =
 
    
     
 
    
    0
 
    
    ; i 
 
    
    <
 
    
     topDocs.scoreDocs.length; i
 
    
    ++
 
    
    ) {
            
 
    
    int
 
    
     docId 
 
    
    =
 
    
     topDocs.scoreDocs[i].doc;
            Document hittedDocument 
 
    
    =
 
    
     searcher.doc(docId);
            LuceneUtiles.print(hittedDocument);
        }
    }
    indexReader.close();
}
   
   
6. 讲解
点击类名,使用ctrl+T实现查询该类的子类,即继承关系!
下面是Lucene的大体结构图:
原理是先把文章根据需求用分词器拆分,然后建立好每一个关键词到文章的映射关系,这就是索引表,索引表存放的就是关键字到文章的映射,注意这里的映射不是直接就持有了对应的文章,而是持有的内部对文章编号的一个id。所以索引是关键字到文章Id的一个映射。
当用户查询时,也用之前的分词器,把查询分词,然后每一个词都挨着找索引,把匹配的返回出来就完毕了。
a) Analysis:分词器
Analysis包含一些内建的分析器,例如按空白字符分词的WhitespaceAnalyzer,添加了stopwrod过滤的StopAnalyzer,最常用的StandardAnalyzer。
b) Documet:文档
就是我们的源数据的封装结构,我们需要把源数据分成不同的域,放入到documet里面,到时搜索时也可以指定搜索哪些域(Field)了。
c) Directory : 目录,这是对目录的一个抽象,这个目录可以是文件系统上面的一个dir(FSDirectory),也可以是内存的一块(RAMDirectory),MmapDirectory为使用内存映射的索引。
放在内存的话就会避免IO的操作耗时了,根据需要选择就是了。
d) IndexWriter : 索引书写器,也就是维护器,对索引进行读取和删除操作的类
e) IndexReader : 索引读取器,用于读取指定目录的索引。
f) IndexSearcher : 索引的搜索器,就是把用户输入拿到索引列表中搜索的一个类
需要注意的是,这个搜索出来的就是(TopDocs)索引号,还不是真正的文章。
g) Query : 查询语句,我们需要把我们的查询String封装成Query才可以交给Searcher来搜索 ,查询的最小单元是Term,Lucene的Query有很多种,根据不同的需求选用不同的Query就是了.
i. TermQuery:
如果你想执行一个这样的查询:“在content域中包含‘lucene’的document”,那么你可以用TermQuery:
    Term t 
 
    
    =
 
    
     
 
    
    new
 
    
     Term(
 
    
    "
 
    
    content
 
    
    "
 
    
    , 
 
    
    "
 
    
     lucene
 
    
    "
 
    
    ); 
Query query 
 
    
    =
 
    
     
 
    
    new
 
    
     TermQuery(t);
   
   
ii. BooleanQuery:多个query的【与或】关系的查询
如果你想这么查询:“在content域中包含java或perl的document”,那么你可以建立两个TermQuery并把它们用BooleanQuery连接起来:
    TermQuery termQuery1 
 
    
    =
 
    
     
 
    
    new
 
    
     TermQuery(
 
    
    new
 
    
     Term(
 
    
    "
 
    
    content
 
    
    "
 
    
    , 
 
    
    "
 
    
    java
 
    
    "
 
    
    ); 
TermQuery termQuery 
 
    
    2
 
    
     
 
    
    =
 
    
     
 
    
    new
 
    
     TermQuery(
 
    
    new
 
    
     Term(
 
    
    "
 
    
    content
 
    
    "
 
    
    , 
 
    
    "
 
    
    perl
 
    
    "
 
    
    ); 
BooleanQuery booleanQuery 
 
    
    =
 
    
     
 
    
    new
 
    
     BooleanQuery(); 
booleanQuery.add(termQuery1, BooleanClause.Occur.SHOULD); 
booleanQuery.add(termQuery2, BooleanClause.Occur.SHOULD);
   
   
iii. WildcardQuery : 通配符的查询
如果你想对某单词进行通配符查询,你可以用WildcardQuery,通配符包括’?’匹配一个任意字符和’*’匹配零个或多个任意字符,例如你搜索’use*’,你可能找到’useful’或者’useless’:
Query query = new WildcardQuery(new Term("content", "use*");
iv. PhraseQuery : 在指定的文字距离内出现的词的查询
你可能对中日关系比较感兴趣,想查找‘中’和‘日’挨得比较近(5个字的距离内)的文章,超过这个距离的不予考虑,你可以:
PhraseQuery query = new PhraseQuery();
query.setSlop(5);
query.add(new Term("content ", “中”));
query.add(new Term(“content”, “日”));
那么它可能搜到“中日合作……”、“中方和日方……”,但是搜不到“中国某高层领导说日本欠扁”。
v. PrefixQuery : 查询词语是以某字符开头的
如果你想搜以‘中’开头的词语,你可以用PrefixQuery:
PrefixQuery query = new PrefixQuery(new Term("content ", "中");
vi. FuzzyQuery : 相似的搜索
FuzzyQuery用来搜索相似的term,使用Levenshtein算法。假设你想搜索跟‘wuzza’相似的词语,你可以:
Query query = new FuzzyQuery(new Term("content", "wuzza");
你可能得到‘fuzzy’和‘wuzzy’。
vii. TermRangeQuery : 范围内搜索
你也许想搜索时间域从20060101到20060130之间的document,你可以用TermRangeQuery:
TermRangeQuery query2 = TermRangeQuery.newStringRange("time", "20060101", "20060130", true, true);
最后的true表示用闭合区间。
viii.
h) TopDocs :结果集,就是searcher搜索的结果,里面就是一些ScoreDoc,这个对象的doc成员就是这个Id了!
要想得到文章,那么就得需要用这个Id去取文章了,searcher提供了用id得到document的方法,于是就取到了数据了
i)
使用多个Directory
因为我们知道了FSDirectory是从文件系统的目录中读取数据,我们总不可能每次查询都从文件中读取一次索引吧,所以我们的做法应该是程序启动时就把所以载入到内存,退出时再回写,如下面的示意图:
使用内存的目录:RAMDirectory
这样可以加快访问速度
    /**
 
    
    
 * 测试使用RAMDirectroy,也就是把生成的索引写到内存而不是磁盘.
 * 运行这个方法,不报错就代表成功了。
 * 平时我们是把索引文件写道文件系统的,这里就是写道RAM中,以后读取也
* 可以在这个目录读取,快速!
 * 
 
    
    @throws
 
    
     IOException 
 
 
    
    */
 
    
    
@Test
 
    
    public
 
    
     
 
    
    void
 
    
     testWriteInToRam() 
 
    
    throws
 
    
     IOException
{
    Directory directory 
 
    
    =
 
    
     
 
    
    new
 
    
     RAMDirectory();
    IndexWriterConfig config 
 
    
    =
 
    
     
    
 
    
    new
 
    
     IndexWriterConfig(Version.LUCENE_45, analyzer);
    IndexWriter indexWriter 
 
    
    =
 
    
     
 
    
    new
 
    
     IndexWriter(directory, config);
    indexWriter.addDocument(LuceneUtiles.getDocument(filePath));
    indexWriter.close();
}
   
   
从文件系统的目录载入到ram中,然后进行操作,最后保存回去
下面是实例代码:
    /**
 
    
    
 * 从磁盘的索引文件中读取放入到RAM目录,
 * 然后进行一系列的其他操作。
 * 退出时再把RAM的写回文件系统。
 * 
 
    
    @throws
 
    
     IOException 
 
 
    
    */
 
    
    
@Test
 
    
    public
 
    
     
 
    
    void
 
    
     testLoadIntoRamAndWriteBacktoFS() 
 
    
    throws
 
    
     IOException
{
    
 
    
    //
 
    
     1.启动时载入
 
    
    
 
    
    
    Directory fsDir 
 
    
    =
 
    
     FSDirectory.open(
 
    
    new
 
    
     File(indexPath));
    RAMDirectory ramDir 
 
    
    =
 
    
     
 
    
    new
 
    
     RAMDirectory(fsDir,
 
    
    new
 
    
     IOContext());
    
 
    
    //
 
    
     中途操作内存中的数据
 
    
    
 
    
    
    IndexWriterConfig ramIndexWriterConfig 
 
    
    =
 
    
     
    
 
    
    new
 
    
     IndexWriterConfig(Version.LUCENE_45, analyzer);
    IndexWriter ramIndexWriter 
 
    
    =
 
    
     
    
 
    
    new
 
    
     IndexWriter(ramDir, ramIndexWriterConfig);
    
 
    
    //
 
    
     添加一个文件,这好像没有写进去!!!!!!!
    
 
    
    //
 
    
     不是没写进去,而是这个方法没有执行!因为test方法一定要加@Test注解!
 
    
    
 
    
    
    ramIndexWriter.addDocument(
    LuceneUtiles.getDocument(filePath));
    ramIndexWriter.close();
 
    
    //
 
    
    要先关闭,因为还有缓存。
    
 
    
    //
 
    
     2.退出时保存写回,因为默认是CREATE_OR_APPEND
    
 
    
    //
 
    
     所以这里就会把AABBCC读出来之后,加上DD
    
 
    
    //
 
    
     那么写回去的数据时AABBCCDD,但是已经本地有存储了,
    
 
    
    //
 
    
     所以是append的方式,于是最后的结果是
    
 
    
    //
 
    
     AABBCCAABBCCDD,就是重复的了。可以search同一个关键字,
    
 
    
    //
 
    
     看结果数量就知道了
    
 
    
    //
 
    
     会1条变3条,3条变7条,这种*2+1的形式
    
 
    
    //
 
    
     
    
 
    
    //
 
    
     我们可以每次都重写,就能解决了
 
    
    
 
    
    
    IndexWriterConfig fsIndexWriterConfig 
 
    
    =
 
    
     
    
 
    
    new
 
    
     IndexWriterConfig(Version.LUCENE_45, analyzer);
    
 
    
    //
 
    
     设置每次重写
 
    
    
 
    
    
    fsIndexWriterConfig.setOpenMode(OpenMode.CREATE);
    IndexWriter fsIndexWriter 
 
    
    =
 
    
     
    
 
    
    new
 
    
     IndexWriter(fsDir, fsIndexWriterConfig);
    fsIndexWriter.addIndexes(ramDir);
    fsIndexWriter.close();
}
   
   
合并索引
因为每添加一个文档的索引,都会建立多个小的文件存放索引,所以文档多了之后,IO操作就很费时间了,于是我们需要合并小文件,每一个小文件就是segment。合并代码如下,需要注意的是:
a) 我们不能直接把索引库打开,用Creat_OR_Append的方式强制写回
他会出现叠加的问题
b) 要每次都用Create的方式写回
但是不能再写回自己的目录,因为同一个目录不支持又读又写,必须指定其他的目录
c) 指定其他目录存放Merge的索引,在写回之前,应该把之前的索引添加到IndexWriter中,这样才把会有数据
    /**
 
    
    
 * 索引库文件优化,貌似没有提供保存优化的接口
 * 多半内部封装好的,外界不用管。只有一个强制合并的接口。
 * 这就是用于合并。
 * 
 
    
    @throws
 
    
     IOException 
 
 
    
    */
 
    
    
@Test
 
    
    public
 
    
     
 
    
    void
 
    
     testYouHua() 
 
    
    throws
 
    
     IOException
{
    Directory fsDirectory_Merged 
 
    
    =
 
    
     
    FSDirectory.open(
 
    
    new
 
    
     File(indexPathMerged));
    Directory fsDirectory 
 
    
    =
 
    
     FSDirectory.open(
 
    
    new
 
    
     File(indexPath));
    IndexWriterConfig indexWriterConfig 
 
    
    =
 
    
     
    
 
    
    new
 
    
     IndexWriterConfig(Version.LUCENE_45, analyzer);
    indexWriterConfig.setOpenMode(OpenMode.CREATE);
    IndexWriter indexWriter 
 
    
    =
 
    
     
    
 
    
    new
 
    
     IndexWriter(fsDirectory_Merged, indexWriterConfig);
    
 
    
    //
 
    
     forceMerge(1)可以把所以的段合并成1个,但是每次都会增加一份,
    
 
    
    //
 
    
     就是像拷贝了一份加入一样
    
 
    
    //
 
    
     难道是该指定OpenMode.CREATE,如果指定了CREATE,
    
 
    
    //
 
    
     但是呢IndexWriter里面没有添加doc索引(即addDoc等方法),
    
 
    
    //
 
    
     所以写进去就编程空索引库了,于是需要先读出来再写回
    
 
    
    //
 
    
     于是还应该把索引加到writer里面
    
 
    
    //
 
    
    
    
 
    
    //
 
    
     把自己加入进去,然后再用每次都create的办法保持不会新增
    
 
    
    //
 
    
     注意不能添加到自己,所以还得新建一个库才可以,这样就不会叠加了
 
    
    
 
    
    
    indexWriter.addIndexes(fsDirectory);
    indexWriter.commit();
    indexWriter.forceMerge(
 
    
    1
 
    
    );
    indexWriter.close();
}
   
   
分词器(Analyzer)
在前面的概念介绍中我们已经知道了分析器的作用,就是把句子按照语义切分成一个个词语。英文切分已经有了很成熟的分析器: StandardAnalyzer,很多情况下StandardAnalyzer是个不错的选择。甚至你会发现StandardAnalyzer也能对中文进行分词。
但是我们的焦点是中文分词,StandardAnalyzer能支持中文分词吗?实践证明是可以的,但是效果并不好,搜索“如果” 会把“牛奶不如果汁好喝”也搜索出来,而且索引文件很大。那么我们手头上还有什么分析器可以使用呢?core里面没有,我们可以在sandbox里面找到两个: ChineseAnalyzer和CJKAnalyzer。但是它们同样都有分词不准的问题。相比之下用StandardAnalyzer和 ChineseAnalyzer建立索引时间差不多,索引文件大小也差不多,CJKAnalyzer表现会差些,索引文件大且耗时比较长。
要解决问题,首先分析一下这三个分析器的分词方式。StandardAnalyzer和ChineseAnalyzer都是把句子按单个字切分,也就是说 “牛奶不如果汁好喝”会被它们切分成“牛 奶 不 如 果 汁 好 喝”;而CJKAnalyzer则会切分成“牛奶 奶不 不如 如果 果汁 汁好好喝”。这也就解释了为什么搜索“果汁”都能匹配这个句子。
以上分词的缺点至少有两个:匹配不准确和索引文件大。我们的目标是将上面的句子分解成 “牛奶 不如 果汁好喝”。这里的关键就是语义识别,我们如何识别“牛奶”是一个词而“奶不”不是词语?我们很自然会想到基于词库的分词法,也就是我们先得到一个词库,里面列举了大部分词语,我们把句子按某种方式切分,当得到的词语与词库中的项匹配时,我们就认为这种切分是正确的。这样切词的过程就转变成匹配的过程,而匹配的方式最简单的有正向最大匹配和逆向最大匹配两种,说白了就是一个从句子开头向后进行匹配,一个从句子末尾向前进行匹配。基于词库的分词词库非常重要,词库的容量直接影响搜索结果,在相同词库的前提下,据说逆向最大匹配优于正向最大匹配。
当然还有别的分词方法,这本身就是一个学科,我这里也没有深入研究。回到具体应用,我们的目标是能找到成熟的、现成的分词工具,避免重新发明车轮。经过网上搜索,用的比较多的是中科院的 ICTCLAS和一个不开放源码但是免费的JE-Analysis。ICTCLAS有个问题是它是一个动态链接库, java调用需要本地方法调用,不方便也有安全隐患,而且口碑也确实不大好。JE-Analysis效果还不错,当然也会有分词不准的地方,相比比较方便放心。
下面就是分词器的例子:
    /**
 
    
    
 * <pre>
 * 测试分词器的,分词器分出来的关键字我们叫做Token
 * 分词器一般需要完成的工作是:
 * 1.词组拆分
 * 2.去掉停用词
 * 3.大小写转换
 * 4.词根还原
 * 
 * 对于中文分词,通常有3种:单词分词,二分法,词典分词。
 *  单词分词:就分成一个一个的单个字,比如{
 
    
    @link
 
    
     StandardAnalyzer},
*  如分成  我-们-是-中-国-人
 *  二分法分词:按2个字分词,即 我们-们是-是中-中国-国人,实现是是
* {
 
    
    @link
 
    
     CJKAnalyzer}
 *  词典分词:按照某种算法构造词,然后把词拿到词典里面找,如果是词,就算对了。
* 这是目前的好用的,可以分词成 我们-中国人,
* 好用的有【极易分词:MMAnalyzer】,还有就是【庖丁分词】目前没有找到适用于4.5的。
 *  还有一个牛的,是中科院的。能分出帽子和服装。这些需要外界提供,需要下载jar包
 * </pre>
 * 
 * 
 
    
    @author
 
    
     LiFeng
 * 
 
 
    
    */
 
    
    
 
    
    public
 
    
     
 
    
    class
 
    
     AnalyzerTest {
String enString 
 
    
    =
 
    
     
 
    
    "
 
    
    it must be made available under this Agreement,”+
 
    
    
 
    
    
”
 
    
    for
 
    
     more information : infor.doc
 
    
    "
 
    
    ;
 
    
    
 
    
    
String zhString 
 
    
    =
 
    
     
 
    
    "
 
    
    你好,我是中国人,我的名字是李锋。
 
    
    "
 
    
    ;
 
    
    //
 
    
     这个分词器用于英文的,没有形态还原
 
    
    //
 
    
     如果拿去分中文的话,每一个字都被拆开了,测试下就晓得了
 
    
    
 
    
    
Analyzer enAnalyzer 
 
    
    =
 
    
     
 
    
    new
 
    
     StandardAnalyzer(Version.LUCENE_45);
 
    
    //
 
    
     可以按点分开,没有形态还原
 
    
    //
 
    
     对于中文的话,他也只按标点分:你好 我是中国人 我的名字是李锋这3个token
 
    
    
 
    
    
Analyzer simpleAnalyzer 
 
    
    =
 
    
     
 
    
    new
 
    
     SimpleAnalyzer(Version.LUCENE_45);
 
    
    //
 
    
     分中文就是二分法
 
    
    //
 
    
     分英文就是:单词分开就完了
 
    
    
 
    
    
Analyzer cjkAnalyzer 
 
    
    =
 
    
     
 
    
    new
 
    
     CJKAnalyzer(Version.LUCENE_45);
 
    
    //
 
    
     lucene4.5使用je-analysis-1.5.3.jar会崩溃,因为好多都改了
 
    
    
 
    
    
Analyzer jeAnalyzer 
 
    
    =
 
    
     
 
    
    new
 
    
     MMAnalyzer();
 
    
    //
 
    
     词库分词,比如极易
 
    
    
 
    
    
String testString 
 
    
    =
 
    
     enString;
Analyzer testAnalyzer 
 
    
    =
 
    
     jeAnalyzer;
 
    
    /**
 
    
    
 * 得到分词器拆分出来的关键字(Token)
 * 
 * 
 
    
    @throws
 
    
     IOException
 
 
    
    */
 
    
    
@Test
 
    
    public
 
    
     
 
    
    void
 
    
     testGetTokens() 
 
    
    throws
 
    
     IOException {
 
    
    //
 
    
     得到分出来的词流
 
    
    //
 
    
     fileName就是我们当时创建document时一样的意思
 
    
    //
 
    
     我们这里是要得到分出的词,跟他要归属哪个filed无关,所以不用管
 
    
    //
 
    
     查看enAnalyzer的tokenStream的帮助,他叫们参考:
 
    
    //
 
    
     See the Analysis package documentation for some examples
 
    
    //
 
    
     demonstrating this.
 
    
    //
 
    
     于是打开对于的文档如下:
 
    
    //
 
    
     docs/core/org/apache/lucene/analysis/
 
    
    //
 
    
     package-summary.html#package_description
 
    
    //
 
    
     这里面会有例子的!!!
 
    
    //
 
    
     下面是文档的例子
 
    
    
 
    
    
{
 
    
    //
 
    
     分词器把文本分词token流
 
    
    
 
    
    
TokenStream tokenStream 
 
    
    =
 
    
     testAnalyzer.tokenStream(
 
    
    "
 
    
    myfield
 
    
    "
 
    
    , 
 
    
    new
 
    
     StringReader(testString));
OffsetAttribute offsetAtt 
 
    
    =
 
    
     
tokenStream.addAttribute(OffsetAttribute.
 
    
    class
 
    
    );
 
    
    try
 
    
     {
 
    
    //
 
    
     Resets this stream to the beginning. (Required)
 
    
    
 
    
    
tokenStream.reset(); 
 
    
    while
 
    
     (tokenStream.incrementToken()) {
 
    
    //
 
    
     这里传入true就可以看到更详细的信息,调试用很好
 
    
    //
 
    
     打印token的信息
 
    
    
 
    
    
System.out.println(
 
    
    "
 
    
    token: 
 
    
    "
 
    
     
 
    
    +
 
    
     
tokenStream.reflectAsString(
 
    
    false
 
    
    ));
 
    
    //
 
    
     可以去除token存放的开始和结束
 
    
    //
 
    
     System.out.println("token start offset: "
 
    
    //
 
    
     + offsetAtt.startOffset());
 
    
    //
 
    
     System.out.println("  token end offset: "
 
    
    //
 
    
     + offsetAtt.endOffset());
 
    
    
 
    
    
}
tokenStream.end();
} 
 
    
    finally
 
    
     {
 
    
    //
 
    
     Release resources associated with this stream.
 
    
    
 
    
    
tokenStream.close(); 
}
}
}
}
   
   
高亮器highlighter
高亮器帮我们做两件事,第一件就是搜索结果的摘要,第二件事就是整体内容的关键字高亮。
高亮的原理就是在关键字周围加上html标签就是了。
    String indexPath 
 
    
    =
 
    
     
 
    
    "
 
    
    D:\\WorkspacesForAll\\Lucene\\Lucene-00010-HelloWorld\\lf_index
 
    
    "
 
    
    ;
Analyzer analyzer 
 
    
    =
 
    
     
 
    
    new
 
    
     StandardAnalyzer(Version.LUCENE_45);
@Test
 
    
    public
 
    
     
 
    
    void
 
    
     testHightlight() 
 
    
    throws
 
    
     IOException, 
InvalidTokenOffsetsException
{
 
    
    //
 
    
     查询fileContent字段的reproduce关键字
 
    
    //
 
    
     这里的filed指定就是用于找到符合的document
 
    
    //
 
    
     在高亮器初始化的时候Scorer类也用到了这个query
 
    
    //
 
    
     其实过程就是:
 
    
    //
 
    
     1.先把某个域出现关键字的doc全部找出来
 
    
    //
 
    
     2.再用高亮器,在找到的文章中,
 
    
    //
 
    
       把指定域的内容提取一部分有关键字的文本,加上高亮就完毕了
 
    
    
 
    
    
Query query 
 
    
    =
 
    
     
 
    
    new
 
    
     TermQuery(
 
    
    new
 
    
     Term(
 
    
    "
 
    
    fileContent
 
    
    "
 
    
    , 
 
    
    "
 
    
    reproduce
 
    
    "
 
    
    ));
 
    
    //
 
    
     高亮器的初始化准备
 
    
    
 
    
    
Highlighter highlighter 
 
    
    =
 
    
     
 
    
    null
 
    
    ;
{
Formatter formatter 
 
    
    =
 
    
     
 
    
    new
 
    
     SimpleHTMLFormatter(
 
    
    "
 
    
    <font color='red'>
 
    
    "
 
    
    , 
 
    
    "
 
    
    </font>
 
    
    "
 
    
    );
Scorer fragmentScorer 
 
    
    =
 
    
     
 
    
    new
 
    
     QueryScorer(query);
highlighter 
 
    
    =
 
    
     
 
    
    new
 
    
     Highlighter(formatter, fragmentScorer);
 
    
    //
 
    
     摘要只取50个字符
 
    
    
 
    
    
Fragmenter fragmenter 
 
    
    =
 
    
     
 
    
    new
 
    
     SimpleFragmenter(
 
    
    50
 
    
    );
highlighter.setTextFragmenter(fragmenter);
}
IndexReader indexReader 
 
    
    =
 
    
     DirectoryReader.open(
FSDirectory.open(
 
    
    new
 
    
     File(indexPath)));
IndexSearcher searcher 
 
    
    =
 
    
     
 
    
    new
 
    
     IndexSearcher(indexReader);
TopDocs topDocs 
 
    
    =
 
    
      searcher.search(query, 
 
    
    null
 
    
    , 
 
    
    1000
 
    
    );
System.out.println(
 
    
    "
 
    
    找到【
 
    
    "
 
    
    +
 
    
    topDocs.totalHits
 
    
    +
 
    
    "
 
    
    】个:
 
    
    "
 
    
    );
 
    
    for
 
    
     (
 
    
    int
 
    
     i 
 
    
    =
 
    
     
 
    
    0
 
    
    ; i 
 
    
    <
 
    
     topDocs.scoreDocs.length; i
 
    
    ++
 
    
    ) {
 
    
    int
 
    
     docId 
 
    
    =
 
    
     topDocs.scoreDocs[i].doc;
Document document 
 
    
    =
 
    
     searcher.doc(docId);
 
    
    //
 
    
     用高亮器返回摘要
 
    
    //
 
    
     参数1就是用指定的分词器,
 
    
    //
 
    
     参数2目前不知道咋用
 
    
    //
 
    
     参数3就是我们需要处理哪一段文本的数据,把这段文件实现高亮并返回摘要
 
    
    //
 
    
     返回的就是高亮之后的摘要了,没有就是null
 
    
    
 
    
    
String ret 
 
    
    =
 
    
     highlighter.getBestFragment(
analyzer, 
 
    
    "
 
    
    anyString
 
    
    "
 
    
    ,document.get(
 
    
    "
 
    
    fileContent
 
    
    "
 
    
    ) );
 
    
    //
 
    
     String ret = highlighter.getBestFragment(
 
    
    //
 
    
     analyzer, "anyString",document.get("noThisFiled") );
 
    
    
 
    
    
 
    
    if
 
    
     (ret 
 
    
    !=
 
    
     
 
    
    null
 
    
    ) {
System.out.println(ret);
}
 
    
    else
 
    
     {
String defaultString 
 
    
    =
 
    
     document.get(
 
    
    "
 
    
    fileContent
 
    
    "
 
    
    );
System.out.println(
 
    
    "
 
    
    不高亮:
 
    
    "
 
    
    +
 
    
    defaultString);
}
}
}
   
   
查询
查询有两种大类:
第一种是使用查询字符串,有查询语法的。就像直接输入sql语句一样。
第二种就是查询对象,即用query类来组合成复杂查询。这个在概述的时候已经讲过了。
对象查询:
常用的有:TermQuery,BooleanQuery,WildcardQuery,PhraseQuery,PrefixQuery,TermRangeQuery等查询。对象查询对应的语法可以直接打印出来system.out.println(query);
TermQuery:
如果你想执行一个这样的查询:“在content域中包含‘lucene’的document”,那么你可以用TermQuery:
Term t = new Term("content", " lucene");
Query query = new TermQuery(t);
BooleanQuery
多个query的【与或】关系的查询
如果你想这么查询:“在content域中包含java或perl的document”,那么你可以建立两个TermQuery并把它们用BooleanQuery连接起来:
TermQuery termQuery1 = new TermQuery(new Term("content", "java");
TermQuery termQuery 2 = new TermQuery(new Term("content", "perl");
BooleanQuery booleanQuery = new BooleanQuery();
booleanQuery.add(termQuery1, BooleanClause.Occur.SHOULD);
booleanQuery.add(termQuery2, BooleanClause.Occur.SHOULD);
反正这个就是lucene的东西,记到就是了
WildcardQuery
通配符的查询
如果你想对某单词进行通配符查询,你可以用WildcardQuery,通配符包括’?’匹配一个任意字符和’*’匹配零个或多个任意字符,例如你搜索’use*’,你可能找到’useful’或者’useless’:
Query query = new WildcardQuery(new Term("content", "use*");
PhraseQuery
在指定的文字距离内出现的词的查询
你可能对中日关系比较感兴趣,想查找‘中’和‘日’挨得比较近(5个字的距离内)的文章,超过这个距离的不予考虑,你可以:
PhraseQuery query = new PhraseQuery();
query.setSlop(5);
query.add(new Term("content ", “中”));
query.add(new Term(“content”, “日”));
那么它可能搜到“中日合作……”、“中方和日方……”,但是搜不到“中国某高层领导说日本欠扁”。
PrefixQuery
查询词语是以某字符开头的
如果你想搜以‘中’开头的词语,你可以用PrefixQuery:
PrefixQuery query = new PrefixQuery(new Term("content ", "中");
FuzzyQuery : 相似的搜索
FuzzyQuery用来搜索相似的term,使用Levenshtein算法。假设你想搜索跟‘wuzza’相似的词语,你可以:
Query query = new FuzzyQuery(new Term("content", "wuzza");
你可能得到‘fuzzy’和‘wuzzy’。
TermRangeQuery
范围查询:范围内搜索
你也许想搜索时间域从20060101到20060130之间的document,你可以用TermRangeQuery:
TermRangeQuery query2 = TermRangeQuery.newStringRange("time", "20060101", "20060130", true, true);
最后的true表示用闭合区间。
查询语法
官方的文档里面有: lucene-4.5.0\docs\index.html里面就有如下的链接,可以查看。
我们直接调用query的toString就可以得到他们的查询语法。
查询某field的关键字,对应的对象就是TermQuery,我们大印就知道了,格式是:
[域名字]:[查找的关键字],比如fileContent:absc,就是查找fileContent域的关键字asbsc.
下面是总结:
如果遇到类找不到,那么就多半是jar包有的没有导入,下面的代码就会说明这点
需要使用QueryParser需要的jar等下面都有说明:
lucene-queryparser-4.5.0.jar -à 用于QueryParser
lucene-queries-4.5.0.jar -à 有些查询会用到,比如通配符查询
lucene-memory-4.5.0.jar -à 有些查询会用到,所以都导入就是了
TermQuery可以用“field:key”方式,例如“content:lucene”。
BooleanQuery中‘与’用‘+’,‘或’用‘ ’,例如“content:java contenterl”。
WildcardQuery仍然用‘?’和‘*’,例如“content:use*”。
PhraseQuery用‘’,例如“content:"中日"5”。
PrefixQuery用‘*’,例如“中*”。
FuzzyQuery用‘~’,例如“content: wuzza ~”。
RangeQuery用‘[]’或‘{}’,前者表示闭区间,后者表示开区间,例如“time:[20060101 TO 20060130]”,注意TO区分大小写。
你可以任意组合query string,完成复杂操作,例如“标题或正文包括lucene,并且时间在20060101到20060130之间的文章”可以表示为:“+ (title:lucene content:lucene) +time:[20060101 TO 20060130]”。
下面是代码:
      1 
 
    
    /**
 
    
    
 
    
      2 
 
    
    
 
    
      3 
 
    
     * 学习查询语句的例子。
 
    
      4 
 
    
    
 
    
      5 
 
    
     * 查询分两种:
 
    
      6 
 
    
    
 
    
      7 
 
    
     * 一个是使用查询字符串。
 
    
      8 
 
    
    
 
    
      9 
 
    
     * 另一个就是使用对象来查询,这个对象就是{
 
    
    @link
 
    
     Query}对象的子类来查询
 
    
     10 
 
    
    
 
    
     11 
 
    
     * 
 
    
     12 
 
    
    
 
    
     13 
 
    
     * 对象查询的话有几个几个很重要:
 
    
     14 
 
    
    
 
    
     15 
 
    
     * 
 
    
    @author
 
    
     LiFeng
 
    
     16 
 
    
    
 
    
     17 
 
    
     *
 
    
     18 
 
    
    
 
    
     19 
 
    
     
 
    
    */
 
    
    
 
    
     20 
 
    
    
 
    
     21 
 
    
    
 
    
    public
 
    
     
 
    
    class
 
    
     QueryTest {
 
    
     22 
 
    
    
 
    
     23 
 
    
    String indexPath 
 
    
    =
 
    
     “
 
    
    ******
 
    
    Lucene
 
    
    -
 
    
    00010
 
    
    -
 
    
    HelloWorld\\lf_index
 
    
    "
 
    
    ;
 
    
    
 
    
     24 
 
    
    
 
    
    
 
    
     25 
 
    
    Analyzer analyzer 
 
    
    =
 
    
     
 
    
    new
 
    
     StandardAnalyzer(Version.LUCENE_45);
 
    
     26 
 
    
    
 
    
     27 
 
    
    
 
    
    /**
 
    
    
 
    
     28 
 
    
    
 
    
     29 
 
    
     * 用查询字符串查询
 
    
     30 
 
    
    
 
    
     31 
 
    
     * 如果qString中指定了查询的域"fileContent:abdc",
 
    
     32 
 
    
    
 
    
     33 
 
    
    * 那么QueryParser构造时的指定的域就被覆盖。
 
    
     34 
 
    
    
 
    
     35 
 
    
     * 如果qString中没有指定域"abdc",那么就用QueryParser构造时的指定的域。
 
    
     36 
 
    
    
 
    
     37 
 
    
     * 
 
    
    @param
 
    
     qString
 
    
     38 
 
    
    
 
    
     39 
 
    
     * 
 
    
    @throws
 
    
     ParseException
 
    
     40 
 
    
    
 
    
     41 
 
    
     
 
    
    */
 
    
    
 
    
     42 
 
    
    
 
    
     43 
 
    
    
 
    
    public
 
    
     
 
    
    void
 
    
     queryData(String qString) 
 
    
    throws
 
    
     ParseException
 
    
     44 
 
    
    
 
    
     45 
 
    
    {
 
    
     46 
 
    
    
 
    
     47 
 
    
    
 
    
    //
 
    
     如果qString没有指定域就会用这个域来查询
 
    
    
 
    
     48 
 
    
    
 
    
    
 
    
     49 
 
    
    QueryParser parser 
 
    
    =
 
    
     
 
    
     50 
 
    
    
 
    
     51 
 
    
    
 
    
    new
 
    
     QueryParser(Version.LUCENE_45, 
 
    
    "
 
    
    fileContent
 
    
    "
 
    
    , analyzer);
 
    
     52 
 
    
    
 
    
     53 
 
    
    queryData(parser.parse(qString));
 
    
     54 
 
    
    
 
    
     55 
 
    
    }
 
    
     56 
 
    
    
 
    
     57 
 
    
    
 
    
    /**
 
    
    
 
    
     58 
 
    
    
 
    
     59 
 
    
     * 默认在fileContent域中查找高亮的数据
 
    
     60 
 
    
    
 
    
     61 
 
    
     * 
 
    
    @param
 
    
     query
 
    
     62 
 
    
    
 
    
     63 
 
    
     
 
    
    */
 
    
    
 
    
     64 
 
    
    
 
    
     65 
 
    
    
 
    
    public
 
    
     
 
    
    void
 
    
     queryData(Query query)
 
    
     66 
 
    
    
 
    
     67 
 
    
    {
 
    
     68 
 
    
    
 
    
     69 
 
    
    System.out.println(
 
    
    "
 
    
    Query:
 
    
    "
 
    
    +
 
    
    query);
 
    
     70 
 
    
    
 
    
     71 
 
    
    String fieldForHighLight 
 
    
    =
 
    
     
 
    
    "
 
    
    fileContent
 
    
    "
 
    
    ;
 
    
     72 
 
    
    
 
    
     73 
 
    
    
 
    
    //
 
    
     高亮器的初始化准备
 
    
    
 
    
     74 
 
    
    
 
    
    
 
    
     75 
 
    
    Highlighter highlighter 
 
    
    =
 
    
     
 
    
    null
 
    
    ;
 
    
     76 
 
    
    
 
    
     77 
 
    
    {
 
    
     78 
 
    
    
 
    
     79 
 
    
    Formatter formatter 
 
    
    =
 
    
     
 
    
    new
 
    
     SimpleHTMLFormatter(
 
    
     80 
 
    
    
 
    
     81 
 
    
    
 
    
    "
 
    
    <font color='red'>
 
    
    "
 
    
    , 
 
    
    "
 
    
    </font>
 
    
    "
 
    
    );
 
    
     82 
 
    
    
 
    
     83 
 
    
    Scorer fragmentScorer 
 
    
    =
 
    
     
 
    
    new
 
    
     QueryScorer(query);
 
    
     84 
 
    
    
 
    
     85 
 
    
    highlighter 
 
    
    =
 
    
     
 
    
    new
 
    
     Highlighter(formatter, fragmentScorer);
 
    
     86 
 
    
    
 
    
     87 
 
    
    
 
    
    //
 
    
     摘要只取50个字符
 
    
    
 
    
     88 
 
    
    
 
    
    
 
    
     89 
 
    
    Fragmenter fragmenter 
 
    
    =
 
    
     
 
    
    new
 
    
     SimpleFragmenter(
 
    
    50
 
    
    ); highlighter.setTextFragmenter(fragmenter);
 
    
     90 
 
    
    
 
    
     91 
 
    
    }
 
    
     92 
 
    
    
 
    
     93 
 
    
    IndexReader indexReader 
 
    
    =
 
    
     
 
    
    null
 
    
    ;
 
    
     94 
 
    
    
 
    
     95 
 
    
    
 
    
    try
 
    
     {
 
    
     96 
 
    
    
 
    
     97 
 
    
    indexReader 
 
    
    =
 
    
     DirectoryReader.open(
 
    
     98 
 
    
    
 
    
     99 
 
    
    FSDirectory.open(
 
    
    new
 
    
     File(indexPath)));
 
    
    100 
 
    
    
 
    
    101 
 
    
    IndexSearcher searcher 
 
    
    =
 
    
     
 
    
    new
 
    
     IndexSearcher(indexReader);
 
    
    102 
 
    
    
 
    
    103 
 
    
    TopDocs topDocs 
 
    
    =
 
    
     searcher.search(query, 
 
    
    1000
 
    
    );
 
    
    104 
 
    
    
 
    
    105 
 
    
    
 
    
    //
 
    
     打印结果
 
    
    
 
    
    106 
 
    
    
 
    
    
 
    
    107 
 
    
    {
 
    
    108 
 
    
    
 
    
    109 
 
    
    System.out.println(
 
    
    "
 
    
    总共有【
 
    
    "
 
    
    +
 
    
    topDocs.totalHits
 
    
    +
 
    
    
 
    
    110 
 
    
    
 
    
    111 
 
    
    
 
    
    "
 
    
    】条匹配结果
 
    
    "
 
    
    );
 
    
    112 
 
    
    
 
    
    113 
 
    
    
 
    
    //
 
    
     这是返回的数据
 
    
    
 
    
    114 
 
    
    
 
    
    
 
    
    115 
 
    
    
 
    
    for
 
    
     (
 
    
    int
 
    
     i 
 
    
    =
 
    
     
 
    
    0
 
    
    ; i 
 
    
    <
 
    
     topDocs.scoreDocs.length; i
 
    
    ++
 
    
    ) {
 
    
    116 
 
    
    
 
    
    117 
 
    
    
 
    
    int
 
    
     docId 
 
    
    =
 
    
     topDocs.scoreDocs[i].doc;
 
    
    118 
 
    
    
 
    
    119 
 
    
    Document hittedDocument 
 
    
    =
 
    
     searcher.doc(docId);
 
    
    120 
 
    
    
 
    
    121 
 
    
    
 
    
    //
 
    
     用高亮器返回摘要
 
    
    122 
 
    
    
 
    
    123 
 
    
    
 
    
    //
 
    
     参数1就是用指定的分词器,
 
    
    124 
 
    
    
 
    
    125 
 
    
    
 
    
    //
 
    
     参数2目前不知道咋用
 
    
    126 
 
    
    
 
    
    127 
 
    
    
 
    
    //
 
    
     参数3就是我们需要处理哪一段文本的数据,
 
    
    128 
 
    
    
 
    
    129 
 
    
    
 
    
    //
 
    
     把这段文件实现高亮并返回摘要
 
    
    130 
 
    
    
 
    
    131 
 
    
    
 
    
    //
 
    
     返回的就是高亮之后的摘要了,没有就是null
 
    
    
 
    
    132 
 
    
    
 
    
    
 
    
    133 
 
    
    String ret 
 
    
    =
 
    
     highlighter.getBestFragment(
 
    
    134 
 
    
    
 
    
    135 
 
    
    analyzer, 
 
    
    136 
 
    
    
 
    
    137 
 
    
    
 
    
    "
 
    
    anyString
 
    
    "
 
    
    ,
 
    
    138 
 
    
    
 
    
    139 
 
    
    hittedDocument.get(fieldForHighLight) );
 
    
    140 
 
    
    
 
    
    141 
 
    
    
 
    
    if
 
    
     (ret 
 
    
    !=
 
    
     
 
    
    null
 
    
    ) {
 
    
    142 
 
    
    
 
    
    143 
 
    
    System.out.println(ret);
 
    
    144 
 
    
    
 
    
    145 
 
    
    }
 
    
    else
 
    
     {
 
    
    //
 
    
     没有找到就输出全文
 
    
    
 
    
    146 
 
    
    
 
    
    
 
    
    147 
 
    
    String defaultString 
 
    
    =
 
    
     
 
    
    148 
 
    
    
 
    
    149 
 
    
    hittedDocument.get(fieldForHighLight);
 
    
    150 
 
    
    
 
    
    151 
 
    
    System.out.println(
 
    
    "
 
    
    不高亮:
 
    
    "
 
    
    +
 
    
    defaultString);
 
    
    152 
 
    
    
 
    
    153 
 
    
    }
 
    
    154 
 
    
    
 
    
    155 
 
    
    }
 
    
    156 
 
    
    
 
    
    157 
 
    
    }
 
    
    158 
 
    
    
 
    
    159 
 
    
    indexReader.close();
 
    
    160 
 
    
    
 
    
    161 
 
    
    indexReader 
 
    
    =
 
    
     
 
    
    null
 
    
    ;
 
    
    162 
 
    
    
 
    
    163 
 
    
    } 
 
    
    catch
 
    
     (Exception e) {
 
    
    164 
 
    
    
 
    
    165 
 
    
    e.printStackTrace();
 
    
    166 
 
    
    
 
    
    167 
 
    
    }
 
    
    finally
 
    
    
 
    
    168 
 
    
    
 
    
    169 
 
    
    {
 
    
    170 
 
    
    
 
    
    171 
 
    
    
 
    
    if
 
    
     (indexReader 
 
    
    !=
 
    
     
 
    
    null
 
    
    ) {
 
    
    172 
 
    
    
 
    
    173 
 
    
    
 
    
    try
 
    
     {
 
    
    174 
 
    
    
 
    
    175 
 
    
    indexReader.close();
 
    
    176 
 
    
    
 
    
    177 
 
    
    } 
 
    
    catch
 
    
     (IOException e) {
 
    
    178 
 
    
    
 
    
    179 
 
    
    e.printStackTrace();
 
    
    180 
 
    
    
 
    
    181 
 
    
    }
 
    
    182 
 
    
    
 
    
    183 
 
    
    }
 
    
    184 
 
    
    
 
    
    185 
 
    
    }
 
    
    186 
 
    
    
 
    
    187 
 
    
    }
 
    
    188 
 
    
    
 
    
    189 
 
    
    
 
    
    /**
 
    
    
 
    
    190 
 
    
    
 
    
    191 
 
    
     * 要使用QueryParser,需要导入包:
 
    
    192 
 
    
    
 
    
    193 
 
    
     * lucene-4.5.0\queryparser\lucene-queryparser-4.5.0.jar
 
    
    194 
 
    
    
 
    
    195 
 
    
     * 
 
    
    196 
 
    
    
 
    
    197 
 
    
     * 发现于demon的SearchFiles.java,用的是:
 
    
    198 
 
    
    
 
    
    199 
 
    
     * org.apache.lucene.queryparser.classic.QueryParser
 
    
    200 
 
    
    
 
    
    201 
 
    
     * 
 
    
    @throws
 
    
     ParseException 
 
    
    202 
 
    
    
 
    
    203 
 
    
     
 
    
    */
 
    
    
 
    
    204 
 
    
    
 
    
    205 
 
    
    @Test
 
    
    206 
 
    
    
 
    
    207 
 
    
    
 
    
    public
 
    
     
 
    
    void
 
    
     queryByQueryString() 
 
    
    throws
 
    
     ParseException
 
    
    208 
 
    
    
 
    
    209 
 
    
    {
 
    
    210 
 
    
    
 
    
    211 
 
    
    
 
    
    //
 
    
     查询字符串,这里关键字大写就可以了,因为经过了分词器
 
    
    
 
    
    212 
 
    
    
 
    
    
 
    
    213 
 
    
    String qString 
 
    
    =
 
    
     
 
    
    "
 
    
    fileContent:Reproduce
 
    
    "
 
    
    ;
 
    
    //
 
    
     用指定的域
 
    
    
 
    
    214 
 
    
    
 
    
    
 
    
    215 
 
    
    String qStringNoField 
 
    
    =
 
    
     
 
    
    "
 
    
    Reproduce
 
    
    "
 
    
    ;
 
    
    //
 
    
     用Parser默认的域
 
    
    
 
    
    216 
 
    
    
 
    
    
 
    
    217 
 
    
    queryData(qStringNoField);
 
    
    218 
 
    
    
 
    
    219 
 
    
    } 
 
    
    220 
 
    
    
 
    
    221 
 
    
    @Test
 
    
    222 
 
    
    
 
    
    223 
 
    
    
 
    
    public
 
    
     
 
    
    void
 
    
     termQuery()
 
    
    224 
 
    
    
 
    
    225 
 
    
    {
 
    
    226 
 
    
    
 
    
    227 
 
    
    
 
    
    //
 
    
     查询fileContent域的reproduce
 
    
    228 
 
    
    
 
    
    229 
 
    
    
 
    
    //
 
    
     注意term里面是没有经过分词器的,因为所有的索引是小写
 
    
    230 
 
    
    
 
    
    231 
 
    
    
 
    
    //
 
    
     所以这里需要用小写查询
 
    
    
 
    
    232 
 
    
    
 
    
    
 
    
    233 
 
    
    Query query 
 
    
    =
 
    
     
 
    
    new
 
    
     TermQuery(
 
    
    234 
 
    
    
 
    
    235 
 
    
    
 
    
    new
 
    
     Term(
 
    
    "
 
    
    fileContent
 
    
    "
 
    
    , 
 
    
    "
 
    
    reproduce
 
    
    "
 
    
    ));
 
    
    236 
 
    
    
 
    
    237 
 
    
    queryData(query);
 
    
    238 
 
    
    
 
    
    239 
 
    
    }
 
    
    240 
 
    
    
 
    
    241 
 
    
    
 
    
    /**
 
    
    
 
    
    242 
 
    
    
 
    
    243 
 
    
     * 短语查询,注意这里有引号
 
    
    244 
 
    
    
 
    
    245 
 
    
     * 
 
    
    246 
 
    
    
 
    
    247 
 
    
     * fileContent:"advertising features"~5
 
    
    248 
 
    
    
 
    
    249 
 
    
     * fileContent:"advertising ? ? features"
 
    
    250 
 
    
    
 
    
    251 
 
    
     
 
    
    */
 
    
    
 
    
    252 
 
    
    
 
    
    253 
 
    
    @Test
 
    
    254 
 
    
    
 
    
    255 
 
    
    
 
    
    public
 
    
     
 
    
    void
 
    
     phraseQuery()
 
    
    256 
 
    
    
 
    
    257 
 
    
    {
 
    
    258 
 
    
    
 
    
    259 
 
    
    
 
    
    //
 
    
     比如查询advertising materials mentioning features
 
    
    260 
 
    
    
 
    
    261 
 
    
    
 
    
    //
 
    
    
 
    
    262 
 
    
    
 
    
    263 
 
    
    
 
    
    //
 
    
     再比如想查询lucene ***  *** 教程
 
    
    264 
 
    
    
 
    
    265 
 
    
    
 
    
    //
 
    
     那么我们可以查询关键词"lucene"和关键词"教程",
 
    
    266 
 
    
    
 
    
    267 
 
    
    
 
    
    //
 
    
     然后他们相距5个词之类就行了
 
    
    268 
 
    
    
 
    
    269 
 
    
    
 
    
    //
 
    
     
 
    
    270 
 
    
    
 
    
    271 
 
    
    
 
    
    //
 
    
     查询语句是Query:fileContent:"advertising features"~5
 
    
    
 
    
    272 
 
    
    
 
    
    
 
    
    273 
 
    
    PhraseQuery query 
 
    
    =
 
    
     
 
    
    new
 
    
     PhraseQuery();
 
    
    274 
 
    
    
 
    
    275 
 
    
    query.setSlop(
 
    
    5
 
    
    );
 
    
    //
 
    
     最多间隔5个字
 
    
    
 
    
    276 
 
    
    
 
    
    
 
    
    277 
 
    
    query.add(
 
    
    new
 
    
     Term(
 
    
    "
 
    
    fileContent
 
    
    "
 
    
    , 
 
    
    "
 
    
    advertising
 
    
    "
 
    
    ));
 
    
    278 
 
    
    
 
    
    279 
 
    
    query.add(
 
    
    new
 
    
     Term(
 
    
    "
 
    
    fileContent
 
    
    "
 
    
    , 
 
    
    "
 
    
    features
 
    
    "
 
    
    )); 
 
    
    280 
 
    
    
 
    
    281 
 
    
    queryData(query);
 
    
    282 
 
    
    
 
    
    283 
 
    
    
 
    
    //
 
    
     也可以固定位置的指定,如下面0号位置就是advertising,
 
    
    284 
 
    
    
 
    
    285 
 
    
    
 
    
    //
 
    
     第3号位置是features。注意这个位置是相对起来的。中间隔2个.
 
    
    286 
 
    
    
 
    
    287 
 
    
    
 
    
    //
 
    
     我们通过打印出出来的语句就可以看出:
 
    
    288 
 
    
    
 
    
    289 
 
    
    
 
    
    //
 
    
     fileContent:"advertising ? ? features",也就是指定了只隔2个
 
    
    290 
 
    
    
 
    
    291 
 
    
    
 
    
    //
 
    
     改成0,4就不行了。这要的是精确的配置关系
 
    
    
 
    
    292 
 
    
    
 
    
    
 
    
    293 
 
    
    PhraseQuery query2 
 
    
    =
 
    
     
 
    
    new
 
    
     PhraseQuery();
 
    
    294 
 
    
    
 
    
    295 
 
    
    query2.add(
 
    
    new
 
    
     Term(
 
    
    "
 
    
    fileContent
 
    
    "
 
    
    , 
 
    
    "
 
    
    advertising
 
    
    "
 
    
    ),
 
    
    0
 
    
    );
 
    
    296 
 
    
    
 
    
    297 
 
    
    query2.add(
 
    
    new
 
    
     Term(
 
    
    "
 
    
    fileContent
 
    
    "
 
    
    , 
 
    
    "
 
    
    features
 
    
    "
 
    
    ),
 
    
    3
 
    
    ); 
 
    
    298 
 
    
    
 
    
    299 
 
    
    
 
    
    //
 
    
     就会找到reproduce关键字,也就是相当于把reproduce关键字的找出来
 
    
    
 
    
    300 
 
    
    
 
    
    
 
    
    301 
 
    
    queryData(query2);
 
    
    302 
 
    
    
 
    
    303 
 
    
    }
 
    
    304 
 
    
    
 
    
    305 
 
    
    
 
    
    /**
 
    
    
 
    
    306 
 
    
    
 
    
    307 
 
    
     * 关键字都是大写,这里的"TO"就是
 
    
    308 
 
    
    
 
    
    309 
 
    
     * fileSize:[0 TO 3]    两边包含
 
    
    310 
 
    
    
 
    
    311 
 
    
     * fileSize:{0 TO 3] 不包含左边,包含右边
 
    
    312 
 
    
    
 
    
    313 
 
    
     
 
    
    */
 
    
    
 
    
    314 
 
    
    
 
    
    315 
 
    
    @Test
 
    
    316 
 
    
    
 
    
    317 
 
    
    
 
    
    public
 
    
     
 
    
    void
 
    
     rangeQuery()
 
    
    318 
 
    
    
 
    
    319 
 
    
    {
 
    
    320 
 
    
    
 
    
    321 
 
    
    
 
    
    //
 
    
     我们文件的大小是2845,如果我们搜索0到100000是搜不到的,
 
    
    322 
 
    
    
 
    
    323 
 
    
    
 
    
    //
 
    
     因为做的是字符串的比较,也就是
 
    
    324 
 
    
    
 
    
    325 
 
    
    
 
    
    //
 
    
     "0","100000","2845"比较,明显2845最大,不在这个区间了,
 
    
    326 
 
    
    
 
    
    327 
 
    
    
 
    
    //
 
    
     所以我们查不到
 
    
    328 
 
    
    
 
    
    329 
 
    
    
 
    
    //
 
    
     
 
    
    330 
 
    
    
 
    
    331 
 
    
    
 
    
    //
 
    
     如果改成0,3之间就可以查到
 
    
    
 
    
    332 
 
    
    
 
    
    
 
    
    333 
 
    
    TermRangeQuery query 
 
    
    =
 
    
     TermRangeQuery.newStringRange(
 
    
    334 
 
    
    
 
    
    335 
 
    
    
 
    
    "
 
    
    fileSize
 
    
    "
 
    
    , 
 
    
    "
 
    
    0
 
    
    "
 
    
    , 
 
    
    "
 
    
    3
 
    
    "
 
    
    , 
 
    
    true
 
    
    , 
 
    
    true
 
    
    );
 
    
    336 
 
    
    
 
    
    337 
 
    
    queryData(query);
 
    
    338 
 
    
    
 
    
    339 
 
    
    TermRangeQuery query2 
 
    
    =
 
    
     TermRangeQuery.newStringRange(
 
    
    340 
 
    
    
 
    
    341 
 
    
    
 
    
    "
 
    
    fileSize
 
    
    "
 
    
    , 
 
    
    "
 
    
    0
 
    
    "
 
    
    , 
 
    
    "
 
    
    3
 
    
    "
 
    
    , 
 
    
    false
 
    
    , 
 
    
    true
 
    
    );
 
    
    342 
 
    
    
 
    
    343 
 
    
    queryData(query2);
 
    
    344 
 
    
    
 
    
    345 
 
    
    }
 
    
    346 
 
    
    
 
    
    347 
 
    
    
 
    
    /**
 
    
    
 
    
    348 
 
    
    
 
    
    349 
 
    
     * 数字范围的查询,没查到,到时再修改!!!!!!
 
    
    350 
 
    
    
 
    
    351 
 
    
     * 
 
    
    352 
 
    
    
 
    
    353 
 
    
     * fileSize:[0 TO 30000]
 
    
    354 
 
    
    
 
    
    355 
 
    
     
 
    
    */
 
    
    
 
    
    356 
 
    
    
 
    
    357 
 
    
    @Test
 
    
    358 
 
    
    
 
    
    359 
 
    
    
 
    
    public
 
    
     
 
    
    void
 
    
     rangeQuery2()
 
    
    360 
 
    
    
 
    
    361 
 
    
    {
 
    
    362 
 
    
    
 
    
    363 
 
    
    
 
    
    //
 
    
     因为做的是字符串比较
 
    
    364 
 
    
    
 
    
    365 
 
    
    
 
    
    //
 
    
     所以对于数字应该保证字符宽度一样才对,但是数据一变,
 
    
    366 
 
    
    
 
    
    367 
 
    
    
 
    
    //
 
    
     我们就又要全体都改,于是有下面的办法,如下分析:
 
    
    368 
 
    
    
 
    
    369 
 
    
    
 
    
    //
 
    
     因为java的long就是最长的数据,他的十进制有19位,
 
    
    370 
 
    
    
 
    
    371 
 
    
    
 
    
    //
 
    
     所以我们把所有的数字扩展成19为的字符串就可以解决。
 
    
    372 
 
    
    
 
    
    373 
 
    
    
 
    
    //
 
    
     当然Lucene已经帮我们提供了。
 
    
    374 
 
    
    
 
    
    375 
 
    
    
 
    
    //
 
    
     
 
    
    376 
 
    
    
 
    
    377 
 
    
    
 
    
    //
 
    
     对于数字的类型,lucene提供了一个工具类帮我们处理:
 
    
    378 
 
    
    
 
    
    379 
 
    
    
 
    
    //
 
    
     目前没有找到或者不会用
 
    
    380 
 
    
    
 
    
    381 
 
    
    
 
    
    //
 
    
     precisionStep是精度,需要 >= 1
 
    
    382 
 
    
    
 
    
    383 
 
    
    
 
    
    //
 
    
     但是这个查不到.....????
 
    
    
 
    
    384 
 
    
    
 
    
    
 
    
    385 
 
    
    Query query2 
 
    
    =
 
    
     NumericRangeQuery.newLongRange(
 
    
    386 
 
    
    
 
    
    387 
 
    
    
 
    
    "
 
    
    fileSize
 
    
    "
 
    
    ,
 
    
    0L
 
    
    , 
 
    
    30000L
 
    
    , 
 
    
    true
 
    
    , 
 
    
    true
 
    
    );
 
    
    388 
 
    
    
 
    
    389 
 
    
    queryData(query2);
 
    
    390 
 
    
    
 
    
    391 
 
    
    }
 
    
    392 
 
    
    
 
    
    393 
 
    
    
 
    
    /**
 
    
    
 
    
    394 
 
    
    
 
    
    395 
 
    
     * 通配符查询,模糊匹配的一个关键字,
 
    
    396 
 
    
    
 
    
    397 
 
    
     * 而:PhraseQuery短语查询是多个关键字的间隔。
 
    
    398 
 
    
    
 
    
    399 
 
    
     * 
 
    
    400 
 
    
    
 
    
    401 
 
    
     * ? : 代表任意一个字符
 
    
    402 
 
    
    
 
    
    403 
 
    
     * * : 代表0到n个任意字符
 
    
    404 
 
    
    
 
    
    405 
 
    
     * 
 
    
    406 
 
    
    
 
    
    407 
 
    
     * fileContent:reprod*
 
    
    408 
 
    
    
 
    
    409 
 
    
     * fileContent:repro??ce
 
    
    410 
 
    
    
 
    
    411 
 
    
     * fileContent:repro???ce
 
    
    412 
 
    
    
 
    
    413 
 
    
     * reproduce*:reprod*
 
    
    414 
 
    
    
 
    
    415 
 
    
     * 
 
    
    416 
 
    
    
 
    
    417 
 
    
     * java.lang.NoClassDefFoundError: 
 
    
    418 
 
    
    
 
    
    419 
 
    
     * org/apache/lucene/queries/CommonTermsQuery
 
    
    420 
 
    
    
 
    
    421 
 
    
     * 那么需要导入lucene-4.5.0\queries\lucene-queries-4.5.0.jar
 
    
    422 
 
    
    
 
    
    423 
 
    
     * 
 
    
    424 
 
    
    
 
    
    425 
 
    
     * java.lang.NoClassDefFoundError: 
 
    
    426 
 
    
    
 
    
    427 
 
    
     * org/apache/lucene/index/memory/MemoryIndex
 
    
    428 
 
    
    
 
    
    429 
 
    
     * 那么需要导入lucene-4.5.0\memory\lucene-memory-4.5.0.jar
 
    
    430 
 
    
    
 
    
    431 
 
    
     * 
 
    
    432 
 
    
    
 
    
    433 
 
    
     * 所以对于那些NoClassDefFoundError一定是jar没有导全,导入即可解决。
 
    
    434 
 
    
    
 
    
    435 
 
    
     * 
 
    
    436 
 
    
    
 
    
    437 
 
    
     * 这里就是查询reprod开头的关键字
 
    
    438 
 
    
    
 
    
    439 
 
    
     
 
    
    */
 
    
    
 
    
    440 
 
    
    
 
    
    441 
 
    
    @Test
 
    
    442 
 
    
    
 
    
    443 
 
    
    
 
    
    public
 
    
     
 
    
    void
 
    
     wildcardQuery()
 
    
    444 
 
    
    
 
    
    445 
 
    
    {
 
    
    446 
 
    
    
 
    
    447 
 
    
    
 
    
    //
 
    
     这个跟前缀查询一样..
 
    
    
 
    
    448 
 
    
    
 
    
    
 
    
    449 
 
    
    WildcardQuery query 
 
    
    =
 
    
     
 
    
    new
 
    
     WildcardQuery(
 
    
    450 
 
    
    
 
    
    451 
 
    
    
 
    
    new
 
    
     Term(
 
    
    "
 
    
    fileContent
 
    
    "
 
    
    , 
 
    
    "
 
    
    reprod*
 
    
    "
 
    
    ));
 
    
    452 
 
    
    
 
    
    453 
 
    
    queryData(query);
 
    
    454 
 
    
    
 
    
    455 
 
    
    WildcardQuery query2 
 
    
    =
 
    
     
 
    
    new
 
    
     WildcardQuery(
 
    
    456 
 
    
    
 
    
    457 
 
    
    
 
    
    new
 
    
     Term(
 
    
    "
 
    
    fileContent
 
    
    "
 
    
    , 
 
    
    "
 
    
    repro??ce
 
    
    "
 
    
    ));
 
    
    458 
 
    
    
 
    
    459 
 
    
    queryData(query2);
 
    
    460 
 
    
    
 
    
    461 
 
    
    
 
    
    //
 
    
     这个就查不到了
 
    
    
 
    
    462 
 
    
    
 
    
    
 
    
    463 
 
    
    WildcardQuery query3 
 
    
    =
 
    
     
 
    
    new
 
    
     WildcardQuery(
 
    
    464 
 
    
    
 
    
    465 
 
    
    
 
    
    new
 
    
     Term(
 
    
    "
 
    
    fileContent
 
    
    "
 
    
    , 
 
    
    "
 
    
    repro???ce
 
    
    "
 
    
    ));
 
    
    466 
 
    
    
 
    
    467 
 
    
    queryData(query3);
 
    
    468 
 
    
    
 
    
    469 
 
    
    WildcardQuery query4 
 
    
    =
 
    
     
 
    
    new
 
    
     WildcardQuery(
 
    
    470 
 
    
    
 
    
    471 
 
    
    
 
    
    new
 
    
     Term(
 
    
    "
 
    
    reproduce*
 
    
    "
 
    
    , 
 
    
    "
 
    
    reprod*
 
    
    "
 
    
    ));
 
    
    472 
 
    
    
 
    
    473 
 
    
    queryData(query4);
 
    
    474 
 
    
    
 
    
    475 
 
    
    }
 
    
    476 
 
    
    
 
    
    477 
 
    
    
 
    
    /**
 
    
    
 
    
    478 
 
    
    
 
    
    479 
 
    
     * 多个查询的boolean控制
 
    
    480 
 
    
    
 
    
    481 
 
    
     * +fileContent:reprod* fileSize:[0 TO 3] 
 
    
    482 
 
    
    
 
    
    483 
 
    
    * -fileContent:"advertising features"~5
 
    
    484 
 
    
    
 
    
    485 
 
    
     * 
 
    
    486 
 
    
    
 
    
    487 
 
    
     * + : 就是Must    也可以写成AND
 
    
    488 
 
    
    
 
    
    489 
 
    
     * - : 就是Must_Not 也可以写成NOT
 
    
    490 
 
    
    
 
    
    491 
 
    
     * 空格 : 就是Should 也可以写成OR
 
    
    492 
 
    
    
 
    
    493 
 
    
     * 
 
    
    494 
 
    
    
 
    
    495 
 
    
     * MUST : 必须满足条件
 
    
    496 
 
    
    
 
    
    497 
 
    
     * MUST_NOT : 一定不满足
 
    
    498 
 
    
    
 
    
    499 
 
    
     * SHOULD : 就是或的意思
 
    
    500 
 
    
    
 
    
    501 
 
    
     * 
 
    
    @throws
 
    
     ParseException 
 
    
    502 
 
    
    
 
    
    503 
 
    
     
 
    
    */
 
    
    
 
    
    504 
 
    
    
 
    
    505 
 
    
    @Test
 
    
    506 
 
    
    
 
    
    507 
 
    
    
 
    
    public
 
    
     
 
    
    void
 
    
     booleanQuery() 
 
    
    throws
 
    
     ParseException
 
    
    508 
 
    
    
 
    
    509 
 
    
    {
 
    
    510 
 
    
    
 
    
    511 
 
    
    BooleanQuery query 
 
    
    =
 
    
     
 
    
    new
 
    
     BooleanQuery();
 
    
    512 
 
    
    
 
    
    513 
 
    
    
 
    
    //
 
    
     一定有reprod*
 
    
    
 
    
    514 
 
    
    
 
    
    
 
    
    515 
 
    
    WildcardQuery must 
 
    
    =
 
    
     
 
    
    new
 
    
     WildcardQuery(
 
    
    516 
 
    
    
 
    
    517 
 
    
    
 
    
    new
 
    
     Term(
 
    
    "
 
    
    fileContent
 
    
    "
 
    
    , 
 
    
    "
 
    
    reprod*
 
    
    "
 
    
    ));
 
    
    518 
 
    
    
 
    
    519 
 
    
    
 
    
    //
 
    
     文件大小一定在0,3的字符串之间
 
    
    
 
    
    520 
 
    
    
 
    
    
 
    
    521 
 
    
    TermRangeQuery must_size 
 
    
    =
 
    
     TermRangeQuery.newStringRange(
 
    
    522 
 
    
    
 
    
    523 
 
    
    
 
    
    "
 
    
    fileSize
 
    
    "
 
    
    , 
 
    
    "
 
    
    0
 
    
    "
 
    
    , 
 
    
    "
 
    
    3
 
    
    "
 
    
    , 
 
    
    true
 
    
    , 
 
    
    true
 
    
    );
 
    
    524 
 
    
    
 
    
    525 
 
    
    
 
    
    //
 
    
     有这个条就查不到了嘛
 
    
    
 
    
    526 
 
    
    
 
    
    
 
    
    527 
 
    
    PhraseQuery not 
 
    
    =
 
    
     
 
    
    new
 
    
     PhraseQuery();
 
    
    528 
 
    
    
 
    
    529 
 
    
    not.setSlop(
 
    
    5
 
    
    );
 
    
    //
 
    
     最多间隔5个字
 
    
    
 
    
    530 
 
    
    
 
    
    
 
    
    531 
 
    
    not.add(
 
    
    new
 
    
     Term(
 
    
    "
 
    
    fileContent
 
    
    "
 
    
    , 
 
    
    "
 
    
    advertising
 
    
    "
 
    
    ));
 
    
    532 
 
    
    
 
    
    533 
 
    
    not.add(
 
    
    new
 
    
     Term(
 
    
    "
 
    
    fileContent
 
    
    "
 
    
    , 
 
    
    "
 
    
    features
 
    
    "
 
    
    )); 
 
    
    534 
 
    
    
 
    
    535 
 
    
    query.add(
 
    
    new
 
    
     BooleanClause(must, Occur.MUST));
 
    
    536 
 
    
    
 
    
    537 
 
    
    query.add(
 
    
    new
 
    
     BooleanClause(must_size, Occur.SHOULD));
 
    
    538 
 
    
    
 
    
    539 
 
    
    query.add(
 
    
    new
 
    
     BooleanClause(not, Occur.MUST_NOT));
 
    
    540 
 
    
    
 
    
    541 
 
    
    queryData(query);
 
    
    542 
 
    
    
 
    
    543 
 
    
    System.out.println(
 
    
    "
 
    
    下面是使用AND,NOT,OR执行
 
    
    "
 
    
    );
 
    
    544 
 
    
    
 
    
    545 
 
    
    
 
    
    //
 
    
     两条件相与
 
    
    
 
    
    546 
 
    
    
 
    
    
 
    
    547 
 
    
    queryData(
 
    
    "
 
    
    fileContent:reprod* AND fileSize:[0 TO 3]
 
    
    "
 
    
    );
 
    
    548 
 
    
    
 
    
    549 
 
    
    System.out.println(
 
    
    550 
 
    
    
 
    
    551 
 
    
    
 
    
    "
 
    
    ------------------李锋------分界线-----------
 
    
    "
 
    
    );
 
    
    552 
 
    
    
 
    
    553 
 
    
    
 
    
    //
 
    
     两条件相或
 
    
    
 
    
    554 
 
    
    
 
    
    
 
    
    555 
 
    
    queryData(
 
    
    "
 
    
    fileContent:reprod* OR fileSize:[0 TO 3]
 
    
    "
 
    
    );
 
    
    556 
 
    
    
 
    
    557 
 
    
    System.out.println(
 
    
    558 
 
    
    
 
    
    559 
 
    
    
 
    
    "
 
    
    ------------------李锋------分界线-----------
 
    
    "
 
    
    );
 
    
    560 
 
    
    
 
    
    561 
 
    
    
 
    
    //
 
    
     A !B
 
    
    
 
    
    562 
 
    
    
 
    
    
 
    
    563 
 
    
    queryData(
 
    
    "
 
    
    fileContent:reprod* NOT fileSize:[0 TO 3]
 
    
    "
 
    
    );
 
    
    564 
 
    
    
 
    
    565 
 
    
    System.out.println(
 
    
    566 
 
    
    
 
    
    567 
 
    
    
 
    
    "
 
    
    ------------------李锋------分界线-----------
 
    
    "
 
    
    );
 
    
    568 
 
    
    
 
    
    569 
 
    
    
 
    
    //
 
    
     !A B
 
    
    
 
    
    570 
 
    
    
 
    
    
 
    
    571 
 
    
    queryData(
 
    
    "
 
    
    NOT fileContent:reprod* AND fileSize:[0 TO 3]
 
    
    "
 
    
    );
 
    
    572 
 
    
    
 
    
    573 
 
    
    
 
    
    //
 
    
     下面使用括号来用改变优先级
 
    
    
 
    
    574 
 
    
    
 
    
    
 
    
    575 
 
    
    System.out.println(
 
    
    "
 
    
    \n使用括号
 
    
    "
 
    
    );
 
    
    576 
 
    
    
 
    
    577 
 
    
    queryData(
 
    
    "
 
    
    fileContent:reprod* AND”+
 
    
    
 
    
    578 
 
    
    
 
    
    
 
    
    579 
 
    
    ” (fileSize:[
 
    
    0
 
    
     TO 
 
    
    3
 
    
    ] OR fileContent:reprod
 
    
    ?
 
    
    )
 
    
    "
 
    
    );
 
    
    
 
    
    580 
 
    
    
 
    
    
 
    
    581 
 
    
    }
 
    
    582 
 
    
    
 
    
    583 
 
    
    }
 
    
    584 
 
    
    
 
    
    585 
 
    
    
   
   
指定排序和相关度权重
排序分两种,一个是修改相关度的权重来影响排序,另一个是使用指定的域来排序。
相关度排序
Lucene 在返回查找结果的时候,会根据相关度进行打分,得分越高的就越在前面,这是默认的处理。相关度的算法很多,比如用n维空间的cos求夹角的方式。
相关度又分两种,一种是域的相关度,另一种是doc的相关度。修改相关度的就是boost变量。
1. 域的相关度
a) 在创建查询语句的时候用Map<String, Float> boosts指定
b) 在创建索引的时候指定,这样就固化到了索引文件,需要重建索引才可以修改,或者查询时重新指定也行。((Field)field).setBoost(1.0f);
下面是第一种的代码,第二种的就是((Field)field).setBoost(1.0f);即可。
     1 
 
    
    /**
 
    
    
 
    
     2 
 
    
    
 
    
     3 
 
    
     * 设置域的权重,在查询时指定
 
    
     4 
 
    
    
 
    
     5 
 
    
     * fileContent:abcdefg.txt filePath:abcdefg.txt^3.0
 
    
     6 
 
    
    
 
    
     7 
 
    
     * 这就是设置权重的查询语句。
 
    
     8 
 
    
    
 
    
     9 
 
    
     * 
 
    
    10 
 
    
    
 
    
    11 
 
    
     * 也可以在创建索引时,给field设置权重,那么就固化到索引文件了。
 
    
    12 
 
    
    
 
    
    13 
 
    
     * 
 
    
    14 
 
    
    
 
    
    15 
 
    
     * 
 
    
    @throws
 
    
     InvalidTokenOffsetsException 
 
    
    16 
 
    
    
 
    
    17 
 
    
     * 
 
    
    @throws
 
    
     IOException 
 
    
    18 
 
    
    
 
    
    19 
 
    
     * 
 
    
    @throws
 
    
     ParseException 
 
    
    20 
 
    
    
 
    
    21 
 
    
     
 
    
    */
 
    
    
 
    
    22 
 
    
    
 
    
    23 
 
    
    @Test
 
    
    24 
 
    
    
 
    
    25 
 
    
    
 
    
    public
 
    
     
 
    
    void
 
    
     fieldBoostTest() 
 
    
    throws
 
    
     IOException, 
 
    
    26 
 
    
    
 
    
    27 
 
    
    InvalidTokenOffsetsException, ParseException
 
    
    28 
 
    
    
 
    
    29 
 
    
    {
 
    
    30 
 
    
    
 
    
    31 
 
    
    String[] fileds 
 
    
    =
 
    
     
 
    
    new
 
    
     String[]{
 
    
    "
 
    
    fileContent
 
    
    "
 
    
    ,
 
    
    "
 
    
    filePath
 
    
    "
 
    
    };
 
    
    32 
 
    
    
 
    
    33 
 
    
    Map
 
    
    <
 
    
    String, Float
 
    
    >
 
    
     boosts 
 
    
    =
 
    
     
 
    
    new
 
    
     HashMap
 
    
    <
 
    
    String, Float
 
    
    >
 
    
    ();
 
    
    34 
 
    
    
 
    
    35 
 
    
    
 
    
    //
 
    
     设置filePath的权重高些,3.0f相当大的影响
 
    
    
 
    
    36 
 
    
    
 
    
    
 
    
    37 
 
    
    boosts.put(
 
    
    "
 
    
    fileContent
 
    
    "
 
    
    , 
 
    
    1.0f
 
    
    );
 
    
    38 
 
    
    
 
    
    39 
 
    
    boosts.put(
 
    
    "
 
    
    filePath
 
    
    "
 
    
    , 
 
    
    3.0f
 
    
    );
 
    
    40 
 
    
    
 
    
    41 
 
    
    
 
    
    //
 
    
     相当于(fileContent:****) (filePath:****)
 
    
    42 
 
    
    
 
    
    43 
 
    
    
 
    
    //
 
    
     也就是查询fileContent或者filePath
 
    
    
 
    
    44 
 
    
    
 
    
    
 
    
    45 
 
    
    MultiFieldQueryParser parser 
 
    
    =
 
    
     
 
    
    new
 
    
     MultiFieldQueryParser(
 
    
    46 
 
    
    
 
    
    47 
 
    
    Version.LUCENE_45, fileds, analyzer,boosts);
 
    
    48 
 
    
    
 
    
    49 
 
    
    query(parser.parse(
 
    
    "
 
    
    abcdefg.txt
 
    
    "
 
    
    ));
 
    
    50 
 
    
    
 
    
    51 
 
    
    
 
    
    //
 
    
     
 
    
    //
 
    
     上面的相当于下面的
 
    
    52 
 
    
    
 
    
    53 
 
    
    
 
    
    //
 
    
     {
 
    
    54 
 
    
    
 
    
    55 
 
    
    
 
    
    //
 
    
     query("fileContent:abcdefg.txt filePath:abcdefg.txt^3.0");
 
    
    56 
 
    
    
 
    
    57 
 
    
    
 
    
    //
 
    
     query("fileContent:abcdefg.txt OR filePath:abcdefg.txt^3.0");
 
    
    58 
 
    
    
 
    
    59 
 
    
    
 
    
    //
 
    
     }
 
    
    
 
    
    60 
 
    
    
 
    
    
 
    
    61 
 
    
    }
 
    
    62 
 
    
    
 
    
    63 
 
    
    
   
   
2. Doc的相关度,我们可以指定某个doc的权重比其他的权重高,这样这篇文字的索引位置就比其他的相对靠前了。
实现方法:目前还没找到。
指定域排序Sort
我们可以指定某个域升降序排列,就像order by一样。
     1 
 
    
    //
 
    
     排序
 
    
    
 
    
     2 
 
    
    
 
    
    
 
    
     3 
 
    
    Sort sort 
 
    
    =
 
    
     
 
    
    new
 
    
     Sort();
 
    
     4 
 
    
    
 
    
     5 
 
    
    
 
    
    //
 
    
     就是大小升序
 
    
     6 
 
    
    
 
    
     7 
 
    
    
 
    
    //
 
    
    sort.setSort(new SortField("fileSize", Type.LONG,false));
 
    
     8 
 
    
    
 
    
     9 
 
    
    
 
    
    //
 
    
     就是大小降序
 
    
    
 
    
    10 
 
    
    
 
    
    
 
    
    11 
 
    
    sort.setSort(
 
    
    new
 
    
     SortField(
 
    
    "
 
    
    fileSize
 
    
    "
 
    
    , Type.LONG,
 
    
    true
 
    
    ));
 
    
    12 
 
    
    
 
    
    13 
 
    
    TopDocs topDocs 
 
    
    =
 
    
     searcher.search(query, 
 
    
    1000
 
    
    ,sort);
 
    
    14 
 
    
    
 
    
    15 
 
    
    
 
    
    //
 
    
    这个简单,直接指定传给IndexSeacher即可
 
    
    16 
 
    
    
 
    
    17 
 
    
    
 
    
    //
 
    
    有时你想要一个排好序的结果集,就像SQL语句的“order by”,lucene能做到:通过Sort。 
 
    
    
 
    
    18 
 
    
    
 
    
    
 
    
    19 
 
    
    Sort sort 
 
    
    =
 
    
     
 
    
    new
 
    
     Sort(“time”); 
 
    
    //
 
    
    相当于SQL的“order by time” 
 
    
    
 
    
    20 
 
    
    
 
    
    
 
    
    21 
 
    
    Sort sort 
 
    
    =
 
    
     
 
    
    new
 
    
     Sort(“time”, 
 
    
    true
 
    
    ); 
 
    
    //
 
    
     相当于SQL的“order by time desc” 
 
    
    22 
 
    
    
 
    
    23 
 
    
    
 
    
    //
 
    
    下面是一个完整的例子:
 
    
    
 
    
    24 
 
    
    
 
    
    
 
    
    25 
 
    
    Directory dir 
 
    
    =
 
    
     FSDirectory.getDirectory(PATH, 
 
    
    false
 
    
    ); 
 
    
    26 
 
    
    
 
    
    27 
 
    
    IndexSearcher is 
 
    
    =
 
    
     
 
    
    new
 
    
     IndexSearcher(dir); 
 
    
    28 
 
    
    
 
    
    29 
 
    
    QueryParser parser 
 
    
    =
 
    
     
 
    
    new
 
    
     QueryParser(
 
    
    "
 
    
    content
 
    
    "
 
    
    , 
 
    
    new
 
    
     StandardAnalyzer()); 
 
    
    30 
 
    
    
 
    
    31 
 
    
    Query query 
 
    
    =
 
    
     parser.parse(
 
    
    "
 
    
    title:lucene content:lucene
 
    
    "
 
    
    ); 
 
    
    32 
 
    
    
 
    
    33 
 
    
    RangeFilter filter 
 
    
    =
 
    
     
 
    
    new
 
    
     RangeFilter(
 
    
    "
 
    
    time
 
    
    "
 
    
    , 
 
    
    "
 
    
    20060101
 
    
    "
 
    
    , 
 
    
    "
 
    
    20060230
 
    
    "
 
    
    , 
 
    
    true
 
    
    , 
 
    
    true
 
    
    ); 
 
    
    34 
 
    
    
 
    
    35 
 
    
    Sort sort 
 
    
    =
 
    
     
 
    
    new
 
    
     Sort(“time”); 
 
    
    36 
 
    
    
 
    
    37 
 
    
    Hits hits 
 
    
    =
 
    
     is.search(query, filter, sort); 
 
    
    38 
 
    
    
 
    
    39 
 
    
    
 
    
    for
 
    
     (
 
    
    int
 
    
     i 
 
    
    =
 
    
     
 
    
    0
 
    
    ; i 
 
    
    <
 
    
     hits.length(); i
 
    
    ++
 
    
    ) 
 
    
    40 
 
    
    
 
    
    41 
 
    
    { 
 
    
    42 
 
    
    
 
    
    43 
 
    
    Document doc 
 
    
    =
 
    
     hits.doc(i); 
 
    
    44 
 
    
    
 
    
    45 
 
    
    System.out.println(doc.get(
 
    
    "
 
    
    title
 
    
    "
 
    
    ); 
 
    
    46 
 
    
    
 
    
    47 
 
    
    } 
 
    
    48 
 
    
    
 
    
    49 
 
    
    is.close();
 
    
    50 
 
    
    
 
    
    51 
 
    
    
   
   
过滤器Filter
就是过滤一些东西,我们在查询的时候可以指定:
// 使用过滤器
Filter filter = NumericRangeFilter.newLongRange(
"fileSize", 111L, 800L, true, true);
TopDocs topDocs = searcher.search(query, filter,1000);
这个就过滤文件大小,但是测试结果是查不到,需要再想一下。
filter 的作用就是限制只查询索引的某个子集,它的作用有点像SQL语句里的where,但又有区别,它不是正规查询的一部分,只是对数据源进行预处理,然后交给查询语句。注意它执行的是预处理,而不是对查询结果进行过滤,所以使用filter的代价是很大的,它可能会使一次查询耗时提高一百倍。
最常用的filter是RangeFilter和QueryFilter。RangeFilter是设定只搜索指定范围内的索引;QueryFilter是在上次查询的结果中搜索。
Filter的使用非常简单,你只需创建一个filter实例,然后把它传给searcher。继续上面的例子,查询“时间在20060101到20060130之间的文章”除了将限制写在query string中,你还可以写在RangeFilter中:
Directory dir = FSDirectory.getDirectory(PATH, false);
IndexSearcher is = new IndexSearcher(dir);
QueryParser parser = new QueryParser("content", new StandardAnalyzer());
Query query = parser.parse("title:lucene content:lucene";
RangeFilter filter = new RangeFilter("time", "20060101", "20060230", true, true);
Hits hits = is.search(query, filter);
for (int i = 0; i < hits.length(); i++)
{
Document doc = hits.doc(i);
System.out.println(doc.get("title");
}
is.close();
学习途径:
1. 看官方的例子程序,里面有生成索引,查询的方法,还有高级知识!
里面讲了生成doc时不同的域可以用不用的子类域来封装,比如文StringField,LongField,TextField,等等很好!
2. 官方文档,里面查询API,当前链接了源码之后这个文档就没多大意义了
3. 看官方文档指定的wiki:
http://wiki.apache.org/lucene-java/FrontPage?action=show&redirect=FrontPageEN
4. 看Lucene 原理与代码分析完整版.pdf
性能优化
一直到这里,我们还是在讨论怎么样使lucene跑起来,完成指定任务。利用前面说的也确实能完成大部分功能。但是测试表明lucene的性能并不是很好,在大数据量大并发的条件下甚至会有半分钟返回的情况。另外大数据量的数据初始化建立索引也是一个十分耗时的过程。那么如何提高lucene的性能呢?下面从优化创建索引性能和优化搜索性能两方面介绍。
优化创建索引性能
这方面的优化途径比较有限,IndexWriter提供了一些接口可以控制建立索引的操作,另外我们可以先将索引写入RAMDirectory,再批量写入FSDirectory,不管怎样,目的都是尽量少的文件IO,因为创建索引的最大瓶颈在于磁盘IO。另外选择一个较好的分析器也能提高一些性能。
通过设置IndexWriter的参数优化索引建立
setMaxBufferedDocs(int maxBufferedDocs)
控制写入一个新的segment前内存中保存的document的数目,设置较大的数目可以加快建索引速度,默认为10。
setMaxMergeDocs(int maxMergeDocs)
控制一个segment中可以保存的最大document数目,值较小有利于追加索引的速度,默认Integer.MAX_VALUE,无需修改。
setMergeFactor(int mergeFactor)
控制多个segment合并的频率,值较大时建立索引速度较快,默认是10,可以在建立索引时设置为100。
通过RAMDirectory缓写提高性能
我们可以先把索引写入RAMDirectory,达到一定数量时再批量写进FSDirectory,减少磁盘IO次数。
FSDirectory fsDir = FSDirectory.getDirectory("/data/index", true);
RAMDirectory ramDir = new RAMDirectory();
IndexWriter fsWriter = new IndexWriter(fsDir, new StandardAnalyzer(), true);
IndexWriter ramWriter = new IndexWriter(ramDir, new StandardAnalyzer(), true);
while (there are documents to index)
{
... create Document ...
ramWriter.addDocument(doc);
if (condition for flushing memory to disk has been met)
{
fsWriter.addIndexes(new Directory[] { ramDir });
ramWriter.close();
ramWriter = new IndexWriter(ramDir, new StandardAnalyzer(), true);
}
}
选择较好的分析器
这个优化主要是对磁盘空间的优化,可以将索引文件减小将近一半,相同测试数据下由600M减少到380M。但是对时间并没有什么帮助,甚至会需要更长时间,因为较好的分析器需要匹配词库,会消耗更多cpu,测试数据用StandardAnalyzer耗时133分钟;用MMAnalyzer耗时150分钟。
优化搜索性能
虽然建立索引的操作非常耗时,但是那毕竟只在最初创建时才需要,平时只是少量的维护操作,更何况这些可以放到一个后台进程处理,并不影响用户搜索。我们创建索引的目的就是给用户搜索,所以搜索的性能才是我们最关心的。下面就来探讨一下如何提高搜索性能。
将索引放入内存
这是一个最直观的想法,因为内存比磁盘快很多。Lucene提供了RAMDirectory可以在内存中容纳索引:
Directory fsDir = FSDirectory.getDirectory(“/data/index/”, false);
Directory ramDir = new RAMDirectory(fsDir);
Searcher searcher = new IndexSearcher(ramDir);
但是实践证明RAMDirectory和FSDirectory速度差不多,当数据量很小时两者都非常快,当数据量较大时(索引文件400M)RAMDirectory甚至比FSDirectory还要慢一点,这确实让人出乎意料。
而且lucene的搜索非常耗内存,即使将400M的索引文件载入内存,在运行一段时间后都会out of memory,所以个人认为载入内存的作用并不大。
优化时间范围限制
既然载入内存并不能提高效率,一定有其它瓶颈,经过测试发现最大的瓶颈居然是时间范围限制,那么我们可以怎样使时间范围限制的代价最小呢?
当需要搜索指定时间范围内的结果时,可以:
1、用RangeQuery,设置范围,但是RangeQuery的实现实际上是将时间范围内的时间点展开,组成一个个BooleanClause加入到 BooleanQuery中查询,因此时间范围不可能设置太大,经测试,范围超过一个月就会抛 BooleanQuery.TooManyClauses,可以通过设置 BooleanQuery.setMaxClauseCount (int maxClauseCount)扩大,但是扩大也是有限的,并且随着maxClauseCount扩大,占用内存也扩大
2、用 RangeFilter代替RangeQuery,经测试速度不会比RangeQuery慢,但是仍然有性能瓶颈,查询的90%以上时间耗费在 RangeFilter,研究其源码发现RangeFilter实际上是首先遍历所有索引,生成一个BitSet,标记每个document,在时间范围内的标记为true,不在的标记为false,然后将结果传递给Searcher查找,这是十分耗时的。
3、进一步提高性能,这个又有两个思路:
a、缓存Filter结果。既然RangeFilter的执行是在搜索之前,那么它的输入都是一定的,就是IndexReader,而 IndexReader是由Directory决定的,所以可以认为RangeFilter的结果是由范围的上下限决定的,也就是由具体的 RangeFilter对象决定,所以我们只要以RangeFilter对象为键,将filter结果BitSet缓存起来即可。lucene API 已经提供了一个CachingWrapperFilter类封装了Filter及其结果,所以具体实施起来我们可以 cache CachingWrapperFilter对象,需要注意的是,不要被CachingWrapperFilter的名字及其说明误导, CachingWrapperFilter看起来是有缓存功能,但的缓存是针对同一个filter的,也就是在你用同一个filter过滤不同 IndexReader时,它可以帮你缓存不同IndexReader的结果,而我们的需求恰恰相反,我们是用不同filter过滤同一个 IndexReader,所以只能把它作为一个封装类。
b、降低时间精度。研究Filter的工作原理可以看出,它每次工作都是遍历整个索引的,所以时间粒度越大,对比越快,搜索时间越短,在不影响功能的情况下,时间精度越低越好,有时甚至牺牲一点精度也值得,当然最好的情况是根本不作时间限制。
下面针对上面的两个思路演示一下优化结果(都采用800线程随机关键词随即时间范围):
第一组,时间精度为秒:
方式 直接用RangeFilter 使用cache 不用filter
平均每个线程耗时 10s 1s 300ms
第二组,时间精度为天
方式 直接用RangeFilter 使用cache 不用filter
平均每个线程耗时 900ms 360ms 300ms
由以上数据可以得出结论:
1、 尽量降低时间精度,将精度由秒换成天带来的性能提高甚至比使用cache还好,最好不使用filter。
2、 在不能降低时间精度的情况下,使用cache能带了10倍左右的性能提高。
使用更好的分析器
这个跟创建索引优化道理差不多,索引文件小了搜索自然会加快。当然这个提高也是有限的。较好的分析器相对于最差的分析器对性能的提升在20%以下。
一些经验
关键词区分大小写
OR AND TO等关键词是区分大小写的,lucene只认大写的,小写的当做普通单词。
读写互斥性
同一时刻只能有一个对索引的写操作,在写的同时可以进行搜索
文件锁
在写索引的过程中强行退出将在tmp目录留下一个lock文件,使以后的写操作无法进行,可以将其手工删除
时间格式
lucene只支持一种时间格式yyMMddHHmmss,所以你传一个yy-MM-dd HH:mm:ss的时间给lucene它是不会当作时间来处理的
设置boost
有些时候在搜索时某个字段的权重需要大一些,例如你可能认为标题中出现关键词的文章比正文中出现关键词的文章更有价值,你可以把标题的boost设置的更大,那么搜索结果会优先显示标题中出现关键词的文章(没有使用排序的前题下)。使用方法:
Field. setBoost(float boost);默认值是1.0,也就是说要增加权重的需要设置得比1大。
Compass框架
还没学














 
  
  
  
 
 
  
 
 
 