摘要:倒排索引是基于词的搜索。关于倒排索引要学习搜索引擎,就需要了解倒排索引,要更加深刻地理解倒排索引,就要先了解什么是正排索引表。由于不是由记录来确定属性值,而是由属性值来确定记录的位置,因而称为倒排索引。
Lucene是什么?
Lucene是apache软件基金会4 jakarta项目组的一个子项目,是一个开放源代码的全文检索引擎工具包,但它不是一个完整的全文检索引擎,而是一个全文检索引擎的架构,提供了完整的查询引擎和索引引擎,部分文本分析引擎(英文与德文两种西方语言)。Lucene的目的是为软件开发人员提供一个简单易用的工具包,以方便的在目标系统中实现全文检索的功能,或者是以此为基础建立起完整的全文检索引擎。Lucene是一套用于全文检索和搜寻的开源程式库,由Apache软件基金会支持和提供。Lucene提供了一个简单却强大的应用程式接口,能够做全文索引和搜寻。在Java开发环境里Lucene是一个成熟的免费开源工具。就其本身而言,Lucene是当前以及最近几年最受欢迎的免费Java信息检索程序库。人们经常提到信息检索程序库,虽然与搜索引擎有关,但不应该将信息检索程序库与搜索引擎相混淆。
简单来说,Lucene提供了一套完整的工具来帮助开发者构建自己的搜索引擎,开发者只需要import Lucene对应的package即可快速地开发构建自己的业务搜索引擎。
Lucene中的基本概念:索引(Index):文档的集合组成索引。和一般的数据库不一样,Lucene不支持定义主键,但Solr支持。
为了方便索引大量的文档,Lucene中的一个索引分成若干个子索引,叫做段(segment)。段中包含了一些可搜索的文档。
文档(Document):代表索引库中的一条记录。一个文档可以包含多个列(Field)。和一般的数据库不一样,一个文档的一个列可以有多个值。例如一篇文档既可以属于互联网类,又可以属于科技类。
列(Field):命名的词的集合。
词(Term) :由两个值定义——词语和这个词语所出现的列。
倒排索引是基于词(Term)的搜索。
关于倒排索引要学习搜索引擎,就需要了解倒排索引,要更加深刻地理解倒排索引,就要先了解什么是正排索引(表)。
正排索引(正向索引)正排表是以文档的ID为关键字,表中记录文档中每个字的位置信息,查找时扫描表中每个文档中字的信息直到找出所有包含查询关键字的文档。倒排索引(反向索引)正排表结构如图1所示,这种组织方法在建立索引的时候结构比较简单,建立比较方便且易于维护;因为索引是基于文档建立的,若是有新的文档加入,直接为该文档建立一个新的索引块,挂接在原来索引文件的后面。若是有文档删除,则直接找到该文档号文档对应的索引信息,将其直接删除。但是在查询的时候需对所有的文档进行扫描以确保没有遗漏,这样就使得检索时间大大延长,检索效率低下。
尽管正排表的工作原理非常的简单,但是由于其检索效率太低,除非在特定情况下,否则实用性价值不大。
倒排表以字或词为关键字进行索引,表中关键字所对应的记录表项记录了出现这个字或词的所有文档,一个表项就是一个字表段,它记录该文档的ID和字符在该文档中出现的位置情况。由于每个字或词对应的文档数量在动态变化,所以倒排表的建立和维护都较为复杂,但是在查询的时候由于可以一次得到查询关键字所对应的所有文档,所以效率高于正排表。在全文检索中,检索的快速响应是一个最为关键的性能,而索引建立由于在后台进行,尽管效率相对低一些,但不会影响整个搜索引擎的效率。
搜索引擎通常检索的场景是:给定几个关键词,找出包含关键词的文档。怎么快速找到包含某个关键词的文档就成为搜索的关键。这里我们借助单词——文档矩阵模型,通过这个模型我们可以很方便知道某篇文档包含哪些关键词,某个关键词被哪些文档所包含。单词-文档矩阵的具体数据结构可以是倒排索引、签名文件、后缀树等。
倒排索引源于实际应用中需要根据属性的值来查找记录,lucene是基于倒排索引实现的。这种索引表中的每一项都包括一个属性值和具有该属性值的各记录的地址。由于不是由记录来确定属性值,而是由属性值来确定记录的位置,因而称为倒排索引(inverted index)。带有倒排索引的文件我们称为倒排索引文件,简称倒排文件(inverted file)。
倒排索引一般表示为一个关键词,然后是它的频度(出现的次数),位置(出现在哪一篇文章或网页中,及有关的日期,作者等信息),它相当于为互联网上几千亿页网页做了一个索引,好比一本书的目录、标签一般。读者想看哪一个主题相关的章节,直接根据目录即可找到相关的页面。不必再从书的第一页到最后一页,一页一页的查找。
依据上面的原理,假设有这么两篇文档:
文档1: When in Rome, do as the Romans do.
文档2: When do you come back from Rome?
停用词: in, as, the, from。(在信息检索中,为节省存储空间和提高搜索效率,在处理自然语言数据(或文本)之前或之后会自动过滤掉某些字或词,这些字或词即被称为Stop Words(停用词)。)
把这两篇文档拆解转化为倒排索引如下:
现在检索的时候就可以利用倒排索引的优势大大提高效率:假如查询back这个单词,通过上面的倒排索引,可以直接定位到它出现在文档2中,且出现了1次(频率),出现的位置是文档的第5个单词,一目了然,相较于正排索引,也即是以文档为基本查询单位的结构,倒排索引能够更快地定位到keyword的所在,极大提高检索响应速度。
Lucene的索引检索流程首先把信息建立索引库(原始信息一般由网络爬虫获得),通过Lucene的IndexWriter写入倒排索引建立索引库,当有query请求时,通过IndexSearcher解析、匹配,从索引库获得结果返回并排序。
1.索引 索引相关类一个Document代表索引库中的一条记录。一个Document可以包含多个列。例如一篇文章可以包含“标题”、“正文”、“修改时间”等field,创建这些列对象以后,可以通过Document的add方法增加这些列到Document实例。
一段有意义的文字通过Analyzer分割成一个个的词语后写入到索引库。
创建索引//创建新的索引库 IndexWriter index = new IndexWriter(indexDirectory,//索引库存放的路径 new StandardAnalyzer(Version.LUCENE_CURRENT), true,//新建索引库 IndexWriter.MaxFieldLength.UNLIMITED);//不限制列的长度 File dir = new File(sourceDir); indexDir(dir); //索引sourceDir路径下的文件 index.optimize();//索引优化 index.close();//关闭索引库向索引增加文档
一个索引和一个数据库表类似,但是数据库中是先定义表结构后使用。但Lucene在放数据的时候定义字段结构。
Document doc = new Document(); //创建网址列 Field f = new Field(“url”, news.URL , //news.URL 存放url地址的值 Field.Store.YES, Field.Index. NOT_ANALYZED,//不分词 Field.TermVector.NO); doc.add(f); //创建标题列 f = new Field(“title”, news.title , //news.title 存放标题的值 Field.Store.YES, Field.Index.ANALYZED,//分词 Field.TermVector.WITH_POSITIONS_OFFSETS);//存Token位置信息 doc.add(f); //创建内容列 f = new Field(“body”, news.body , //news.body 存放内容列的值 Field.Store.YES, Field.Index. ANALYZED, //分词 Field.TermVector.WITH_POSITIONS_OFFSETS); //存Token位置信息 doc.add(f); index.addDocument(doc); //把一个文档加入索引2.检索 查询语法
加权: "dog^4 cat",^表示加权
修饰符: + - NOT, 例如, "+dog cat"
布尔操作符: OR AND, 例如, "(dog OR cat) AND mankind"
按域查询: title:apple, 一个字段名后跟冒号,再加上要搜索的词语或者短句,就可以把搜索条件限制在该字段。
QueryParserQueryParser将输入查询字串解析为Lucene Query对象。
QueryParser是使用JavaCC(Java Compiler Compiler )工具生成的词法解析器。
QueryParser.jj中定义了查询语法。
分析器(Analyzer)全文索引是按词组织的,所以在一长串keyword输入之后需要对其进行切分,Lucene中把索引中的词称为token,Analyzer会通过内部的Tokenizer把keyword解析成词序列,也就是token流,以供检索使用,可以使用Filter来过滤最后的查询结果。Lucene在两个地方使用到Analyzer:索引文档的时候和按keyword检索文档的时候。索引文档的时候Analyzer解析出的token(词)即为倒排表中的词。
// 分析公司名的流程 Analyzer analyzer = new CompanyAnalyzer(); TokenStream ts = analyzer.tokenStream("title", new StringReader("北京xxx科技发展有限公司")); while (ts.incrementToken()) { System.out.println("token: "+ts)); }搜索
IndexSearcher isearcher = new IndexSearcher(directory,//索引路径 true); //只读 //搜索标题列 QueryParser parser = new QueryParser(Version.LUCENE_CURRENT,"title", analyzer); Query query = parser.parse(“NBA”); //搜索NBA这个词 //返回前1000条搜索结果 ScoreDoc[] hits = isearcher.search(query, 1000).scoreDocs; //遍历结果 for (int i = 0; i < hits.length; i++) { Document hitDoc = isearcher.doc(hits[i].doc); System.out.println(hitDoc.get("title")); } isearcher.close(); directory.close();
常用的查询类型:
1. 最基本的词条查询-TermQuery: 一般用于查询不切分的字段或者基本词,即全匹配。
IndexSearcher isearcher = new IndexSearcher(directory, true); //查询url地址列 Termterm = new Term("url","http://www.lietu.com"); TermQuery query = new TermQuery(term); //返回前1000条结果 ScoreDoc[] hits = isearcher.search(query, 1000).scoreDocs;
2. 布尔逻辑查询-BooleanQuery: 同时查询标题列和内容列。
QueryParser parser = new QueryParser(Version.LUCENE_CURRENT, "body", analyzer); QuerybodyQuery = parser.parse("NBA");//查询内容列 parser = new QueryParser(Version.LUCENE_CURRENT, "title", analyzer); QuerytitleQuery = parser.parse("NBA");//查询标题列 BooleanQuery bodyOrTitleQuery = new BooleanQuery(); //用OR条件合并两个查询 bodyOrTitleQuery.add(bodyQuery, BooleanClause.Occur.SHOULD); bodyOrTitleQuery.add(titleQuery, BooleanClause.Occur.SHOULD); //返回前1000条结果 ScoreDoc[] hits = isearcher.search(bodyOrTitleQuery, 1000).scoreDocs;
布尔查询的实现过程如下:
3. RangeQuery-区间查找: 例如日期列time按区间查询的语法, time:[2007-08-13T00:00:00Z TO 2008-08-13T00:00:00Z]
后台实现代码:
ConstantScoreRangeQuery dateQuery = new ConstantScoreRangeQuery("time", t1, t2, true, true);旧版本区间查询的问题
RangeQuery采用扩展成TermQuery来实现,如果查询区间范围太大,RangeQuery会导致TooManyClausesException ConstantScoreRangeQuery 内部采用Filter来实现,当索引很大的时候,查询速度会很慢
Trie结构实现的区间查询在Lucene2.9以后的版本中,用Trie结构索引日期和数字等类型。例如:把521这个整数索引成为:百位是5、十位是52、个位是521。这样重复索引的好处是可以用最低的精度搜索匹配区域的中心地带,用较高的精度匹配边界。这样减少了要搜索的Term数量。
例如:TrieRange:[423 TO 642] 分解为5个子条件来执行: handreds:5 OR tens:[43 TO 49] OR ones:[423 TO 429] OR tens:[60 TO 63] OR ones:[640 TO 642]
使用Trie结构实现的区间查询索引时,增加一个浮点数列到索引:
document.add(new NumericField("weight").setFloatValue(value));
搜索时,使用NumericRangeQuery来查询这样的数字列。例如:
Query q = NumericRangeQuery.newFloatRange(“weight”, new Float(0.3f), new Float(0.10f), true, true);
weight:列名称,new Float(0.3f):最小值从它开始,new Float(0.10f):最大值到它结束,true:是否包含最小/大值。
用压缩来改进搜索性能 压缩的原理因为存在冗余,所以可以压缩。压缩的原理:使用预测编码,对前后相似的内容压缩。 压缩的对象
字符串数组(Term List)
整数数组(DocId)
字符串数组排序后使用前缀压缩,整数数组排序后使用差分编码压缩 。压缩算法的两个过程:编码(压缩)过程和解码(解压缩)过程。编码过程可以时间稍长,解码过程需要速度快。类似ADSL上网机制:下载速度快,而上传速度慢。因为在索引数据阶段执行编码过程,而在搜索阶段执行解码过程。索引数据速度可以稍慢,但是搜索速度不能慢。
前缀编码(Front Encoding)因为索引词是排序后写入索引的,所以前后两个索引词词形差别往往不大。前缀压缩算法省略存储相邻两个单词的共同前缀。每个词的存储格式是: <相同前缀的字符长度,不同的字符长度,不同的字符>。
例如:顺序存储如下三个词:term、termagancy、termagant。不用压缩算法的存储方式是<词长,词>,例如: <4,term> <10,termagancy> <9,termagant>;应用前缀压缩算法后,实际存储的内容如下: <4,term> <4,6, agancy> <8,1,t>。
差分编码(Differential Encoding)变长压缩算法对于较小的数字有较好的压缩比。差分编码可以把数组中较大的数值用较小的数来表示,所以可以和变长压缩算法联合使用来实现数组的压缩。
编码过程 解码过程
例如,排好序的DocId序列:
编码前:345, 777, 11437, …
编码后:345, 432, 10660, …
VInt是一个变长的正整数表示格式,是一种整数的压缩格式表示方法。每字节分成两部分:最高位和低7位。最高位表明是否有更多的字节在后面,0表示这个字节是尾字节,1表示还有后续字节,低7位表示数值。按如下的规则编码正整数x:
if (x < 128),则使用一个字节(最高位置0,低7位表示数值);
if (x< 128*128),则使用2个字节(第一个字节最高位置1,低7位表示低位数值,第二个字节最高位置0 ,低7位表示高位数值);
if (x<128^3),则使用3个字节,以此类推,把VInt看成是128进制的表示方法,低位优先,随着数值的增大,向后面的字节进位。
Lucene源码结构这是Lucene的用法和原理,构建自己的搜索引擎可以使用Lucene这个强大的工具包,将大大缩减开发周期,实现一个高性能的业务搜索引擎。
参考[1] Michael McCandless, Erik Hatcher, Otis Gospodnetic 著;Lucene in Action(Second Edition);电子工业出版社,2011
[2] (美)W Bruce Croft 著,刘挺 秦兵 译;搜索引擎:信息检索实践 畅销书籍 科技 正版搜索引擎 信息检索实践;机械工业出版社,2010
[3] (日)山田浩之 (日)末永匡 著,胡屹 译;自制搜索引擎;人民邮电出版社,2016
文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。
转载请注明本文地址:https://www.ucloud.cn/yun/72263.html
摘要:说到档案系统,选文档数据库再合适不过了。熟悉的人看这个会很眼熟,没错,这就是从借鉴过来,并用在我的关系数据库查询上。接口规范接口的主要目是为了传递数据,数据结构已经在上面给出。为便于不同系统不同终端的数据交换,也将应当在接口支持之内。 说到档案系统,选文档数据库再合适不过了。谈到文档数据库一般想到的是 MongoDB、CouchDB 之类的,可这里要说的不是这些,而是另一个 NoSQL...
摘要:说到档案系统,选文档数据库再合适不过了。熟悉的人看这个会很眼熟,没错,这就是从借鉴过来,并用在我的关系数据库查询上。接口规范接口的主要目是为了传递数据,数据结构已经在上面给出。为便于不同系统不同终端的数据交换,也将应当在接口支持之内。 说到档案系统,选文档数据库再合适不过了。谈到文档数据库一般想到的是 MongoDB、CouchDB 之类的,可这里要说的不是这些,而是另一个 NoSQL...
摘要:基本概念在深入解读之前,先了解下的几个基本概念,以及这几个概念背后隐藏的一些东西。如图是一个内的基本组成,内数据只是一个抽象表示,不代表其内部真实数据结构。即词典,是根据条件查找的基本索引。 前言 Apache Lucene是一个开源的高性能、可扩展的信息检索引擎,提供了强大的数据检索能力。Lucene已经发展了很多年,其功能越来越强大,架构也越来越精细。它目前不仅仅能支持全文索引,也...
摘要:基本概念在深入解读之前,先了解下的几个基本概念,以及这几个概念背后隐藏的一些东西。如图是一个内的基本组成,内数据只是一个抽象表示,不代表其内部真实数据结构。即词典,是根据条件查找的基本索引。 前言 Apache Lucene是一个开源的高性能、可扩展的信息检索引擎,提供了强大的数据检索能力。Lucene已经发展了很多年,其功能越来越强大,架构也越来越精细。它目前不仅仅能支持全文索引,也...
阅读 3249·2023-04-25 22:47
阅读 3762·2021-10-11 10:59
阅读 2299·2021-09-07 10:12
阅读 4241·2021-08-11 11:15
阅读 3430·2019-08-30 13:15
阅读 1749·2019-08-30 13:00
阅读 967·2019-08-29 14:02
阅读 1679·2019-08-26 13:57