摘要:倒排索引我们将需要扫描检索的内容的每一个词建立一个索引,指明该词在文章中出现的次数和位置,当用户查询时,根据事先建立的索引进行查找,并将查找的结果反馈给用户。
ES概述 1、什么是Elasticsearch (是什么?)
什么是ElasticSearch呢,首先看看百度百科上的解释:
ElasticSearch是一个基于的搜索服务器。它提供了一个分布式多用户能力的全文搜索引擎,基于RESTful web接口;ElasticSearch 是一个分布式、高扩展、高实时的搜索与数据分析引擎。它能很方便的使大量数据具有搜索、分析和探索的能力。充分利用ElasticSearch的水平伸缩性,能使数据在生产环境变得更有价值。
从上面的解释中,我们可以知道:
ES是一个基于Lucene的实时分布式搜索和分析引擎,但隐藏了Lucene的复杂性,为使用者提供了简单易用的restful api接口、java api接口(包括其他语言的api接口)。
这里有几个概念我们需要了解:
1.1什么是搜索?讲到搜索,大部分人可能会想到百度、谷歌等,比如我想看电影,一般会先打开百度,然后输入电影名,进行搜索;
搜索,就是在任何场景下,找寻你想要的信息,这个时候,会输入一段你要搜索的关键字,然后就期望找到这个关键字相关的有些信息,如:
1)互联网的搜索:电商网站(天猫),招聘网站(Boss),各种app
2)IT系统的搜索:OA系统,会议管理等。
Lucene说白了就是一个jar包,里面包含了封装好的各种建立倒排索引,以及进行搜索的代码,包括各种算法。我们在开发的时候,引入lucene jar,然后基于lucene的api进行去进行开发就可以了。
倒排索引:我们将需要扫描检索的内容的每一个词建立一个索引,指明该词在文章中出现的次数和位置,当用户查询时,根据事先建立的索引进行查找,并将查找的结果反馈给用户。我们可以想象成通过字典中的检索字表查字的过程。
1)新闻网站,用户行为日志(点击,浏览,收藏等)+ 社交网络数据(对某某新闻的相关看法),数据分析,给到每篇新闻文章的作者,让他知道他的文章的公众反馈(好,坏,热门,垃圾,鄙视,崇拜)。
2)Stack Overflow(国外的程序异常讨论论坛),IT问题,程序的报错,提交上去,有人会跟你讨论和回答,全文检索,搜索相关问题和答案,程序报错了,就会将报错信息粘贴到里面去,搜索有没有对应的答案。
3)国内:站内搜索(电商,招聘,门户,等等),IT系统搜索(OA,CRM,ERP,等等),数据分析(ES热门的一个使用场景)。
1)可以上百台服务器,处理PB级数据,服务大公司;也可以运行在单机上,服务小公司;
2)Elasticsearch不是什么新技术,主要是将全文检索、数据分析以及分布式技术,合并在了一起,才形成了独一无二的ES;
3)对用户而言,是透明的,开箱即用,非常简单,作为中小型的应用,直接3分钟部署一下ES,就可以作为生产环境的系统来使用了;
4)数据库的功能面对很多领域是不够用的(事务,还有各种联机事务型的操作);特殊的功能,比如全文检索,同义词处理,相关度排名,复杂数据分析,海量数据的近实时处理;Elasticsearch作为传统数据库的一个补充,提供了数据库所不能提供的很多功能。
当我们启动ElasticSearch后,它会利用多播或者单播模式去集群中寻找其它节点,并和节点建立连接。整个过程如下图所示:
2、核心概念 2.1 近实时近实时,从写入数据到数据可以被搜索到有一个小延迟(大概1秒);基于es执行搜索和分析可以达到秒级。
2.2 集群集群包含多个节点,可以配置每个节点属于哪个集群(集群名称,默认是elasticsearch),对于中小型应用来说,刚开始一个集群可能就一个节点。
2.3 Node(节点)集群中的一个节点,节点也有一个名称(默认随机分配的),节点名称很重要(在执行运维管理操作的时候),默认节点会去加入一个名称为“elasticsearch”的集群,如果直接启动一堆节点,那么它们会自动组成一个elasticsearch集群。
2.4 Index(索引-数据库)索引包含一堆有相似结构的文档数据,比如可以有一个客户索引,商品分类索引,索引有一个名称。一个index就代表了一类类似的或者相同的document。比如说建立一个商品索引,里面可能就存放了所有的商品数据,类似传统数据库的数据库。
2.5 Type(类型-表)每个索引里都可以有一个或多个type,type是index中的一个逻辑数据分类,一个type下的document,都有相同的field,比如博客系统,有一个索引,可以定义用户数据type,博客数据type,评论数据type,类似传统数据库中的表。
2.6 Document(文档-行)文档是es中的最小数据单元,一个document可以是一条客户数据,一条商品分类数据,通常用JSON数据结构表示,类似传统数据库中的一条数据记录,如:
{ "product_id": "1", "product_name": "黑人牙膏", "product_desc": "高效美白", "category_id": "2", "category_name": "生活用品" }2.7 Field(字段-列)
Field是Elasticsearch的最小单位。一个document里面有多个field,每个field就是一个数据字段。
2.8 mapping(映射-约束)数据如何存放到索引对象上,需要有一个映射配置,包括:数据类型、是否存储、是否分词等。创建Mapping 的代码示例如下:
client.indices.putMapping({ index : "blog", type : "article", body : { article: { properties: { id: { type: "string", analyzer: "ik", store: "yes", }, title: { type: "string", analyzer: "ik", store: "no", }, content: { type: "string", analyzer: "ik", store: "yes", } } } } });2.9分片和复制
分片:一个索引可以存储超出单个结点硬件限制的大量数据。比如,一个具有10亿文档的索引占据1TB的磁盘空间,而任一节点都没有这样大的磁盘空间;或者单个节点处理搜索请求,响应太慢。
为了解决这个问题,Elasticsearch提供了将索引划分成多份的能力,这些份就叫做分片。当你创建一个索引的时候,你可以指定你想要的分片的数量。每个分片本身也是一个功能完善并且独立的“索引”,这个“索引”可以被放置到集群中的任何节点上。
分片之所以重要,主要有两方面的原因:
1) 允许你水平分割/扩展你的内容容量
2) 允许你在分片(潜在地,位于多个节点上)之上进行分布式的、并行的操作,进而提高性能/吞吐量
至于一个分片怎样分布,它的文档怎样聚合回搜索请求,是完全由Elasticsearch管理的,对于作为用户的你来说,这些都是透明的。
复制:在一个网络/云的环境里,失败随时都可能发生,在某个分片/节点不知怎么的就处于离线状态,或者由于任何原因消失了。这种情况下,有一个故障转移机制是非常有用并且是强烈推荐的。为此目的,Elasticsearch允许你创建分片的一份或多份拷贝,这些拷贝叫做复制分片,或者直接叫复制。复制之所以重要,主要有两方面的原因:
1)在分片/节点失败的情况下,提供了高可用性。因为这个原因,注意到复制分片从不与原/主要(original/primary)分片置于同一节点上是非常重要的。
2)扩展你的搜索量/吞吐量,因为搜索可以在所有的复制上并行运行
总之,每个索引可以被分成多个分片。一个索引也可以被复制0次或多次。一旦复制了,每个索引就有了主分片(作为复制源的原来的分片)和复制分片(主分片的拷贝)之别。分片和复制的数量可以在索引创建的时候指定。在索引创建之后,你可以在任何时候动态地改变复制数量,但是不能改变分片的数量。
默认情况下,Elasticsearch中的每个索引被分片5个主分片和1个复制,这意味着,如果你的集群中至少有两个节点,你的索引将会有5个主分片和另外5个复制分片(1个完全拷贝),这样的话每个索引总共就有10个分片。一个索引的多个分片可以存放在集群中的一台主机上,也可以存放在多台主机上,这取决于你的集群机器数量。主分片和复制分片的具体位置是由ES内在的策略所决定的。
链接: https://www.elastic.co/products/elasticsearch3.2 常用插件
Elasticsearch只是提供各种后端api,为了直观使用,安装好Elasticsearch后,需要安装几个插件:
1)Elasticsearch-Head插件,可以进行界面化操作的集群管理工具,
下载:https://github.com/mobz/elasticsearch-head
安装好head插件后,输入http://ip:9200,如果能看到下面的界面,代表你已经安装成功,可以开心快乐的使用了:
此时我们可以看到访问地址后面,有个“集群健康值”,但由于我这里ES服务还没启动,所以这里是未连接的状态;
集群健康值的几种状态如下:
绿色,最健康的状态,代表所有的分片包括备份都可用 黄色,基本的分片可用,但是备份不可用(也可能是没有备份) 红色,部分的分片可用,表明分片有一部分损坏。此时执行查询部分数据仍然可以查到,遇到这种情况,还是赶快解决比较好 灰色,未连接到elasticsearch服务
我们启动Es服务,重新打开head插件看看,此时,健康值处于绿色状态:
2)IK中文分词器,下载:https://github.com/medcl/elas...
IK分词器有两种拆分方式
a、ik_smart: 将文本做最粗粒度的拆分 b、ik_max_word: 将文本做最细粒度的拆分
文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。
转载请注明本文地址:https://www.ucloud.cn/yun/75072.html
阅读 2344·2021-11-15 11:37
阅读 2624·2021-09-23 11:21
阅读 2950·2021-09-07 10:11
阅读 3163·2019-08-30 15:53
阅读 2825·2019-08-29 15:13
阅读 1606·2019-08-26 13:57
阅读 1097·2019-08-26 12:23
阅读 2437·2019-08-26 11:51