ElasticSearch 查询流程详解
一、前言
前面已经介绍了 ElasticSearch 的写入流程,了解了 ElasticSearch 写入时的分布式特性的相关原理。ElasticSearch 作为一款具有强大搜索功能的存储引擎,它的读取是什么样的呢?读取相比写入简单的多,但是在使用过程中有哪些需要我们注意的呢?本篇文章会进行详细的分析。
在前面的文章我们已经知道 ElasticSearch 的读取分为两种 GET 和 SEARCH。这两种操作是有一定的差异的,下面我们先对这两种核心的数据读取方式进行一一分析。
二、GET 的流程
2.1 整体流程
(图片来自官网)
以下是从主分片或者副本分片检索文档的步骤顺序:
客户端向 Node 1 发送获取请求
节点使用文档的 _id 来确定文档属于分片 0 。分片 0 的副本分片存在于所有的三个节点上。在这种情况下,它将请求转发到 Node 2
Node 2 将文档返回给 Node 1,然后将文档返回给客户端。
注意:
在处理读取请求时,协调节点在每次请求的时候都会通过轮询所有的副本分片来达到负载均衡。
在文档被检索时,已经被索引的文档可能已经存在于主分片上但是还没有复制到副本分片。在这种情况下,副本分片可能会报告文档不存在,但是主分片可能成功返回文档。一旦索引请求成功返回给用户,文档在主分片和副本分片都是可用的
2.2 GET 详细流程
2.2.1 协调节点处理过程
在协调节点有个 http_server_worker 线程池。收到读请求后它的具体过程为:
收到请求,先获取集群的状态信息
根据路由信息计算 id 是在哪一个分片上
因为一个分片可能有多个副本分片,所以上述的计算结果是一个列表
调用 transportServer 的 sendRequest 方法向目标发送请求
上一步的方法内部会检查是否为本地 node,如果是的话就不会发送到网络,否则会异步发送
等待数据节点回复,如果成功则返回数据给客户端,否则会重试
重试会发送上述列表的下一个。
2.2.2 数据节点处理过程
数据节点上有一个 get 线程池。收到了请求后,处理过程为:
在数据节点有个 shardTransporthander 的 messageReceived 的入口专门接收协调节点发送的请求
shardOperation 方法会先检查是否需要 refresh,然后调用 indexShard.getService().get()读取数据并存储到 GetResult 中。
indexShard.getService().get()最终会调用 GetResult getResult = innerGet(……)用来获取结果。即 ShardGetService#innerGet
上面代码的 indexShard.get 读取真正的数据时会最终调用:
org.elasticsearch.index.engine.InternalEngine#gett
注意:
get 过程会加读锁。处理 realtime 选项,如果为 true,则先判断是否有数据可以刷盘,然后调用 Searcher 进行读取。Searcher 是对 IndexSearcher 的封装在早期 realtime 为 true 则会从 tranlog 中读取,后面只会从 index 的 lucene 读取了。即实时的数据只在 lucene 之中。
innerGetLoadFromStoredFields 根据 type,id,filed,source 等信息过滤,并将结果放到 getresult 之中返回
2.3 小结
GET 是根据 doc id 哈希找到对应的 shard 的
get 请求默认是实时的,但是不同版本有差异,在 5.x 以前,读不到写的 doc 会从 translog 中去读取,之后改为读取不到会进行 refresh 到 lucene 中,因此现在的实时读取需要复制一定的性能损耗的代价。如果对实时性要求不高,可以请求是手动带上 realtime 为 false
三、search 流程
3.1 search 整体流程
对于 Search 类请求,ElasticSearch 请求是查询 lucene 的 Segment,前面的写入详情流程也分析了,新增的文档会定时的 refresh 到磁盘中,所以搜索是属于近实时的。而且因为没有文档 id,你不知道你要检索的文档在哪个分配上,需要将索引的所有的分片都去搜索下,然后汇总。ElasticSearch 的 search 一般有两个搜索类型
dfs_query_and_fetch,流程复杂一些,但是算分的时候使用了全局的一些指标,这样获取的结果可能更加精确一些。
query_then_fetch,默认的搜索类型。
所有的搜索系统一般都是两阶段查询:
第一阶段查询到匹配的 docID,第二阶段再查询 DocID 对应的完整文档。这种在 ElasticSearch 中称为 query_then_fetch,另一种就是一阶段查询的时候就返回完整 Doc,在 ElasticSearch 中叫 query_and_fetch,一般第二种适用于只需要查询一个 Shard 的请求。因为这种一次请求就能将数据请求到,减少交互次数,二阶段的原因是需要多个分片聚合汇总,如果数据量太大那么会影响网络传输效率,所以第一阶段会先返回 id。
除了上述的这两种查询外,还有一种三阶段查询的情况。
搜索里面有一种算分逻辑是根据 TF 和 DF 来计算 score 的,而在普通的查询中,第一阶段去每个 Shard 中独立查询时携带条件算分都是独立的,即 Shard 中的 TF 和 DF 也是独立的。虽然从统计学的基础上数据量多的情况下,每一个分片的 TF 和 DF 在整体上会趋向于准确。但是总会有情况导致局部的 TF 和 DF 不准的情况出现。
ElasticSearch 为了解决这个问题引入了 DFS 查询。
比如 DFS_query_then_fetch,它在每次查询时会先收集所有 Shard 中的 TF 和 DF 值,然后将这些值带入请求中,再次执行 query_then_fetch,这样算分的时候 TF 和 DF 就是准确的,类似的有 DFS_query_and_fetch。这种查询的优势是算分更加精准,但是效率会变差。
另一种选择是用 BM25 代替 TF/DF 模型。
在 ElasticSearch7.x,用户没法指定以下两种方式:DFS_query_and_fetch 和 query_and_fetch。
注:这两种算分的算法模型在《ElasticSearch 实战篇》有介绍:
这里 query_then_fetch 具体的搜索的流程图如下:
(图片来自官网)
查询阶段包含以下四个步骤:
客户端发送一个 search 请求到 Node 3 , Node 3 会创建一个大小为 from + size 的空优先队列。
Node 3 将查询请求转发到索引的每个主分片或副本分片中。每个分片在本地执行查询并添加结果到大小为 from + size 的本地有序优先队列中。
每个分片返回各自优先队列中所有文档的 ID 和排序值给协调节点,也就是 Node 3 ,它合并这些值到自己的优先队列中来产生一个全局排序后的结果列表。
当一个搜索请求被发送到某个节点时,这个节点就变成了协调节点。这个节点的任务是广播查询请求到所有相关分片并将它们的响应整合成全局排序后的结果集合,这个结果集合会返回给客户端。
3.2 search 详细流程
以上就是 ElasticSearch 的 search 的详细流程,下面会对每一步进行进一步的说明。
3.2.1 协调节点
3.2.1.1 query 阶段
协调节点处理 query 请求的线程池为:
http_server_work
负责解析请求
负责该解析功能的类为:
org.elasticsearch.rest.action.search.RestSearchAction
主要将 restquest 的参数封装成 SearchRequest
这样 SearchRequest 请求发送给 TransportSearchAction 处理
生成目的分片列表
将索引涉及到的 shard 列表或者有跨集群访问相关的 shard 列表合并
遍历分片发送请求
如果有多个分片位于同一个节点,仍然会发送多次请求
shardsIts 为搜索涉及的所有分片,而 shardRoutings.nextOrNull()会从分片的所有副本分片选出一个分片来请求。
收集和合并请求
onShardSuccess 对收集到的结果进行合并,这里需要检查所有的请求是否都已经有了回复。
然后才会判断要不要进行 executeNextPhase
当返回结果的分片数等于预期的总分片数时,协调节点会进入当前 Phase 的结束处理,启动下一个阶段 Fetch Phase 的执行。onPhaseDone()会 executeNextPhase 来执行下一个阶段。
3.2.1.2 fetch 阶段
当触发了 executeNextPhase 方法将触发 fetch 阶段
发送 fetch 请求
上一步的 executeNextPhase 方法触发 Fetch 阶段,Fetch 阶段的起点为 FetchSearchPhase#innerRun 函数,从查询阶段的 shard 列表中遍历,跳过查询结果为空的 shard。其中也会封装一些分页信息的数据。
收集结果
使用了 countDown 多线程工具,fetchResults 存储某个分片的结果,每收到一个 shard 的数据就 countDoun 一下,当都完毕后,触发 finishPhase。接着会进行下一步:
CountedCollector:
finishPhase:
执行字段聚合
执行字段折叠功能,有兴趣可以研究下。即 ExpandSearchPhase 模块。ES 5.3 版本以后支持的 Field Collapsing 查询。通过该类查询可以轻松实现按 Field 值进行分类,每个分类获取排名前 N 的文档。如在菜单行为日志中按菜单名称(用户管理、角色管理等)分类,获取每个菜单排名点击数前十的员工。用户也可以按 Field 进行 Aggregation 实现类似功能,但 Field Collapsing 会更易用、高效。
回复客户端
ExpandSearchPhase 执行完了,就返回给客户端结果了。
3.2.2 数据节点
处理数据节点请求的线程池为:search
根据前面的两个阶段,数据节点主要处理协调节点的两类请求:query 和 fetch
响应 query 请求
这里响应的请求就是第一阶段的 query 请求
executeQueryPhase:
executeQueryPhase 会执行 loadOrExecuteQueryPhase 方法
这里判断是否从缓存查询,默认启用缓存,缓存的算法默认为 LRU,即删除最近最少使用的数据。如果不启用缓存则会执行 queryPhase.execute(context);底层调用 lucene 进行检索,并且进行聚合。
关键点:
慢查询日志中的 query 日志统计时间就是该步骤的时间;
聚合 lucene 的操作也是在本阶段完成;
查询的时候会使用 lRU 缓存,缓存为节点级别的;
响应 fetch 请求;
执行 fetch;
调用 fetchPhase 的 execute 方法获取 doc;
将结果封装到 FetchSearchResult,调用网络组件发送到 response。
3.3 小结
search 是比较耗费资源的,它需要遍历相关的所有分片,每个分片可能有多个 lucene 段,那么每个段都会遍历一下,因此 ElasticSearch 的常见优化策略就是将段进行合并;
分页查询的时候,即使是查后面几页,也会将前几页的数据聚合进行分页,因此非常耗费内存,对于这种有深度分页的需求可能要寻找其它的解决方式。
四、总结
ElasticSearch 查询分为两类,一类为 GET,另一类为 SEARCH。它们使用场景不同。
如果对是实时性要求不高,可以 GET 查询时不要刷新来提升性能。
GET 读取一个分片失败后,会尝试从其它分片读取。
慢 query 日志是统计数据节点接收到了 query 请求后的耗时日志。
每次分页的请求都是一次重新搜索的过程,而不是从第一次搜索的结果中获取,这样深度分页会比较耗费内存。这样也符合常见使用场景,因为基本只看前几页,很少深度分页;如果确实有需要,可以采用 scoll 根据_scroll_id 查询的方式。
搜索需要遍历分片所有的 Lucene 分段,段的合并会对查询性能有好处。
聚会操作在 lucene 检索完毕后 ElasticSearch 实现的。
本文主要分析了 ElasticSearch 分布式查询主体流程,并未对 lucene 部分进行分析,有兴趣的可以自行查找相关资料。
程序员的核心竞争力其实还是技术,因此对技术还是要不断的学习,关注 “IT 巅峰技术” 公众号 ,该公众号内容定位:中高级开发、架构师、中层管理人员等中高端岗位服务的,除了技术交流外还有很多架构思想和实战案例。
作者是 《 消息中间件 RocketMQ 技术内幕》 一书作者,同时也是 “RocketMQ 上海社区”联合创始人,曾就职于拼多多、德邦等公司,现任上市快递公司架构负责人,主要负责开发框架的搭建、中间件相关技术的二次开发和运维管理、混合云及基础服务平台的建设。
版权声明: 本文为 InfoQ 作者【IT巅峰技术】的原创文章。
原文链接:【http://xie.infoq.cn/article/48396e6c25584dc7a0f0172bb】。
本文遵守【CC-BY 4.0】协议,转载请保留原文出处及本版权声明。
评论