Elasticsearch Lucene 数据写入原理 | ES 核心篇

  • 时间:
  • 浏览:3

前言

最近 TL 分享了下 《Elasticsearch基础架构设计 》https://www.jianshu.com/p/e8226138485d ,蹭着你什儿 肯能。写个小文巩固下,本文主要讲 ES -> Lucene

的底层型态,过后 完整版描述新数据写入 ES 和 Lucene 的流程和原理。这是基础理论知识,架构设计 了一下,希望能对 Elasticsearch 感兴趣的同学有所帮助。

那此是 Elasticsearch ?

Elasticsearch 是4个基于 Apache Lucene(TM) 的开源搜索引擎。

那 Lucene 是那此?

无论在开源还是专有领域,Lucene 可需要被认为是迄今为止最先进、性能最好的、功能最全的搜索引擎库,并通过简单的 RESTful API 来隐藏 Lucene 的繁杂性,从而让全文搜索变得简单。

Elasticsearch 不仅仅是 Lucene 和全文搜索,大伙儿还能过后去描述它:

  • 分布式的实时文件存储,每个字段都被索引并可被搜索
  • 分布式的实几点几分析搜索引擎
  • 可需要扩展到上百台服务器,防止 PB 级型态化或非型态化数据

就像什么都有业务系统是基于 Spring 实现一样,Elasticsearch 和 Lucene 的关系很简单:Elasticsearch 是基于 Lucene 实现的。ES 基于底层那此包,过后 进行了扩展,提供了更多的更富有的查询话语,过后 通过 RESTful API 可需要更方便地与底层交互。类似于 ES 还有 Solr 也是基于 Lucene 实现的。

在应用开发中,用 Elasticsearch 会很简单。过后 肯能你直接用 Lucene,会有一定量的集成工作。

过后 ,入门 ES 的同学,稍微了解下 Lucene 即可。肯能往高级走,还是需要学习 Lucene 底层的原理。肯能倒排索引、打分机制、全文检索原理、分词原理等等,那此有的是我太多 过时的技术。

3.1 数据模型

如图

  • 4个 ES Index (索引,比如商品搜索索引、订单搜索索引)集群下,有多个 Node (节点)组成。每个节点什么都有 ES 的实例。
  • 每个节点上会有多个 shard (分片), P1 P2 是主分片 R1 R2 是副本分片
  • 每个分片上对应着什么都有4个 Lucene Index(底层索引文件)
  • Lucene Index 是4个统称。由多个 Segment (段文件,什么都有倒排索引)组成。每个段文件存储着什么都有 Doc 文档。

3.2 Lucene Index

lucene 中,单个倒排索引文件称为 segment。其富含4个文件,记录了所有 segments 的信息,称为 commit point:

  • 文档 create 新写入时,会生成新的 segment。同样会记录到 commit point 上端
  • 文档查询,会查询所有的 segments
  • 当4个段发生文档被删除,会维护该信息在 .liv 文件上端

3.3 新文档写入流程

新文档创建肯能更新时,进行如下流程:

更新我太多 修改过后的 segment,更新和创建操作时会 生成新的4个 segment。数据哪里来呢?先会发生内存的 bugger 中,过后 持久化到 segment 。

数据持久化步骤如下:write -> refresh -> flush -> merge

3.3.1 write 过程

4个新文档过来,会存储在 in-memory buffer 内存缓存区中,顺便会记录 Translog。

这过后数据还没到 segment ,是搜只能你什儿 新文档的。数据只能被 refresh 后,才可需要被搜索到。这样 讲下 refresh 过程

3.3.2 refresh 过程

refresh 默认 1 秒钟,执行一次上图流程。ES 是支持修改你什儿 值的,通过 index.refresh_interval 设置 refresh (冲刷)间隔时间。refresh 流程大致如下:

  • in-memory buffer 中的文档写入到新的 segment 中,但 segment 是存储在文件系统的缓存中。此时文档可需要被搜索到
  • 最后清空 in-memory buffer。注意: Translog 这样被清空,为了将 segment 数据写到磁盘

文档经过 refresh 后, segment 暂时写到文件系统缓存,过后防止了性能 IO 操作,又可需要使文档搜索到。refresh 默认 1 秒执行一次,性能损耗太多。一般建议稍微延长你什儿 refresh 时间间隔,比如 5 s。过后 ,ES 嘴笨 什么都有准实时,达只能真正的实时。

3.3.3 flush 过程

上个过程中 segment 在文件系统缓存中,会有意外故障文档丢失。这样,为了保证文档我太多 丢失,需要将文档写入磁盘。这样文档从文件缓存写入磁盘的过程什么都有 flush。写入次怕后,清空 translog。

translog 作用很大:

  • 保证文件缓存中的文档不丢失
  • 系统重启时,从 translog 中恢复
  • 新的 segment 收录到 commit point 中

具体可需要看官方文档:https://www.elastic.co/guide/en/elasticsearch/reference/7.3/indices-flush.html

3.3.4 merge 过程

上端有几个步骤,可见 segment 会太多,这样搜索会这样慢?如何会防止呢?

通过 merge 过程防止:

  • 什么都有各个小段文件,合并成4个大段文件。段合并过程
  • 段合并开始英文英文,旧的小段文件会被删除
  • .liv 文件维护的删除文档,会通过你什儿 过程进行清除

如你什儿 图,ES 写入原理不难 ,记住关键点即可。

write -> refresh -> flush

  • write:文档数据到内存缓存,并存到 translog
  • refresh:内存缓存中的文档数据,到文件缓存中的 segment 。此时可需要被搜到
  • flush 是缓存中的 segment 文档数据写入到磁盘

写入的原理真不知道们,考虑的点什么都有:性能、数据不丢失等等

(完)

参考资料:

Java微服务资料,加我微w信x:bysocket01 (加的人,一般很帅)

  • 《深入理解 Elasticsearch》
  • https://lucene.apache.org/core/8_2_0/core/org/apache/lucene/codecs/lucene1000/package-summary.html#package.description
  • https://www.jianshu.com/p/e8226138485d