博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Elasticsearch 优化
阅读量:5090 次
发布时间:2019-06-13

本文共 4940 字,大约阅读时间需要 16 分钟。

Elasticsearch是一个基于Lucene的搜索服务器,其搜索的核心原理是倒排索引,今天谈下在日常项目中使用它遇到的一些问题及优化解决办法。

一. 搜索的深度分页问题

在日常项目中,经常会有分页搜索并支持跳页的需求,类似百度、Google搜索那样,使用ES进行这类需求的搜索时一般采用from/size的方式,from指明开始的位置,size指定获取的条数,通过这种方式获取数据称为深度分页。

通过这种分页方式当我取 from为11000,size为10时,发现无法获取:

ES报错说超过了max_result_window

初步解决方案:

我修改了索引的设置,将max_result_window设置为了10000000:

PUT ccnu_resource/_settings{  "index": {    "max_result_window": 10000000  }}

 这样做虽然解决了问题,并且目前在性能上也没有太大问题。一次当我用Google搜索时时,突发奇想,想试试Google的最大分页数:

 我发现Google提示:Google为所有查询的结果数都不会超过1000,然后我迅速尝试了百度和微软的BING:

百度只显示76页,当修改url时,76页以外的也不会显示,这时候会跳到第一页,微软BING只会显示97页,当你继续下一页时它会回退当前页的前一页,这时候我重新查阅了ES分页遍历相关资料,这种from/to的方式采用的是深度分页机制,并且目前所有分布式搜索引擎都存在深度分页的问题。

ES深度分页:

由于数据是分散存储在各个分片上的,所以ES会从每个分片上取出当前查询的全部数据,比如from:9990,size:10,ES会在每个分片上取10000个document,然后聚合每个分片的结果再排序选取前10000个document;所以当from的值越来越大,页数越来越多时,ES处理的document就越多,同时占用的内存也越来越大,所以当数据量很大、请求数很多时,搜索的效率会大大降低;所以ES默认max_result_window为10000。

所以如果要使用from/size的方式分页遍历,最好使用ES默认的max_result_window,可以根据自己的业务需求适当增加或减少max_result_window的值,但是建议以跳页的方式分页最好控制页数在1000以内,max_result_window的值最好不要修改。

 

二. Mapping设置与Query查询优化问题

在ES中创建Mappings时,默认_source是enable=true,会存储整个document的值,当执行search操作的时,会返回整个document的信息。如果只想返回document的部分fields,但_source会返回原始所有的内容,当某些不需要返回的field很大时,ES查询的性能会降低,这时候可以考虑使用store结合_source的enable=false来创建mapping。

 

PUT article_index{  "mappings": {    "es_article_doc":{      "_source":{        "enabled":false      },      "properties":{        "title":{          "type":"text",          "fields":{            "keyword":{              "type":"keyword"            }          },          "store":true        },        "abstract":{          "type":"text",          "fields":{            "keyword":{              "type":"keyword"            }          },          "store":true        },        "content":{          "type":"text",          "store":true        }      }    }  }}

 

可以设置_source的enable:false,来单独存储fields,这样查询指定field时不会加载整个_source,通过stored_fields返回指定的fields,并且可以对指定field做高亮显示的需求:

GET article_index/_search{  "stored_fields": [    "title"  ],  "query": {    "match": {      "content": "async"    }  },  "highlight": {    "fields": {      "content": {}    }  }}

 使用store在特定需求下会一定程度上提高ES的效率,但是store对于复杂的数据类型如nested类型不支持:

# nested类型PUT article_index_nested{  "mappings": {    "es_article_nes_doc": {      "properties": {        "title": {          "type": "text",          "fields": {            "keyword": {              "type": "keyword"            }          }        },        "comment": {          "type": "nested",          "properties": {            "username": {              "type": "keyword"            },            "content": {              "type": "text"            }          }        }      }    }  }}

添加数据:

PUT article_index_nested/es_article_nes_doc/1{  "title": "Harvard_fly 浅谈 ES优化",  "comments": [    {      "username": "alice",      "date": "2018-11-13",      "content": "aaa"    },    {      "username": "bob",      "date": "2018-11-12",      "content": "bbb"    }  ]}

这种nested类型的store就不支持了,只能通过_source返回数据,如果需要返回指定field可以在search中通过_source指定field:

GET article_index_nested/_search{  "_source": ["title","comments"],  "query": {    "bool": {      "must": [        {          "match": {            "comments.username": "alice"          }        },        {         "match": {            "comments.content": "aaa"          }        }      ]    }  }}

 

三. ES读写优化问题

 ES读性能的优化主要是查询的优化,在查询中尽量使用filter,如果遇到查询慢可以使用explain进行慢查询,进而优化数据模型和query;对于ES的写优化,最好采用bulk批量插入,下面以python的api作为例子说明:

def bulk_insert_data(cls, qid_data_list):        """        批量插入试题到ES库        :param qid_data_list: qid ES结构列表        :return:        """        if not isinstance(qid_data_list, (list, )):            raise ValueError('qid_data_list数据结构为列表')        es = connections.get_connection()        index_name = cls._doc_type.index        doc_type_name = cls.snake_case(cls.__name__)        def gen_qid_data():            for dt in qid_data_list:                yield {                    '_index': index_name,                    '_type': doc_type_name,                    '_id': dt['qid'],                    '_source': dt                }        bulk(es, gen_qid_data())

使用bulk批量插入数据到ES,在Python中bulk位于elasticsearch.helpers下,但是使用bulk并不是一次插入的数据量越大越好,当一次插入的数据量过大时,ES的写性能反而会降低,具体跟ES硬件配置有关,我测试的一次插入3000道试题详情数据会比一次2000道速度慢,3000道试题详情大约30M左右。

 如果追求写入速度,还可以在写入前将replicas副本设置为0,写入完成后再将其设置为正常副本数,因为ES在写入数据时会将数据写一份到副本中,副本数越多写入的速度会越慢,但一般不建议将replicas副本设置为0,因为如果在写入数据的过程中ES宕机了可能会造成数据丢失。

 

四. ES配置优化问题

在ES的集群配置中,master是ES选举出来的,在一个由node1、node2、node3组成的集群中初始状态node1为主节点,node1由于网络问题与子节点失去联系,这时候ES重新选举了node2为主节点,当node1网络恢复时,node1会维护自己的集群node1为主节点,这时候集群中就存在node1和node2两个主节点了,并且维护不同的cluster state,这样就会造成无法选出正确的master,这个问题就是脑裂问题。

脑裂问题的解决办法(quorum机制):

quorum计算公式:quorum = 可选举节点数/2 + 1

只有当可选举节点数大于等于quorum时才可进行master选举,在3个可选举节点中,quorum=3/2+1=2   在node1失去网络响应后 node2和node3可选举节点为2 可以选举,当node1恢复后,node1只有一个节点,可选举数为1,小于quorum,因此避免了脑裂问题;即设置discovery.zen.minimum_master_nodes:quorum,可避免脑裂问题

转载于:https://www.cnblogs.com/FG123/p/9934244.html

你可能感兴趣的文章