文章目录

  • 一、什么是elasticsearch
    • 1 定义
    • 2 简介
    • 3 有关概念
  • 二、elasticsearch安装
    • 1 Windows安装
    • 2 Linux安装
  • 三、kibana安装
    • 1 什么是kibana
    • 2 安装
    • 3 配置
    • 4 运行
    • 5 控制台
  • 四、ik分词器安装
    • 1 介绍
    • 2 安装
  • 五、Rest风格API的学习
    • 1 操作索引
      • 1.1 基本概念
      • 1.2 创建索引
      • 1.3 查看索引
      • 1.4 删除索引
    • 2 操作映射
      • 2.1 基本概念
      • 2.2 创建映射字段
      • 2.3 查看映射
      • 2.4 字段属性详解
      • 2.5 新增数据
      • 2.6 修改数据
      • 2.7 删除数据
    • 3 查询
      • 3.1 基本查询
        • 3.1.1 查询所有
        • 3.1.2 匹配查询
        • 3.1.3 多字段查询
        • 3.1.4 词条匹配
        • 3.1.5 多词条精确匹配
      • 3.2 结果过滤
        • 3.2.1 直接指定字段
        • 3.2.2 指定includes和excludes
      • 3.3 高级查询
        • 3.3.1 布尔组合
        • 3.3.2 范围查询
        • 3.3.3 模糊查询
      • 3.4 过滤
        • 3.4.1 **条件查询中进行过滤**
        • 3.4.2 **无查询条件,直接过滤**
      • 3.5 排序
        • 3.5.1 单字段排序
        • 3.5.2 多字段排序
    • 4 聚合aggregations
      • 4.1 基本概念
        • 4.1.1 **桶(bucket)**
        • 4.1.2 **度量(metrics)**
      • 4.2 聚合为桶
      • 4.3 桶内度量
      • 4.4 桶内嵌套桶
      • 4.5.划分桶的其它方式
        • 4.5.1.阶梯分桶Histogram
        • 4.5.2.范围分桶range

一、什么是elasticsearch

1 定义

  • Elasticsearch是一个基于Lucene的搜索服务器。
  • 它提供了一个分布式多用户能力的全文搜索引擎,基于RESTful web接口。
  • Elasticsearch是用Java语言开发的,并作为Apache许可条款下的开放源码发布,是一种流行的企业级搜索引擎。
  • Elasticsearch用于云计算中,能够达到实时搜索,稳定,可靠,快速,安装使用方便。
  • 官方客户端在Java、.NET(C#)、PHP、Python、Apache Groovy、Ruby和许多其他语言中都是可用的。
  • 根据DB-Engines的排名显示,Elasticsearch是最受欢迎的企业搜索引擎,其次是Apache Solr,也是基于Lucene。

2 简介

  • Elasticsearch 是一个分布式、高扩展、高实时的搜索与数据分析引擎。它能很方便的使大量数据具有搜索、分析和探索的能力。充分利用Elasticsearch的水平伸缩性,能使数据在生产环境变得更有价值。
  • Elasticsearch 的实现原理主要分为以下几个步骤,首先用户将数据提交到Elasticsearch 数据库中,再通过分词控制器去将对应的语句分词,将其权重和分词结果一并存入数据,当用户搜索数据时候,再根据权重将结果排名,打分,再将返回结果呈现给用户。
  • Elasticsearch是与名为Logstash的数据收集和日志解析引擎以及名为Kibana的分析和可视化平台一起开发的。这三个产品被设计成一个集成解决方案,称为“Elastic Stack”(以前称为“ELK stack”)。
  • Elasticsearch可以用于搜索各种文档。它提供可扩展的搜索,具有接近实时的搜索,并支持多租户。
  • Elasticsearch是分布式的,这意味着索引可以被分成分片,每个分片可以有0个或多个副本。每个节点托管一个或多个分片,并充当协调器将操作委托给正确的分片。
  • 再平衡和路由是自动完成的。相关数据通常存储在同一个索引中,该索引由一个或多个主分片和零个或多个复制分片组成。一旦创建了索引,就不能更改主分片的数量。
  • Elasticsearch使用Lucene,并试图通过JSON和Java API提供其所有特性。它支持facetting和percolating,如果新文档与注册查询匹配,这对于通知非常有用。
  • 另一个特性称为“网关”,处理索引的长期持久性;例如,在服务器崩溃的情况下,可以从网关恢复索引。Elasticsearch支持实时GET请求,适合作为NoSQL数据存储,但缺少分布式事务。
  • 小结
    – 分布式,无需人工搭建集群(solr就需要人为配置,使用Zookeeper作为注册中心)
    – Restful风格,一切API都遵循Rest原则,容易上手
    – 近实时搜索,数据更新在Elasticsearch中几乎是完全同步的。

3 有关概念

  • cluster:代表一个集群,集群中有多个节点,其中有一个为主节点,这个主节点是可以通过选举产生的,主从节点是对于集群内部来说的。es的一个概念就是去中心化,字面上理解就是无中心节点,这是对于集群外部来说的,因为从外部来看es集群,在逻辑上是个整体,你与任何一个节点的通信和与整个es集群通信是等价的。
  • shards:代表索引分片,es可以把一个完整的索引分成多个分片,这样的好处是可以把一个大的索引拆分成多个,分布到不同的节点上。构成分布式搜索。分片的数量只能在索引创建前指定,并且索引创建后不能更改。
  • replicas:代表索引副本,es可以设置多个索引的副本,副本的作用一是提高系统的容错性,当某个节点某个分片损坏或丢失时可以从副本中恢复。二是提高es的查询效率,es会自动对搜索请求进行负载均衡。
  • recovery:代表数据恢复或叫数据重新分布,es在有节点加入或退出时会根据机器的负载对索引分片进行重新分配,挂掉的节点重新启动时也会进行数据恢复。
  • river:代表es的一个数据源,也是其它存储方式(如:数据库)同步数据到es的一个方法。它是以插件方式存在的一个es服务,通过读取river中的数据并把它索引到es中,官方的river有couchDB的,RabbitMQ的,Twitter的,Wikipedia的。
  • gateway:代表es索引快照的存储方式,es默认是先把索引存放到内存中,当内存满了时再持久化到本地硬盘。gateway对索引快照进行存储,当这个es集群关闭再重新启动时就会从gateway中读取索引备份数据。es支持多种类型的gateway,有本地文件系统(默认),分布式文件系统,Hadoop的HDFS和amazon的s3云存储服务。
  • discovery.zen:代表es的自动发现节点机制,es是一个基于p2p的系统,它先通过广播寻找存在的节点,再通过多播协议来进行节点之间的通信,同时也支持点对点的交互。
  • Transport:代表es内部节点或集群与客户端的交互方式,默认内部是使用tcp协议进行交互,同时它支持http协议(json格式)、thrift、servlet、memcached、zeroMQ等的传输协议(通过插件方式集成)。

二、elasticsearch安装

1 Windows安装

  • 下载elasticsearch-6.4.1.zip
  • 直接解压至某目录,设置该目录为ES_HOME环境变量
  • 安装JDK,并设置JAVA_HOME环境变量
  • 在windows下,运行 %ES_HOME%\bin\elasticsearch.bat即可运行
    – 以head插件为例:
    – 联网时,直接运行%ES_HOME%\bin\plugin --install mobz/elasticsearch-head。
    – 不联网时,下载elasticsearch-head的zipball的master包,然后运行%ES_HOME%\bin\plugin --url file:///[path-to-downloadfile] --install head,其中[path-to-downloadfile]是下载后master包的绝对路径。
    – 安装完成,重启服务,在浏览器打开http://localhost:9200/_plugin/head/ 即可。

2 Linux安装

  • 新建一个用户leyou
    – 出于安全考虑,elasticsearch默认不允许以root账号运行。
    – 创建用户:useradd 用户名
    – 设置密码:passwd 用户名
    – 切换用户:su - 用户名
  • 上传安装包,并解压
    – 我们将安装包上传到:/home/用户名目录
    – 解压缩:tar -zxwf elasticsearch-6.2.4.tar.gz
    – 目录重命名:mv elasticsearch-6.3.0/ elasticsearch
    – 查看目录结构
  • 修改配置
    – 我们进入config目录:cd config 需要修改的配置文件有两个
    – 1. jvm.options
    – Elasticsearch基于Lucene的,而Lucene底层是java实现,因此我们需要配置jvm参数。
    – 编辑jvm.options:vim jvm.options
    – 默认配置如下:-Xms1g -Xmx1g
    – 内存占用太多了,我们调小一些:-Xms512m -Xmx512m
    – 2. elasticsearch.yml
    vim elasticsearch.yml
    – 修改数据和日志目录:
    path.data: /home/用户名/elasticsearch/data #数据目录位置
    path.logs: /home/用户名/elasticsearch/logs # 日志目录位置
    – 把data和logs目录修改指向了elasticsearch的安装目录。但是这两个目录并不存在,因此我们需要创建出来。
    – 进入elasticsearch的根目录,然后创建:mkdir data mkdir logs
    – 修改绑定的ip:network.host: 0.0.0.0 # 绑定到0.0.0.0,允许任何ip来访问默认只允许本机访问,修改为0.0.0.0后则可以远程访问
    – 目前我们是做的单机安装,如果要做集群,只需要在这个配置文件中添加其它节点信息即可。
    – elasticsearch.yml的其它可配置信息:
属性名 说明
cluster.name 配置elasticsearch的集群名称,默认是elasticsearch。建议修改成一个有意义的名称。
node.name 节点名,es会默认随机指定一个名字,建议指定一个有意义的名称,方便管理
path.conf 设置配置文件的存储路径,tar或zip包安装默认在es根目录下的config文件夹,rpm安装默认在/etc/ elasticsearch
path.data 设置索引数据的存储路径,默认是es根目录下的data文件夹,可以设置多个存储路径,用逗号隔开
path.logs 设置日志文件的存储路径,默认是es根目录下的logs文件夹
path.plugins 设置插件的存放路径,默认是es根目录下的plugins文件夹
bootstrap.memory_lock 设置为true可以锁住ES使用的内存,避免内存进行swap
network.host 设置bind_host和publish_host,设置为0.0.0.0允许外网访问
http.port 设置对外服务的http端口,默认为9200。
transport.tcp.port 集群结点之间通信端口
discovery.zen.ping.timeout 设置ES自动发现节点连接超时的时间,默认为3秒,如果网络延迟高可设置大些
discovery.zen.minimum_master_nodes 主结点数量的最少值 ,此值的公式为:(master_eligible_nodes / 2) + 1 ,比如:有3个符合要求的主结点,那么这里要设置为2
  • 运行
    – 进入elasticsearch/bin目录,然后输入命令:./elasticsearch发现报错了,启动失败。
    – 错误1:内核过低
    – 我们使用的是centos6,其linux内核版本为2.6。而Elasticsearch的插件要求至少3.5以上版本。不过没关系,我们禁用这个插件即可。修改elasticsearch.yml文件,在最下面添加如下配置:bootstrap.system_call_filter: false然后重启
    – 错误2:文件权限不足
    [1]: max file descriptors [4096] for elasticsearch process likely too low, increase to at least [65536]
    – 我们用的是leyou用户,而不是root,所以文件权限不足。首先用root用户登录。 然后修改配置文件:vim /etc/security/limits.conf添加下面的内容:
    * soft nofile 65536
    * hard nofile 131072
    * soft nproc 4096
    * hard nproc 4096
    – 错误3:线程数不够
    [1]: max number of threads [1024] for user [leyou] is too low, increase to at least [4096]
    – 这是线程数不够。继续修改配置:vim /etc/security/limits.d/90-nproc.conf 修改下面的内容:* soft nproc 1024改为:* soft nproc 4096
    – 错误4:进程虚拟内存
    [3]: max virtual memory areas vm.max_map_count [65530] likely too low, increase to at least [262144]
    – vm.max_map_count:限制一个进程可以拥有的VMA(虚拟内存区域)的数量,继续修改配置文件,vim /etc/sysctl.conf添加下面内容:vm.max_map_count=655360 然后执行命令:sysctl -p所有错误修改完毕,一定要重启你的 Xshell终端,否则配置无效。
  • 成功标志
    – 可以看到绑定了两个端口:
    - 9300:集群节点间通讯接口
    - 9200:客户端访问接口

三、kibana安装

1 什么是kibana

  • Kibana是一个基于Node.js的Elasticsearch索引库数据统计工具,可以利用Elasticsearch的聚合功能,生成各种图表,如柱形图,线状图,饼图等。
  • 而且还提供了操作Elasticsearch索引数据的控制台,并且提供了一定的API提示,非常有利于我们学习Elasticsearch的语法。

2 安装

  • 因为Kibana依赖于node,我们的虚拟机没有安装node,而window中安装过。所以我们选择在window下使用kibana。
  • 最新版本与elasticsearch保持一致,也是6.3.0,解压到特定目录即可

3 配置

  • 进入安装目录下的config目录,修改kibana.yml文件:
  • 修改elasticsearch服务器的地址:
    elasticsearch.url: "http://192.168.56.101:9200"

4 运行

  • 进入安装目录下的bin目录:双击bat运行
  • 发现kibana的监听端口是5601,我们访问:http://127.0.0.1:5601

5 控制台

  • 选择左侧的DevTools菜单,即可进入控制台页面
  • 在页面右侧,我们就可以输入请求,访问Elasticsearch了。

四、ik分词器安装

1 介绍

  • Lucene的IK分词器早在2012年已经没有维护了,现在我们要使用的是在其基础上维护升级的版本,并且开发为ElasticSearch的集成插件了,与Elasticsearch一起维护升级,版本也保持一致,最新版本:6.3.0

2 安装

  • zip包,解压到Elasticsearch目录的plugins目录中
  • 使用unzip命令解压:unzip elasticsearch-analysis-ik-6.3.0.zip -d ik-analyzer
  • 然后重启elasticsearch

五、Rest风格API的学习

1 操作索引

1.1 基本概念
  • Elasticsearch也是基于Lucene的全文检索库,本质也是存储数据,很多概念与MySQL类似的。
  • 在SolrCloud中,有一些集群相关的概念,在Elasticsearch也有类似的:
    索引集(Indices,index的复数):逻辑上的完整索引 collection1
    分片(shard):数据拆分后的各个部分
    副本(replica):每个分片的复制
  • 要注意的是:Elasticsearch本身就是分布式的,因此即便你只有一个节点,Elasticsearch默认也会对你的数据进行分片和副本操作,当你向集群添加新数据时,数据也会在新加入的节点中进行平衡。
  • 对比关系:
    索引(indices)--------------------------------Databases 数据库
    类型(type)-----------------------------Table 数据表
    文档(Document)----------------Row 行
    字段(Field)-------------------Columns 列
  • 详细说明:
概念 说明
索引库(indices) indices是index的复数,代表许多的索引,
类型(type) 类型是模拟mysql中的table概念,一个索引库下可以有不同类型的索引,比如商品索引,订单索引,其数据格式不同。不过这会导致索引库混乱,因此未来版本中会移除这个概念
文档(document) 存入索引库原始的数据。比如每一条商品信息,就是一个文档
字段(field) 文档中的属性
映射配置(mappings) 字段的数据类型、属性、是否索引、是否存储等特性
1.2 创建索引
  • 语法
    – Elasticsearch采用Rest风格API,因此其API就是一次http请求,你可以用任何工具发起http请求
    – 创建索引的请求格式:

    • 请求方式:PUT

    • 请求路径:/索引库名

    • 请求参数:json格式:

          {"settings": {"number_of_shards": 3,"number_of_replicas": 2}}
      
  • settings:索引库的设置
    – number_of_shards:分片数量
    – number_of_replicas:副本数量

  • 使用kibana创建
    – kibana的控制台,可以对http请求进行简化 ,相当于是省去了elasticsearch的服务器地址而且还有语法提示

1.3 查看索引
  • Get请求可以帮我们查看索引信息,格式:GET /索引库名
  • 或者,我们可以使用*来查询所有索引库配置
1.4 删除索引
  • 删除索引使用DELETE请求
  • 语法:DELETE /索引库名

2 操作映射

2.1 基本概念
  • 索引有了,接下来肯定是添加数据。但是,在添加数据之前必须定义映射。
  • 映射是定义文档的过程,文档包含哪些字段,这些字段是否保存,是否索引,是否分词等
2.2 创建映射字段
  • 请求方式依然是PUT

    PUT /索引库名/_mapping/类型名称
    {"properties": {"字段名": {"type": "类型","index": true,"store": true,"analyzer": "分词器"}}
    }
    
  • 类型名称:就是前面将的type的概念,类似于数据库中的不同表
    字段名:任意填写 ,可以指定许多属性,例如:
  • type:类型,可以是text、long、short、date、integer、object等
  • index:是否索引,默认为true
  • store:是否存储,默认为false
  • analyzer:分词器,这里的ik_max_word即使用ik分词器
2.3 查看映射
  • 语法:GET /索引库名/_mapping
2.4 字段属性详解
  • type

    • String类型,又分两种:

      • text:可分词,不可参与聚合
      • keyword:不可分词,数据会作为完整字段进行匹配,可以参与聚合
    • Numerical:数值类型,分两类

      • 基本数据类型:long、interger、short、byte、double、float、half_float
      • 浮点数的高精度类型:scaled_float
        – 需要指定一个精度因子,比如10或100。elasticsearch会把真实值乘以这个因子后存储,取出时再还原。
    • Date:日期类型
      – elasticsearch可以对日期格式化为字符串存储,但是建议我们存储为毫秒值,存储为long,节省空间。

  • index
    • index影响字段的索引情况。
      – true:字段会被索引,则可以用来进行搜索。默认值就是true
      – false:字段不会被索引,不能用来搜索
    • index的默认值就是true,也就是说你不进行任何配置,所有字段都会被索引。
    • 但是有些字段是我们不希望被索引的,比如商品的图片信息,就需要手动设置index为false。
  • store
    • 是否将数据进行额外存储。
    • 在Elasticsearch中,即便store设置为false,也可以搜索到结果。
    • 原因是Elasticsearch在创建文档索引时,会将文档中的原始数据备份,保存到一个叫做_source的属性中。而且我们可以通过过滤_source来选择哪些要显示,哪些不显示。
    • 如果设置store为true,就会在_source以外额外存储一份数据,多余,因此一般我们都会将store设置为false,事实上,store的默认值就是false。
2.5 新增数据
  • 随机生成id

    • 通过POST请求,可以向一个已经存在的索引库中添加数据。

      POST /索引库名/类型名
      {"key":"value"
      }
      
    • _source:源文档信息,所有的数据都在里面。
    • _id:这条文档的唯一标示,与文档自己的id字段没有关联
  • 自定义id
    • 如果我们想要自己新增的时候指定id,可以这么做:

      POST /索引库名/类型/id值
      {...
      }
      
  • 智能判断
    • Elasticsearch非常智能,你不需要给索引库设置任何mapping映射,它也可以根据你输入的数据来判断类型,动态添加数据映射。
2.6 修改数据
  • 把刚才新增的请求方式改为PUT,就是修改了。不过修改必须指定id,

    • id对应文档存在,则修改
    • id对应文档不存在,则新增
2.7 删除数据
  • 删除使用DELETE请求,同样,需要根据id进行删除
  • DELETE /索引库名/类型名/id值

3 查询

3.1 基本查询

  • 基本语法

    GET /索引库名/_search
    {"query":{"查询类型":{"查询条件":"查询条件值"}}
    }
    
  • 这里的query代表一个查询对象,里面可以有不同的查询属性

  • 查询类型:match_allmatchtermrange 等等

  • 查询条件:查询条件会根据类型的不同,写法也有差异,后面详细讲解

3.1.1 查询所有
 GET /heima/_search{"query":{"match_all": {}}}
  • query:代表查询对象
  • match_all:代表查询所有
  • took:查询花费时间,单位是毫秒
  • time_out:是否超时
  • _shards:分片信息
  • hits:搜索结果总览对象
    • total:搜索到的总条数
    • max_score:所有结果中文档得分的最高分
    • hits:搜索结果的文档对象数组,每个元素是一条搜索到的文档信息
      • _index:索引库
      • _type:文档类型
      • _id:文档id
      • _score:文档得分
      • _source:文档的源数据
3.1.2 匹配查询
  • or关系

    • match类型查询,会把查询条件进行分词,然后进行查询,多个词条之间是or的关系

      GET /heima/_search
      {"query":{"match":{"title":"查询关键字"}}
      }
      
    • 在上面的案例中,不仅会查询到“查询”,而且与“关键字”相关的都会查询到,多个词之间是or的关系。

  • and关系
    • 某些情况下,我们需要更精确查找,我们希望这个关系变成and,可以这样做

      GET /heima/_search
      {"query":{"match": {"title": {"query": "查询字段","operator": "and"}}}
      }
      
    • 本例中,只有同时包含查询字段的词条才会被搜索到。
  • or和and之间
    • orand 间二选一有点过于非黑即白。 如果用户给定的条件分词后有 5 个查询词项,想查找只包含其中 4 个词的文档,该如何处理?将 operator 操作符参数设置成 and 只会将此文档排除。
    • 有时候这正是我们期望的,但在全文搜索的大多数应用场景下,我们既想包含那些可能相关的文档,同时又排除那些不太相关的。换句话说,我们想要处于中间某种结果。
    • match 查询支持 minimum_should_match 最小匹配参数, 这让我们可以指定必须匹配的词项数用来表示一个文档是否相关。我们可以将其设置为某个具体数字,更常用的做法是将其设置为一个百分数,因为我们无法控制用户搜索时输入的单词数量:
      GET /heima/_search
      {"query":{"match":{"title":{"query":"最小查询字段","minimum_should_match": "75%"}}}
      }
      
    • 本例中,搜索语句可以分为3个词,如果使用and关系,需要同时满足3个词才会被搜索到。这里我们采用最小品牌数:75%,那么也就是说只要匹配到总词条数量的75%即可,这里3*75% 约等于2。所以只要包含2个词条就算满足条件了。
3.1.3 多字段查询
  • multi_matchmatch类似,不同的是它可以在多个字段中查询

    GET /heima/_search
    {"query":{"multi_match": {"query":    "查询","fields":   [ "title", "subTitle" ]}}
    }
    
  • 本例中,我们会在title字段和subtitle字段中查询查询这个词

3.1.4 词条匹配
  • term 查询被用于精确值 匹配,这些精确值可能是数字、时间、布尔或者那些未分词的字符串

    GET /heima/_search
    {"query":{"term":{"price":2699.00}}
    }
    
3.1.5 多词条精确匹配
  • terms 查询和 term 查询一样,但它允许你指定多值进行匹配。如果这个字段包含了指定值中的任何一个值,那么这个文档满足条件:

    GET /heima/_search
    {"query":{"terms":{"price":[2699.00,2899.00,3899.00]}}
    }
    

3.2 结果过滤

  • 默认情况下,elasticsearch在搜索的结果中,会把文档中保存在_source的所有字段都返回。
  • 如果我们只想获取其中的部分字段,我们可以添加_source的过滤
3.2.1 直接指定字段
GET /heima/_search
{"_source": ["title","price"],"query": {"term": {"price": 2699}}
}
3.2.2 指定includes和excludes
  • 我们也可以通过:

    • includes:来指定想要显示的字段
    • excludes:来指定不想要显示的字段
  • 二者都是可选的。

    GET /heima/_search
    {"_source": {"includes":["title","price"]},"query": {"term": {"price": 2699}}
    }
    
  • 与下面的结果将是一样的:

    GET /heima/_search
    {"_source": {"excludes": ["images"]},"query": {"term": {"price": 2699}}
    }
    

3.3 高级查询

3.3.1 布尔组合
  • bool把各种其它查询通过must(与)、must_not(非)、should(或)的方式进行组合

    GET /heima/_search
    {"query":{"bool":{"must":     { "match": { "title": "最小" }},"must_not": { "match": { "title":  "查询" }},"should":   { "match": { "title": "字段" }}}}
    }
    
3.3.2 范围查询
  • range 查询找出那些落在指定区间内的数字或者时间

    GET /heima/_search
    {"query":{"range": {"price": {"gte":  1000.0,"lt":   2800.00}}}
    }
    
  • range查询允许以下字符:

    作符 说明
    gt 大于
    gte 大于等于
    lt 小于
    lte 小于等于
3.3.3 模糊查询
  • fuzzy 查询是 term 查询的模糊等价。它允许用户搜索词条与实际词条的拼写出现偏差,但是偏差的编辑距离不得超过2

    GET /heima/_search
    {"query": {"fuzzy": {"title": "查询"}}
    }
    
  • 上面的查询,也能查询到查询字段

  • 我们可以通过fuzziness来指定允许的编辑距离:

    GET /heima/_search
    {"query": {"fuzzy": {"title": {"value":"查询","fuzziness":1}}}
    }
    

3.4 过滤

3.4.1 条件查询中进行过滤
  • 所有的查询都会影响到文档的评分及排名。如果我们需要在查询结果中进行过滤,并且不希望过滤条件影响评分,那么就不要把过滤条件作为查询条件来用。而是使用filter方式:

    GET /heima/_search
    {"query":{"bool":{"must":{ "match": { "title": "查询字段" }},"filter":{"range":{"price":{"gt":2000.00,"lt":3800.00}}}}}
    }
    
  • 注意:filter中还可以再次进行bool组合条件过滤。

3.4.2 无查询条件,直接过滤
  • 如果一次查询只有过滤,没有查询条件,不希望进行评分,我们可以使用constant_score取代只有 filter 语句的 bool 查询。在性能上是完全相同的,但对于提高查询简洁性和清晰度有很大帮助。

    GET /heima/_search
    {"query":{"constant_score":   {"filter": {"range":{"price":{"gt":2000.00,"lt":3000.00}}}}
    }
    

3.5 排序

3.5.1 单字段排序
  • sort 可以让我们按照不同的字段进行排序,并且通过order指定排序的方式

    GET /heima/_search
    {"query": {"match": {"title": "查询字段"}},"sort": [{"price": {"order": "desc"}}]
    }
    
3.5.2 多字段排序
  • 假定我们想要结合使用 price和 _score(得分) 进行查询,并且匹配的结果首先按照价格排序,然后按照相关性得分排序:

    GET /goods/_search
    {"query":{"bool":{"must":{ "match": { "title": "查询字段" }},"filter":{"range":{"price":{"gt":200000,"lt":300000}}}}},"sort": [{ "price": { "order": "desc" }},{ "_score": { "order": "desc" }}]
    }
    

4 聚合aggregations

  • 聚合可以让我们极其方便的实现对数据的统计、分析。例如:

    • 什么品牌的手机最受欢迎?
    • 这些手机的平均价格、最高价格、最低价格?
    • 这些手机每月的销售情况如何?
  • 实现这些统计功能的比数据库的sql要方便的多,而且查询速度非常快,可以实现实时搜索效果。

4.1 基本概念

  • Elasticsearch中的聚合,包含多种类型,最常用的两种,一个叫,一个叫度量
4.1.1 桶(bucket)
  • 桶的作用,是按照某种方式对数据进行分组,每一组数据在ES中称为一个,例如我们根据国籍对人划分,可以得到中国桶英国桶日本桶……或者我们按照年龄段对人进行划分:010,1020,2030,3040等。
  • Elasticsearch中提供的划分桶的方式有很多:
    • Date Histogram Aggregation:根据日期阶梯分组,例如给定阶梯为周,会自动每周分为一组
    • Histogram Aggregation:根据数值阶梯分组,与日期类似
    • Terms Aggregation:根据词条内容分组,词条内容完全匹配的为一组
    • Range Aggregation:数值和日期的范围分组,指定开始和结束,然后按段分组
    • ……
  • bucket aggregations 只负责对数据进行分组,并不进行计算,因此往往bucket中往往会嵌套另一种聚合:metrics aggregations即度量
4.1.2 度量(metrics)
  • 分组完成以后,我们一般会对组中的数据进行聚合运算,例如求平均值、最大、最小、求和等,这些在ES中称为度量

  • 比较常用的一些度量聚合方式:

    • Avg Aggregation:求平均值
    • Max Aggregation:求最大值
    • Min Aggregation:求最小值
    • Percentiles Aggregation:求百分比
    • Stats Aggregation:同时返回avg、max、min、sum、count等
    • Sum Aggregation:求和
    • Top hits Aggregation:求前几
    • Value Count Aggregation:求总数
    • ……
  • 为了测试聚合,我们先批量导入一些数据
    创建索引:

    PUT /cars
    {"settings": {"number_of_shards": 1,"number_of_replicas": 0},"mappings": {"transactions": {"properties": {"color": {"type": "keyword"},"make": {"type": "keyword"}}}}
    }
    
  • 注意:在ES中,需要进行聚合、排序、过滤的字段其处理方式比较特殊,因此不能被分词。这里我们将color和make这两个文字类型的字段设置为keyword类型,这个类型不会被分词,将来就可以参与聚合

  • 导入数据

    POST /cars/transactions/_bulk
    { "index": {}}
    { "price" : 10000, "color" : "red", "make" : "honda", "sold" : "2014-10-28" }
    { "index": {}}
    { "price" : 20000, "color" : "red", "make" : "honda", "sold" : "2014-11-05" }
    { "index": {}}
    { "price" : 30000, "color" : "green", "make" : "ford", "sold" : "2014-05-18" }
    { "index": {}}
    { "price" : 15000, "color" : "blue", "make" : "toyota", "sold" : "2014-07-02" }
    { "index": {}}
    { "price" : 12000, "color" : "green", "make" : "toyota", "sold" : "2014-08-19" }
    { "index": {}}
    { "price" : 20000, "color" : "red", "make" : "honda", "sold" : "2014-11-05" }
    { "index": {}}
    { "price" : 80000, "color" : "red", "make" : "bmw", "sold" : "2014-01-01" }
    { "index": {}}
    { "price" : 25000, "color" : "blue", "make" : "ford", "sold" : "2014-02-12" }
    

4.2 聚合为桶

  • 首先,我们按照 汽车的颜色color来划分

    GET /cars/_search
    {"size" : 0,"aggs" : { "popular_colors" : { "terms" : { "field" : "color"}}}
    }
    
  • size: 查询条数,这里设置为0,因为我们不关心搜索到的数据,只关心聚合结果,提高效率

  • aggs:声明这是一个聚合查询,是aggregations的缩写

    • popular_colors:给这次聚合起一个名字,任意。

      • terms:划分桶的方式,这里是根据词条划分

        • field:划分桶的字段
  • 结果:

    {"took": 1,"timed_out": false,"_shards": {"total": 1,"successful": 1,"skipped": 0,"failed": 0},"hits": {"total": 8,"max_score": 0,"hits": []},"aggregations": {"popular_colors": {"doc_count_error_upper_bound": 0,"sum_other_doc_count": 0,"buckets": [{"key": "red","doc_count": 4},{"key": "blue","doc_count": 2},{"key": "green","doc_count": 2}]}}
    }
    
  • hits:查询结果为空,因为我们设置了size为0

  • aggregations:聚合的结果

  • popular_colors:我们定义的聚合名称

  • buckets:查找到的桶,每个不同的color字段值都会形成一个桶

    • key:这个桶对应的color字段的值
    • doc_count:这个桶中的文档数量
  • 通过聚合的结果我们发现,目前红色的小车比较畅销!

4.3 桶内度量

  • 前面的例子告诉我们每个桶里面的文档数量,这很有用。 但通常,我们的应用需要提供更复杂的文档度量。 例如,每种颜色汽车的平均价格是多少?

  • 因此,我们需要告诉Elasticsearch使用哪个字段使用何种度量方式进行运算,这些信息要嵌套在内,度量的运算会基于内的文档进行

  • 现在,我们为刚刚的聚合结果添加 求价格平均值的度量:

    GET /cars/_search
    {"size" : 0,"aggs" : { "popular_colors" : { "terms" : { "field" : "color"},"aggs":{"avg_price": { "avg": {"field": "price" }}}}}
    }
    
  • aggs:我们在上一个aggs(popular_colors)中添加新的aggs。可见度量也是一个聚合

  • avg_price:聚合的名称

  • avg:度量的类型,这里是求平均值

  • field:度量运算的字段

  • 结果:

      "aggregations": {"popular_colors": {"doc_count_error_upper_bound": 0,"sum_other_doc_count": 0,"buckets": [{"key": "red","doc_count": 4,"avg_price": {"value": 32500}},{"key": "blue","doc_count": 2,"avg_price": {"value": 20000}},{"key": "green","doc_count": 2,"avg_price": {"value": 21000}}]}}
  • 可以看到每个桶中都有自己的avg_price字段,这是度量聚合的结果

4.4 桶内嵌套桶

  • 刚刚的案例中,我们在桶内嵌套度量运算。事实上桶不仅可以嵌套运算, 还可以再嵌套其它桶。也就是说在每个分组中,再分更多组。

  • 比如:我们想统计每种颜色的汽车中,分别属于哪个制造商,按照make字段再进行分桶

    GET /cars/_search
    {"size" : 0,"aggs" : { "popular_colors" : { "terms" : { "field" : "color"},"aggs":{"avg_price": { "avg": {"field": "price" }},"maker":{"terms":{"field":"make"}}}}}
    }
    
  • 原来的color桶和avg计算我们不变

  • maker:在嵌套的aggs下新添一个桶,叫做maker

  • terms:桶的划分类型依然是词条

  • filed:这里根据make字段进行划分

  • 部分结果:

    ...
    {"aggregations": {"popular_colors": {"doc_count_error_upper_bound": 0,"sum_other_doc_count": 0,"buckets": [{"key": "red","doc_count": 4,"maker": {"doc_count_error_upper_bound": 0,"sum_other_doc_count": 0,"buckets": [{"key": "honda","doc_count": 3},{"key": "bmw","doc_count": 1}]},"avg_price": {"value": 32500}},{"key": "blue","doc_count": 2,"maker": {"doc_count_error_upper_bound": 0,"sum_other_doc_count": 0,"buckets": [{"key": "ford","doc_count": 1},{"key": "toyota","doc_count": 1}]},"avg_price": {"value": 20000}},{"key": "green","doc_count": 2,"maker": {"doc_count_error_upper_bound": 0,"sum_other_doc_count": 0,"buckets": [{"key": "ford","doc_count": 1},{"key": "toyota","doc_count": 1}]},"avg_price": {"value": 21000}}]}}
    }
    ...
    
  • 我们可以看到,新的聚合maker被嵌套在原来每一个color的桶中。

  • 每个颜色下面都根据 make字段进行了分组

  • 我们能读取到的信息:

    • 红色车共有4辆
    • 红色车的平均售价是 $32,500 美元。
    • 其中3辆是 Honda 本田制造,1辆是 BMW 宝马制造。

4.5.划分桶的其它方式

  • 前面讲了,划分桶的方式有很多,例如:

    • Date Histogram Aggregation:根据日期阶梯分组,例如给定阶梯为周,会自动每周分为一组
    • Histogram Aggregation:根据数值阶梯分组,与日期类似
    • Terms Aggregation:根据词条内容分组,词条内容完全匹配的为一组
    • Range Aggregation:数值和日期的范围分组,指定开始和结束,然后按段分组
  • 刚刚的案例中,我们采用的是Terms Aggregation,即根据词条划分桶。

  • 接下来,我们再学习几个比较实用的:

4.5.1.阶梯分桶Histogram
  • 原理:

    • histogram是把数值类型的字段,按照一定的阶梯大小进行分组。你需要指定一个阶梯值(interval)来划分阶梯大小。
  • 举例:

    • 比如你有价格字段,如果你设定interval的值为200,那么阶梯就会是这样的:0,200,400,600,…
    • 上面列出的是每个阶梯的key,也是区间的启点。
    • 如果一件商品的价格是450,会落入哪个阶梯区间呢?计算公式如下:
      bucket_key = Math.floor((value - offset) / interval) * interval + offset
      
    • value:就是当前数据的值,本例中是450
    • offset:起始偏移量,默认为0
    • interval:阶梯间隔,比如200
    • 因此你得到的key = Math.floor((450 - 0) / 200) * 200 + 0 = 400
  • 操作一下:

    • 比如,我们对汽车的价格进行分组,指定间隔interval为5000:

      GET /cars/_search
      {"size":0,"aggs":{"price":{"histogram": {"field": "price","interval": 5000}}}
      }
      
    • 结果:

      {"took": 21,"timed_out": false,"_shards": {"total": 5,"successful": 5,"skipped": 0,"failed": 0},"hits": {"total": 8,"max_score": 0,"hits": []},"aggregations": {"price": {"buckets": [{"key": 10000,"doc_count": 2},{"key": 15000,"doc_count": 1},{"key": 20000,"doc_count": 2},{"key": 25000,"doc_count": 1},{"key": 30000,"doc_count": 1},{"key": 35000,"doc_count": 0},{"key": 40000,"doc_count": 0},{"key": 45000,"doc_count": 0},{"key": 50000,"doc_count": 0},{"key": 55000,"doc_count": 0},{"key": 60000,"doc_count": 0},{"key": 65000,"doc_count": 0},{"key": 70000,"doc_count": 0},{"key": 75000,"doc_count": 0},{"key": 80000,"doc_count": 1}]}}
      }
      
    • 你会发现,中间有大量的文档数量为0 的桶,看起来很丑。

    • 我们可以增加一个参数min_doc_count为1,来约束最少文档数量为1,这样文档数量为0的桶会被过滤
      示例:

      GET /cars/_search
      {"size":0,"aggs":{"price":{"histogram": {"field": "price","interval": 5000,"min_doc_count": 1}}}
      }
      

      结果:

      {"took": 15,"timed_out": false,"_shards": {"total": 5,"successful": 5,"skipped": 0,"failed": 0},"hits": {"total": 8,"max_score": 0,"hits": []},"aggregations": {"price": {"buckets": [{"key": 10000,"doc_count": 2},{"key": 15000,"doc_count": 1},{"key": 20000,"doc_count": 2},{"key": 25000,"doc_count": 1},{"key": 30000,"doc_count": 1},{"key": 80000,"doc_count": 1}]}}
      }
      
4.5.2.范围分桶range
  • 范围分桶与阶梯分桶类似,也是把数字按照阶段进行分组,只不过range方式需要你自己指定每一组的起始和结束大小。

Web-elasticsearch的使用相关推荐

  1. bootstrap checks failed [1]: the default discovery settings are unsuitable for production use; at l

    启动:elasticsearch报错 bootstrap checks failed [1]: the default discovery settings are unsuitable for pr ...

  2. 四千多个厂商默认帐号、默认密码

    设备 默认账号 默认密码 致远OA sangfor admin1 audit-admin group-admin system 123456 123456 123456 泛微OA sysadmin 1 ...

  3. ElasticSearch、Kibana Web管理

    ElasticSearch的Web管理 http://localhost:9200/http://localhost:9200/cluster/health?prettyhttp://localhos ...

  4. Elasticsearch:使用 Filebeat 从 Node.js Web 应用程序提取日志

    本指南演示了如何从 Node.js Web 应用程序中提取日志并将它们安全地传送到 Elasticsearch Service 部署中. 你将设置 Filebeat 来监控具有标准 Elastic C ...

  5. Web基础配置篇(十二): Elasticsearch的安装配置及入门使用

    Web基础配置篇(十二): Elasticsearch的安装配置及入门使用 一.概述 ElasticSearch是一个基于Lucene的搜索服务器.它提供了一个分布式多用户能力的全文搜索引擎,基于RE ...

  6. 使用flask实现基于elasticsearch的web端搜索功能

    概述 干这个远程实习也有一个月了,感觉还不错,一天200的薪资对于一个在校大学生来讲已经不低了.上一周,领导布置了这一周的新的任务.大致要求就是做一个web端的搜索页面,大致逻辑如下图所示: 首先呢, ...

  7. Elasticsearch无法登陆Web页面

    Elasticsearch无法登陆Web页面 问题: Elasticsearch 安装配置后,无法进入web页面,Log文件中没有报错信息,但是登陆 ip:9200 页面时,却显示是否要下载Json文 ...

  8. elasticsearch基础6——head插件安装和web页面查询操作使用、ik分词器

    文章目录 一.基本了解 1.1 插件分类 1.2 插件管理命令 二.分析插件 2.1 es中的分析插件 2.1.1 官方核心分析插件 2.1.2 社区提供分析插件 2.2 API扩展插件 三.Head ...

  9. win7 x64 基于spring boot+elasticsearch+Redis+mysql+mybatis进行搜索引擎web开发--爬取IThome热评(一)

    因为工作需要,我准备在win7 x64系统上基于springboot +elasticsearch+redis搭建全文索引服务器. 1. elasticsearch安装比较方便,直接去官网下载了ela ...

  10. 2021年大数据ELK(二十二):采集Apache Web服务器日志

    全网最详细的大数据ELK文章系列,强烈建议收藏加关注! 新文章都已经列出历史文章目录,帮助大家回顾前面的知识重点. 目录 采集Apache Web服务器日志 一.需求 二.准备日志数据 三.使用Fil ...

最新文章

  1. linux下的科学软件下载,十分科学app-十分科学官网版下载v1.4.3-Linux公社
  2. linux安装jetty部署war包,jetty部署war包
  3. Winform中怎样在工具类中对窗体中多个控件进行操作(赋值)
  4. 前手淘前端负责人:前端人如何保持竞争力?
  5. 3.数据类型和变量---用Python做数学运算
  6. OSITCP/IP参考模型
  7. 视觉对比敏感度和人眼对空间频率的感知
  8. 【Android自定义控件】仿京东首页的京东快报,自动向上滚动的广告条
  9. 【Adobe Premiere Pro 2020】pr2020安装和基本操作【PR安装、新建项目流程、导入及管理素材项目文件、添加标记、创建出入点剪辑视频、快速剪接及自动音乐卡点的方法
  10. 王思聪喜欢的女生类型是这样的?
  11. 毕业生的档案都有什么意义,为什么说它那么重要|智测优聘总结
  12. 在字节跳动干软件测试5年,2月无情被辞,想给划水的兄弟提个醒
  13. python数学建模(三)插值常用库和模块
  14. 三个月来美国又有一万家餐馆因疫情倒闭或关闭;爱彼迎帮助在危机中的人寻找临时住宿 | 美通企业日报...
  15. python拼接、剪辑视频
  16. pg_restore恢复备份(记录一下)
  17. 常见的 Git 错误解决方法
  18. ITSS是什么?申请ITSS信息技术服务运行维护标准符合性证书有什么用?
  19. 1.2 引入不定度量空间的动机——有限时域H2/H∞滤波
  20. 从未在一起更让人遗憾_从未在一起和最终没有在一起哪个更让人遗憾你认为?...

热门文章

  1. android 随机坐标,按键精灵安卓版如何随机坐标判断点击.在线等大神回复
  2. RTKlib相对定位源码解析: udstate函数
  3. 定时任务每隔10分钟
  4. 服务器主动推送消息数据给客户端
  5. 顺丰终端服务器断网,顺丰手持终端第六代,实现收派件智能化操作
  6. 基于java的健身房会员卡管理系统ssh框架
  7. “ERROR: Could not install packages due to an OSError: [WinError 5] 拒绝访问” 问题解决办法
  8. app如何助推用户从pc端转向手机端
  9. 零知识证明 SNARKs C++库:libsnark教程
  10. 华为mate9安装Fiddler证书