文章目录

  • 一、引言
    • 1.1 海量数据
    • 1.2 全文检索
    • 1.3 高亮显示
  • 二、ES概述
    • 2.1 ES的介绍
    • 2.2 ES的由来
    • 2.3 ES和Solr区别
    • 2.4 倒排索引
  • 三、 ElasticSearch安装
    • 3.1 安装ES&Kibana
    • 3.2 安装IK分词器
  • 四、 ElasticSearch基本操作
    • 4.1 ES的结构
      • 4.1.1 索引Index,分片和备份
      • 4.1.2 类型 Type
      • 4.1.3 文档 Doc
      • 4.1.4 属性 Field
    • 4.2 操作ES的RESTful语法
    • 4.3 索引的操作
      • 4.3.1 创建一个索引
      • 4.3.2 查看索引信息
      • 4.3.3 删除索引
    • 4.4 ES中Field可以指定的类型
    • 4.5 创建索引并指定数据结构
    • 4.6 文档的操作
      • 4.6.1 新建文档
      • 4.6.2 修改文档
      • 4.6.3 删除文档
  • 五、Java操作ElasticSearch【`重点`】
    • 5.1 Java连接ES
    • 5.2 Java操作索引
      • 5.2.1 创建索引
      • 创建步骤
      • 5.2.2 检查索引是否存在
      • 检查步骤
      • 5.2.3 删除索引
    • 5.3 Java操作文档
      • 5.3.1 添加文档操作
      • 添加步骤
      • 5.3.2 修改文档
      • 5.3.3 删除文档
    • 5.4 Java批量操作文档
      • 5.4.1 批量添加
      • 5.4.2 批量删除
    • 5.5 ElasticSearch练习
  • 六、 ElasticSearch的各种查询
    • 6.1 term&terms查询【`重点`】
      • 6.1.1 term查询
      • 6.1.2 terms查询
    • 6.2 match查询【`重点`】
      • 6.2.1 match_all查询
      • 6.2.2 match查询
      • 6.2.3 布尔match查询
      • 6.2.4 multi_match查询
    • 6.3 其他查询
      • 6.3.1 id查询
      • 6.3.2 ids查询
      • 6.3.3 prefix前缀查询
      • 6.3.4 fuzzy模糊查询
      • 6.3.5 wildcard通配查询
      • 6.3.6 range范围查询
      • 6.3.7 regexp正则查询
    • 6.4 深分页Scroll
    • 6.5 delete-by-query
    • 6.6 复合查询
      • 6.6.1 bool查询
      • 6.6.2 boosting查询
    • 6.7 filter查询
    • 6.8 高亮查询【`重点`】
    • 6.9 聚合查询【`重点`】
      • 6.9.1 Cardinality去重计数查询
      • 6.9.2 范围统计
      • 6.9.3 extended_stats统计聚合查询
    • 6.10 地图经纬度搜索
      • 6.10.1 ES的地图检索方式
      • 6.10.2 基于RESTful实现地图检索
      • 6.10.3 Java实现geo_polygon

一、引言


1.1 海量数据

在海量数据中执行搜索功能时,如果使用MySQL,效率太低。

​ 打开国内某电商网站 , 搜索手机壳 , 搜索结果可能有上千万条数据

1.2 全文检索

在海量数据中执行搜索功能时,如果使用MySQL,效率太低。

select * from item where name like %手机壳11%

以这种放方式去检索数据模糊查询通配符放在了前面 , 索引会失效 , 效率极低

1.3 高亮显示

搜索关键字不准确,也可以搜说到想要的数据 , 以红色的字体展示。

搜索手机壳 和壳手机 搜索结果都一样 ,所以不可能是mysql的查询 , 且关键字被拆开匹配搜索并标红

以上问题都可以使用es解决

二、ES概述


2.1 ES的介绍

  • ES是一个使用Java语言并且基于Lucene编写的搜索引擎框架,他提供了分布式的全文搜索功能,提供了一个统一的基于RESTful风格的WEB接口,官方客户端也对多种语言都提供了相应的API。

  • Lucene:Lucene本身就是一个搜索引擎的底层。

    可以理解为一个第三方的jar包 , jar包中提供了搜索功能 , 但是并不全面 ,ES将lucene二次封装 .

    lucene是apache的等级项目

  • 分布式:ES主要是为了突出他的横向扩展能力。(搭建集群)

  • 全文检索:将一段词语进行分词,并且将分出的单个词语统一的放到一个分词库中,在搜索时,根据关键字去分词库中检索,找到匹配的内容。(倒排索引

  • RESTful风格的WEB接口:操作ES很简单,只需要发送一个HTTP请求,并且根据请求方式的不同,携带参数的同,执行相应的功能。

  • 应用广泛:Github.com,WIKI,Gold Man用ES每天维护将近10TB的数据。

2.2 ES的由来

ES回忆时光

2.3 ES和Solr区别

  • 查询方面

    Solr在查询死数据时(不能改变的),速度相对ES更快一些。但是数据如果是实时改变的,Solr的查询速度会降低很多,ES的查询的效率基本没有变化。

  • 搭建集群

    Solr搭建基于需要依赖Zookeeper来帮助管理。ES本身就支持集群的搭建,不需要第三方的介入。

  • 最开始Solr的社区可以说是非常火爆,针对国内的文档并不是很多。在ES出现之后,ES的社区火爆程度直线上升,ES的文档非常健全。

  • ES对现在云计算和大数据支持的特别好。

2.4 倒排索引

提升效率

将存放的数据,以一定的方式进行分词,并且将分词的内容存放到一个单独的分词库中。

当用户去查询数据时,会将用户的查询关键字进行分词。

然后去分词库中匹配内容,最终得到数据的id标识。

根据id标识去存放数据的位置拉取到指定的数据。

倒排索引

三、 ElasticSearch安装


3.1 安装ES&Kibana

yml文件

version: "3.1"
services:elasticsearch:image: daocloud.io/library/elasticsearch:6.5.4restart: alwayscontainer_name: elasticsearchports:- 9200:9200kibana:image: daocloud.io/library/kibana:6.5.4restart: alwayscontainer_name: kibanaports:- 5601:5601environment:- elasticsearch_url=http://192.168.6.193:9200depends_on:- elasticsearch

3.2 安装IK分词器

  • 下载IK分词器的地址:https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v6.5.4/elasticsearch-analysis-ik-6.5.4.zip

  • 由于网络问题,采用国内的路径去下载:http://tomcat01.qfjava.cn:81/elasticsearch-analysis-ik-6.5.4.zip

  • 进去到ES容器内部,跳转到bin目录下,执行bin目录下的脚本文件:

  • ./elasticsearch-plugin install http://tomcat01.qfjava.cn:81/elasticsearch-analysis-ik-6.5.4.zip

  • 重启ES的容器,让IK分词器生效。

校验IK分词器

四、 ElasticSearch基本操作


4.1 ES的结构

4.1.1 索引Index,分片和备份
  • ES的服务中,可以创建多个索引

    与MySQL对比

    es中存储数据最大的单位是索引(index) , es中可以存在多个索引 , 类似MySQL中存在多个数据库

    es索引存储的数据量是非常大的 , 假如es索引中存储了1亿条数据 , es尽管能存储 , 但是在这么大数据量中搜索关键字 , 性能也是非常低的

    所以es对索引进行分片

    假如一个Book索引 , 分为两个分片 , 一共有1亿条数据 , 那么分别存储5千万条数据 , 根据检索数据和位置不同 , 去找到不同的es服务

    提升检索效率 , 存储容量提升

  • 每一个索引默认被分成5片存储。

  • 个分片都会存在至少一个备份分片。

    es1和es2 , 如果es1突然挂掉了 ,那么es1中存储的5000万条数据就全没了呢?

    分片1中数据会在分片2中备份一份, 同样分片2中数据会在分片1中备份一份 , 叫做从分片 , 从分片一般情况下是不分担查询压力的 , 当查询压力过大的时候 , 从分片会分担查询压力 .

    只有一台es服务的时候 , 不会提供备份分片

  • 备份分片默认不会帮助检索数据,当ES检索压力特别大的时候,备份分片才会帮助检索数据

  • 备份的分片必须放在不同的服务器中。

索引分片备份
4.1.2 类型 Type

一个索引下,可以创建多个类型

在索引中存的是类型Type , 在数据库中存的是表Table

es5.x版本中 , 一个Index下可以创建多个Type

es6.x版本中 , 一个Index下可以创建一个Type

es7.x版本中 , 一个Index没有Type

Ps:根据版本不同,类型的创建也不同。

类型
4.1.3 文档 Doc

一个类型下,可以有多个文档(document)。这个文档就类似于MySQL表中的多行数据

文档
4.1.4 属性 Field

一个文档中,可以包含多个属性。类似于MySQL表中的一行数据存在多个列。

属性

一个es中有多个索引 , 索引包括分片和备份 , 一个索引下可以有多个Type , 一个Type下可以有多个Document , 一个Document下可以有多个field , 每个field中存储的是具体内容

一个MySql中有多个数据库 , 一个数据库中可以有多张表 , 一个表中可以有行数据 , 一行数据可以存在多个列 .

4.2 操作ES的RESTful语法

  • GET请求:查询

    • http://ip:port/index(索引):查询索引信息
    • http://ip:port/index/type/doc_id(文档id查信息):查询指定的文档信息
  • POST请求:复杂查询
    • http://ip:port/index/type/_search:查询文档,可以在请求体中添加json字符串来代表查询条件
    • http://ip:port/index/type/doc_id/_update:修改文档,在请求体中指定json字符串代表修改的具体信息
  • PUT请求:创建
    • http://ip:port/index:创建一个索引,需要在请求体中指定索引的信息,类型,结构
    • http://ip:port/index/type/_mappings:代表创建索引时,指定索引文档存储的属性的信息 , 通过这个路径创建索引并指定类型 , 类型中又有这么多属性 , 这些属性组成文档
  • DELETE请求:删除
    • http://ip:port/index:删除索引(删库跑路)
    • http://ip:port/index/type/doc_id:删除指定的文档

4.3 索引的操作

4.3.1 创建一个索引

指定分片和备份 语法如下

# 创建一个索引
PUT /person
{"settings": {"number_of_shards": 5,"number_of_replicas": 1}
}PUT /索引名称
{#json串给es传递信息  "settings": {#配置块"number_of_shards": 5,#分片数"number_of_replicas": 1#备份数}
}
4.3.2 查看索引信息

语法如下

# 查看索引信息
GET /person

图形化也页面查看

索引的健康状态 Green–>Yellow–>Red

此处为Yellow是因为es是单机版 , 没有另外的服务 , 所以备份是没有的

查看信息
4.3.3 删除索引

语法如下

# 删除索引
DELETE /person

4.4 ES中Field可以指定的类型

  • 字符串类型:

    • text:一把被用于全文检索(为一件商品添加描述 , 这描述的类型就是text)。

    将当前Field进行分词。

    • keyword:当前Field不会被分词(关键字 , 名词等)。
  • 数值类型:

    • long:取值范围为-9223372036854774808~922337203685477480(-2的63次方到2的63次方-1),占用8个字节
    • integer:取值范围为-2147483648~2147483647(-2的31次方到2的31次方-1),占用4个字节
    • short:取值范围为-32768~32767(-2的15次方到2的15次方-1),占用2个字节
    • byte:取值范围为-128~127(-2的7次方到2的7次方-1),占用1个字节
    • double:1.797693e+308~ 4.9000000e-324 (e+308表示是乘以10的308次方,e-324表示乘以10的负324次方)占用8个字节
    • float:3.402823e+38 ~ 1.401298e-45(e+38表示是乘以10的38次方,e-45表示乘以10的负45次方),占用4个字节
    • half_float:精度比float小一半, float是32位 ,half_float是16位。
    • scaled_float:根据一个long和scaled来表达一个浮点型,long-345,scaled-100 -> 3.45
  • 时间类型:

  • date类型,针对时间类型指定具体的格式

    • yyyy-mm-dd HH:mm:ss || yyyy-MM-dd || 毫秒值
  • 布尔类型:

    • boolean类型,表达true和false
  • 二进制类型:

  • binary类型暂时支持Base64 encode string(Base64位编码的字符串)

  • 范围类型:

    • long_range:赋值时,无需指定具体的内容,只需要存储一个范围即可(大于多少或小于多少),指定gt,lt,gte,lte
    • integer_range:同上
    • double_range:同上
    • float_range:同上
    • date_range:同上
    • ip_range:同上
  • 经纬度(Geo)类型:

    • geo_point:用来存储经纬度的(点外卖时候按照"离我距离进行筛选" 使用Geo存储店家的经纬度 , 在根据当前定位的经纬度计算出距离)
  • ip类型:

    • ip:可以存储IPV4或者IPV6

其他的数据类型参考官网:https://www.elastic.co/guide/en/elasticsearch/reference/6.5/mapping-types.html

4.5 创建索引并指定数据结构

语法如下

# 创建索引,指定数据结构
PUT /book
{"settings": {# 分片数"number_of_shards": 5,# 备份数"number_of_replicas": 1},# 指定数据结构"mappings": {# 类型 Type"novel": {# 文档存储的Field"properties": {# Field属性名"name": {# 类型"type": "text",# 指定分词器"analyzer": "ik_max_word",# 指定当前Field可以被作为查询的条件默认true"index": true ,# 是否需要额外存储默认false"store": false },"author": {"type": "keyword"},"count": {"type": "long"},"on-sale": {"type": "date",# 时间类型的格式化方式 "format": "yyyy-MM-dd HH:mm:ss||yyyy-MM-dd||epoch_millis"},#简介"descr": {"type": "text","analyzer": "ik_max_word"}}}}
}

4.6 文档的操作

向索引中添加内容

文档在ES服务中的唯一标识,哪个索引_index,哪个类型_type,自动生成的_id三个内容为组合,锁定一个文档,操作是添加还是修改。

4.6.1 新建文档

自动生成_id

POST /索引/类型

{

​ “key(属性名)”: “value”

}

# 添加文档,自动生成id
POST /book/novel
{"name": "盘龙","author": "我吃西红柿","count": 100000,"on-sale": "2000-01-01","descr": "山重水复疑无路,柳暗花明又一村"
}

手动指定_id

# 添加文档,手动指定id
PUT /book/novel/1
{"name": "红楼梦","author": "曹雪芹","count": 10000000,"on-sale": "1985-01-01","descr": "一个是阆苑仙葩,一个是美玉无瑕"
}

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-XdygwvCP-1614132925896)(E:\qianfeng\千峰\A正课\4.四阶段微服务架构\06《ElasticSearch》\教案\1607937870645.png)]

4.6.2 修改文档

覆盖式修改

使用手动指定id添加的方式覆盖原本内容 , 修改过内容修改 , 缺少的内容不添加

# 添加文档,手动指定id
PUT /book/novel/1
{"name": "红楼梦","author": "曹雪芹","count": 4353453,"on-sale": "1985-01-01","descr": "一个是阆苑仙葩,一个是美玉无瑕"
}

doc修改方式

# 修改文档,基于doc方式
POST /book/novel/1/_update
{"doc": {# 指定上需要修改的field和对应的值"count": "1234565"}
}

Management下Kibana下Index Patterns下Create index pattern下指定索引名创建

4.6.3 删除文档

根据id删除

# 根据id删除文档
DELETE /book/novel/_id

五、Java操作ElasticSearch【重点


5.1 Java连接ES

创建Maven工程

导入依赖

<dependencies><!--        1. elasticsearch--><dependency><groupId>org.elasticsearch</groupId><artifactId>elasticsearch</artifactId><version>6.5.4</version></dependency><!--        2. elasticsearch的高级API--><dependency><groupId>org.elasticsearch.client</groupId><artifactId>elasticsearch-rest-high-level-client</artifactId><version>6.5.4</version></dependency><!--        3. junit--><dependency><groupId>junit</groupId><artifactId>junit</artifactId><version>4.12</version></dependency><!--        4. lombok--><dependency><groupId>org.projectlombok</groupId><artifactId>lombok</artifactId><version>1.16.22</version></dependency>
</dependencies>

创建测试类,连接ES

需要通过RestHighLevelClient对象来连接ES

RestHighLevelClient对象底层封装的有参构造需要传入RestClientBuilder

再创建RestClientBuilder对象 , RestClientBuilder对象不能new是通过RestClient.builder静态方法调出

创建RestClient对象需要传入HttpHost

再创建HttpHost对象 ,HttpHost需要传入ip和端口号

然后就可以使用RestHighLevelClient对象来连接ES

public class ESClient {public static RestHighLevelClient getClient(){// 创建HttpHost对象HttpHost httpHost = new HttpHost("192.168.199.109",9200);// 创建RestClientBuilderRestClientBuilder clientBuilder = RestClient.builder(httpHost);// 创建RestHighLevelClientRestHighLevelClient client = new RestHighLevelClient(clientBuilder);// 返回return client;}}
public class TestClient {@Testpublic void testClient(){RestHighLevelClient client = ESClient.getClient();System.out.println("OK");}
}

如果连接成功会打印OK , 连接失败会直接报错

5.2 Java操作索引

先client.indices().创建/删除/验证等方法 ,查看每个方法需要什么Request对象

5.2.1 创建索引

代码如下

创建步骤
  1. 准备关于索引的settings(分片和备份)

    Settings.builder()

  2. 准备关于索引的结构mappings(指定类型,属性)

    JsonXContent.contentBuilder()

  3. 将settings和mappings封装到一个创建索引Request对象

    CreateIndexRequest

  4. 通过client对象去连接ES执行创建索引

    client.indices().create

public class Demo2 {RestHighLevelClient client = ESClient.getClient();String index = "person";String type = "man";@Testpublic void createIndex() throws IOException {//1. 准备关于索引的settings(分片和备份)Settings.Builder settings = Settings.builder().put("number_of_shards", 3).put("number_of_replicas", 1);//2. 准备关于索引的结构mappings(指定类型,属性)XContentBuilder mappings = JsonXContent.contentBuilder()//"mappings": {       mappings等于contentBuilder     .startObject()                                  //  "novel": {        开始{ 等于.startObject.startObject("properties")                  //    "properties": { .startObject("name")                    //      "name": {.field("type","text")               //      .endObject()                            //      }             结束括号等价endObject().startObject("age")                     //    }.field("type","integer")            //  }.endObject()                            //.startObject("birthday")                //.field("type","date")               //.field("format","yyyy-MM-dd")       //.endObject()                            //.endObject().endObject();//3. 将settings和mappings封装到一个Request对象CreateIndexRequest request = new CreateIndexRequest(index)//把index,type,setting,mapping都封装到了request中.settings(settings)                               //创建CreateIndexRequest对象需要传入索引index.mapping(type,mappings);                          //index需要settings和mappings结构体//4. 通过client对象去连接ES并执行创建索引CreateIndexResponse resp = client.indices().create(request, RequestOptions.DEFAULT);//5. 输出System.out.println("resp:" + resp.toString());}}

在kibnna中查看创建的索引

5.2.2 检查索引是否存在

代码如下

检查步骤
  1. 准备获取索引request对象并存入要验证的索引名字

    GetIndexRequest()

  2. 通过client操作

    client.indices().exists

  3. 输出

@Test
public void exists() throws IOException {//1. 准备request对象GetIndexRequest request = new GetIndexRequest();request.indices(index);//2. 通过client去操作boolean exists = client.indices().exists(request, RequestOptions.DEFAULT);//3. 输出System.out.println(exists);
}
5.2.3 删除索引

代码如下

步骤同检查

@Test
public void delete() throws IOException {//1. 准备request对象DeleteIndexRequest request = new DeleteIndexRequest();request.indices(index);//2. 通过client对象执行AcknowledgedResponse delete = client.indices().delete(request, RequestOptions.DEFAULT);//3. 获取返回结果System.out.println(delete.isAcknowledged());
}

删除不存在的索引会报错

在kibnna中查看是否成功删除索引

5.3 Java操作文档

5.3.1 添加文档操作

代码如下

添加步骤
  1. 将要添加的数据使用Jackson将对象封装json串

    mapper.writeValueAsString(person)

  2. 准备一个request对象(手动指定id)查看IndexRequest有参构造

    IndexRequest

    request.source

  3. 通过client对象执行添加

    client.index

public class Demo3 {ObjectMapper mapper = new ObjectMapper();RestHighLevelClient client = ESClient.getClient();String index = "person";String type = "man";@Testpublic void createDoc() throws IOException {//1. 准备一个json数据Person person = new Person(1,"张三",23,new Date());String json = mapper.writeValueAsString(person);//2. 准备一个request对象(手动指定id)IndexRequest request = new IndexRequest(index,type,person.getId().toString());//存index,type,和idrequest.source(json, XContentType.JSON);//存json字符串//3. 通过client对象执行添加IndexResponse resp = client.index(request, RequestOptions.DEFAULT);//4. 输出返回结果System.out.println(resp.getResult().toString());}}

在kibnna中查看添加数据

5.3.2 修改文档

代码如下

@Test
public void updateDoc() throws IOException {//1. 创建一个Map,指定需要修改的内容Map<String,Object> doc = new HashMap<>();doc.put("name","张大三");String docId = "1";//2. 创建request对象,封装数据UpdateRequest request = new UpdateRequest(index,type,docId);request.doc(doc);//3. 通过client对象执行UpdateResponse update = client.update(request, RequestOptions.DEFAULT);//4. 输出返回结果System.out.println(update.getResult().toString());
}
5.3.3 删除文档

代码如下

@Test
public void deleteDoc() throws IOException {//1. 封装Request对象DeleteRequest request = new DeleteRequest(index,type,"1");//2. client执行DeleteResponse resp = client.delete(request, RequestOptions.DEFAULT);//3. 输出结果System.out.println(resp.getResult().toString());
}

5.4 Java批量操作文档

5.4.1 批量添加

代码如下

@Test
public void bulkCreateDoc() throws IOException {//1. 准备多个json数据Person p1 = new Person(1,"张三",23,new Date());Person p2 = new Person(2,"李四",24,new Date());Person p3 = new Person(3,"王五",25,new Date());String json1 = mapper.writeValueAsString(p1);String json2 = mapper.writeValueAsString(p2);String json3 = mapper.writeValueAsString(p3);//2. 创建Request,将准备好的数据封装进去BulkRequest request = new BulkRequest();request.add(new IndexRequest(index,type,p1.getId().toString()).source(json1,XContentType.JSON));request.add(new IndexRequest(index,type,p2.getId().toString()).source(json2,XContentType.JSON));request.add(new IndexRequest(index,type,p3.getId().toString()).source(json3,XContentType.JSON));//3. 用client执行BulkResponse resp = client.bulk(request, RequestOptions.DEFAULT);//4. 输出结果System.out.println(resp.toString());
}
5.4.2 批量删除

代码如下

@Test
public void bulkDeleteDoc() throws IOException {//1. 封装Request对象BulkRequest request = new BulkRequest();request.add(new DeleteRequest(index,type,"1"));request.add(new DeleteRequest(index,type,"2"));request.add(new DeleteRequest(index,type,"3"));//2. client执行BulkResponse resp = client.bulk(request, RequestOptions.DEFAULT);//3. 输出System.out.println(resp);
}

5.5 ElasticSearch练习

创建索引,指定数据结构

索引名:sms-logs-index

类型名:sms-logs-type

结构如下:

索引结构图
public class TestData {ObjectMapper mapper = new ObjectMapper();RestHighLevelClient client = ESClient.getClient();String index = "sms-logs-index";String type = "sms-logs-type";@Test/*** 创建索引,添加索引*/public void createSmsLogsIndex() throws IOException {//1. settingsSettings.Builder settings = Settings.builder().put("number_of_shards", 3).put("number_of_replicas", 1);//2. mapping.XContentBuilder mapping = JsonXContent.contentBuilder().startObject().startObject("properties").startObject("createDate").field("type", "date").endObject().startObject("sendDate").field("type", "date").endObject().startObject("longCode").field("type", "keyword").endObject().startObject("mobile").field("type", "keyword").endObject().startObject("corpName").field("type", "keyword").endObject().startObject("smsContent").field("type", "text").field("analyzer", "ik_max_word").endObject().startObject("state").field("type", "integer").endObject().startObject("operatorId").field("type", "integer").endObject().startObject("province").field("type", "keyword").endObject().startObject("ipAddr").field("type", "ip").endObject().startObject("replyTotal").field("type", "integer").endObject().startObject("fee").field("type", "long").endObject().endObject().endObject();//3. 添加索引.CreateIndexRequest request = new CreateIndexRequest(index);request.settings(settings);request.mapping(type,mapping);client.indices().create(request, RequestOptions.DEFAULT);System.out.println("OK!!");}@Test/*** 批量添加数据*/public void addTestData() throws IOException {BulkRequest request = new BulkRequest();SmsLogs smsLogs = new SmsLogs();smsLogs.setMobile("13800000000");smsLogs.setCorpName("途虎养车");smsLogs.setCreateDate(new Date());smsLogs.setSendDate(new Date());smsLogs.setIpAddr("10.126.2.9");smsLogs.setLongCode("10690000988");smsLogs.setReplyTotal(10);smsLogs.setState(0);smsLogs.setSmsContent("【途虎养车】亲爱的张三先生/女士,您在途虎购买的货品(单号TH123456)已 到指定安装店多日," + "现需与您确认订单的安装情况,请点击链接按实际情况选择(此链接有效期为72H)。您也可以登录途 虎APP进入" + "“我的-待安装订单”进行预约安装。若您在服务过程中有任何疑问,请致电400-111-8868向途虎咨 询。");smsLogs.setProvince("北京");smsLogs.setOperatorId(1);smsLogs.setFee(3);request.add(new IndexRequest(index, type, "21").source(mapper.writeValueAsString(smsLogs), XContentType.JSON));smsLogs.setMobile("13700000001");smsLogs.setProvince("上海");smsLogs.setSmsContent("【途虎养车】亲爱的刘红先生/女士,您在途虎购买的货品(单号TH1234526)已 到指定安装店多日," + "现需与您确认订单的安装情况,请点击链接按实际情况选择(此链接有效期为72H)。您也可以登录途 虎APP进入" + "“我的-待安装订单”进行预约安装。若您在服务过程中有任何疑问,请致电400-111-8868向途虎咨 询。");request.add(new IndexRequest(index, type, "22").source(mapper.writeValueAsString(smsLogs), XContentType.JSON));// -------------------------------------------------------------------------------------------------------------------SmsLogs smsLogs1 = new SmsLogs();smsLogs1.setMobile("13100000000");smsLogs1.setCorpName("盒马鲜生");smsLogs1.setCreateDate(new Date());smsLogs1.setSendDate(new Date());smsLogs1.setIpAddr("10.126.2.9");smsLogs1.setLongCode("10660000988");smsLogs1.setReplyTotal(15);smsLogs1.setState(0);smsLogs1.setSmsContent("【盒马】您尾号12345678的订单已开始配送,请在您指定的时间收货不要走开 哦~配送员:" + "刘三,电话:13800000000");smsLogs1.setProvince("北京");smsLogs1.setOperatorId(2);smsLogs1.setFee(5);request.add(new IndexRequest(index, type, "23").source(mapper.writeValueAsString(smsLogs1), XContentType.JSON));smsLogs1.setMobile("18600000001");smsLogs1.setProvince("上海");smsLogs1.setSmsContent("【盒马】您尾号7775678的订单已开始配送,请在您指定的时间收货不要走开 哦~配送员:" + "王五,电话:13800000001");request.add(new IndexRequest(index, type, "24").source(mapper.writeValueAsString(smsLogs1), XContentType.JSON));// -------------------------------------------------------------------------------------------------------------------SmsLogs smsLogs2 = new SmsLogs();smsLogs2.setMobile("15300000000");smsLogs2.setCorpName("滴滴打车");smsLogs2.setCreateDate(new Date());smsLogs2.setSendDate(new Date());smsLogs2.setIpAddr("10.126.2.8");smsLogs2.setLongCode("10660000988");smsLogs2.setReplyTotal(50);smsLogs2.setState(1);smsLogs2.setSmsContent("【滴滴单车平台】专属限时福利!青桔/小蓝月卡立享5折,特惠畅骑30天。" + "戳 https://xxxxxx退订TD");smsLogs2.setProvince("上海");smsLogs2.setOperatorId(3);smsLogs2.setFee(7);request.add(new IndexRequest(index, type, "25").source(mapper.writeValueAsString(smsLogs2), XContentType.JSON));smsLogs2.setMobile("18000000001");smsLogs2.setProvince("武汉");smsLogs2.setSmsContent("【滴滴单车平台】专属限时福利!青桔/小蓝月卡立享5折,特惠畅骑30天。" + "戳 https://xxxxxx退订TD");request.add(new IndexRequest(index, type, "26").source(mapper.writeValueAsString(smsLogs2), XContentType.JSON));// -------------------------------------------------------------------------------------------------------------------SmsLogs smsLogs3 = new SmsLogs();smsLogs3.setMobile("13900000000");smsLogs3.setCorpName("招商银行");smsLogs3.setCreateDate(new Date());smsLogs3.setSendDate(new Date());smsLogs3.setIpAddr("10.126.2.8");smsLogs3.setLongCode("10690000988");smsLogs3.setReplyTotal(50);smsLogs3.setState(0);smsLogs3.setSmsContent("【招商银行】尊贵的李四先生,恭喜您获得华为P30 Pro抽奖资格,还可领100 元打" + "车红包,仅限1天");smsLogs3.setProvince("上海");smsLogs3.setOperatorId(1);smsLogs3.setFee(8);request.add(new IndexRequest(index, type, "27").source(mapper.writeValueAsString(smsLogs3), XContentType.JSON));smsLogs3.setMobile("13990000001");smsLogs3.setProvince("武汉");smsLogs3.setSmsContent("【招商银行】尊贵的李四先生,恭喜您获得华为P30 Pro抽奖资格,还可领100 元打" + "车红包,仅限1天");request.add(new IndexRequest(index, type, "28").source(mapper.writeValueAsString(smsLogs3), XContentType.JSON));// -------------------------------------------------------------------------------------------------------------------SmsLogs smsLogs4 = new SmsLogs();smsLogs4.setMobile("13700000000");smsLogs4.setCorpName("中国平安保险有限公司");smsLogs4.setCreateDate(new Date());smsLogs4.setSendDate(new Date());smsLogs4.setIpAddr("10.126.2.8");smsLogs4.setLongCode("10690000998");smsLogs4.setReplyTotal(18);smsLogs4.setState(0);smsLogs4.setSmsContent("【中国平安】奋斗的时代,更需要健康的身体。中国平安为您提供多重健康保 障,在奋斗之路上为您保驾护航。退订请回复TD");smsLogs4.setProvince("武汉");smsLogs4.setOperatorId(1);smsLogs4.setFee(5);request.add(new IndexRequest(index, type, "29").source(mapper.writeValueAsString(smsLogs4), XContentType.JSON));smsLogs4.setMobile("13990000002");smsLogs4.setProvince("武汉");smsLogs4.setSmsContent("【招商银行】尊贵的王五先生,恭喜您获得iphone 56抽奖资格,还可领5 元打" + "车红包,仅限100天");request.add(new IndexRequest(index, type, "30").source(mapper.writeValueAsString(smsLogs4), XContentType.JSON));// -------------------------------------------------------------------------------------------------------------------SmsLogs smsLogs5 = new SmsLogs();smsLogs5.setMobile("13600000000");smsLogs5.setCorpName("中国移动");smsLogs5.setCreateDate(new Date());smsLogs5.setSendDate(new Date());smsLogs5.setIpAddr("10.126.2.8");smsLogs5.setLongCode("10650000998");smsLogs5.setReplyTotal(60);smsLogs5.setState(0);smsLogs5.setSmsContent("【北京移动】尊敬的客户137****0000,5月话费账单已送达您的139邮箱," + "点击查看账单详情 http://y.10086.cn/; " + " 回Q关闭通知,关注“中国移动139邮箱”微信随时查账单【中国移动 139邮箱】");smsLogs5.setProvince("武汉");smsLogs5.setOperatorId(1);smsLogs5.setFee(4);request.add(new IndexRequest(index, type, "31").source(mapper.writeValueAsString(smsLogs5), XContentType.JSON));smsLogs5.setMobile("13990001234");smsLogs5.setProvince("山西");smsLogs5.setSmsContent("【北京移动】尊敬的客户137****1234,8月话费账单已送达您的126邮箱,\" + \"点击查看账单详情 http://y.10086.cn/; \" + \" 回Q关闭通知,关注“中国移动126邮箱”微信随时查账单【中国移动 126邮箱】");request.add(new IndexRequest(index, type, "32").source(mapper.writeValueAsString(smsLogs5), XContentType.JSON));// -------------------------------------------------------------------------------------------------------------------client.bulk(request,RequestOptions.DEFAULT);System.out.println("OK!");}
}

六、 ElasticSearch的各种查询


6.1 term&terms查询【重点

6.1.1 term查询

term的查询是代表完全匹配,搜索之前不会对你搜索的关键字进行分词,对你的关键字去文档分词库中去匹配内容。

#RESTful风格
# term查询
POST /sms-logs-index/sms-logs-type/_search
{"from": 0,     # limit ?"size": 5,    # limit x,?"query": {     #指定是要查询"term": {    #查询的方式是term"province": {  #要查询的file字段"value": "北京" #查询的具体数据}}}
}

代码实现方式

  1. 创建Request对象

    SearchRequest

  2. 指定查询条件

    termQuery

  3. 执行查询

    client.search

  4. 获取数据展示

    Hits{}种的Hits[]种的数据

Java代码实现方式

/**client.search()--->.什么操作后面需要传入什么Request 此处SearchRequest创建出SearchRequest对象request.indices--->(索引)indexrequest.types--->(类型)typerequest.source--->需要传入SearchSourceBuilder创建出SearchSourceBuilder对象SearchSourceBuilder中可以设置查询条件要展示的结果都存在Hits中response.getHits().getHits()第一个Hits是kibanna中Hits{}第二个Hits是kibana中Hits[]for循环遍历hit.getSourceAsMap 把hit中的source存到map中*/public class TestSearch {ObjectMapper mapper = new ObjectMapper();RestHighLevelClient client = ESClient.getClient();String index = "sms-logs-index";String type = "sms-logs-type";@Testpublic void termSearch() throws IOException {/**1. 创建request对象(对应kibana中  POST /sms-logs-index/sms-logs-type)*/SearchRequest request = new SearchRequest(index);//request.indices(index);request.types(type);/**2.指定查询条件(对应kibana中   "from": 0,"size":5,"query": {"term": {"province": {"value": "北京")}}}*/SearchSourceBuilder builder = new SearchSourceBuilder();builder.from(0);builder.size(5);builder.query(QueryBuilders.termQuery("province","北京"));request.source(builder);/**3.执行查询*/SearchResponse response = client.search(request, RequestOptions.DEFAULT);/**4.结果展示(对应kibana中查询结果页面  "hits" :{"hits" :[] })*/for (SearchHit hit : response.getHits().getHits()) {Map<String, Object> result = hit.getSourceAsMap();System.out.println(result);}}
}

代码精简–>流式编程

public class TestSearch {ObjectMapper mapper = new ObjectMapper();RestHighLevelClient client = ESClient.getClient();String index = "sms-logs-index";String type = "sms-logs-type";@Testpublic void termSearch() throws IOException {//1.指定查询条件SearchSourceBuilder builder = new SearchSourceBuilder().from(0).size(5).query(QueryBuilders.termQuery("province","北京"));//2. 创建request对象SearchRequest request = new SearchRequest().indices(index).types(type).source(builder);//3.执行查询SearchResponse response = client.search(request, RequestOptions.DEFAULT);//4.结果展示for (SearchHit hit : response.getHits().getHits()) {Map<String, Object> result = hit.getSourceAsMap();System.out.println(result);}}
}
6.1.2 terms查询

terms和term的查询机制是一样,都不会将指定的查询关键字进行分词,直接去分词库中匹配,找到相应文档内容。

但是查询内容不一样

terms是在针对一个字段包含多个值的时候使用。

term:where province = 北京;

terms:where province = 北京 or province = ?or province = ?

#RESTful风格
# terms查询
POST /sms-logs-index/sms-logs-type/_search
{"query": {"terms": {"province": ["北京","山西","武汉"]}}
}

代码实现方式

// Java实现
@Test
public void termsQuery() throws IOException {//1. 创建requestSearchRequest request = new SearchRequest(index);request.types(type);//2. 封装查询条件SearchSourceBuilder builder = new SearchSourceBuilder();builder.query(QueryBuilders.termsQuery("province","北京","山西"));request.source(builder);//3. 执行查询SearchResponse resp = client.search(request, RequestOptions.DEFAULT);//4. 输出_sourcefor (SearchHit hit : resp.getHits().getHits()) {System.out.println(hit.getSourceAsMap());}
}

代码精简–>流式编程

    @Testpublic void termsSearch() throws IOException {//1.指定查询条件SearchSourceBuilder builder = new SearchSourceBuilder().query(QueryBuilders.termsQuery("province","北京","山西","武汉"));//2. 创建request对象SearchRequest request = new SearchRequest(index).types(type).source(builder);//3.执行查询SearchResponse response = client.search(request, RequestOptions.DEFAULT);//4.结果展示for (SearchHit hit : response.getHits().getHits()) {Map<String, Object> result = hit.getSourceAsMap();System.out.println(result);}}
}

超级过分精简,反正都是玩 , 但是绝对不能这么写

    @Testpublic void termsSearch() throws IOException {SearchResponse response = client.search(new SearchRequest(index).types(type).source(new SearchSourceBuilder().query(QueryBuilders.termsQuery("province","北京","山西","武汉"))),RequestOptions.DEFAULT);for (SearchHit hit : response.getHits().getHits()) {Map<String, Object> result = hit.getSourceAsMap();System.out.println(result);}}
}

**注意 : **term和terms查询 , 不会将指定的查询关键字进行分词 , 但是不等同于只能查询keyword ,

比如数据中smsContent的类型是text , 我们取出一条数据 “奋斗的时代” 通过IK在线分词器分词发现分为 :奋斗,奋,斗,时代 , 四个词 .

如果使用term查询 “奋斗的时代” 则什么都查不到

但是如果查询"奋斗"或"时代" 则可以查询到结果

6.2 match查询【重点

match查询属于高层查询,他会根据你查询的字段类型不一样,采用不同的查询方式。

  • 查询的是日期或者是数值的话,他会将你基于的字符串查询内容转换为日期或者数值对待。
  • 如果查询的内容是一个不能被分词的内容(keyword),match查询不会对你指定的查询关键字进行分词。
  • 如果查询的内容时一个可以被分词的内容(text),match会将你指定的查询内容根据指定的分词器的方式去分词,去分词库中匹配指定的内容。

match查询,实际底层就是多个term查询,将多个term查询的结果给你封装到了一起。

6.2.1 match_all查询

查询全部内容,不指定任何查询条件。

#RESTful风格
# match_all查询
POST /sms-logs-index/sms-logs-type/_search
{#"size": 20,"query": {"match_all": {}}
}

代码实现方式

//  java代码实现
@Test
public void matchAllQuery() throws IOException {//1. 创建RequestSearchRequest request = new SearchRequest(index);request.types(type);//2. 指定查询条件SearchSourceBuilder builder = new SearchSourceBuilder();builder.query(QueryBuilders.matchAllQuery());builder.size(20);           // ES默认只查询10条数据,如果想查询更多,添加sizerequest.source(builder);//3. 执行查询SearchResponse resp = client.search(request, RequestOptions.DEFAULT);//4. 输出结果for (SearchHit hit : resp.getHits().getHits()) {System.out.println(hit.getSourceAsMap());}System.out.println(resp.getHits().getHits().length);}

ES中match_all查询如果数据量过多的话 , 只会展示十条数据 , restful和Java中都是一样的 , 如果要看更多的数据设置size .

6.2.2 match查询

指定一个Field作为筛选的条件

对检索条件分词后根据_score排序

# match查询
POST /sms-logs-index/sms-logs-type/_search
{"query": {"match": {"smsContent": "收货安装"}}
}

代码实现方式

@Test
public void matchQuery() throws IOException {//1. 创建RequestSearchRequest request = new SearchRequest(index);request.types(type);//2. 指定查询条件SearchSourceBuilder builder = new SearchSourceBuilder();//-----------------------------------------------builder.query(QueryBuilders.matchQuery("smsContent","收货安装"));//-----------------------------------------------request.source(builder);//3. 执行查询SearchResponse resp = client.search(request, RequestOptions.DEFAULT);//4. 输出结果for (SearchHit hit : resp.getHits().getHits()) {System.out.println(hit.getSourceAsMap());}
}
6.2.3 布尔match查询

基于一个Field匹配的内容,采用and或者or的方式连接

# 布尔match查询
POST /sms-logs-index/sms-logs-type/_search
{"query": {"match": {"smsContent": {"query": "中国 健康","operator": "and"      # 内容既包含中国也包含健康}}}
}# 布尔match查询
POST /sms-logs-index/sms-logs-type/_search
{"query": {"match": {"smsContent": {"query": "中国 健康","operator": "or"     # 内容包括健康或者包括中国}}}
}

代码实现方式

.operator(Operator.OR)

// Java代码实现
@Test
public void booleanMatchQuery() throws IOException {//1. 创建RequestSearchRequest request = new SearchRequest(index);request.types(type);//2. 指定查询条件SearchSourceBuilder builder = new SearchSourceBuilder();//-----------------------------------------------选择AND或者ORbuilder.query(QueryBuilders.matchQuery("smsContent","中国 健康").operator(Operator.OR));request.source(builder);//3. 执行查询SearchResponse resp = client.search(request, RequestOptions.DEFAULT);//4. 输出结果for (SearchHit hit : resp.getHits().getHits()) {System.out.println(hit.getSourceAsMap());}
}
6.2.4 multi_match查询

match针对一个field做检索,multi_match针对多个field进行检索,多个field对应一个text。

例 : 查找 "province"和"smsContent"这个两个fields中含有北京的所有数据

# multi_match 查询
POST /sms-logs-index/sms-logs-type/_search
{"query": {"multi_match": {"query": "北京",                   # 指定text"fields": ["province","smsContent"]    # 指定field们}}
}

代码实现方式

// java代码实现
@Test
public void multiMatchQuery() throws IOException {//1. 创建RequestSearchRequest request = new SearchRequest(index);request.types(type);//2. 指定查询条件SearchSourceBuilder builder = new SearchSourceBuilder();//-----------------------------------------------builder.query(QueryBuilders.multiMatchQuery("北京","province","smsContent"));//-----------------------------------------------request.source(builder);//3. 执行查询SearchResponse resp = client.search(request, RequestOptions.DEFAULT);//4. 输出结果for (SearchHit hit : resp.getHits().getHits()) {System.out.println(hit.getSourceAsMap());}
}

6.3 其他查询

6.3.1 id查询

根据id查询 where id = ?

# id查询
GET /sms-logs-index/sms-logs-type/1

代码实现方式

// Java代码实现
@Test
public void findById() throws IOException {//1. 创建GetRequestGetRequest request = new GetRequest(index,type,"1");//2. 执行查询GetResponse resp = client.get(request, RequestOptions.DEFAULT);//3. 输出结果System.out.println(resp.getSourceAsMap());
}
6.3.2 ids查询

根据多个id查询,类似MySQL中的where id in(id1,id2,id2…)

# ids查询
POST /sms-logs-index/sms-logs-type/_search
{"query": {"ids": {"values": ["1","2","3"]}}
}

代码实现方式

// Java代码实现
@Test
public void findByIds() throws IOException {//1. 创建SearchRequestSearchRequest request = new SearchRequest(index);request.types(type);//2. 指定查询条件SearchSourceBuilder builder = new SearchSourceBuilder();//----------------------------------------------------------builder.query(QueryBuilders.idsQuery().addIds("1","2","3"));//----------------------------------------------------------request.source(builder);//3. 执行SearchResponse resp = client.search(request, RequestOptions.DEFAULT);//4. 输出结果for (SearchHit hit : resp.getHits().getHits()) {System.out.println(hit.getSourceAsMap());}
}
6.3.3 prefix前缀查询

前缀查询,可以通过一个关键字去指定一个Field的前缀,从而查询到指定的文档。

#prefix 查询
POST /sms-logs-index/sms-logs-type/_search
{"query": {"prefix": {"corpName": {"value": "途虎"}}}
}

prefix和match的区别

"corpName"在设置的类型是keyword , 在分词库中存的是 “途虎养车” 为一个词 , 如果是match查询 , 只查询"途虎"是什么也查不到了

而prefix查询 是前缀查询 , 可以查到结果 , 但并不是把keyword分词了 , 而是根据前缀查询的

代码实现方式

// Java实现前缀查询
@Test
public void findByPrefix() throws IOException {//1. 创建SearchRequestSearchRequest request = new SearchRequest(index);request.types(type);//2. 指定查询条件SearchSourceBuilder builder = new SearchSourceBuilder();//----------------------------------------------------------builder.query(QueryBuilders.prefixQuery("corpName","盒马"));//----------------------------------------------------------request.source(builder);//3. 执行SearchResponse resp = client.search(request, RequestOptions.DEFAULT);//4. 输出结果for (SearchHit hit : resp.getHits().getHits()) {System.out.println(hit.getSourceAsMap());}
}
6.3.4 fuzzy模糊查询

模糊查询,真正的模糊查询 , 不同与 MySQL中的like , 我们输入要查询字符的"大概",ES就可以去根据输入的内容"大概"去匹配一下结果(就是可以存在错别字) , 但是如果错别字太多 , 会导致查询结果 不精准。

当我们库中数据量特别庞大的时候 , 就会查询出特别多的数据 , 可以添加"prefix_length"来指定前缀多少个字是必须正确的

# fuzzy查询
POST /sms-logs-index/sms-logs-type/_search
{"query": {"fuzzy": {"corpName": {"value": "盒马先生","prefix_length": 2            # 指定前面几个字符是不允许出现错误的}}}
}

代码实现方式

// Java代码实现Fuzzy查询
@Test
public void findByFuzzy() throws IOException {//1. 创建SearchRequestSearchRequest request = new SearchRequest(index);request.types(type);//2. 指定查询条件SearchSourceBuilder builder = new SearchSourceBuilder();//----------------------------------------------------------builder.query(QueryBuilders.fuzzyQuery("corpName","盒马先生").prefixLength(2));//----------------------------------------------------------request.source(builder);//3. 执行SearchResponse resp = client.search(request, RequestOptions.DEFAULT);//4. 输出结果for (SearchHit hit : resp.getHits().getHits()) {System.out.println(hit.getSourceAsMap());}
}
6.3.5 wildcard通配查询

通配查询,和MySQL中的like是一个套路,可以在查询时,在字符串中指定通配符*和占位符?

# wildcard 查询
POST /sms-logs-index/sms-logs-type/_search
{"query": {"wildcard": {"corpName": {"value": "*请*"    # 可以使用*和?指定通配符和占位符"value": "中国??"  #  可以匹配到中国移动,占位符?有几个占几个位置}}}
}

代码实现方式

// Java代码实现Wildcard查询
@Test
public void findByWildCard() throws IOException {//1. 创建SearchRequestSearchRequest request = new SearchRequest(index);request.types(type);//2. 指定查询条件SearchSourceBuilder builder = new SearchSourceBuilder();//----------------------------------------------------------builder.query(QueryBuilders.wildcardQuery("corpName","中国*"));//----------------------------------------------------------request.source(builder);//3. 执行SearchResponse resp = client.search(request, RequestOptions.DEFAULT);//4. 输出结果for (SearchHit hit : resp.getHits().getHits()) {System.out.println(hit.getSourceAsMap());}
}
6.3.6 range范围查询

范围查询,只针对数值类型,用范围去取值字符串类型 , 那是不可能的

用对某一个Field进行大于或者小于的范围指定

# range 查询 费用fee 5-10之间的数据
POST /sms-logs-index/sms-logs-type/_search
{"query": {"range": {"fee": {"gt": 5,"lte": 10# 可以使用 gt:>      gte:>=     lt:<     lte:<=}}}
}

代码实现方式

// Java实现range范围查询
@Test
public void findByRange() throws IOException {//1. 创建SearchRequestSearchRequest request = new SearchRequest(index);request.types(type);//2. 指定查询条件SearchSourceBuilder builder = new SearchSourceBuilder();//----------------------------------------------------------builder.query(QueryBuilders.rangeQuery("fee").lte(10).gte(5));//----------------------------------------------------------request.source(builder);//3. 执行SearchResponse resp = client.search(request, RequestOptions.DEFAULT);//4. 输出结果for (SearchHit hit : resp.getHits().getHits()) {System.out.println(hit.getSourceAsMap());}
}
6.3.7 regexp正则查询

正则查询,通过你编写的正则表达式去匹配内容。

Ps:prefix,fuzzy,wildcard和regexp查询效率相对比较低,要求效率比较高时,避免去使用

# regexp 查询手机号为180开头的
POST /sms-logs-index/sms-logs-type/_search
{"query": {"regexp": {"mobile": "180[0-9]{8}"    # 编写正则}}
}

代码实现方式

// Java代码实现正则查询
@Test
public void findByRegexp() throws IOException {//1. 创建SearchRequestSearchRequest request = new SearchRequest(index);request.types(type);//2. 指定查询条件SearchSourceBuilder builder = new SearchSourceBuilder();//----------------------------------------------------------builder.query(QueryBuilders.regexpQuery("mobile","139[0-9]{8}"));//----------------------------------------------------------request.source(builder);//3. 执行SearchResponse resp = client.search(request, RequestOptions.DEFAULT);//4. 输出结果for (SearchHit hit : resp.getHits().getHits()) {System.out.println(hit.getSourceAsMap());}
}

6.4 深分页Scroll

在term查询中学习过from和size , 从开始xxx-xxx结束

ES对from + size是有限制的,from和size二者之和不能超过1W

原理:

  • from+size在ES查询数据的方式:

    • 第一步现将用户指定的关键进行分词。
    • 第二步将词汇去分词库中进行检索,得到多个文档的id。
    • 第三步去各个分片中去拉取指定的数据。耗时较长 ,最慢。
    • 第四步将数据根据score进行排序。耗时较长。
    • 第五步根据from的值,将查询到的数据舍弃一部分。比如from5 size5 , 就会把1-4全部舍弃
    • 第六步返回结果。
  • scroll+size在ES查询数据的方式:

    • 第一步现将用户指定的关键进行分词。
    • 第二步将词汇去分词库中进行检索,得到多个文档的id(默认根据一定的方式排好顺序)。
    • 第三步将文档的id存放在一个ES的上下文中(理解ES的内存中)。
    • 第四步根据你指定的size的个数去ES中检索指定个数的数据,拿完数据的文档id,会从上下文中移除。
    • 第五步如果需要下一页数据,直接去ES的上下文中,找后续内容。
    • 第六步循环第四步和第五步 , 直到上下文中的数据拿空为止

Scroll查询方式,适合做后台管理时使用 , 不适合做实时的查询 , Scroll查询每次都是在上下文中去找 , 效率是提高的 , 但是所查询到的数据并不是最新的 ,

# 执行scroll查询,返回第一页数据,并且将文档id信息存放在ES上下文中,指定生存时间1m
POST /sms-logs-index/sms-logs-type/_search?scroll=1m
{"query": {"match_all": {}},"size": 2,"sort": [                 # 排序{"fee": {"order": "desc"}}]
}# 根据scroll查询下一页数据
POST /_search/scroll
{"scroll_id": "<根据第一步得到的scorll_id去指定>","scroll": "<scroll信息的生存时间>"
}# 删除scroll在ES上下文中的数据
DELETE /_search/scroll/scroll_id
效果图
效果图

当在生存时间内查询到想要的数据 , 可以手动删除scroll_id , 避免长时间占用内存

效果图

代码实现方式

// Java实现scroll分页
@Test
public void scrollQuery() throws IOException {//1. 创建SearchRequestSearchRequest request = new SearchRequest(index);request.types(type);//2. 指定scroll信息request.scroll(TimeValue.timeValueMinutes(1L));//3. 指定查询条件SearchSourceBuilder builder = new SearchSourceBuilder();builder.size(4);builder.sort("fee", SortOrder.DESC);builder.query(QueryBuilders.matchAllQuery());request.source(builder);//4. 获取返回结果scrollId,sourceSearchResponse resp = client.search(request, RequestOptions.DEFAULT);String scrollId = resp.getScrollId();System.out.println("----------首页---------");for (SearchHit hit : resp.getHits().getHits()) {System.out.println(hit.getSourceAsMap());}while(true) {//5. 循环 - 创建SearchScrollRequestSearchScrollRequest scrollRequest = new SearchScrollRequest(scrollId);//6. 指定scrollId的生存时间scrollRequest.scroll(TimeValue.timeValueMinutes(1L));//7. 执行查询获取返回结果SearchResponse scrollResp = client.scroll(scrollRequest, RequestOptions.DEFAULT);//8. 判断是否查询到了数据,输出SearchHit[] hits = scrollResp.getHits().getHits();if(hits != null && hits.length > 0) {System.out.println("----------下一页---------");for (SearchHit hit : hits) {System.out.println(hit.getSourceAsMap());}}else{//9. 判断没有查询到数据-退出循环System.out.println("----------结束---------");break;}}//10. 创建CLearScrollRequest删除scrollClearScrollRequest clearScrollRequest = new ClearScrollRequest();//11. 指定ScrollIdclearScrollRequest.addScrollId(scrollId);//12. 删除ScrollIdClearScrollResponse clearScrollResponse = client.clearScroll(clearScrollRequest, RequestOptions.DEFAULT);//13. 输出结果System.out.println("删除scroll:" + clearScrollResponse.isSucceeded());}

6.5 delete-by-query

根据查询方式, ,删除查询出的所有文档

Ps:如果你需要删除的内容,是索引下的大部分数据,推荐创建一个全新的index,将保留的文档内容,添加到全新的索引, 然后删除原索引下的全部数据

# delete-by-query
POST /sms-logs-index/sms-logs-type/_delete_by_query
{"query": {"range": {"fee": {"lt": 4}}}
}

代码实现方式

// Java代码实现
@Test
public void deleteByQuery() throws IOException {//1. 创建DeleteByQueryRequestDeleteByQueryRequest request = new DeleteByQueryRequest(index);request.types(type);//2. 指定检索的条件    和SearchRequest指定Query的方式不一样request.setQuery(QueryBuilders.rangeQuery("fee").lt(4));//3. 执行删除BulkByScrollResponse resp = client.deleteByQuery(request, RequestOptions.DEFAULT);//4. 输出返回结果System.out.println(resp.toString());}

6.6 复合查询

6.6.1 bool查询

复合过滤器,将你的多个查询条件,以一定的逻辑组合在一起。

  • must: 所有的条件,用must组合在一起,表示And的意思 所有条件都要符合
  • must_not:将must_not中的条件,全部都不能匹配,标识Not的意思 匹配上不要了
  • should:所有的条件,用should组合在一起,表示Or的意思
# 查询省份为武汉或者北京  OR
# 运营商不是联通  NOT
# smsContent中包含中国和平安  AND
# bool查询
POST /sms-logs-index/sms-logs-type/_search
{"query": {"bool": {"should": [{"term": {"province": {"value": "北京"}}},{"term": {"province": {"value": "武汉"}}}],"must_not": [{"term": {"operatorId": {"value": "2"}}}],"must": [{"match": {"smsContent": "中国"}},{"match": {"smsContent": "平安"}}]}}
}

代码实现方式

// Java代码实现Bool查询
@Test
public void BoolQuery() throws IOException {//1. 创建SearchRequestSearchRequest request = new SearchRequest(index);request.types(type);//2. 指定查询条件SearchSourceBuilder builder = new SearchSourceBuilder();BoolQueryBuilder boolQuery = QueryBuilders.boolQuery();// # 查询省份为武汉或者北京boolQuery.should(QueryBuilders.termQuery("province","武汉"));boolQuery.should(QueryBuilders.termQuery("province","北京"));// # 运营商不是联通boolQuery.mustNot(QueryBuilders.termQuery("operatorId",2));// # smsContent中包含中国和平安boolQuery.must(QueryBuilders.matchQuery("smsContent","中国"));boolQuery.must(QueryBuilders.matchQuery("smsContent","平安"));builder.query(boolQuery);request.source(builder);//3. 执行查询SearchResponse resp = client.search(request, RequestOptions.DEFAULT);//4. 输出结果for (SearchHit hit : resp.getHits().getHits()) {System.out.println(hit.getSourceAsMap());}
}
6.6.2 boosting查询

boosting查询可以帮助我们去影响查询后的_score。

  • positive:只有匹配上positive的查询的内容,才会被放到返回的结果集中。
  • negative:如果匹配上positive并且也匹配上了negative,就可以降低这样的文档score。
  • negative_boost:指定系数,必须小于1.0

关于查询时,分数是如何计算的:

  • 搜索的关键字在文档中出现的频次越高,分数就越高
  • 指定的文档内容越短,分数就越高
  • 我们在搜索时,指定的关键字也会被分词,这个被分词的内容,被分词库匹配的个数越多,分数越高
效果图
# boosting查询  收货安装
POST /sms-logs-index/sms-logs-type/_search
{"query": {"boosting": {"positive": {"match": {"smsContent": "收货安装"}},"negative": {"match": {"smsContent": "王五"}},"negative_boost": 0.5}}
}
效果图

代码实现方式

// Java实现Boosting查询
@Test
public void BoostingQuery() throws IOException {//1. 创建SearchRequestSearchRequest request = new SearchRequest(index);request.types(type);//2. 指定查询条件SearchSourceBuilder builder = new SearchSourceBuilder();BoostingQueryBuilder boostingQuery = QueryBuilders.boostingQuery(QueryBuilders.matchQuery("smsContent", "收货安装"),QueryBuilders.matchQuery("smsContent", "王五")).negativeBoost(0.5f);builder.query(boostingQuery);request.source(builder);//3. 执行查询SearchResponse resp = client.search(request, RequestOptions.DEFAULT);//4. 输出结果for (SearchHit hit : resp.getHits().getHits()) {System.out.println(hit.getSourceAsMap());}
}

6.7 filter查询

过滤器查询 与query查询做对比

query,根据你的查询条件,去计算文档的匹配度得到一个分数,并且根据分数进行排序,不会做缓存的。查询效率相对较低 , 但是匹配度较高 , 结果更精准

filter,根据你的查询条件去查询文档,不去计算分数,不需要排序 , 而且filter会对经常被过滤的数据进行缓存。查询效率相对较高 , 但是不会关注匹配度

# filter查询
POST /sms-logs-index/sms-logs-type/_search
{"query": {"bool": {    #以方便添加多个filter过滤方法"filter": [{"term": {"corpName": "盒马鲜生"}},{"range": {"fee": {"lte": 5}}}]}}
}
效果图

代码实现方式

// Java实现filter操作
@Test
public void filter() throws IOException {//1. SearchRequestSearchRequest request = new SearchRequest(index);request.types(type);//2. 查询条件SearchSourceBuilder builder = new SearchSourceBuilder();BoolQueryBuilder boolQuery = QueryBuilders.boolQuery();boolQuery.filter(QueryBuilders.termQuery("corpName","盒马鲜生"));boolQuery.filter(QueryBuilders.rangeQuery("fee").lte(5));builder.query(boolQuery);request.source(builder);//3. 执行查询SearchResponse resp = client.search(request, RequestOptions.DEFAULT);//4. 输出结果for (SearchHit hit : resp.getHits().getHits()) {System.out.println(hit.getSourceAsMap());}}

6.8 高亮查询【重点

高亮查询就是你用户输入的关键字,以一定的特殊样式(红颜色字体)展示给用户,让用户知道为什么这个结果被检索出来。

高亮展示的数据,本身就是文档中的一个Field,指定某一个field , 单独将Field以"highlight"的形式返回 , 不会影响原来的返回结果。

原来的hits该怎么返回怎么返回 , 在最后面追加一块高亮返回关键字的结果

ES提供了一个highlight属性,和query同级别的。

  • fragment_size:指定高亮数据展示多少个字符回来。
  • pre_tags:指定前缀标签,举个栗子< font color=“red” >
  • post_tags:指定后缀标签,举个栗子< /font >
  • fields:指定哪几个Field以高亮形式返回
效果图

RESTful实现

# highlight查询
POST /sms-logs-index/sms-logs-type/_search
{"query": {"match": {"smsContent": "盒马"}},"highlight": {"fields": {"smsContent": {}},"pre_tags": "<font color='red'>","post_tags": "</font>","fragment_size": 10}
}
效果图

代码实现方式

// Java实现高亮查询
@Test
public void highLightQuery() throws IOException {//1. SearchRequestSearchRequest request = new SearchRequest(index);request.types(type);//2. 指定查询条件(高亮)SearchSourceBuilder builder = new SearchSourceBuilder();//2.1 指定查询条件builder.query(QueryBuilders.matchQuery("smsContent","盒马"));//2.2 指定高亮HighlightBuilder highlightBuilder = new HighlightBuilder();highlightBuilder.field("smsContent",10).preTags("<font color='red'>").postTags("</font>");builder.highlighter(highlightBuilder);request.source(builder);//3. 执行查询SearchResponse resp = client.search(request, RequestOptions.DEFAULT);//4. 获取高亮数据,输出for (SearchHit hit : resp.getHits().getHits()) {System.out.println(hit.getHighlightFields().get("smsContent"));}
}

6.9 聚合查询【重点

ES的聚合查询和MySQL的聚合查询类似,ES的聚合查询相比MySQL要强大的多,ES提供的统计数据的方式多种多样。

# ES聚合查询的RESTful语法
POST /index/type/_search
{"aggs": {"名字(agg)": {"agg_type": {"属性": "值"}}}
}
6.9.1 Cardinality去重计数查询

去重计数,即Cardinality,将返回的文档中的一个指定的field进行去重,统计一共有多少条

例如 : 目前又20条数据 ,我想查看province字段出现几次 , 或者说有数据的province一共又几个省份?

# 去重计数查询 北京 上海 武汉 山西
POST /sms-logs-index/sms-logs-type/_search
{"aggs": {"agg": {"cardinality": {"field": "province"}}}
}
效果图

代码实现方式

//  Java代码实现去重计数查询
@Test
public void cardinality() throws IOException {//1. 创建SearchRequestSearchRequest request = new SearchRequest(index);request.types(type);//2. 指定使用的聚合查询方式SearchSourceBuilder builder = new SearchSourceBuilder();builder.aggregation(AggregationBuilders.cardinality("agg").field("province"));request.source(builder);//3. 执行查询SearchResponse resp = client.search(request, RequestOptions.DEFAULT);//4. 获取返回结果Cardinality agg = resp.getAggregations().get("agg");long value = agg.getValue();System.out.println(value);
}
6.9.2 范围统计

统计一定范围内出现的文档个数,比如,针对某一个Field的值在 0100,100200,200~300之间文档出现的个数分别是多少。

范围统计可以针对普通的数值,针对时间类型,针对ip类型都可以做相应的统计。

range,date_range,ip_range

数值统计

查询ee字段的 0-5有多少 5-10的有多少 >10的 有多少

# 数值方式范围统计
POST /sms-logs-index/sms-logs-type/_search
{"aggs": {"agg": {"range": {"field": "fee","ranges": [{"to": 5},{"from": 5,    # from有包含当前值的意思  "to": 10},{"from": 10}]}}}
}
效果图

时间范围统计

统计2000年前创建的有多少 ,2000年后创建的有多少

format格式化时间 可以指定yyyy, yyyy-MM, yyyy-MM-dd

# 时间方式范围统计
POST /sms-logs-index/sms-logs-type/_search
{"aggs": {"agg": {"date_range": {"field": "createDate","format": "yyyy", "ranges": [{"to": 2000},{"from": 2000}]}}}
}
效果图

ip统计方式

# ip方式 范围统计
POST /sms-logs-index/sms-logs-type/_search
{"aggs": {"agg": {"ip_range": {"field": "ipAddr","ranges": [{"to": "10.126.2.9"},{"from": "10.126.2.9"}]}}}
}
效果图

代码实现方式

// Java实现数值 范围统计
@Test
public void range() throws IOException {//1. 创建SearchRequestSearchRequest request = new SearchRequest(index);request.types(type);//2. 指定使用的聚合查询方式SearchSourceBuilder builder = new SearchSourceBuilder();//---------------------------------------------builder.aggregation(AggregationBuilders.range("agg").field("fee").addUnboundedTo(5).addRange(5,10).addUnboundedFrom(10));//---------------------------------------------request.source(builder);//3. 执行查询SearchResponse resp = client.search(request, RequestOptions.DEFAULT);//4. 获取返回结果Range agg = resp.getAggregations().get("agg");//见下图for (Range.Bucket bucket : agg.getBuckets()) {String key = bucket.getKeyAsString();Object from = bucket.getFrom();Object to = bucket.getTo();long docCount = bucket.getDocCount();System.out.println(String.format("key:%s,from:%s,to:%s,docCount:%s",key,from,to,docCount));}
}
效果图
6.9.3 extended_stats统计聚合查询

他可以帮你查询指定Field的最大值,最小值,平均值,平方和等

使用:extended_stats

# 统计聚合查询
POST /sms-logs-index/sms-logs-type/_search
{"aggs": {"agg": {"extended_stats": {"field": "fee"}}}
}
效果图

代码实现方式

// Java实现统计聚合查询
@Test
public void extendedStats() throws IOException {//1. 创建SearchRequestSearchRequest request = new SearchRequest(index);request.types(type);//2. 指定使用的聚合查询方式SearchSourceBuilder builder = new SearchSourceBuilder();//---------------------------------------------builder.aggregation(AggregationBuilders.extendedStats("agg").field("fee"));//---------------------------------------------request.source(builder);//3. 执行查询SearchResponse resp = client.search(request, RequestOptions.DEFAULT);//4. 获取返回结果ExtendedStats agg = resp.getAggregations().get("agg");double max = agg.getMax();double min = agg.getMin();System.out.println("fee的最大值为:" + max + ",最小值为:" + min);
}

其他的聚合查询方式查看官方文档:https://www.elastic.co/guide/en/elasticsearch/reference/6.5/index.html

6.10 地图经纬度搜索

ES中提供了一个数据类型 geo_point,这个类型就是用来存储经纬度的。

创建一个带geo_point类型的索引,并添加测试数据

# 创建一个索引,指定一个name,locaiton
PUT /map
{"settings": {"number_of_shards": 5,"number_of_replicas": 1},"mappings": {"map": {"properties": {"name": {"type": "text"},"location": {"type": "geo_point"}}}}
}# 添加测试数据
PUT /map/map/1
{"name": "天安门","location": {"lon": 116.403981,"lat": 39.914492 }
}PUT /map/map/2
{"name": "海淀公园","location": {"lon": 116.302509,"lat": 39.991152 }
}PUT /map/map/3
{"name": "北京动物园","location": {"lon": 116.343184,"lat": 39.947468 }
}
6.10.1 ES的地图检索方式
语法 说明
geo_distance 直线距离检索方式(筛选离我多远的商家)
geo_bounding_box 以左上角和右下角两个点确定一个矩形,获取在矩形内的全部数据(经纬度)
geo_polygon 以多个点,确定一个多边形,获取多边形内的全部数据
geo_distance
geo_bounding_box
geo_polygon
6.10.2 基于RESTful实现地图检索

geo_distance

# geo_distance
POST /map/map/_search
{"query": {"geo_distance": {"location": {             # 确定一个点"lon": 116.433733,"lat": 39.908404},"distance": 3000,           # 确定半径"distance_type": "arc"     # 指定形状为圆形}}
}

geo_bounding_box

# geo_bounding_box
POST /map/map/_search
{"query": {"geo_bounding_box": {"location": {"top_left": {              # 左上角的坐标点"lon": 116.326943,"lat": 39.95499},"bottom_right": {          # 右下角的坐标点"lon": 116.433446,"lat": 39.908737}}}}
}

geo_polygon

# geo_polygon
POST /map/map/_search
{"query": {"geo_polygon": {"location": {"points": [                 # 指定多个点确定一个多边形{"lon": 116.298916,"lat": 39.99878},{"lon": 116.29561,"lat": 39.972576},{"lon": 116.327661,"lat": 39.984739}]}}}
}
6.10.3 Java实现geo_polygon
// 基于Java实现geo_polygon查询
@Test
public void geoPolygon() throws IOException {//1. SearchRequestSearchRequest request = new SearchRequest(index);request.types(type);//2. 指定检索方式SearchSourceBuilder builder = new SearchSourceBuilder();List<GeoPoint> points = new ArrayList<>();points.add(new GeoPoint(39.99878,116.298916));points.add(new GeoPoint(39.972576,116.29561));points.add(new GeoPoint(39.984739,116.327661));builder.query(QueryBuilders.geoPolygonQuery("location",points));request.source(builder);//3. 执行查询SearchResponse resp = client.search(request, RequestOptions.DEFAULT);//4. 输出结果for (SearchHit hit : resp.getHits().getHits()) {System.out.println(hit.getSourceAsMap());}
}

4-6 ElasticSearch相关推荐

  1. Elasticsearch学习之路(一)

    一.前序 1.1正向索引和倒排索引 ** 正向索引通常用于数据库中,在搜索引擎领域使用的最多的就是倒排索引 ** 通过例子表示: 我爱编程, 我爱编程,我是小码农 1.1.1 正向索引 假设我们使用m ...

  2. 2021年大数据ELK(二十五):添加Elasticsearch数据源

    全网最详细的大数据ELK文章系列,强烈建议收藏加关注! 新文章都已经列出历史文章目录,帮助大家回顾前面的知识重点. 目录 添加Elasticsearch数据源 一.Kibana索引模式 添加Elast ...

  3. 2021年大数据ELK(十九):使用FileBeat采集Kafka日志到Elasticsearch

    全网最详细的大数据ELK文章系列,强烈建议收藏加关注! 新文章都已经列出历史文章目录,帮助大家回顾前面的知识重点. 目录 使用FileBeat采集Kafka日志到Elasticsearch 一.需求分 ...

  4. 2021年大数据ELK(十七):Elasticsearch SQL 订单统计分析案例

    全网最详细的大数据ELK文章系列,强烈建议收藏加关注! 新文章都已经列出历史文章目录,帮助大家回顾前面的知识重点. 目录 订单统计分析案例 一.案例介绍 二.创建索引 三.导入测试数据 四.统计不同支 ...

  5. 2021年大数据ELK(十六):Elasticsearch SQL(职位查询案例)

    全网最详细的大数据ELK文章系列,强烈建议收藏加关注! 新文章都已经列出历史文章目录,帮助大家回顾前面的知识重点. 目录 职位查询案例 一.查询职位索引库中的一条数据 二.将SQL转换为DSL 三.职 ...

  6. 2021年大数据ELK(十五):Elasticsearch SQL简单介绍

    全网最详细的大数据ELK文章系列,强烈建议收藏加关注! 新文章都已经列出历史文章目录,帮助大家回顾前面的知识重点. 目录 Elasticsearch SQL简单介绍 一.SQL与Elasticsear ...

  7. 2021年大数据ELK(十三):Elasticsearch编程(添加职位数据)

    全网最详细的大数据ELK文章系列,强烈建议收藏加关注! 新文章都已经列出历史文章目录,帮助大家回顾前面的知识重点. 目录 Elasticsearch编程 一.添加职位数据 1.初始化客户端连接 2.实 ...

  8. 2021年大数据ELK(十二):Elasticsearch编程(环境准备)

    全网最详细的大数据ELK文章系列,强烈建议收藏加关注! 新文章都已经列出历史文章目录,帮助大家回顾前面的知识重点. 目录 Elasticsearch编程 一.环境准备 1.准备IDEA项目结构 2.准 ...

  9. 2021年大数据ELK(十一):Elasticsearch架构原理

    全网最详细的大数据ELK文章系列,强烈建议收藏加关注! 新文章都已经列出历史文章目录,帮助大家回顾前面的知识重点. 目录 Elasticsearch架构原理 一.Elasticsearch的节点类型 ...

  10. 2021年大数据ELK(八):Elasticsearch安装IK分词器插件

    全网最详细的大数据ELK文章系列,强烈建议收藏加关注! 新文章都已经列出历史文章目录,帮助大家回顾前面的知识重点. 目录 系列历史文章 安装IK分词器 一.下载Elasticsearch IK分词器 ...

最新文章

  1. valgrind 使用 kcachegrind 查看函数运行时间
  2. 疯狂ios讲义疯狂连载之游戏的状态数据模型
  3. LeetCode【位运算】371. 两整数之和
  4. 皮一皮:唉唉...这钱还没收呢...
  5. c# 替换html注释,C# 替换div标签
  6. mui框架下监听返回按钮
  7. bind_param 类怎么写_情感类自媒体怎么写?你不知道的情感类文章4大禁忌!
  8. 关于 try catch 捕捉不到异常
  9. Linux安装谷歌拼音中文输入法
  10. 2016版Excel加载宏实现加载空间分析库
  11. Intel XTU 开机自启
  12. 【Qt】Qt 开发环境安装 ( Qt 版本 5.14.2 | Qt 下载 | Qt 安装 )
  13. 找商网获得找商网商品详情 API 返回值说明
  14. python pppoe拨号_Python实现PPPOE攻击工具
  15. 【转】MT7688学习笔记(6)——OpenWrt下串口编程
  16. 信息学奥赛一本通:1147:最高分数的学生姓名
  17. c 语言友元函数重载,C++友元函数重载++和--运算符
  18. 如何一键处理掉Excel表格中的地域词?
  19. 什么能力很重要,但绝大多数人却没有?
  20. 1.Postman之发送get请求

热门文章

  1. 《实时控制软件设计》第一次编程作业
  2. 控制系统稳态误差(静态误差)分析
  3. 描述性统计部分(一)----统计量
  4. 华为机试:DNA序列
  5. docker安装konga系统
  6. 212实验室日记04
  7. Maven配置中央仓库
  8. Gerrit版本升级
  9. 社会分工的理想与现实
  10. linux命令大全——文件编辑相关指令