谷粒商城微服务分布式高级篇ElasticSearch三——Dcoker安装ES及ES检索语法
文章目录
- Docker安装ES&kibban
- Elasticsearch安装
- kibban安装
- IK分词器安装
- Nginx安装
- 检索
- 1、查看es中有哪些索引
- 2、增加一个索引(库)
- 3、删除一个索引
- 4、新增文档
- 5、直接用id查找
- 6、修改—整体替换
- 7、修改—某个字段
- 8、删除一个document
- 9、搜索全部数据
- 10、匹配条件查询(全部)
- 11、按分词查询
- 12、按分词子属性查询
- 13、按短语查询
- 14 、校正匹配分词
- 15 、过滤--查询后过滤
- 16、过滤--查询前过滤
- 17、过滤--按范围过滤
- 18、排序
- 19、分页查询
- 20、指定查询的字段
- 21、高亮
- 23、复杂查询
- 24、聚合
- 复杂检索
- 1、BulkAPI实现批量操作
- 2、聚合查询
- 3、子聚合
Docker安装ES&kibban
Elasticsearch安装
安装指定版本
docker pull elasticsearch:7.4.2
创建目录
注意这里路径要与启动时指定路径一致
mkdir -p /mydata/elasticsearch/data
mkdir -p /mydata/elasticsearch/config
授权
chmod 777 /mydata/elasticsearch/config/
chmod 777 /mydata/elasticsearch/data/
启动并映射主机目录
docker run -d --name elasticsearch -p 9200:9200 -p 9300:9300 -e "discovery.type=single-node" -e ES_JAVA_OPTS="-Xms128m -Xmx512m" -v /mydata/elasticsearch/data:/usr/share/elasticsearch/data -v/mydata/elasticsearch/plugins:/usr/share/elasticsearch/plugins -d elasticsearch:7.4.2
参数解析:
-d 后台运行
–name docker容器名称
-p 映射端口
-e 环境变量
ES_JAVA_OPTS 内存大小
最后是刚刚pull下来的镜像和版本号
错误:
Caused by: java.nio.file.AccessDeniedException: /usr/share/elasticsearch/data/nodes
主机文件夹权限不够,无法写入
解决:
chmod 777 /mydata/elasticsearch/config/
chmod 777 /mydata/elasticsearch/data/
虚拟机验证
curl http://localhost:9200
启动成功
{"name" : "1028c123ceae","cluster_name" : "docker-cluster","cluster_uuid" : "Wmkul_5uSI-erD8iF7hvow","version" : {"number" : "7.4.2","build_flavor" : "default","build_type" : "docker","build_hash" : "2f90bbf7b93631e52bafb59b3b049cb44ec25e96","build_date" : "2019-10-28T20:40:44.881551Z","build_snapshot" : false,"lucene_version" : "8.2.0","minimum_wire_compatibility_version" : "6.8.0","minimum_index_compatibility_version" : "6.0.0-beta1"},"tagline" : "You Know, for Search"
}
主机浏览器验证
浏览器输入http://localhost:9200/
也是同样JSON
kibban安装
拉取
docker pull kibana:7.4.2
启动kibana并关联elasticsearch 修改ip为自己虚拟机ip地址
docker run -d -p 5601:5601 --link elasticsearch -e "ELASTICSEARCH_URL=http://虚拟机ip地址:9200" kibana:7.4.2
启动Kibana之后就能看到界面了
访问:虚拟机ip地址:5601
可以看到kibana英文页面,要设置成中文,因为没有挂载目录则需要进入kibana容器内部
1、进入容器
docker exec -it [你的容器id] /bin/bash
2、编辑kibana.yml
vi /usr/share/kibana/config/kibana.yml
3、在最后一行加入i18n.locale: zh-CN 注意冒号后边有个空格
4、保存后退出kibana容器
exit
5、重启kibana容器
docker restart [你的容器id]
6、访问kibana 开发工具页面
IK分词器安装
IK分词器GitHUb
如果启动时容器有映射文件到虚拟机 -v/mydata/elasticsearch/plugins:/usr/share/elasticsearch/plugins
则可以直接在window下下载对应版本IK并解压上传到虚拟机映射目录即安装成功(一定需要对应es版本安装)
连接问题,设置密码登录,即可使用xftp上传文件
如果启动时没有映射目录
1、进入es容器内部plugins目录
docker exec -it 容器ID /bin/bash
2、下载安装包
wget https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v7.4.2/elasticsearch-analysis-ik-7.4.2.zip
报错:wget: command not found
解决:yum -y install wget
解压
unzip 下载的文件
删除安装包
rm -rf *.zip
重名命为IK(可省略)
mv elasticsearch/ik
确定安装好了分词器,去到es的bin目录下
elasticsearch-plugin list
即可列出系统的分词器 安装成功
kibana验证(记得重启es容器)
创建索引,默认分词
PUT my_index
GET my_index/_analyze
{"text": "我是中国人"
}
结果
{"tokens" : [{"token" : "我","start_offset" : 0,"end_offset" : 1,"type" : "CN_CHAR","position" : 0},{"token" : "是","start_offset" : 1,"end_offset" : 2,"type" : "CN_CHAR","position" : 1},{"token" : "中国人","start_offset" : 2,"end_offset" : 5,"type" : "CN_WORD","position" : 2},{"token" : "中国","start_offset" : 2,"end_offset" : 4,"type" : "CN_WORD","position" : 3},{"token" : "国人","start_offset" : 3,"end_offset" : 5,"type" : "CN_WORD","position" : 4}]
}
指定ik_smart
会做最粗粒度的拆分,比如会将“中华人民共和国人民大会堂”拆分为中华人民共和国、人民大会堂
GET my_index/_analyze
{"analyzer": "ik_smart", "text": "我是中国人"
}
结果
{"tokens" : [{"token" : "我","start_offset" : 0,"end_offset" : 1,"type" : "CN_CHAR","position" : 0},{"token" : "是","start_offset" : 1,"end_offset" : 2,"type" : "CN_CHAR","position" : 1},{"token" : "中国人","start_offset" : 2,"end_offset" : 5,"type" : "CN_WORD","position" : 2}]
}
指定ik_max_word
会将文本做最细粒度的拆分,比如会将“中华人民共和国人民大会堂”拆分为“中华人民共和国、中华人民、中华、华人、人民共和国、人民、共和国、大会堂、大会、会堂等词语
GET my_index/_analyze
{"analyzer": "ik_max_word", "text": "我是中国人"
}
结果
{"tokens" : [{"token" : "我","start_offset" : 0,"end_offset" : 1,"type" : "CN_CHAR","position" : 0},{"token" : "是","start_offset" : 1,"end_offset" : 2,"type" : "CN_CHAR","position" : 1},{"token" : "中国人","start_offset" : 2,"end_offset" : 5,"type" : "CN_WORD","position" : 2},{"token" : "中国","start_offset" : 2,"end_offset" : 4,"type" : "CN_WORD","position" : 3},{"token" : "国人","start_offset" : 3,"end_offset" : 5,"type" : "CN_WORD","position" : 4}]
}
Nginx安装
实现远程词库
为什么要用远程词库?
过滤一些不能够出现的词语,以及一些流行词语
实现方式:将远程词库放在Nginx中当静态资源使用,这样添加的词语不用重启两个服务都就可以直接使用
1、拉取nginx
docker pull nginx:1.10
2、启动nginx
docker run -p 80:80 --name nginx -d nginx:1.10
这里只是随便启动一个nginx,只是为了复制出配置
3、复制配置
将容器中文件复制到当前目录(.)注意是空格一个点
docker container cp nginx:/etc/nginx .
docker container cp 容器:容器文件 虚拟机位置------复制容器文件到虚拟机 虚拟机位置使用点(.)代表当前位置
可以在nginx目录下看到复制成功的配置
drwxr-xr-x. 2 root root 4096 3月 28 2017 conf.d
-rw-r--r--. 1 root root 1007 1月 31 2017 fastcgi_params
-rw-r--r--. 1 root root 2837 1月 31 2017 koi-utf
-rw-r--r--. 1 root root 2223 1月 31 2017 koi-win
-rw-r--r--. 1 root root 3957 1月 31 2017 mime.types
lrwxrwxrwx. 1 root root 22 1月 31 2017 modules -> /usr/lib/nginx/modules
-rw-r--r--. 1 root root 643 1月 31 2017 nginx.conf
-rw-r--r--. 1 root root 636 1月 31 2017 scgi_params
-rw-r--r--. 1 root root 664 1月 31 2017 uwsgi_params
-rw-r--r--. 1 root root 3610 1月 31 2017 win-utf
4、停止删除nginx容器
[root@daihao mydata]# docker stop 5d
5d
[root@daihao mydata]# docker rm 5d
5d
5、修改文件名
[root@daihao mydata]# ls
elasticsearch nginx
[root@daihao mydata]# mv nginx conf
[root@daihao mydata]# ls
conf elasticsearc
[root@daihao mydata]# mkdir nginx
[root@daihao mydata]# ls
conf elasticsearch nginx
[root@daihao mydata]# mv conf nginx/
[root@daihao mydata]# ls
elasticsearch nginx
[root@daihao mydata]# cd nginx/
[root@daihao nginx]# ls
conf
6、运行容器挂载目录
docker run -p 80:80 --name nginx -v /mydata/nginx/html:/usr/share/nginx/html -v /mydata/nginx/logs:/var/log/nginx -v /mydata/nginx/conf:/etc/nginx -d nginx:1.10
7、测试
在/mydata/nginx/html下新建一个index.html
vi index.html
键入任意html
浏览器测试 ip:80
创建fenci.txt 自定义分词文件键入想要分词的词语如 乔碧罗
[root@daihao nginx]# cd html/
[root@daihao html]# ls
index.html
[root@daihao html]# mkdir es
[root@daihao html]# ls
es index.html
[root@daihao html]# cd es
[root@daihao es]# vi fenci.txt
测试:http://192.168.175.130/es/fengci.txt
修改 IKAnalyzer.cfg.xml
[root@daihao es]# cd /mydata/
[root@daihao mydata]# ls
elasticsearch nginx
[root@daihao mydata]# cd elasticsearch/plugins/elasticsearch-analysis-ik-7.4.2/
[root@daihao elasticsearch-analysis-ik-7.4.2]# ls
commons-codec-1.9.jar config httpclient-4.5.2.jar plugin-descriptor.properties
commons-logging-1.2.jar elasticsearch-analysis-ik-7.4.2.jar httpcore-4.4.4.jar plugin-security.policy
[root@daihao elasticsearch-analysis-ik-7.4.2]# cd config/
[root@daihao config]# ls
extra_main.dic extra_single_word_full.dic extra_stopword.dic main.dic quantifier.dic suffix.dic
extra_single_word.dic extra_single_word_low_freq.dic IKAnalyzer.cfg.xml preposition.dic stopword.dic surname.dic
[root@daihao config]# vi IKAnalyzer.cfg.xml
修改远程词库地址为nginx文件地址
重启es容器
docker restart id
kibana测试
GET my_index/_analyze
{"analyzer": "ik_max_word", "text": "乔碧罗殿下"
}
结果
{"tokens" : [{"token" : "乔碧罗","start_offset" : 0,"end_offset" : 3,"type" : "CN_WORD","position" : 0},{"token" : "殿下","start_offset" : 3,"end_offset" : 5,"type" : "CN_WORD","position" : 1}]
}
成功~~~
安装可能使用命令可参见Linux命令记录
检索
1、查看es中有哪些索引
GET /_cat/indices?v
es 中会默认存在一个名为.kibana的索引
表头的含义
名 | 义 |
---|---|
health | green(集群完整) yellow(单点正常、集群不完整) red(单点不正常) |
status | 是否能使用 |
index | 索引名 |
uuid | 索引统一编号 |
pri | 主节点几个 |
rep | 从节点几个 |
docs.count | 文档数 |
docs.deleted | 文档被删了多少 |
store.size | 整体占空间大小 |
pri.store.size | 主节点占 |
cluster | 整个elasticsearch 默认就是集群状态,整个集群是一份完整、互备的数据。 |
node | 集群中的一个节点,一般只一个进程就是一个node |
shard | 分片,即使是一个节点中的数据也会通过hash算法,分成多个片存放,默认是5片。 |
index | 相当于rdbms的database, 对于用户来说是一个逻辑数据库,虽然物理上会被分多个shard存放,也可能存放在多个node中。 |
type | 类似于rdbms的table,但是与其说像table,其实更像面向对象中的class , 同一Json的格式的数据集合。 |
Document(json) | 类似于rdbms的 row、面向对象里的object |
field | 相当于字段、属性 |
2、增加一个索引(库)
PUT /movie_index
3、删除一个索引
ES 是不删除也不修改任何数据
DELETE /movie_index
4、新增文档
原有格式
PUT /index/type/id
保存在哪个索引(库)/ 哪个类型下 / 指定具体标识
注意
elasticsearch 在第一个版本的开始 每个文档都储存在一个索引中,并分配一个 映射类型,映射类型用于表示被索引的文档或者实体的类型,这样带来了一些问题 ,导致后来在 elasticsearch6.0.0 版本中一个文档只能包含一个映射类型,而在 7.0.0 中,映射类型则将被弃用,到了 8.0.0 中则将完全被删除。
所以使用type则会警告 但是不会报错
解释一下警告信息:
#! Deprecation: [types removal] Specifying types in document index requests is deprecated, use the typeless endpoints instead (/{index}/_doc/{id}, /{index}/_doc, or /{index}/_create/{id}).#!Deprecation: [types removal]不支持在文档索引请求中指定类型,而是使用无类型的端点(/{index}/_doc/{id}, /{index}/_doc,或/{index}/_create/{id})。
#! Deprecation: [types removal] Specifying types in search requests is deprecated.#!Deprecation: [types removal]不赞成在搜索请求中指定类型
就是告诉你_type快没用了。以后都不会有_type而是写死_doc
PUT /index/_doc/id
例:
PUT /movie_index/_doc/1
{"id": 1,"name": "红海行动","doubanScore": 8.5,"actorList": [{"id": 1,"name": "张译"},{"id": 2,"name": "海清"},{"id": 3,"name": "张涵予"}]
}
PUT /movie_index/_doc/2
{"id": 2,"name": "湄公河事件","doubanScore": 8.0,"actorList": [{"id": 3,"name": "张涵予"}]
}
PUT /movie_index/_doc/3
{"id": 3,"name": "红海事件","doubanScore": 5.0,"actorList": [{"id": 4,"name": "代号"}, {"id": 5,"name": "刘德华"}]
}
如果之前没建过index或者type,es 会自动创建。
5、直接用id查找
GET movie_index/_doc/1
6、修改—整体替换
和新增没有区别
PUT /movie_index/_doc/3
{"id": 3,"name": "红海事件","doubanScore": 5.0,"actorList": [{"id": 4,"name": "代号"}, {"id": 5,"name": "刘德华"}]
}
7、修改—某个字段
POST movie_index/_update/3/
{ "doc": {"doubanScore":"7.0"}
}
8、删除一个document
DELETE movie_index/_doc/3
9、搜索全部数据
GET movie_index/_doc/_search
结果
{"took" : 1, //耗费时间 毫秒"timed_out" : false, //是否超时"_shards" : {"total" : 1, //发送给全部1个分片"successful" : 1,"skipped" : 0,"failed" : 0},"hits" : {"total" : {"value" : 3, //命中3条数据"relation" : "eq"},"max_score" : 1.0,"hits" : [ //结果{"_index" : "movie_index","_type" : "_doc","_id" : "1","_score" : 1.0,"_source" : {"id" : 1,"name" : "红海行动","doubanScore" : 8.5,"actorList" : [{"id" : 1,"name" : "张1译"},{"id" : 2,"name" : "海清"},{"id" : 3,"name" : "张涵予"}]}},{"_index" : "movie_index","_type" : "_doc","_id" : "2","_score" : 1.0,"_source" : {"id" : 2,"name" : "湄公河事件","doubanScore" : 8.0,"actorList" : [{"id" : 3,"name" : "张涵予"}]}},{"_index" : "movie_index","_type" : "_doc","_id" : "3","_score" : 1.0,"_source" : {"id" : 3,"name" : "红海事件","doubanScore" : 5.0,"actorList" : [{"id" : 4,"name" : "代号"},{"id" : 5,"name" : "刘德华"}]}}]}
}
10、匹配条件查询(全部)
GET movie_index/_search
{"query":{"match_all": {}}
}
11、按分词查询
GET movie_index/_search
{"query":{"match": {"name":"红"}}
}
注意结果的评分
response
{"took" : 1,"timed_out" : false,"_shards" : {"total" : 1,"successful" : 1,"skipped" : 0,"failed" : 0},"hits" : {"total" : {"value" : 2,"relation" : "eq"},"max_score" : 0.48527452,"hits" : [{"_index" : "movie_index","_type" : "_doc","_id" : "1","_score" : 0.48527452,"_source" : {"id" : 1,"name" : "红海行动","doubanScore" : 8.5,"actorList" : [{"id" : 1,"name" : "张1译"},{"id" : 2,"name" : "海清"},{"id" : 3,"name" : "张涵予"}]}},{"_index" : "movie_index","_type" : "_doc","_id" : "3","_score" : 0.48527452,"_source" : {"id" : 3,"name" : "红海事件","doubanScore" : 5.0,"actorList" : [{"id" : 4,"name" : "代号"},{"id" : 5,"name" : "刘德华"}]}}]}
}
12、按分词子属性查询
GET movie_index/_search
{"query":{"match": {"actorList.name":"张"}}
}
13、按短语查询
GET movie_index/_search
{"query":{"match_phrase": {"name":"红海"}}
}
按短语查询,不再利用分词技术,直接用短语在原始数据中匹配
14 、校正匹配分词
GET movie_index/_search
{"query":{"fuzzy": {"name":"rad"}}
}
fuzzy查询,当一个单词都无法准确匹配,es通过一种算法对非常接近的单词也给与一定的评分,能够查询出来,但是消耗更多的性能。
中文测试不成功,创建了一个新的索引指定name为read,测试查找成功
15 、过滤–查询后过滤
GET movie_index/_search
{"query":{"match": {"name":"红"}},"post_filter":{"term": {"actorList.id": 1}}
}
16、过滤–查询前过滤
(推荐)
GET movie_index/_search
{ "query":{"bool":{"filter":[ {"term": { "actorList.id": "1" }},{"term": { "actorList.id": "3" }}], "must":{"match":{"name":"红"}}}}
}
17、过滤–按范围过滤
GET movie_index/_search
{"query": {"bool": {"filter": {"range": {"doubanScore": {"gte": 8}}}}}
}
关于范围操作符:
符号 | 含义 |
---|---|
gt | 大于 |
lt | 小于 |
gte | 大于等于 |
lte | 小于等于 |
18、排序
GET movie_index/_search
{"query":{"match": {"name":"红海"}}, "sort": [{"doubanScore": {"order": "desc"}}]
}
19、分页查询
GET movie_index/_search
{"query": { "match_all": {} },"from": 1,"size": 1
}
20、指定查询的字段
GET movie_index/_search
{"query": { "match_all": {} },"_source": ["name", "doubanScore"]
}
21、高亮
GET movie_index/_search
{"query":{"match": {"name":"红海"}},"highlight": {"fields": {"name":{} }}}
结果有·
"highlight" : {"name" : ["<em>红</em><em>海</em>行动"]}
23、复杂查询
先过滤,后查询
GET movie_index/_search
{"query": {"bool": {"filter": [{"term": {"actorList.id": "1"}}, {"term": {"actorList.id": "3"}}],"must": [{"match": {"name": "红海"}}]}}
}
或
GET movie_index/_search
{"query": {"bool": {"filter": [{"terms": {"actorList.id": [1, 3]}}],"must": [{"match": {"name": "红海"}}]}}
}
24、聚合
PUT atguigu/_mapping/doc
{ "properties": { "interests": { "type": "text", "fielddata": true } }
}
复杂检索
1、BulkAPI实现批量操作
格式:
{action:{metadata}}\n
{requestbody}\n
action:(行为)
create:文档不存在时创建
update:更新文档
index:创建新文档或替换已有文档
delete:删除一个文档
metadata:_index,_type,_id
create和index的区别:
如果数据存在,使用create操作失败,会提示文档已经存在,使用index可以成功执行
银行员工数据json
2、聚合查询
格式
name 为聚合起一个名字
AGG_TYPE 聚合类型
"aggs": {"NAME": {"AGG_TYPE": {}}}
request
#搜索address包含mil1的所有人的年龄分布以及平均年龄GET bank/_search
{"query": {"match": {"address": "mill"}},"aggs": {"ageAgg": {"terms": {"field": "age","size": 10}}}
}
response
年龄38的有2个,年龄28的有1个,年龄32的有1个
{"took" : 54,"timed_out" : false,"_shards" : {"total" : 1,"successful" : 1,"skipped" : 0,"failed" : 0},"hits" : {...},"aggregations" : {"ageAgg" : {"doc_count_error_upper_bound" : 0,"sum_other_doc_count" : 0,"buckets" : [{"key" : 38,"doc_count" : 2},{"key" : 28,"doc_count" : 1},{"key" : 32,"doc_count" : 1}]}}
}
对求出年龄聚合求一个平均值,工资平均值
request
GET bank/_search
{"query": {"match": {"address": "mill"}},"aggs": {"ageAgg": {"terms": {"field": "age","size": 10}},"ageVag":{"avg": {"field": "age"}},"balanceAvg":{"avg": {"field": "balance"}}}
}
response
"aggregations" : {"ageAgg" : {"doc_count_error_upper_bound" : 0,"sum_other_doc_count" : 0,"buckets" : [{"key" : 38,"doc_count" : 2},{"key" : 28,"doc_count" : 1},{"key" : 32,"doc_count" : 1}]},"balanceAvg" : {"value" : 25208.0},"ageVag" : {"value" : 34.0}}
3、子聚合
request
#按照年龄聚合并且请求这些年龄段的这些人的平均薪资
GET bank/_search
{"query": {"match_all": {}},"aggs": {"ageAgg": {"terms": {"field": "age","size": 100},"aggs": {"ageVag": {"avg": {"field": "balance"}}}}},"size":0
}
在aggs聚合里再进行一次聚合
(size=0 分页不看查出的数据,只看聚合)
response
31岁的有61个人,平均工资28312.918032786885
{"took" : 5,"timed_out" : false,"_shards" : {"total" : 1,"successful" : 1,"skipped" : 0,"failed" : 0},"hits" : {"total" : {"value" : 1000,"relation" : "eq"},"max_score" : null,"hits" : [ ]},"aggregations" : {"ageAgg" : {"doc_count_error_upper_bound" : 0,"sum_other_doc_count" : 0,"buckets" : [{"key" : 31,"doc_count" : 61,"ageVag" : {"value" : 28312.918032786885}}
}
request
#查出所有年龄分布,并且这些年龄段中M的平均薪资和F的平薪资以及这个年龄段的总体平均薪资GET bank/_search
{"query": {"match_all": {}},"aggs": {"ageAgg": {"terms": {"field": "age","size": 100},"aggs": {"genderAvg": {"terms": {"field": "gender.keyword"},"aggs": {"balanceAvg": {"avg": {"field": "balance"}}}},"ageBalanAvg": {"avg": {"field": "balance"}}}}},"size": 0
}
response
{"aggregations" : {"ageAgg" : {"doc_count_error_upper_bound" : 0,"sum_other_doc_count" : 0,"buckets" : [{"key" : 31,"doc_count" : 61,"ageBalanAvg" : {"value" : 28312.918032786885},"genderAvg" : {"doc_count_error_upper_bound" : 0,"sum_other_doc_count" : 0,"buckets" : [{"key" : "M","doc_count" : 35,"balanceAvg" : {"value" : 29565.628571428573}},{"key" : "F","doc_count" : 26,"balanceAvg" : {"value" : 26626.576923076922}}]}}
}
谷粒商城微服务分布式高级篇ElasticSearch三——Dcoker安装ES及ES检索语法相关推荐
- 谷粒商城微服务分布式高级篇ElasticSearch二——重要概念及原理
文章目录 面向文档 索引 分布式特性 分布式集群 集群健康 添加索引 增加故障转移 横向扩展 继续扩展 应对故障 数据结构 什么是文档? 文档元数据 _index _type _id 其他元数据 _s ...
- 谷粒商城微服务分布式基础篇二—— Spring Cloud Alibaba、Nacos注册与发现
文章目录 Spring Cloud Alibaba--微服务开发 Spring Cloud Alibaba是什么? 主要功能 组件 为什么不使用Spring Cloud 使用 Nacos Disc ...
- 谷粒商城 - 微服务分布式电商项目
谷粒商城 1.项目背景 谷粒商城项目是尚硅谷研究院最新推出的完整大型分布式架构电商平台,技术全面.业务深入,全网无出其右.技术涵盖:微服务架构 + 分布式 + 全栈 + 集群 + 部署 + 自动化运维 ...
- 谷粒商城项目笔记之高级篇(三)
目录 1.9.22 提交订单的问题 1).订单号显示.应付金额回显 2).提交订单消息回显 3).为了确保锁库存失败后,订单和订单项也能回滚,需要抛出异常 1.9.23 创建库存上锁.解锁 业务交换机 ...
- spring cloud微服务分布式云架构(三)-服务消费者(Feign)
一.Feign简介 Feign是一个声明式的伪Http客户端,它使得写Http客户端变得更简单.使用Feign,只需要创建一个接口并注解.它具有可插拔的注解特性,可使用Feign 注解和JAX-RS注 ...
- 谷粒商城-分布式高级篇[商城业务-秒杀服务]
谷粒商城-分布式基础篇[环境准备] 谷粒商城-分布式基础[业务编写] 谷粒商城-分布式高级篇[业务编写]持续更新 谷粒商城-分布式高级篇-ElasticSearch 谷粒商城-分布式高级篇-分布式锁与 ...
- 谷粒商城-分布式高级篇[商城业务-检索服务]
谷粒商城-分布式基础篇[环境准备] 谷粒商城-分布式基础[业务编写] 谷粒商城-分布式高级篇[业务编写]持续更新 谷粒商城-分布式高级篇-ElasticSearch 谷粒商城-分布式高级篇-分布式锁与 ...
- 谷粒商城-分布式高级篇【业务编写】
谷粒商城-分布式基础篇[环境准备] 谷粒商城-分布式基础[业务编写] 谷粒商城-分布式高级篇[业务编写]持续更新 谷粒商城-分布式高级篇-ElasticSearch 谷粒商城-分布式高级篇-分布式锁与 ...
- SpringCloud 微服务分布式 笔记(二)
SpringCloud 微服务分布式 本篇是结合上一篇代码进行修改学习 点击
最新文章
- CF1037H Security——SAM+线段树合并
- mysql流量控制_UDP流量控制之分析
- win10设置HTML桌面背景,Win10系统直接将视频设置为桌面背景的方法
- telnet 命令参数及其应用方式
- arcgispython空间插值_[学习总结]如何利用GIS建模批量处理气象数据-以micaps 第四类数据空间插值为例-专业气象研究-气象家园_气象人自己的家园...
- 暑期游戏阅历++plan01——游戏引擎发展史简记
- 计算机中模板与母版的区别,PowerPoint的模板和母版有什么区别?
- 微信时代的巨大冲击 QQ空间面临艰难转型
- 01-05.经典市场营销 Marketing公开课《科特勒营销管理》(一)
- 华为交换机做qos案例_经典案例:QoS实现交换机带宽控制(1)
- 从全球价值链视角看,京东云数智供应链对未来经济有何影响?
- 【H5/JS】游戏常用算法-碰撞检测-包围盒检测算法(2)-矩形
- 美团支付宝互探腹地 相爱相杀再度升级
- 网站设计新趋势:沉浸式交互设计
- memsql-官宣世界最快的内存关系型数据库安装部署
- java kdj_基于java语言开发的个性化股票分析技术:随机指数(kdj).doc
- C# TextBox输入密码显示星号(*)
- 小程序上传文件到阿里云oss
- 营销新套路:冒充腾讯云 阿里云客服打电话
- upload-labs靶场通关解密
热门文章
- 【推荐系统入门到项目实战】(五):SVD矩阵分解
- linux java获取当前路径,linux 获取当前路径 java
- 微信最烧脑游戏计算机2sin,微信史上最烧脑游戏答案大全_史上最烧脑游戏攻略汇总_快吧小程序...
- ARM base instruction -- ldm
- 如何录制电脑屏幕并且生成视频
- 【猫优壁纸】uniapp后端安装教程
- 用友nc65 uap开发如何将一个vo单据显示在一个弹窗面板上?
- 关于浏览器以及各种内置浏览器造成黑屏的解决办法
- 化妆品的成分之战:美丽修行竞品分析报告
- Android-图片填色