本文为博主九师兄(QQ:541711153 欢迎来探讨技术)原创文章,未经允许博主不允许转载。

可以加我问问题,免费解答,有问题可以先私聊我,本人每天都在线,会帮助需要的人。

但是本博主因为某些原因,心灰意冷了,决心打死不写免费了。不想解释了。。

文章目录

  • 1.概述

1.概述

转载:十九种Elasticsearch字符串搜索方式终极介绍
建议直接看原文

转载原因:各种查询方式都有,比较有个清晰的概念,也可以当做字典来用。

ES 的 query 简单分成 4 类:

  • term query,对单个词的 query,包括 term/terms/range/exists/missing/ids/regexp 等
  • full text query ,全文检索query,对多个词(即句子)的query,包括 match/multi_match/common 等
  • compound query 复合 query,包括 bool/dis_max/function_score 等
  • match_all ,简单匹配所有文档

前言
刚开始接触Elasticsearch的时候被Elasticsearch的搜索功能搞得晕头转向,每次想在Kibana里面查询某个字段的时候,查出来的结果经常不是自己想要的,然而又不知道问题出在了哪里。出现这个问题归根结底是因为对于Elasticsearch的底层索引原理以及各个查询搜索方式的不了解,在Elasticsearch中仅仅字符串相关的查询就有19个之多,如果不弄清楚查询语句的工作方式,应用可能就不会按照我们预想的方式运作。这篇文章就详细介绍了Elasticsearch的19种搜索方式及其原理,老板再也不用担心我用错搜索语句啦!

简介
Elasticsearch为所有类型的数据提供实时搜索和分析,不管数据是结构化文本还是非结构化文本、数字数据或地理空间数据,都能保证在支持快速搜索的前提下对数据进行高效的存储和索引。用户不仅可以进行简单的数据检索,还可以聚合信息来发现数据中的趋势和模式。

搜索是Elasticsearch系统中最重要的一个功能,它支持结构化查询、全文查询以及结合二者的复杂查询。结构化查询有点像SQL查询,可以对特定的字段进行筛选,然后按照特定的字段进行排序得到结果。全文查询会根据查询字符串寻找相关的文档,并且按照相关性排序。

Elasticsearch内包含很多种查询类型,下面介绍是其中最重要的19种。如果你的app想要添加一个搜索框,为用户提供搜索操作,并且数据量很大用MySQL会造成慢查询想改用Elasticsearch,那么我相信这篇文章会给你带来很大的帮助。

query和filter区别
在正式进入到搜索部分之前,我们需要区分query(查询)和filter(过滤)的区别。

在进行query的时候,除了完成匹配的过程,我们实际上在问“这个结果到底有多匹配我们的搜索关键词”。在所有的返回结果的后面都会有一个_score字段表示这个结果的匹配程度,也就是相关性。相关性越高的结果就越排在前面,相关性越低就越靠后。当两个文档的相关性相同的时候,会根据lucene内部的doc_id字段来排序,这个字段对于用户是不可见的也不能控制。

而在进行filter的时候,仅仅是在问“这个文档符不符合要求”,这仅仅是一个过滤的操作判断文档是否满足我们的筛选要求,不会计算任何的相关性。比如timestamp的范围是否在2019和2020之间,status状态是否是1等等。

在一个查询语句里面可以同时存在query和filter,只不过只有query的查询字段会进行相关性_score的计算,而filter仅仅用来筛选。比如在下面的查询语句里面,只有title字段会进行相关性的计算,而下面的status只是为了筛选并不会计算相关性。

GET /_search
{"query": {"bool": {"must": [{"match": {"title": "Search"}}],"filter": [{"term": {"state": 1}}]}}
}

对于在实际应用中应该用query还是用filter需要根据实际的业务场景来看。如果你的产品的搜索只是需要筛选得到最后的搜索结果并不需要Elasticsearch的相关性排序(你可能自定义了其他的排序规则),那么使用filter就完全能够满足要求并且能够有更好的性能(filter不需要计算相关性而且会缓存结果);如果需要考虑文档和搜索词的相关性,那么使用query就是最好的选择。

相关性
上面讲到了在使用query查询的时候会计算相关性并且进行排序,很多人都会好奇相关性是怎么计算的?

相关性的计算是比较复杂的,详细的文档可以看这两篇博客——什么是相关性和ElasticSearch 使用教程之_score(评分)介绍,我这里只是做一个简单的介绍。

Elasticsearch的相似度计算主要是利用了全文检索领域的计算标准——TF/IDF(Term Frequency/Inverted Document Frequency)也就是检索词频率和反向文档频率

TF(检索词频率):检索词在这个字段里面出现的频率越高,相关性越高。比如搜索词出现5次肯定比出现1次的文档相关性更高。
IDF(反向文档频率):包含检索词的文档的频率越高,这个检索词的相关性比重越低。如果一个检索词在所有的文档里面都出现了,比如中文的的,那么这个检索词肯定就不重要,相对应的根据这个检索词匹配的文档的相关性权重应该下降。
字段长度:注意这个字段是文档的里面被搜索的字段,不是检索词。如果这个字段的长度越长,相关性就越低。这个主要是因为这个检索词在字段内的重要性降低了,文档就相对来说不那么匹配了。
在复合查询里面,比如bool查询,每个子查询计算出来的评分会根据特定的公式合并到综合评分里面,最后根据这个综合评分来排序。当我们想要修改不同的查询语句的在综合评分里面的比重的时候,可以在查询字段里面添加boost参数,这个值是相对于1来说的。如果大于1则这个查询参数的权重会提高;如果小于1,权重就下降。

这个评分系统一般是系统默认的,我们可以根据需要定制化我们自己的相关性计算方法,比如通过脚本自定义评分。

分析器
分析器是针对text字段进行文本分析的工具。文本分析是把非结构化的数据(比如产品描述或者邮件内容)转化成结构化的格式从而提高搜索效率的过程,通常在搜索引擎里面应用的比较多。

text格式的数据和keyword格式的数据在存储和索引的时候差别比较大。keyword会直接被当成整个字符串保存在文档里面,而text格式数据,需要经过分析器解析之后,转化成结构化的文档再保存起来。比如对于the quick fox字符串,如果使用keyword类型,保存直接就是the quick fox,使用the quick fox作为关键词可以直接匹配,但是使用the或者quick就不能匹配;但是如果使用text保存,那么分析器会把这句话解析成the、quick、fox三个token进行保存,使用the quick fox就无法匹配,但是单独用the、quick、fox三个字符串就可以匹配。所以对于text类型的数据的搜索需要格外注意,如果你的搜索词得不到想要的结果,很有可能是你的搜索语句有问题。

分析器的工作过程大概分成两步:

分词(Tokenization):根据停止词把文本分割成很多的小的token,比如the quick fox会被分成the、quick、fox,其中的停止词就是空格,还有很多其他的停止词比如&或者#,大多数的标点符号都是停止词
归一化(Normalization):把分隔的token变成统一的形式方便匹配,比如下面几种
把单词变成小写,Quick会变成quick
提取词干,foxes变成fox
合并同义词,jump和leap是同义词,会被统一索引成jump
Elasticsearch自带了一个分析器,是系统默认的标准分析器,使用标准分词器,大多数情况下都能够有不错的分析效果。用户也可以定义自己的分析器,用于满足不同的业务需求。

想要知道某个解析器的分析结果,可以直接在ES里面进行分析,执行下面的语句就行了:

POST /_analyze
{"analyzer": "standard","text": "1 Fire's foxes"
}

返回的结果是:

{"tokens" : [{"token" : "1","start_offset" : 0,"end_offset" : 1,"type" : "<NUM>","position" : 0},{"token" : "fire's","start_offset" : 2,"end_offset" : 8,"type" : "<ALPHANUM>","position" : 1},{"token" : "fox","start_offset" : 9,"end_offset" : 12,"type" : "<ALPHANUM>","position" : 2}]
}

返回的tokens内部就是所有的解析结果,token表示解析的词语部分,start_offset和end_offset分别表示token在原text内的起始和终止位置,type表示类型,position表示这个token在整个tokens列表里面的位置。

OK!有了上面的基础知识,就可以进行下面的搜索的介绍了。

term搜索
term搜索不仅仅可以对keyword类型的字段使用,也可以对text类型的数据使用,前提是使用的搜索词必须要预先处理一下——不包含停止词并且都是小写(标准解析器),因为文档里面保存的text字段分词后的结果,用term是可以匹配的。

exists
返回所有指定字段不为空的文档,比如这个字段对应的值是null或者[]或者没有为这个字段建立索引。

GET /_search
{"query": {"exists": {"field": "user"}}
}

如果字段是空字符串""或者包含null的数组[null,“foo”],都会被当作字段存在。

这个方法可以用来搜索没有被索引的值或者不存在的值。

fuzzy
fuzzy查询是一种模糊查询,会根据检索词和检索字段的编辑距离(Levenshtein Distance)来判断是否匹配。一个编辑距离就是对单词进行一个字符的修改,这种修改可能是

修改一个字符,比如box到fox
删除一个字符,比如black到lack
插入一个字符,比如sic到sick
交换两个相邻的字符的位置,比如act到cat
在进行fuzzy搜索的时候,ES会生成一系列的在特定编辑距离内的变形,然后返回这些变形的准确匹配。默认情况下,当检索词的长度在0…2中间时,必须准确匹配;长度在3…5之间的时候,编辑距离最大为1;长度大于5的时候,最多允许编辑距离为2。

可以通过配置fuzziness修改最大编辑距离,max_expansions修改最多的变形的token的数量

比如搜索是以下条件的时候:

GET /_search
{"query": {"fuzzy": {"name": "Accha"}}
}

返回结果有Iccha、AccHa、accha还有ccha

ids
根据文档的_id数组返回对应的文档信息

GET /_search
{"query": {"ids": {"values": ["1","4","100"]}}
}

prefix
返回所有包含以检索词为前缀的字段的文档。

GET /_search
{"query": {"prefix": {"name": "ac"}}
}

返回所有以ac开头的字段,比如acchu、achu、achar等等

在某些场景下面比如搜索框里面,需要用户在输入内容的同时也要实时展示与输入内容前缀匹配的搜索结果,就可以使用prefix查询。为了加速prefix查询,还可以在设置字段映射的时候,使用index_prefixes映射。ES会额外建立一个长度在2和5之间索引,在进行前缀匹配的时候效率会有很大的提高。

range
对字段进行范围的匹配。

GET /_search
{"query": {"range": {"age": {"gte": 10,"lte": 20}}}
}

搜索年龄在10(包含)和20(包含)之间的结果

regexp
正则表达式匹配。通过正则表达式来寻找匹配的字段,lucene会在搜索的时候生成有限状态机,其中包含很多的状态,默认的最多状态数量是10000

GET /_search
{"query": {"regexp": {"name": "ac.*ha"}}
}

这个搜索会匹配achha、achintha还有achutha

term
根据检索词来准确匹配字段。官方文档建议不要用term去搜索text类型的字段,因为分析器的原因很有可能不会出现你想要的结果。但是直接使用term去搜索text字段还是可以工作的,前提是明白为什么会返回这些数据。比如通过下面的搜索:

GET /_search
{"query": {"term": {"name": {"value": "accha"}}}
}

如果name字段是keyword类型的,没有进行解析,那么只会匹配所有name是accha的文档。

如果name字段是text类型的,原字段经过分词、小写化处理之后,只能匹配到解析之后的单独token,比如使用标准解析器,这个搜索会匹配Accha Baccha、so cute accha baccha或者Accha Baccha Shivam等字段。

terms
根据检索词列表来批量搜索文档,每个检索词在搜索的时候相当于or的关系,只要一个匹配就行了。Elasticsearch最多允许65,536个term同时查询。

GET /_search
{"query": {"terms": {"name": ["accha","ghazali"]}}
}

上面的查询会匹配name字段为accha和ghazali的文档。

除了直接指定查询的term列表,还可以使用Terms lookUp功能,也就是指定某一个存在的文档的某一个字段(可能是数字、字符串或者列表)来作为搜索条件,进行terms搜索。

比如有一个文件index是my_doc,id是10,name字段是term并且值为accha,搜索可以这样写:

{"query": {"terms": {"name": {"index": "my_doc","id": "10","path": "name"}}}
}

这样就可以返回所有name字段值是accha的文档里,这个通常可以用来查询所有和某个文档某个字段重复的文档并且不需要提前知道这个字段的值是什么。

terms_set
terms_set和terms十分类似,只不过是多了一个最少需要匹配数量minimum_should_match_field参数。当进行匹配的时候,只有至少包含了这么多的terms中的term的时候,才会返回对应的结果。

GET /_search
{"query": {"terms_set": {"programming_languages": {"terms": ["c++","java","php"],"minimum_should_match_field": "required_match"}}}
}
{"name":"Jane Smith","programming_languages":["c++","java"],"required_matches":2
}

那么只有programming_languages列表里面至少包含[“c++”, “java”, “php”]其中的2项才能满足条件

还可以使用minimum_should_match_script脚本来配置动态查询

{"query": {"terms_set": {"programming_languages": {"terms": ["c++","java","php"],"minimum_should_match_script": {"source": "Math.min(params.num_terms, doc['required_matches'].value)"}}}}
}

其中params.num_terms是在terms字段中的元素的个数

wildcard
通配符匹配,返回匹配包含通配符的检索词的结果。

目前只支持两种通配符:

?:匹配任何单一的字符
:匹配0个或者多个字符
在进行wildcard搜索的时候最好避免在检索词的开头使用
或者?,这会降低搜索性能。

GET /_search
{"query": {"wildcard": {"name": {"value": "acc*"}}}
}

这个搜索会匹配acchu、acche或者accio父

text搜索
text搜索实际上是针对被定义为text类型的字段的搜索,通常搜索的时候不能根据输入的字符串的整体来理解,而是要预先处理一下,把搜索词变成小的token,再来查看每个token的匹配。

interval
返回按照检索词的特定排列顺序排列的文档。这个查询比较复杂,这里只是简单的介绍,详细的介绍可以看官方文档

比如我们想查询同时包含raj和nayaka的字段并且ray正好在nayaka前面,查询语句如下:

POST /_search
{"query": {"intervals": {"name": {"match": {"query": "raj nayaka","max_gaps": 0,"ordered": true}}}}
}

上面的查询会匹配Raj Nayaka Acchu Valmiki和Yateesh Raj Nayaka。

如果把ordered:true去掉,就会匹配nayaka raj。

如果把max_gaps:0去掉,系统会用默认值-1也就是没有距离要求,就会匹配Raj Raja nayaka或者Raj Kumar Nayaka

其中有两个关键词ordered和max_gaps分别用来控制这个筛选条件是否需要排序以及两个token之间的最大间隔

match
查找和检索词短语匹配的文档,这些检索词在进行搜索之前会先被分析器解析,检索词可以是文本、数字、日期或者布尔值。match检索也可以进行模糊匹配。

GET /_search
{"query": {"match": {"name": "nagesh acchu"}}
}

以上的查询会匹配NaGesh Acchu、Acchu Acchu和acchu。系统默认是在分词后匹配任何一个token都可以完成匹配,如果修改operator为AND,则会匹配同时包含nagesh和acchu的字段。

GET /_search
{"query": {"match": {"name": {"query": "nagesh acchu","operator": "and"}}}
}

上面这个查询就只会返回NaGesh Acchu

查询的时候也可以使用模糊查询,修改fuzziness参数

GET /_search
{"query": {"match": {"name": {"query": "nagesh acchu","operator": "and","fuzziness": 1}}}
}

上面的语句会匹配NaGesh Acchu还有Nagesh Bacchu

match_bool_prefix
match_bool_prefix会解析检索词,然后生成一个bool复合检索语句。如果检索词由很多个token构成,除了最后一个会进行prefix匹配,其他的会进行term匹配。

比如使用nagesh ac进行match_bool_prefix搜索

GET /_search
{"query": {"match_bool_prefix": {"name": "nagesh ac"}}
}

上面的查询会匹配Nagesh Nagesh、Rakshith Achar或者ACoco

实际查询等价于

GET /_search
{"query": {"bool": {"should": [{"term": {"name": {"value": "nagesh"}}},{"prefix": {"name": {"value": "ac"}}}]}}
}

match_phrase
词组匹配会先解析检索词,并且标注出每个的token相对位置,搜索匹配的字段的必须包含所有的检索词的token,并且他们的相对位置也要和检索词里面相同。

GET /_search
{"query": {"match_phrase": {"name": "Bade Acche"}}
}

这个搜索会匹配Bade Acche Lagte,但是不会匹配Acche Bade Lagte或者Bade Lagte Acche。

如果我们不要求这两个单词相邻,希望放松一点条件,可以添加slop参数,比如设置成1,代表两个token之间相隔的最多的距离(最多需要移动多少次才能相邻)。下面的查询语句会匹配Bade Lagte Acche

GET /_search
{"query": {"match_phrase": {"name": {"query": "Bade Acche","slop": 1}}}
}

match_phrase_prefix
match_phrase_prefix相当于是结合了match_bool_prefix和match_phrase。ES会先解析检索词,分成很多个token,然后除去最后一个token,对其他的token进行match_phrase的匹配,即全部都要匹配并且相对位置相同;对于最后一个token,需要进行前缀匹配并且匹配的这个单词在前面的match_phrase匹配的结果的后面。

GET /_search
{"query": {"match_phrase_prefix": {"name": "acchu ac"}}
}

上面的查询能够匹配Acchu Acchu1和Acchu Acchu Papu,但是不能匹配acc acchu或者acchu pa

multi_match
multi_match可以同时对多个字段进行查询匹配,ES支持很多种不同的查询类型比如best_fields(任何字段match检索词都表示匹配成功)、phrase(用match_phrase代替match)还有cross_field(交叉匹配,通常用在所有的token必须在至少一个字段中出现)等等

下面是普通的best_fields的匹配

GET /_search
{"query": {"multi_match": {"query": "acchu","fields": ["name","intro"]}}
}

只要name或者intro字段任何一个包含acchu都会完成匹配。

如果使用cross_fields匹配如下

GET /_search
{"query": {"multi_match": {"query": "call acchu","type": "cross_fields","fields": ["name","intro"],"operator": "and"}}
}

上面的匹配需要同时满足下面两个条件:

name中出现call或intro中出现call
name中出现acchu或intro中出现acchu
所以这个查询能够匹配name包含acchu和intro包含call的文档,或者匹配name同时包含call和acchu的文档。

common
common查询会把查询语句分成两个部分,较为重要的分为一个部分(这个部分的token通常在文章中出现频率比较低),不那么重要的为一个部分(出现频率比较高,以前可能被当作停止词),然后分别用low_freq_operator、high_freq_operator以及minimum_should_match来控制这些语句的表现。

在进行查询之前需要指定一个区分高频和低频词的分界点,也就是cutoff_frequency,它既可以是小数比如0.001代表该字段所有的token的集合里面出现的频率也可以是大于1的整数代表这个词出现的次数。当token的频率高于这一个阈值的时候,他就会被当作高频词。

GET /_search
{"query": {"common": {"body": {"query": "nelly the elephant as a cartoon","cutoff_frequency": 0.001,"low_freq_operator": "and"}}}
}

其中高频词是the、a和as,低频词是nelly、elephant和cartoon,上面的搜索大致等价于下面的查询

GET /_search
{"query": {"bool": {"must": [{"term": {"body": "nelly"}},{"term": {"body": "elephant"}},{"term": {"body": "cartoon"}}],"should": [{"term": {"body": "the"}},{"term": {"body": "as"}},{"term": {"body": "a"}}]}}
}

但是第一个查询的效率要优于第二个,因为common语句有性能上的优化,只有重要的token匹配之后的文档,才会在不重要的文档的查询时候计算_score;不重要的token在查询的时候不会计算_score

query_string
输入一个查询语句,返回和这个查询语句匹配的所有的文档。

这个查询语句不是简单的检索词,而是包含特定语法的的搜索语句,里面包含操作符比如AND和OR,在进行查询之前会被一个语法解析器解析,转化成可以执行的搜索语句进行搜索。用户可以生成一个特别复杂的查询语句,里面可能包含通配符、多字段匹配等等。在搜索之前ES会检查查询语句的语法,如果有语法错误会直接报错。

GET /_search
{"query": {"query_string": {"default_field": "name","query": "acchu AND nagesh"}}
}

上面的查询会匹配所有的同时包含acchu和nagesh的结果。简化一下可以这样写:

GET /_search
{"query": {"query_string": {"query": "name: acchu AND nagesh"}}
}

query_string里面还支持更加复杂的写法:

name: acchu nagesh:查询name包含acchu和nagesh其中的任意一个
book.*:(quick OR brown):book的任何子字段比如book.title和book.content,包含quick或者brown
exists: title:title字段包含非null值
name: acch*:通配符,匹配任何acch开头的字段
name:/joh?n(ath[oa]n)/:正则表达式,需要把内容放到两个斜杠/中间
name: acch~:模糊匹配,默认编辑距离为2,不过80%的情况编辑距离为1就能解决问题name: acch~1
count:[1 TO 5]:范围查询,或者count: >10
下面的查询允许匹配多个字段,字段之间时OR的关系

GET /_search
{"query": {"query_string": {"fields": ["name","intro"],"query": "nagesh"}}
}

simple_query_string
和上面的query_string类似,但是使用了更加简单的语法。使用了下面的操作符:

+表示AND操作
|表示OR操作
-表示否定
"用于圈定一个短语
*放在token的后面表示前缀匹配
()表示优先级
~N放在token后面表示模糊查询的最大编辑距离fuzziness
~N放在phrase后面表示模糊匹配短语的slop值

GET /_search
{"query": {"simple_query_string": {"query": "acch* + foll~2 + -Karen","fields": ["intro"]}}
}

上面的搜索相当于搜索包含前缀为acch的、和foll编辑距离最大是2的并且不包含Karen的字段,这样的语句会匹配call me acchu或者acchu follow me

总结
Elasticsearch提供了强大的搜索功能,使用query匹配可以进行相关性的计算排序但是filter可能更加适用于大多数的过滤查询的情况,如果用户对于标准解析器不太满意可以自定义解析器或者第三方解析器比如支持中文的IK解析器。

在进行搜索的时候一定要注意搜索keyword和text字段时候的区别,使用term相关的查询只能匹配单个的token但是使用text相关的搜索可以利用前面的term搜索进行组合查询,text搜索更加灵活强大,但是性能相对差一点。

【Elasticsearch】十九种Elasticsearch字符串搜索方式终极介绍 各种 查询相关推荐

  1. 【Elasticsearch】十九种Elasticsearch字符串搜索方式

    1.概述 十九种Elasticsearch字符串搜索方式 刚开始接触Elasticsearch的时候被Elasticsearch的搜索功能搞得晕头转向,每次想在Kibana里面查询某个字段的时候,查出 ...

  2. 卡巴斯基杀毒软件的十九种实用使用方法

    卡巴斯基使用的用户不少,下面我们给大家总结了卡巴的十九种使用心得. 一:卡巴安装前一定要完全卸载其它杀软.如果已经发生冲突,在正常的Windows环境下不能反安装任何一个杀软,这时需要进入安全模式下, ...

  3. SAP UI5 应用开发教程之二十九 - SAP UI5 的路由和导航功能介绍试读版

    一套适合 SAP UI5 初学者循序渐进的学习教程 教程目录 SAP UI5 本地开发环境的搭建 SAP UI5 应用开发教程之一:Hello World SAP UI5 应用开发教程之二:SAP U ...

  4. Elasticsearch(十)【NEST高级客户端--搜索查询】

    搜索 Search API允许您执行搜索查询并获取与查询匹配的搜索匹配. Elasticsearch的搜索功能可能是您使用它的原因之一,NEST公开了所有可用的不同类型的搜索,以及一些聪明的使用Ela ...

  5. 这五种 Python 字符串连接方式,你都知道吗?

    字符串连接,就是将2个或以上的字符串合并成一个,看上去连接字符串是一个非常基础的小问题,但是在Python中,我们可以用多种方式实现字符串的连接,稍有不慎就有可能因为选择不当而给程序带来性能损失. 方 ...

  6. python语言中有3种表示字符串的方式、单引号和_Python中三种类型的引号(单引号、双引号、三引号)...

    当向Python输入一个字符串时,要将字符串放到引号中,Python含有三种类型的引号: 单引号形式:'  ' 双引号形式:"  " 三引号形式:'''   ''' (三个单引号组 ...

  7. 企业开展网络营销常用的十九种方法

    1.搜索引擎营销 搜索引擎营销分两种:SEO与PPC SEO即搜索引擎优化,是通过对网站结构(内部链接结构.网站物理结构.网站逻辑结构).高质量的网站主题内容.丰富而有价值的相关性外部链接进行优化而使 ...

  8. C语言字符数组显示钻石,c++两种字符串赋值方式 并介绍 C语言下遍历目录文件的方式...

    c++字符串声明:一种是声明字符数组并赋值,另一种是直接声明string类 #define _CRT_SECURE_NO_WARNINGS #include #include #include &qu ...

  9. 十九种损失函数,你能认识几个?

    作者:mingo_敏 zenRRan稍有有添加 https://blog.csdn.net/shanglianlm/article/details/85019768 来自:深度学习自然语言处理 ten ...

最新文章

  1. torch The “freeze_support()” line can be omitted if the programis not going to be frozen to produce
  2. python语言介绍-00-python语言介绍
  3. python3框架的rf_pythonRF框架
  4. Qt Creator文本
  5. 数据分级分类实施指南_运营商行业数据安全治理实践
  6. 华为企业互动社区云计算板块
  7. matlab gul介绍及串口通信实现,Matlab - GUl介绍及串口通信实现(转)
  8. 三个数据分析里最难攻破的“悖论”,每一个都令人费解
  9. 开源视频质量评价工具: IQA
  10. 动易CMS 复制word里面带图文的文章,图片可以直接显示
  11. Python之函数传参
  12. 9.2 多元微分学及应用——偏导数
  13. 最新Win10离线安装.NET Framework 3.5的方法(附离线包2022/3/22)
  14. Microarchitecture: HyperThreading(超线程)
  15. 投资平台诚诚富众五种个人投资理财方式
  16. 爬虫学习(14):selenium自动化测试(三):鼠标和键盘操作
  17. 安卓SurfaceView 实现下雨效果
  18. Android微信页面缓存清理,安卓微信浏览器缓存如何清理
  19. C++打印乘法口诀表
  20. 福州安卓培训_关于利用东风商学院开展电控发动机维修技师远程培训的通知

热门文章

  1. 2021年Q2全球智能手机销量小米升至第二,苹果降至第三
  2. 陌陌宣布启用全新中文名“挚文集团” ,Q2净利润4.6亿元
  3. 网友疯买、雷军力撑,又一家国货站起来了!
  4. 华为留了一手!将继续发布P50、Mate50:搭载麒麟9000...
  5. 罗永浩直播公司回应被列入经营异常:更换了地址 一切正常
  6. 研究机构:苹果M1芯片代工订单占台积电5nm工艺25%产能
  7. 马云:20年后现在50%的工作可能会消失
  8. 警方通报李彦宏被泼水事件进展:嫌疑人被行政拘留5日
  9. “通讯录不属于用户隐私”?今日头条:绝对不认可这个说法
  10. 美团点评:摩拜贡献收入15亿元 同期亏损45.5亿元