MongoDB聚合查询

  • MongoDB聚合查询
    • 什么是聚合查询
      • Pipeline聚合管道方法
        • 聚合流程
        • 详细流程
        • 聚合语法
        • 常用聚合管道
          • $count
          • $group
          • $match
          • $unwind
          • $project
          • $limit
          • $skip
          • $sort
          • $sortByCount
      • MapReduce
        • 执行阶段
        • 语法
        • 使用示例
        • 编程语法
          • map
          • reduce
          • out
          • action
          • db
          • sharded
          • nonAtomic
          • query
          • sort
          • limit
          • finalize
          • scope
          • jsMode
    • 一些练习

MongoDB聚合查询

什么是聚合查询

聚合操作主要用于处理数据并返回计算结果。聚合操作将来自多个文档的值组合在一起,按条件分组后,再进行一系列操作(如求和、平均值、最大值、最小值)以返回单个结3果。

聚合是MongoDB的高级查询语言,它允许我们通过转化合并由多个文档的数据来生成新的在单个文档里不存在的文档信息。MongoDB中聚合(aggregate)主要用于处理数据(例如分组统计平均值、求和、最大值等),并返回计算后的数据结果,有点类似sql语句中的 count(*)、group by。
在MongoDB中,有两种方式计算聚合:PipelineMapReduce。Pipeline查询速度快于MapReduce,但是MapReduce的强大之处在于能够在多台Server上并行执行复杂的聚合逻辑。MongoDB不允许Pipeline的单个聚合操作占用过多的系统内存。

Pipeline聚合管道方法

MongoDB 的聚合框架就是将文档输入处理管道,在管道内完成对文档的操作,最终将文档转换为聚合结果,MongoDB的聚合管道将MongoDB文档在一个管道处理完毕后将结果传递给下一个管道处理,管道操作是可以重复的。
最基本的管道阶段提供过滤器,其操作类似查询和文档转换,可以修改输出文档的形式。其他管道操作提供了按特定字段对文档进行分组和排序的工具,以及用于聚合数组内容(包括文档数组)的工具。
此外,在管道阶段还可以使用运算符来执行诸如计算平均值或连接字符串之类的任务。聚合管道可以在分片集合上运行。

聚合流程

db.collection.aggregate()是基于数据处理的聚合管道,每个文档通过一个由多个阶段(stage)组成的管道,可以对每个阶段的管道进行分组、过滤等功能,然后经过一系列的处理,输出相应的结果。

聚合管道方法的流程参见下图

上图的聚合操作相当于 MySQL 中的以下语句:

select cust_id as _id, sum(amount) as total from orders where status like "%A%"
group by cust_id;

详细流程

  1. db.collection.aggregate() 可以用多个构件创建一个管道,对于一连串的文档进行处理。这些构件包括:筛选操作的 match 、映射操作的 project 、分组操作的 group 、排序操作的 sort 、限制操作的 limit 、和跳过操作的 skip 。
  2. db.collection.aggregate() 使用了MongoDB内置的原生操作,聚合效率非常高,支持类似于SQL Group By操作的功能,而不再需要用户编写自定义的JavaScript例程。
  3. 每个阶段管道限制为100MB的内存。如果一个节点管道超过这个极限,MongoDB将产生一个错误。为了能够在处理大型数据集,可以设置 allowDiskUse 为 true 来在聚合管道节点把数据写入临时文件。这样就可以解决100MB的内存的限制。
  4. db.collection.aggregate() 可以作用在分片集合,但结果不能输在分片集合,MapReduce 可 以 作用在分片集合,结果也可以输在分片集合。
  5. db.collection.aggregate() 方法可以返回一个指针( cursor ),数据放在内存中,直接操
    作。跟Mongo shell 一样指针操作。
  6. db.collection.aggregate() 输出的结果只能保存在一个文档中, BSON Document 大小限制为16M。可以通过返回指针解决,版本2.6中: DB.collect.aggregate() 方法返回一个指针,可以返回任何结果集的大小。

聚合语法

db.collection.aggregate(pipeline, options)

参数说明
聚合管道操作符

注意事项
使用db.collection.aggregate()直接查询会提示错误,但是传一个空数组如
db.collection.aggregate([])则不会报错,且会和find一样返回所有文档。

常用聚合管道

与mysql聚合类比
为了便于理解,先将常见的mongo的聚合操作和mysql的查询做下类比

$count

返回包含输入到stage的文档的计数,理解为返回与表或视图的find()查询匹配的文档的计数。
db.collection.count()方法不执行find()操作,而是计数并返回与查询匹配的结果数。
语法

{ $count: <string> }

count阶段相当于下面count阶段相当于下面count阶段相当于下面group+$project的序列:

db.collection.aggregate([
{
"$group": {
"_id": null,
"count": {// 这里count自定义,相当于mysql的select count(*) as tables
"$sum": 1
}
}
},
{
"$project": {// 返回不显示_id字段
"_id": 0
}
}
])

示例
查询人数是 100000 以上的城市的数量

  • $match:阶段排除pop小于等于100000的文档,将大于100000的文档传到下个阶段
  • $count:阶段返回聚合管道中剩余文档的计数,并将该值分配给名为 count 的字段
db.zips.aggregate([
{
"$match": {
"pop": {
"$gt": 100000
}
}
},
{
"$count": "count"
}
])

$group

**按指定的表达式对文档进行分组,并将每个不同分组的文档输出到下一个阶段。**输出文档包含一个_id字段,该字段按键包含不同的组。
输出文档还可以包含计算字段,该字段保存由$group的_id字段分组的一些accumulator表达式的值。 $group不会输出具体的文档而只是统计信息。

语法

{ $group: { _id: <expression>, <field1>: { <accumulator1> : <expression1> }, ...
} }
  • _id 字段是必填的;但是,可以指定_id值为null来为整个输入文档计算累计值。
  • 剩余的计算字段是可选的,并使用 运算符进行计算。
  • _id 和 表达式可以接受任何有效的表达式。

accumulator操作符

group阶段的内存限制为100M,默认情况下,如果stage超过此限制,group阶段的内存限制为100M,默认情况下,如果stage超过此限制,group阶段的内存限制为100M,默认情况下,如果stage超过此限制,group将产生错误,但是,要允许处理大型数据集,请将allowDiskUse选项设置为true以启用$group操作以写入临时文件。
注意:

  • “$addToSet”:expr,如果当前数组中不包含expr,那就将它添加到数组中。
  • “$push”:expr,不管expr是什么值,都将它添加到数组中,返回包含所有值的数组。

示例
按照 state 分组,并计算每一个state分组的总人数,平均人数以及每个分组的数量

db.zips.aggregate([
{
"$group": {
"_id": "$state",
"totalPop": {
"$sum": "$pop"
},
"avglPop": {
"$avg": "$pop"
},
"count": {
"$sum": 1
}
}
}
])


统计美国的所有人数以及每个州的平均人数

db.zips.aggregate([
{
"$group": {
"_id": null,
"totalPop": {
"$sum": "$pop"
},
"avglPop": {
"$avg": "$pop"
},
"count": {
"$sum": 1
}
}
}
]).pretty();


查找不重复的所有的 state 的值

db.zips.aggregate([
{
"$group": {
"_id": "$state"
}
}
])


按照 city 分组,并且分组内的 state 字段列表加入到 stateItem 并显示

db.zips.aggregate([
{
"$group": {
"_id": "$city",
"stateItem": {
"$push": "$state"
}
}
}
])


下面聚合操作使用系统变量$$ROOT按item对文档进行分组,生成的文档不得超过BSON文档大小限制

db.zips.aggregate([
{
"$group": {
"_id": "$city",
"item": {
"$push": "$$ROOT"
}
}
}
]).pretty();

$match

过滤文档,仅将符合指定条件的文档传递到下一个管道阶段。
$match接受一个指定查询条件的文档,查询语法与读操作查询语法相同。

语法

{ $match: { <query> } }

管道优化
match用于对文档进行筛选,之后可以在得到的文档子集上做聚合,match用于对文档进行筛选,之后可以在得到的文档子集上做聚合,match用于对文档进行筛选,之后可以在得到的文档子集上做聚合,match可以使用除了地理空间之外的所有常规查询操作符,在实际应用中尽可能将$match放在管道的前面位置。这样有两个好处:

  • 一是可以快速将不需要的文档过滤掉,以减少管道的工作量;
  • 二是如果再投射和分组之前执行$match,查询可以使用索引。

使用限制
不能在 $match 查询中使用 $ 作为聚合管道的一部分。
要在 $match 阶段使用 $text , $match 阶段必须是管道的第一阶段。
视图不支持文本搜索

示例
使用 $match做简单的匹配查询,查询缩写是 NY 的城市数据

db.zips.aggregate([
{
"$match": {
"state": "NY"
}
}
]).pretty();


使用match管道选择要处理的文档,然后将结果输出到match管道选择要处理的文档,然后将结果输出到match管道选择要处理的文档,然后将结果输出到group管道以计算文档的计数

db.zips.aggregate([
{
"$match": {
"state": "NY"
}
},
{
"$group": {
"_id": null,
"sum": {
"$sum": "$pop"
},
"avg": {
"$avg": "$pop"
},
"count": {
"$sum": 1
}
}
}
]).pretty();

$unwind

从输入文档解构数组字段以输出每个元素的文档,简单说就是 可以将数组拆分为单独的文档。
语法
要指定字段路径,在字段名称前加上$符并用引号括起来。

{ $unwind: <field path> }

v3.2+支持如下语法

{
$unwind:
{
path: <field path>,
#可选,一个新字段的名称用于存放元素的数组索引。该名称不能以$开头。
includeArrayIndex: <string>,
#可选,default :false,若为true,如果路径为空,缺少或为空数组,则$unwind输出文档
preserveNullAndEmptyArrays: <boolean>
} }

如果为输入文档中不存在的字段指定路径,或者该字段为空数组,则$unwind默认会忽略输入文档,并且不会输出该输入文档的文档。

版本3.2中的新功能:要输出数组字段丢失的文档,null或空数组,请使用选项
preserveNullAndEmptyArrays。
示例
以下聚合使用$unwind为loc数组中的每个元素输出一个文档:

db.zips.aggregate([
{
"$match": {
"_id": "01002"
}
},
{
"$unwind": "$loc"
}
]).pretty();

$project

$project可以从文档中选择想要的字段,和不想要的字段(指定的字段可以是来自输入文档或新计算字段的现有字段),也可以通过管道表达式进行一些复杂的操作,例如数学操作,日期操作,字符串操作,逻辑操作。
语法
$project 管道符的作用是选择字段(指定字段,添加字段,不显示字段,_id:0,排除字段等),重命名字段,派生字段。

{ $project: { <specification(s)> } }

specifications有以下形式:
: <1 or true> 是否包含该字段,field:1/0,表示选择/不选择 field
_id : <0 or false> 是否指定_id字段
: 添加新字段或重置现有字段的值。 在版本3.6中更改:MongoDB 3.6添加变量REMOVE。如果表达式的计算结果为$$REMOVE,则该字段将排除在输出中。
: <0 or false> v3.4新增功能,指定排除字段

  • 默认情况下,_id字段包含在输出文档中。要在输出文档中包含输入文档中的任何其他字段,必须明确指定project中的包含。如果指定包含文档中不存在的字段,project中的包含。如果指定包含文档中不存在的字段,project中的包含。如果指定包含文档中不存在的字段,project将忽略该字段包含,并且不会将该字段添加到文档中。
  • 默认情况下,id字段包含在输出文档中。要从输出文档中排除id字段,必须明确指定$project中的_id字段为0。
  • v3.4版新增功能-如果指定排除一个或多个字段,则所有其他字段将在输出文档中返回。
    如果指定排除_id以外的字段,则不能使用任何其他$project规范表单:即,如果排除字段,则不能指定包含字段,重置现有字段的值或添加新字段。此限制不适用于使用REMOVE变量条件排除字段。
  • v3.6版本中的新功能- 从MongoDB 3.6开始,可以在聚合表达式中使用变量REMOVE来有条件地禁止一个字段。
  • 要添加新字段或重置现有字段的值,请指定字段名称并将其值设置为某个表达式。
  • 要将字段值直接设置为数字或布尔文本,而不是将字段设置为解析为文字的表达式,请使用literal操作符。否则,literal操作符。否则,literal操作符。否则,project会将数字或布尔文字视为包含或排除该字段的标志。
  • 通过指定新字段并将其值设置为现有字段的字段路径,可以有效地重命名字段。
  • 从MongoDB3.2开始,$project阶段支持使用方括号[]直接创建新的数组字段。如果数组规范包含文档中不存在的字段,则该操作会将空值替换为该字段的值。
  • 在版本3.4中更改-如果$project 是一个空文档,MongoDB 3.4和更高版本会产生一个错误。
  • 投影或添加/重置嵌入文档中的字段时,可以使用点符号

示例
以下$project阶段的输出文档中只包含_id,city和state字段

db.zips.aggregate([
{
"$project": {
"_id": 1,
"city": 1,
"state": 1
}
}
]).pretty();


_id 字段默认包含在内。要从$ project阶段的输出文档中排除 _id 字段,请在project文档中将
_id 字段设置为0来指定排除_id字段。

db.zips.aggregate([
{
"$project": {
"_id": 0,
"city": 1,
"state": 1
}
}
]).pretty();


以下$ project阶段从输出中排除loc字段

db.zips.aggregate([
{
"$project": {
"loc": 0
}
}
]).pretty();


可以在聚合表达式中使用变量REMOVE来有条件地禁止一个字段,

db.zips.aggregate([
{
"$project": {
"_id": 1,
"city": 1,
"state": 1,
"pop": 1,
"loc": {
"$cond": {
"if": {
"$gt": [
"$pop",
1000
]
},
"then": "$$REMOVE",
"else": "$loc"
}
}
}
}
]).pretty();


我们还可以改变数据,将人数大于1000的城市坐标重置为0

db.zips.aggregate([
{
"$project": {
"_id": 1,
"city": 1,
"state": 1,
"pop": 1,
"loc": {
"$cond": {
"if": {
"$gt": [
"$pop",
1000
]
},
"then": [
0,
0
],
"else": "$loc"
}
}
}
}
]).pretty();


新增字段列

db.zips.aggregate([
{
"$project": {
"_id": 1,
"city": 1,
"state": 1,
"pop": 1,
"disc": {
"$cond": {
"if": {
"$gt": [
"$pop",
1000
]
},
"then": "人数过多",
"else": "人数过少"
}
},
"loc": {
"$cond": {
"if": {
"$gt": [
"$pop",
1000
]
},
"then": [
0,
0
],
"else": "$loc"
}
}
}
}
]).pretty();

$limit

限制传递到管道中下一阶段的文档数
语法

{ $limit: <positive integer> }

示例,此操作仅返回管道传递给它的前5个文档。 $limit对其传递的文档内容没有影响

db.zips.aggregate({
"$limit": 5
});

注意
当sort在管道中的sort在管道中的sort在管道中的limit之前立即出现时,$sort操作只会在过程中维持前n个结果,其中n是指定的限制,而MongoDB只需要将n个项存储在内存中。当allowDiskUse为true并且n个项目超过聚合内存限制时,此优化仍然适用。

$skip

跳过进入stage的指定数量的文档,并将其余文档传递到管道中的下一个阶段

语法

{ $skip: <positive integer> }

示例,此操作将跳过管道传递给它的前5个文档, $skip对沿着管道传递的文档的内容没有影响。

db.zips.aggregate({
"$skip": 5
});
$sort

对所有输入文档进行排序,并按排序顺序将它们返回到管道。
语法

{ $sort: { <field1>: <sort order>, <field2>: <sort order> ... } }

$sort指定要排序的字段和相应的排序顺序的文档。 可以具有以下值之一:

  • 1指定升序。
  • -1指定降序。
  • {$meta:“textScore”}按照降序排列计算出的textScore元数据。

示例
要对字段进行排序,请将排序顺序设置为1或-1,以分别指定升序或降序排序,如下例所示:

db.zips.aggregate([
{
"$sort": {
"pop": -1,
"city": 1
}
}
])

$sortByCount

根据指定表达式的值对传入文档分组,然后计算每个不同组中文档的数量。每个输出文档都包含两个字段:包含不同分组值的_id字段和包含属于该分组或类别的文档数的计数字段,文件按降序排列。
语法

{ $sortByCount: <expression> }

使用示例
下面举了一些常用的mongo聚合例子和mysql对比,假设有一条如下的数据库记录(表名:zips)作为例子:
统计所有数据
SQL的语法格式如下

select count(1) from zips;

mongoDB的语法格式

db.zips.aggregate([
{
"$group": {
"_id": null,
"count": {
"$sum": 1
}
}
}
])


对所有城市人数求合
SQL的语法格式如下

select sum(pop) AS tota from zips;

mongoDB的语法格式

db.zips.aggregate([
{
"$group": {
"_id": null,
"total": {
"$sum": "$pop"
}
}
}
])


对城市缩写相同的城市人数求合
SQL的语法格式如下

select state,sum(pop) AS tota from zips group by state;

mongoDB的语法格式

db.zips.aggregate([
{
"$group": {
"_id": "$state",
"total": {
"$sum": "$pop"
}
}
}
])


state重复的城市个数

SQL的语法格式如下

select state,count(1) AS total from zips group by state;

mongoDB的语法格式

db.zips.aggregate([
{
"$group": {
"_id": "$state",
"total": {
"$sum": 1
}
}
}
])


state重复个数大于100的城市
SQL的语法格式如下

select state,count(1) AS total from zips group by state having count(1)>100;

mongoDB的语法格式

db.zips.aggregate([
{
"$group": {
"_id": "$state",
"total": {
"$sum": 1
}
}
},
{
"$match": {
"total": {
"$gt": 100
}
}
}
])

MapReduce

MongoDB的聚合操作主要是对数据的批量处理,一般都是将记录按条件分组之后进行一系列求最大值,最小值,平均值的简单操作,也可以对记录进行数据统计,数据挖掘的复杂操作,聚合操作的输入是集中的文档,输出可以是一个文档也可以是多个文档。
Pipeline查询速度快于MapReduce,但是MapReduce的强大之处在于能够在多台Server上并行执行复杂的聚合逻辑,MongoDB不允许Pipeline的单个聚合操作占用过多的系统内存,如果一个聚合操作消耗20%以上的内存,那么MongoDB直接停止操作,并向客户端输出错误消息。

MapReduce是一种计算模型,简单的说就是将大批量的工作(数据)分解(MAP)执行,然后再将结果合并成最终结果(REDUCE)
mapreduce使用javascript语法编写,其内部也是基于javascript V8引擎解析并执行,javascript语言的灵活性也让mapreduce可以处理更加复杂的业务场景;当然这相对于aggreation pipleine而言,意味着需要书写大量的脚本,而且调试也将更加困难。(调试可以基于javascript调试,成功后再嵌入到mongodb中)

执行阶段

mapreduce有2个阶段:map和reduce;

  • mapper处理每个document,然后emits一个或者多个objects,object为key-value对;
  • reducer将map操作的结果进行联合操作(combine)。此外mapreduce还可以有一个finalize阶段,这是可选的,它可以调整reducer计算的结果。在进行mapreduce之前,mongodb支持使用query来筛选文档,也支持sort排序和limit。

语法

MapReduce 的基本语法如下:

db.collection.mapReduce(
function() {emit(key,value);}, //map 函数
function(key,values) {return reduceFunction}, //reduce 函数
{
out: collection,
query: document,
sort: document,
limit: number,
finalize: <function>,
scope: <document>,
jsMode: <boolean>,
verbose: <boolean>
}
)

使用 MapReduce 要实现两个函数 Map 函数和 Reduce 函数,Map 函数调用 emit(key, value), 遍 历 collection 中所有的记录, 将 key 与 value 传递给 Reduce 函数进行处理。
参数说明

  • map:是JavaScript 函数,负责将每一个输入文档转换为零或多个文档,通过key进行分组,生成键值对序列,作为 reduce函数参数
  • reduce:是JavaScript 函数,对map操作的输出做合并的化简的操作(将key-values变成key-value,也就是把values数组变成一个单一的值value)
  • out:统计结果存放集合 (不指定则使用临时集合,在客户端断开后自动删除)。
  • query: 一个筛选条件,只有满足条件的文档才会调用map函数。(query。limit,sort可以随意组合)
  • sort: 和limit结合的sort排序参数(也是在发往map函数前给文档排序),可以优化分组机制
  • limit: 发往map函数的文档数量的上限(要是没有limit,单独使用sort的用处不大)
  • finalize:可以对reduce输出结果再一次修改,跟group的finalize一样,不过MapReduce没有group的4MB文档的输出限制
  • scope:向map、reduce、finalize导入外部变量
  • verbose:是否包括结果信息中的时间信息,默认为fasle

使用示例

按照state分组统计

样例SQL

select by,count(1) from blog group by by having likes>100

mapReduce写法
这是统计每一个作者的博客分数是100以上的文章数

db.blog.mapReduce(
function(){
emit(this.by,1);
},
function(key,values){
return Array.sum(values);
},
{
query:{likes:{$gt:100}},
out:"result001",
}
)

输出结果
将结果输出

# 显示集合
show tables;
# 查询结果集数据
db.result001.find({})

编程语法

在mongodb中,mapreduce除了包含mapper和reducer之外,还包含其他的一些选项,不过整体遵循mapreduce的规则:

map

javascript方法,此方法中可以使用emit(key,value),一次map调用中允许返回调用多次emit(也可以不调用),它不需要返回值;其中key用来分组,value将来会被传递给reducer用于“聚合计算”。每条document都会调用一次map方法。
mapper中输入的是当前document,可以通过this.来获取字段的值。mapper应该是封闭的,它不能访问外部资源,比如collection、database,不能修改外部的值,但允许访问“scope”中的变量。emit的值不能大于16M,即document最大的尺寸,否则mongodb将会抛出错误。

function() {
this.items.forEach(function(item) {emit(item.sku,1);}); //多次emit
}
reduce

javascript方法,此方法接收key和values两个参数,经过mapper处理和“归并之后”,一个key将会对应一组values(分组,key:values),此values将会在reduce中进行**“聚合计算”,比如:sum、平均数、数据分拣等等。**
reducer和mapper一样是封闭的,它内部不允许访问database、collection等外部资源,不能修改外部值,但可以访问“scope”中的变量;如果一个key只有一个value,那么mongodb就不会调用reduce方法。可能一个key对应的values条数很多,将会调用多次reduce,即前一次reduce的结果可能被包含在values中再次传递给reduce方法,这也要求,reduce返回的结果需要和value的结构保持一致。同样,reduce返回的数据尺寸不能大于8M(document最大尺寸的一半,因为reduce的结果可能会作为input再次reduce)。

//mapper
function() {
emit(this.categoryId,{'count' : 1});
}
//reducer
function(key,values) {
var current = {'count' : 0};
values.forEach(function(item) { current.count += item.count;});
return current;
}

此外reduce内的算法需要是幂等的,且与输入values的顺序无关的,因为即使相同的input文档,也无法保证map-reduce的每个过程都是逐字节相同的,但应该确保计算的结果是一致的。

out

document结构,包含一些配置选项;用于指定reduce的结果最终如何保存。可以将结果以inline的方式直接输出(cursor),或者写入一个collection中。

out : {
<action> : <collectionName>
[,db:<dbName>]
[,sharded:<boolean>]
[,nonAtomic:<boolean>]

out方式默认为inline,即不保存数据,而是返回一个cursor,客户端直接读取数据即可。

action

表示如果保存结果的已经存在时,将如何处理:

  • replace:替换,替换原collection中的内容;先将数据保存在临时collection,此后rename,再将旧collection删除
  • merge:将结果与原有内容合并,如果原有文档中持有相同的key(即_id字段),则直接覆盖原值
  • reduce:将结果与原有内容合并,如果原有文档中有相同的key,则将新值、旧值合并后再次应用reduce方法,并将得到的值覆盖原值(对于“用户留存”、“数据增量统计”非常有用)。
db

结果数据保存在哪个database中,默认为当前db;开发者可能为了进一步使用数据,将统计结果统一放在单独的database中

sharded

输出结果的collection将使用sharding模式,使用_id作为shard key;不过首先需要开发者对
所在的database开启sharding,否则将无法执行。

nonAtomic

“非原子性”,仅对“merge”和“replace”有效,控制output collection,默认为false,即“原子性”; 即mapreduce在输出阶段将会对output collection所在的数据库加锁,直到输出结束,可能性能会有影响;
如果为true,则不会对db加锁,其他客户端可以读取到output collection的中间状态数据。我们通常将ouput collection单独放在一个db中,和application数据分离开,而且nonAtomic为false,我们也不希望用户读到“中间状态数据”。
可以通过指定“out:{inline : 1}”将输出结果保存在内存中,并返回一个cursor,客户端可以直接读取即可。

query

筛选文档,只需要将符合条件的documents传递给mapper

sort

对刷选之后的文档排序,然后才传递给mapper。如果根据map的key进行排序,则可以减少
reduce的操作次数。排序必须能够使用index。

limit

限定输入到map的文档条数

finalize

终结操作,在输出之前调整reduce的结果。它和map、reduce一样,也是一个javascript方法,接收key和value,其中value为reduce输出结果,finalize方法中可以修改value的值作为最终的输出结果:

function(key,value) {
var final = {count : 0,key:""};
final.key = key;
return final;
}
scope

document结构,保存一些global级别的变量值,它们可以在map、reduce、finalize中被访问。

jsMode

可选值为true或者false;表示是否将map执行的中间结果数据由javascript对象转换成BSON对象,默认为false。

  • false表示,在mapper中emit最终输出的是javascript对象,因为是javascript引擎处理的,不过mapper可能产生大量的数据,这些数据将会被保存在临时的存储中(collection),所以需要将javascript对象转换成BSON;在reduce阶段,这些BSON结果再被转换成javascript对象,传递给reduce方法,转换意味着性能消耗和慢速,它解决的问题就是“临时存储”以适应较大数据集的数据分析。
  • 如果为true,将不会进行类型转换,数据被暂存在内存中,reduce阶段直接使用mapper的结果即可,但是key的个数不能超过50W个。在production环境中,此值建议为false。

mongo特性、 搭建 、 springboot 、 索引调优 、 explain分析工具、索引设计,高级特性: geo 、 聚合查询 、 集群,mongodbshell

一些练习

// 筛选人数大于10万的文档
match = {
KaTeX parse error: Expected '}', got 'EOF' at end of input: match: {pop: {gt: 10}}
}
pipeline = [match]
db.zips.aggregate(pipeline);

// 不显示id字段,如果人数pop大于1000,则修改loc地理位置为[0,0],否则显示原位置信息?
project = {
KaTeX parse error: Expected '}', got 'EOF' at end of input: … city: {literal: 1},
state: 1,
pop: 1,
newPop: “$pop”,
loc: {
KaTeX parse error: Expected '}', got 'EOF' at end of input: … if: {gt: [“KaTeX parse error: Expected 'EOF', got '}' at position 12: pop", 1000]}̲, …loc”
}
}
}
}
pipeline = [project]
db.zips.aggregate(pipeline);

// 计算美国每个州(state)的总人数(totalPop),平均人数(avgPop),数量(count) 并将每个州包含的城市(city)输出到cities字段中?
group = {
KaTeX parse error: Expected '}', got 'EOF' at end of input: … _id: "state",
totalPop: {sum:"sum: "sum:"pop"},
avgPop: {avg:"avg: "avg:"pop"},
count: {KaTeX parse error: Expected 'EOF', got '}' at position 7: sum: 1}̲, citie…addToSet: “$city”}
}
}
pipeline = [group]
db.zips.aggregate(pipeline);

// 根据state进行升序排序,state相同的按照pop进行降序排序
sort = {
$sort: {
state: 1,
pop: -1
}
}
pipeline = [sort]
db.zips.aggregate(pipeline);

// 输出前5个文档
limit = {
$limit: 5
}
pipeline = [limit]
db.zips.aggregate(pipeline);

// 跳过前5个文档
skip = {
$skip: 5
}
pipeline = [skip]
db.zips.aggregate(pipeline);

// 统计文档的数量
count = {
$count: “totalCount”
}
pipeline = [count]
db.zips.aggregate(pipeline);

// 将loc数组中每个元素输出一个文档
match = {
$match: {
_id: “01001”
}
}
unwind = {
KaTeX parse error: Expected '}', got 'EOF' at end of input: … path: "loc",
includeArrayIndex: “loc_index”,
preserveNullAndEmptyArrays: true
}
}
pipeline = [match, unwind]
db.zips.aggregate(pipeline);

// 按州进行分组计数
sortByCount = {
sortByCount:"sortByCount: "sortByCount:"state"
}
pipeline = [sortByCount]
db.zips.aggregate(pipeline);

// 按州进行分组计数
function map() {
// this 代表的是集合中每一个文档
key = this.state
value = {count: 1}
emit(key, value);
}
//{“MA”, {count: 1}}
//{“MA”, {count: 1}}
//{“MA”, {count: 1}}
//{“MA”, {count: 1}}
function reduce(key, values) {
// key = “MA”,
// values = [{count: 1}, {count: 1}, {count: 3}]
var totalCount = 0;
values.forEach(function(obj){
totalCount += obj.count
});
value = {count: totalCount};
return value;// {count: 3}
}
optionsOrOutString = {
out: “result”,
query: {state: {$in: [“MA”, “IN”, “DE”]}},
sort: {state: 1},
limit: 9000,
finalize: function(key, value) {
return custom_var + value.count;
},
scope: {custom_var: "val = "},
jsMode: true,
verbose: true
}
db.zips.mapReduce(map, reduce, optionsOrOutString);

db.result.find();

// 按州进行分组计数
match = {
KaTeX parse error: Expected '}', got 'EOF' at end of input: …atch: {state: {in: [“IN”, “DE”]}}
}
group = {
KaTeX parse error: Expected '}', got 'EOF' at end of input: …oup: { _id: "state",
count: {$sum: 1}
}
}
pipeline = [match, group]
db.zips.aggregate(pipeline);

MongoDB聚合查询 Pipeline 和 MapReduce相关推荐

  1. MongoDB聚合查询

    MongoDB高手课_MongoDB_NoSQL-极客时间极客时间推出的MongoDB高手课是帮助互联网从业者学习MongoDB.NoSQL的在线课程,极客时间是面向IT领域的知识服务产品,致力于帮助 ...

  2. mongodb聚合查询-aggregate

    Mongodb-aggregate 在工作中经常遇到一些mongodb的聚合操作,和mysql对比起来,mongo存储的可以是复杂的类型,比如数组,字典等mysql不善于处理的文档型结构,但是mong ...

  3. Mongodb使用之Aggregation聚合查询:.group()/.project()/.and().previousOperation()等api的使用

    最近在项目中遇到了Mongodb在聚合查询上的应用,在这里做一个记录. Spring Data MongoDB 中的聚合框架支持基于以下关键抽象:Aggregation.AggregationDefi ...

  4. MongoDB 聚合操作

    MongoDB 聚合操作 在MongoDB中,有两种方式计算聚合:Pipeline 和 MapReduce.Pipeline查询速度快于MapReduce,但是MapReduce的强大之处在于能够在多 ...

  5. limit mongodb 聚合_MongoDB 聚合操作(转)

    在MongoDB中,有两种方式计算聚合:Pipeline 和 MapReduce.Pipeline查询速度快于MapReduce,但是MapReduce的强大之处在于能够在多台Server上并行执行复 ...

  6. MongoDB 聚合管道(Aggregation Pipeline)

    管道概念 POSIX多线程的使用方式中, 有一种很重要的方式-----流水线(亦称为"管道")方式,"数据元素"流串行地被一组线程按顺序执行.它的使用架构可参考 ...

  7. mongodb高级聚合查询

    在工作中会经常遇到一些mongodb的聚合操作,特此总结下.mongo存储的可以是复杂类型,比如数组.对象等mysql不善于处理的文档型结构,并且聚合的操作也比mysql复杂很多. 注:本文基于 mo ...

  8. MongoDB 入门教程实战学习笔记-31-mongo 聚合查询管道 Aggregation Pipieline

    aggregation 聚合操作处理数据记录并返回计算结果. 聚合操作将多个文档中的值组合在一起, 并且可以对分组数据执行各种操作以返回单个结果. mongodb 提供了三种执行聚合的方法: 聚合管道 ...

  9. mongodb聚合查询优化_MongoDB聚合查询详解

    聚合操作主要用于处理数据并返回计算结果.聚合操作将来自多个文档的值组合在一起,按条件分组后,再进行一系列操作(如求和.平均值.最大值.最小值)以返回单个结果. MongoDB 提供了三种执行聚合的方法 ...

最新文章

  1. java 中的 Enumeration 在Vector,Hashtable和web中的应用
  2. pyWavelets工具包的安装及使用
  3. 三分钟掌握数据中心“容灾和备份的区别”
  4. 一个整数,它加上100后是一个完全平方数,再加上168又是一个完全平方数,请问该数是多少...
  5. Tomcat启用HTTPS协议配置过程
  6. 鸿蒙应用开发--组件
  7. 长虹美菱:公司主要通过抖音短视频等平台进行直播带货
  8. APACHE服务器出现No input file specified.解决方案
  9. 拓端tecdat|在R语言和Stan中估计截断泊松分布
  10. 小说app开发功能及盈利方式
  11. 前端页面缓存系列之localStorage
  12. python opencv4.0 提取alpha 通道
  13. c# 从MySQL往sharpmap中加载矢量数据图层(一)
  14. 软件设计与体系结构——创建型模式
  15. Failed to load API definition
  16. 交易系统开发(十一)——QuickFIX简介
  17. 使用U-Net 进行图像分割
  18. s4800扫描电镜的CSS3_4800 型扫描电镜 简易操作指南
  19. 小白给小白详解维特比算法(一)
  20. 1+X”中级Web前端证书对应课程分析

热门文章

  1. ValueError: Extra data: line 2 column 1 - line 225116 column 1 (char 232 - 160128774)
  2. 【scala】collect算子
  3. IDEA MAVEN项目打包成jar包的两种简单方式
  4. Tutorial教程:利用神经网络识别骰子点数(1)
  5. 全球首发!达菲新朋友--小狐狸玲娜贝儿将于29日亮相上海迪士尼
  6. ListPreference
  7. HTML的表和内联框架
  8. C#编程 LINQ查询
  9. 前端知识点HTML+基础JS总结
  10. 携程反爬中的Eleven参数-反爬与反反爬的奇技淫巧