位图&布隆过滤器&海量数据处理

文章目录

  • 位图&布隆过滤器&海量数据处理
  • 一、位图
  • 二、布隆过滤器
  • 三、海量数据处理

一、位图

1. 位图概念:

所谓位图,就是用每一位来存放某种状态,适用于海量数据,数据无重复的场景。通常是用来判断某个数据存不存在的

例:

给40亿个不重复的无符号整数,没排过序。给一个无符号整数,如何快速判断一个数是否在这40亿个数中

  1. 遍历,时间复杂度O(N)
  2. 排序(O(NlogN)),利用二分查找: logN
  3. 位图解决
    数据是否在给定的整形数据中,结果是在或者不在,刚好是两种状态,那么可以使用一个二进制比特位来代表数据是否存在的信息,如果二进制比特位为1,代表存在,为0代表不存在。比如:

2. 位图的实现

#pragma  once
#include<bitset>
#include<iostream>
#include<vector>
using namespace std;namespace wolf {template<size_t N>class BitSet {public:BitSet() :_count(0){_bset.resize((N >> 3) + 1);}//将pos位置1BitSet<N>& set(size_t pos) {if (pos >= N)return *this;size_t index = pos >> 3;size_t bitNo = pos % 8;if (0 == (_bset[index] & (1 << bitNo))) {++_count;_bset[index] |= (1 << bitNo);}return *this;}//将pos位置0BitSet<N>& reset(size_t pos) {if (pos >= N)return *this;size_t index = pos >> 3;size_t bitNo = pos % 8;if (_bset[index] & (1 << bitNo)) {--_count;_bset[index] &= ~(1 << bitNo);}return *this;}size_t size()const {return N;}size_t count()const {return _count;}//检查pos位是0还是1bool test(size_t pos)const {if (pos >= N)return false;size_t index = pos >> 3;size_t bitNo = pos % 8;return 0 != (_bset[index] & (1 << bitNo));}private:size_t _count;vector<unsigned char> _bset;};
}//end of wolf

3. 位图的应用:

  1. 快速查找某个数据是否在一个集合中
  2. 排序
  3. 求两个集合的交集、并集等
  4. 操作系统中磁盘块标记

二、布隆过滤器

1. 布隆过滤器提出:

我们在使用新闻客户端看新闻时,它会给我们不停地推荐新的内容,它每次推荐时要去重,去掉那些已经看过的内容。问题来了,新闻客户端推荐系统如何实现推送去重的? 用服务器记录了用户看过的所有历史记录,当推荐系统推荐新闻时会从每个用户的历史记录里进行筛选,过滤掉那些已经存在的记录。 如何快速查找呢?

  1. 用哈希表存储用户记录,缺点:浪费空间
  2. 用位图存储用户记录,缺点:不能处理哈希冲突
  3. 将哈希与位图结合,即布隆过滤器

2. 布隆过滤器概念

布隆过滤器是由布隆(Burton Howard Bloom)在1970年提出的 一种紧凑型的、比较巧妙的概率型数据结构,特点是高效地插入和查询,可以用来告诉你 “某样东西一定不存在或者可能存在”,它是用多个哈希函数,将一个数据映射到位图结构中。此种方式不仅可以提升查询效率,也可以节省大量的内存空间.

3. 布隆过滤器的插入

// 假设布隆过滤器中元素类型为K,每个元素对应5个哈希函数
template<class K, class KToInt1 = KeyToInt1, class KToInt2 = KeyToInt2,class KToInt3 = KeyToInt3, class KToInt4 = KeyToInt4,class KToInt5 = KeyToInt5>
class BloomFilter
{public:BloomFilter(size_t size) // 布隆过滤器中元素个数: _bmp(5*size), _size(0){}bool Insert(const K& key){size_t bitCount = _bmp.Size();size_t index1 = KToInt1()(key)%bitCount;size_t index2 = KToInt2()(key)%bitCount;size_t index3 = KToInt3()(key)%bitCount;size_t index4 = KToInt4()(key)%bitCount;size_t index5 = KToInt5()(key)%bitCount;_bmp.Set(index1); _bmp.Set(index2);_bmp.Set(index3);_bmp.Set(index4);_bmp.Set(index5);_size++;}
private:bitset _bmp;size_t _size; // 实际元素的个数
}

4. 布隆过滤器的查找

布隆过滤器的思想是将一个元素用多个哈希函数映射到一个位图中,因此被映射到的位置的比特位一定为1。所以可以按照以下方式进行查找:分别计算每个哈希值对应的比特位置存储的是否为零,只要有一个为零,代表该元素一定不在哈希表中,否则可能在哈希表中。

bool IsInBloomFilter(const K& key)
{size_t bitCount = _bmp.Size();size_t index1 = KToInt1()(key)%bitCount;if(!_bmp.Test(index1))return false;size_t index2 = KToInt2()(key)%bitCount;if(!_bmp.Test(index2))return false;size_t index3 = KToInt3()(key)%bitCount;if(!_bmp.Test(index3))return false;size_t index4 = KToInt4()(key)%bitCount;if(!_bmp.Test(index4))return false;size_t index5 = KToInt5()(key)%bitCount;if(!_bmp.Test(index5))return false;return true; // 有可能在
}

注意:布隆过滤器如果说某个元素不存在时,该元素一定不存在,如果该元素存在时,该元素可能存在,因为有些哈希函数存在一定的误判

5. 布隆过滤器删除

  • 布隆过滤器不能直接支持删除工作,因为在删除一个元素时,可能会影响其他元素。
  • 比如:删除上图中"tencent"元素,如果直接将该元素所对应的二进制比特位置0,“baidu”元素也被删除了,因为这两个元素在多个哈希函数计算出的比特位上刚好有重叠。
  • 一种支持删除的方法:将布隆过滤器中的每个比特位扩展成一个小的计数器,插入元素时给k个计数器(k个哈希函数计算出的哈希地址)加一,删除元素时,给k个计数器减一,通过多占用几倍存储空间的代价来增加删除操作

缺陷:

  1. 无法确认元素是否真正在布隆过滤器中
  2. 无法获取元素本身
  3. 存在计数回绕

三、海量数据处理

1. 给定a、b两个文件,各存放50亿个url,每个url各占64字节,内存限制是4G,让你找出a、b文件共同的url?

方案1

  • 可以估计每个文件的大小为50G×64=320G,远远大于内存限制的4G。所以不可能将其完全加载到内存中处理。考虑采取分而治之的方法。
  • 遍历文件a,对每个url求取hash(url)hash(url)hash(url)%1000,然后根据所取得的值将url分别存储到1000个小文件(记为a0a0a0,a1a1a1,a2a2a2,…a999a999a999)中。这样每个小文件的大约为300M。
  • 遍历文件b,采取和a相同的方式将url分别存储到1000各小文件(记为b0b0b0,b1b1b1,b2b2b2,…b999b999b999)。
  • 这样处理后,所有可能相同的url都在对应的小文件(a0/b0a0/b0a0/b0,a1/b1a1/b1a1/b1,a2/b2a2/b2a2/b2,…a999/b999a999/b999a999/b999)中,不对应的小文件不可能有相同的url。然后我们只要求出1000对小文件中相同的url即可。
  • 求每对小文件中相同的url时,可以把其中一个小文件的url存储到hash_set中。然后遍历另一个小文件的每个url,看其是否在刚才构建的hash_set中,如果是,那么就是共同的url,存到文件里面就可以了。

方案2:如果允许有一定的错误率,可以使用Bloom filter4G内存大概可以表示340亿bit。将其中一个文件中的url使用Bloom filter映射为这340亿bit,然后挨个读取另外一个文件的url,检查是否与Bloom filter,如果是,那么该url应该是共同的url(注意会有一定的错误率)。

2. 有10个文件,每个文件1G,每个文件的每一行存放的都是用户的query,每个文件的query都可能重复。要求你按照query的频度排序。

方案1

  • 顺序读取10个文件,按照hash(query)%10的结果将query写入到另外10个文件(记为a0a0a0,a1a1a1,a2a2a2,…a10a10a10)中。这样新生成的文件每个的大小大约也1G(假设hash函数是随机的)。
  • 找一台内存在2G左右的机器,依次对a0a0a0,a1a1a1,a2a2a2,…a10a10a10用hash_map(query, query_count)来统计每个query出现的次数。利用快速/堆/归并排序按照出现次数进行排序。将排序好的query和对应的query_cout输出到文件中。这样得到了10个排好序的文件(b0b0b0,b1b1b1,b2b2b2,…b10b10b10)。
  • 对b0b0b0,b1b1b1,b2b2b2,…b10b10b10这10个文件进行归并排序(内排序与外排序相结合)。

方案2

一般query的总量是有限的,只是重复的次数比较多而已,可能对于所有的query,一次性就可以加入到内存了。这样,我们就可以采用trie树/hash_map等直接来统计每个query出现的次数,然后按出现次数做快速/堆/归并排序就可以了。

方案3

与方案1类似,但在做完hash,分成多个文件后,可以交给多个文件来处理,采用分布式的架构来处理(比如MapReduce),最后再进行合并

3. 有一个1G大小的一个文件,里面每一行是一个词,词的大小不超过16字节,内存限制大小是1M。返回频数最高的100个词。

方案1:顺序读文件中,对于每个词x,取hash(x)hash(x)hash(x)%5000,然后按照该值存到5000个小文件(记为x0x0x0,x1x1x1,…x4900x4900x4900)中。这样每个文件大概是200k左右。如果其中的有的文件超过了1M大小,还可以按照类似的方法继续往下分,直到分解得到的小文件的大小都不超过1M对每个小文件,统计每个文件中出现的词以及相应的频率(可以采用trie树/hash_map等),并取出出现频率最大的100个词(可以用含100个结点的最小堆)并把100词及相应的频率存入文件,这样又得到了5000个文件。下一步就是把这5000个文件进行归并(类似与归并排序)的过程了。

4. 海量日志数据,提取出某日访问百度次数最多的那个IP。

方案1:首先是这一天,并且是访问百度的日志中的IP取出来,逐个写入到一个大文件中。注意到IP是32位的,最多有2^32个IP。同样可以采用映射的方法,比如模1000,把整个大文件映射为1000个小文件,再找出每个小文中出现频率最大的IP(可以采用hash_map进行频率统计,然后再找出频率最大的几个)及相应的频率。然后再在这1000个最大的IP中,找出那个频率最大的IP,即为所求。

5. 在2.5亿个整数中找出不重复的整数,内存不足以容纳这2.5亿个整数。

方案1:采用2-Bitmap(每个数分配2bit,00表示不存在,01表示出现一次,10表示多次,11无意义)进行,共需内存2^32 * 2G内存,还可以接受。然后扫描这2.5亿个整数,查看Bitmap中相对应位,如果是00变01,01变10,10保持不变。所描完事后,查看bitmap,把对应位是01的整数输出即可

方案2也可采用上题类似的方法,进行划分小文件的方法。然后在小文件中找出不重复的整数,并排序。然后再进行归并,注意去除重复的元素

6. 海量数据分布在100台电脑中,想个办法高校统计出这批数据的TOP10。

方案1

  • 在每台电脑上求出TOP10,可以采用包含10个元素的堆完成(TOP10小,用最大堆,TOP10大,用最小堆)。比如求TOP10大,我们首先取前10个元素调整成最小堆,如果发现,然后扫描后面的数据,并与堆顶元素比较,如果比堆顶元素大,那么用该元素替换堆顶,然后再调整为最小堆。最后堆中的元素就是TOP10大。
  • 求出每台电脑上的TOP10后,然后把这100台电脑上的TOP10组合起来,共1000个数据,再利用上面类似的方法求出TOP10就可以了。

7. 怎么在海量数据中找出重复次数最多的一个?

方案1先做hash,然后求模映射为小文件,求出每个小文件中重复次数最多的一个,并记录重复次数。然后找出上一步求出的数据中重复次数最多的一个就是所求(具体参考前面的题)

8. 上千万或上亿数据(有重复),统计其中出现次数最多的前N个数据。

方案1:上千万或上亿的数据,现在的机器的内存应该能存下。所以考虑采用hash_map/搜索二叉树/红黑树等来进行统计次数。然后就是取出前N个出现次数最多的数据了,可以用第6题提到的堆机制完成

9. 1000万字符串,其中有些是重复的,需要把重复的全部去掉,保留没有重复的字符串。请怎么设计和实现?

方案1:这题用trie树比较合适,hash_map也应该能行。

10. 一个文本文件,大约有一万行,每行一个词,要求统计出其中最频繁出现的前10个词,请给出思想,给出时间复杂度分析。

方案1:这题是考虑时间效率。用trie树统计每个词出现的次数,时间复杂度是O(n∗le)O(n*le)O(n∗le)(le表示单词的平准长度)然后是找出出现最频繁的前10个词,可以用堆来实现,前面的题中已经讲到了,时间复杂度是$O(n*lg10)$。所以总的时间复杂度,是O(n∗le)O(n*le)O(n∗le)与O(n∗lg10)O(n*lg10)O(n∗lg10)中较大的哪一个。

11. 一个文本文件,找出前10个经常出现的词,但这次文件比较长,说是上亿行或十亿行,总之无法一次读入内存,问最优解。

方案1首先根据用hash并求模,将文件分解为多个小文件,对于单个文件利用上题的方法求出每个文件件中10个最常出现的词。然后再进行归并处理,找出最终的10个最常出现的词。

12. 100w个数中找出最大的100个数。

方案1:在前面的题中,我们已经提到了,用一个含100个元素的最小堆完成。复杂度为O(100w∗lg100)O(100w*lg100)O(100w∗lg100)。

方案2:采用快速排序的思想,每次分割之后只考虑比轴大的一部分,知道比轴大的一部分在比100多的时候,采用传统排序算法排序,取前100个。复杂度为O(100w∗100)O(100w*100)O(100w∗100)。

方案3:采用局部淘汰法。选取前100个元素,并排序,记为序列L。然后一次扫描剩余的元素x,与排好序的100个元素中最小的元素比,如果比这个最小的要大,那么把这个最小的元素删除,并把x利用插入排序的思想,插入到序列L中。依次循环,知道扫描了所有的元素。复杂度为O(100w∗100)O(100w*100)O(100w∗100)。

13. 寻找热门查询:

搜索引擎会通过日志文件把用户每次检索使用的所有检索串都记录下来,每个查询串的长度为1-255字节。假设目前有一千万个记录,这些查询串的重复读比较高,虽然总数是1千万,但是如果去除重复和,不超过3百万个。一个查询串的重复度越高,说明查询它的用户越多,也就越热门。请你统计最热门的10个查询串,要求使用的内存不能超过1G。

方案1:采用trie树,关键字域存该查询串出现的次数,没有出现为0。最后用10个元素的最小推来对出现频率进行排序。

14. 给一个超过 100G 大小的 log file,log 中存着 ip 地址, 设计算法找到出现次数最多的 ip 地址? ? ?

  • 首先看到 100G 的日志文件, 我们的第一反应是太大了, 根本加载不到内存, 更别说设计算法了, 那么怎么办呢? 既然装不下,那么我们是不是可以将其切分开, 一小部分一小部分轮轮流进入内存呢, 也就是所谓的分治法。
  • 如果我们将其分为 1000 个文件, 那么每个文件也就是 100M 左右, 将每个文件依次载入内存, 利用 id=ip%1000 将 ip 地址相同的映射到同一个文件中, 依次统计每个文件中 ip 地址的个数, 个数最多的那个文件里存放的 ip 即为出现次数最多的 ip

15. 给定 100 亿个整数, 设计算法找到只出现一次的整数

  • 10000000000 个整数, 一个整数 4 个字节, 所以是 40000000000 亿个字节,也就是 40000000K=40000M=40G,所以大约是 40G,一次加载到内存中显然是不可能的。
    方法一哈希法

首先, 将这些数据分为 100 分, 那么, 每个文件也就是大约 40M, 然后利用哈希法将值相同的元素分到相同的文件中, 最后统计文件中有一个元素的文件, 文件中存的整数及就是出现一次的整数

方法二位图变形

三种状态: 00 表示不存在, 01 表示出现一次, 10 表示出现多次
同样, 将数据分批载入内存, 位图初始状态为全 0, 依次遍历数据, 出现一次将对应位图改为 01, 再出现将位图置为 10, 位图中为 01 的即为出现一次的整数

16. 给两个文件, 分别有 100 亿个整数, 我们只有 1g 内存, 如何找到两个文件的交集

方案一哈希切分法(精确算法)

对两个文件分别进行哈希切分, 分成 100 个小文件,每个文件中是相同整数, 两个文件中下标相同的小文件即为两个文件的交集。 此算法的时间复杂度为 o(n)o(n)o(n)。

方案二位图法(布隆过滤器, 近似算法, 因为布隆过滤器有可能一个位代表多个 key)

将第一文件中的数字映射到位图中, 也就是大约 1.25G,然后拿第二个文件中的数字一一映射, 如果位图中为 1 的即为交集。 此算法的时间复杂度为 o(n)

17. 1 个文件有 100 亿个 int,1G 内存, 设计算法找出出现次数不超过 2 次的所有整数。
(思路类似第15题)

位图布隆过滤器海量数据处理相关推荐

  1. C++ 第十节 ——哈希 unordered_map/unordered_set的封装 位图 布隆过滤器 海量数据处理

    我们本节继续讲解STL里的内容. 哈希表又叫做散列表,它可以用来封装unordered_map和unordered_set. 我们还是按照老规矩来,先介绍其用法,再介绍其原理,并引到哈希上来. 目录 ...

  2. 哈希(解决哈希冲突,封装map/set,哈希的应用{位图/布隆过滤器})

    文章目录 如何解决哈希冲突: ①闭散列:也叫开放定址法,如果发送哈希冲突了,就去找下一个空位置 ②开散列 -- 拉链法/哈希桶 封装map和set 哈希表的代码 封装的unordered_set 封装 ...

  3. 高级数据结构——海量数据(位图,布隆过滤器)

    目录 位图 位图介绍 位图代码实现 布隆过滤器 布隆过滤器介绍 布隆过滤器代码实现 布隆过滤器的优缺点 海量数据相关题目 位图 位图介绍 位图(bitmap),适用于存储海量,非负整数,不重复的数据. ...

  4. 位图+布隆过滤器-待续

    基础 bit位就是我们熟悉的比特位啊,计算机内部数据存储的最小单位 byte比较常见了:字节,数据处理的基本单位:1byte=8bit 1B=8bit 字符:计算机使用的字母.数字.字和符号 asci ...

  5. 布隆过滤器,数据处理的神来之笔!BloomFilter

    研究了一个周的问题,终于得到释然与证实,之前一直在研究大数据集的处理问题,以个人的理解和总结写出了这个记录,以后对自己.或者更多的人有所帮助,算是小成了.    领域涉及通信.项目面对的是大数据集处理 ...

  6. Java实现布隆过滤器

    布隆过滤器 海量数据处理以及缓存穿透这两个场景让我认识了 布隆过滤器 ,我查阅了一些资料来了解它,但是很多现成资料并不满足我的需求,所以就决定自己总结一篇关于布隆过滤器的文章.希望通过这篇文章让更多人 ...

  7. 海量数据处理(二) :常见海量数据处理方法

    对于常见的海量数据处理方法,通常为以下几种,下面的题解也会围绕这几种解法展开 位图 / 布隆过滤器 字典树 / 倒排索引 外部排序 分治 / 哈希切割 + 堆 / 排序 1. 给40亿个不重复的无符号 ...

  8. 从bitmap到布隆过滤器,再到高并发缓存设计策略

    点击关注公众号,Java干货及时送达 作者:that_is_cool blog.csdn.net/that_is_cool/article/details/91346356 前言:怎么能把风马牛不相及 ...

  9. 布隆过滤器(Bloom Filter)、布谷鸟过滤器(Cuckoo Filter)、商过滤器(quotient filter)(持续更新~~~~)

    过滤器 位图 布隆过滤器(Bloom Filter) 布谷鸟过滤器(Cuckoo Filter) 商过滤器(quotient filter) 文章参考链接 位图 在讨论布隆过滤器之前,先看一下位图是什 ...

最新文章

  1. CVPR2020论文介绍: 3D 目标检测高效算法
  2. 戴上脑机接口头盔,他用大脑跟别人「说话」
  3. numpy 创建加一行_数据科学|可视化图解Python科学计算包Numpy
  4. 面试题37:两个链表的第一个公共结点
  5. 架构:Android 组件化开发
  6. java 检测ip网速_java心跳测网速Demo
  7. 开机自启动和由一个APK启动另一个APK核心代码
  8. tps 数据库写并发衡量_硬核干货!抗住百万高并发的 6 个关键技术!
  9. Mysql常用语句(记一下,免得忘)
  10. 重写对象的equals和hashCode方法
  11. Cisco iOS的两种配置文件(思科命令的保存)
  12. UNITY 对话系统
  13. java timezone 中国_Java中TimeZone类的常用方法
  14. Python爬虫入门教程 7-100 蜂鸟网图片爬取之二 1
  15. js 时区对应的时间转换
  16. 查看局域网内其它电脑名称和IP
  17. disable属性导致后台接收值为null解决方法
  18. php js抽奖,JS做出随机抽奖系统
  19. TM1637驱动4位时钟数码管的Arduino 程序
  20. 20220319编译OpenHarmony-v3.1-beta出错的解决方法

热门文章

  1. SpringBoot项目使用微服务后在Service窗口启动应用后不显示端口号
  2. Dapper使用技巧
  3. 内存映射MMAP和DMA【转】
  4. 韩国研制出世界最薄光伏电池:厚度仅为人类头发直径百分之一
  5. IOPS、带宽(band width)、吞吐量 (throughput)
  6. mantis缺陷管理系统配置与安装
  7. 2021牛客多校10 - Browser Games(哈希)
  8. CodeForces - 1539F Strange Array(线段树区间合并)
  9. 中石油训练赛 - Gone Fishing(固定大小的圆可以覆盖最多的点)
  10. HDU - 4417 Super Mario(主席树/线段树+离线)