海量数据分析更快、更稳、更准!GaussDB(for MySQL) HTAP只读分析特性详解
827
2022-05-29
@TOC
零、前言
本章主要讲解C++中对哈希的应用有关方面的内容,位图,布隆,海量数据处理
一、位图
1、位图概念
位图概念:
位图其实就是哈希的变形,同样通过映射来处理数据,只不过位图本身并不存储数据,而是存储标记
通过一个比特位来标记这个数据是否存在,1代表存在,0代表不存在
位图通常情况下用在数据量庞大,且数据不重复的情景下判断某个数据是否存在
相关面试题描述:
给40亿个不重复的无符号整数,没排过序。给一个无符号整数,如何快速判断一个数是否在这40亿个数中
注意:
遍历时间复杂度O(N);排序(O(NlogN))利用二分查找: logN;这两种方式除了效率不够高,还有个问题是内存无法完全同时加载这给40亿个不重复的无符号整数
10亿个整数为40亿字节,而10亿字节为1G,所以40亿个整数需要16G大小空间
位图解决方案:
数据是否在给定的整形数据中,结果是在或者不在,刚好是两种状态
那么可以使用一个二进制比特位来代表数据是否存在的信息,如果二进制比特位为1,代表存在,为0代表不存在
示图:小端平台上
2、位图接口的介绍以及实现
bitset中常用的成员函数如下:
使用示例:
#include
注:使用成员函数set、reset、flip时,若指定了某一位则操作该位,若未指定位则操作所有位
位图的简单实现:
对于底层来说一个位代表一个数的映射,那么我们以char类型来开辟对应需要空间,同时用vector进行管理
对于开辟空间,一个char类型有8个位,所以需要个数/8即为需要开辟的大小,但是整数相除为向下取整,所以需要我们多开一个空间出来
实现代码:
template
3、位图的应用
快速查找某个数据是否在一个集合中
排序
求两个集合的交集、并集等
操作系统中磁盘块标记
二、布隆过滤器
1、布隆过滤器概念和介绍
布隆过滤器的提出:
我们在使用新闻客户端看新闻时,它会给我们不停地推荐新的内容,它每次推荐时要去重,去掉那些已经看过的内容。问题来了,新闻客户端推荐系统如何实现推送去重的?
用服务器记录了用户看过的所有历史记录,当推荐系统推荐新闻时会从每个用户的历史记录里进行筛选,过滤掉那些已经存在的记录
如何快速查找:
用哈希表存储用户记录,缺点:浪费空间
用位图存储用户记录,缺点:不能处理哈希冲突
将哈希与位图结合,即布隆过滤器
布隆过滤器概念:
布隆过滤器是由布隆(Burton Howard Bloom)在1970年提出的 一种紧凑型的、比较巧妙的概率型数据结构
特点是高效地插入和查询,可以用来告诉你 “某样东西一定不存在或者可能存在”
它是用多个哈希函数,将一个数据映射到位图结构中的不同位置上,不仅可以提升查询效率,也可以节省大量的内存空间
示图:
位图中的哈希冲突:
当字符串使用哈希时,无可避免的会出现哈希冲突的问题(可能两个不同的内容映射相同的位置),而位图又是一个不能解决哈希冲突的数据结构。于是布隆过滤器则是使用了多个哈希函数,将数据映射到多个位置上面,才能确保数据的准确性,减小误判的概率
2、布隆过滤器的操作及实现
布隆的插入操作:
使用了多个哈希函数,将数据映射到多个位置上面,并将对应位置标记为1
示图:
布隆过滤器的查找:
分别计算每个哈希值对应的比特位置存储的是否为零,只要有一个为零,代表该元素一定不在哈希表中,否则可能在哈希表中
布隆过滤器如果说某个元素不存在时,该元素一定不存在,如果该元素存在时,该元素可能存在,因为有些哈希函数存在一定的误判(哈希冲突)
布隆过滤器删除:
布隆过滤器不能直接支持删除工作,因为在删除一个元素时,可能会影响其他元素(哈希冲突)
一种支持删除的方法:
将布隆过滤器中的每个比特位扩展成一个小的计数器,插入元素时给k个计数器(k个哈希函数计算出的哈希地址)加一,删除元素时,给k个计数器减一,通过多占用几倍存储空间的代价来增加删除操作
缺陷:
无法确认元素是否真正在布隆过滤器中
存在计数回绕
如何选择哈希函数个数和布隆过滤器长度:
如果一个数据要映射多个位置,如果布隆过滤器较小,则会导致数据马上全部映射满,此时无论进行什么操作,都会存在大量的误报率。也就是说,布隆过滤器的长度与误报率成反比,与空间利用率成反比
哈希函数的个数也值得思考,哈希函数越多,映射的位置也就越多,此时准确性也就越高,但随之带来的问题就是效率的降低。也就是说,哈希函数的个数与效率成反比,准确率成正比
示图:
选择公式:
注意:
k 为哈希函数个数,m 为布隆过滤器长度,n 为插入的元素个数,p 为误报率
所以根据公式,我这里使用的哈希函数为3个,空间就应该开插入元素个数的五倍左右
实现代码:
struct _BKDRHash { //BKDRHash size_t operator()(const std::string& key) { size_t hash = 0; for (size_t i = 0; i < key.size(); i++) { hash *= 131; hash += key[i]; } return hash; } }; struct _SDBMHash { //SDBMHash size_t operator()(const std::string& key) { size_t hash = 0; for (size_t i = 0; i < key.size(); i++) { hash *= 65599; hash += key[i]; } return hash; } }; struct _RSHash { //RSHash size_t operator()(const std::string& key) { size_t hash = 0; size_t magic = 63689; for (size_t i = 0; i < key.size(); i++) { hash *= magic; hash += key[i]; magic *= 378551; } return hash; } }; template
3、布隆过滤器的分析
布隆过滤器优点:
增加和查询元素的时间复杂度为:O(K), (K为哈希函数的个数,一般比较小),与数据量大小无关
哈希函数相互之间没有关系,方便硬件并行运算
布隆过滤器不需要存储元素本身,在某些对保密要求比较严格的场合有很大优势
在能够承受一定的误判时,布隆过滤器比其他数据结构有这很大的空间优势
数据量很大时,布隆过滤器可以表示全集,其他数据结构不能
使用同一组散列函数的布隆过滤器可以进行交、并、差运算
布隆过滤器缺陷:
有误判率,即存在假阳性(False Position),即不能准确判断元素是否在集合中(补救方法:再建立一个白名单,存储可能会误判的数据)
不能获取元素本身
一般情况下不能从布隆过滤器中删除元素
如果采用计数方式删除,可能会存在计数回绕问题
三、海量数据处理
给40亿个不重复的无符号整数,没排过序。给一个无符号整数,如何快速判断一个数是否在这40亿个数中
这里的数据要求40亿个不重复的无符号整数,使用位图用一个位来表示一个整数,将所有的数据映射到位图上,当进行查询时,只要位图的对应位置为1,则说明该数据在这40亿个数据中
给定100亿个整数,设计算法找到只出现一次的整数?
方法1:使用特定的位图,每个映射的数有对应的两个bit位进行表示映射的状态
方法2:使用两个位图,同样的两个位图对应的映射的数的位置共同表示映射状态
注:没有映射00,一次映射01,一次以上映射10
给两个文件,分别有100亿个整数,我们只有1G内存,如何找到两个文件交集
方法1:将文件1的整数全部映射到位图中,接着从文件2中读取数据,并在位图中查询该数据,如果数据存在,则说明该数据是交集之一
方法2:使用两个位图,对两个文件进行分别遍历文件读取数据映射到位图上,然后对位图进行遍历求交集,同一个位置都为1,那么则为交集
1个文件有100亿个int,1G内存,设计算法找到出现次数不超过2次的所有整数
方法1:使用特定的位图,每个映射的数有对应的两个bit位进行表示映射的状态
方法2:使用两个位图,同样的两个位图对应的映射的数的位置共同表示映射状态
注:没有映射00,一次映射01,两次映射10,三次以上映射11
给两个文件,分别有100亿个query,我们只有1G内存,如何找到两个文件交集?分别给出精确算法和近似算法
注:query一般为URL中的查询字符串或者SQL中的查询语句,假设每个query30个字节,那么100亿个query也得300G的内存才能装下
近似算法:使用布隆过滤器来进行处理,对一个文件将数据全部进行哈希映射,再对另一个文件中的数据进行查询,但是可能存在哈希冲突,导致造成误判,所以当一个数据不存在于布隆过滤器中,则它必定不存在,但是如果一个数据存在于布隆过滤器中,它也不一定存在
精确算法:如果要精确的进行查找,那就必须得将数据放入内存中,但是由于数据过大我们可以将数据存入到服务器中,先使用布隆过滤器进行处理,如果对应映射不存在,那么久一定不是交集,如果对应映射存在那么就到服务器中进行二次查询
平均切割: 平均切割不是一个很好的方法,但是它确实是我们很容易就能思考到的方法,我们将两个文件中的数据平均切分为M份(能放入内存),分别存储到一个set中,然后以此将数据进行比较,这种方法就需要以此对所有的数据进行比对,效率会比较低
哈希切割: 创建多个临时文件,并进行标号,读取文件数据使用字符串哈希算法进行哈希映射,映射到对应的文件并将数据存进去,对两个文件的数据都采用这样的做法进行切分,由于我们使用的是同一种字符串哈希算法,所以相同的字符串必定会被映射到同一个编号下的文件中,所以我们只需要依次对编号相同的Ai和Bi文件中使用set寻找交集即可(如果有些文件切分之后依然过大,可以继续对其进行切分)
给一个超过100G大小的log file, log中存着IP地址, 设计算法找到出现次数最多的IP地址? 与上题条件相同,如何找到top K的IP?如何直接用Linux系统命令实现?
使用哈希切割的方式来解决文件分片的问题,相同的IP地址必定会被映射到同一个文件中,所以我们依次读取文件,使用Map进行次数统计即可之后再进行排序即可
Linux的命令:sort log_file | uniq -c | sort -nr | head -k
说明:首先使用sort log_file来将数据进行一个排序,使得相同的IP地址全部靠在一起。接着使用uniq - c进行去重,并将重复的次数显示在每列的旁边,通过这个次数来使用sort -nr进行降序排序,使得出现次数最的IP地址在前面,然后使用head -k 获取前k个IP地址即可
100w个数中找出最大的100个数
由于100w个数据并不算多,可以存放进内存中,所以可以考虑以下解法
方法1:采用快排中的partition划分思想,即单趟划分后,枢轴s前面的数据都比他大,后面的数据都比他小,此时我们选取其中较大的那一部分,继续划分。当划分后前端的数据刚好等于100后划分结束,对前端数据进行排序即可得到结果。如果前端数据不足100,则从后端数据进行排序后取出不足的那部分补上,再进行排序即可。O(100w*100)
方法2:局部淘汰法,使用插入排序来完成,首先取出前100个数据进行排序,然后依次遍历后面的数据,如果数据大于最小值,则将最小值删除,然后按照插入排序的思路将数据插入进去O(100w*100)
方法3:局部淘汰法,使用一个大小为100的小堆来完成,维护一个小堆,当数据比堆顶也就是最小值大的时候,用新数据替换掉堆顶,然后调整堆的结构。遍历完所有数据后就可以得到前100的数据。O(100w*lg100)
海量数据分布在100台电脑中,想个办法高效统计出这批数据的TOP10
对于每一个电脑,都构建一个大小为10的堆(选大的构建小堆,选小的构建大堆),选出当前电脑的TOP10,接着将所有电脑的数据汇总起来,共1000个数据,继续用堆从其中选出TOP10
给上千个文件,每个文件大小为 1K—100M。给 n 个词,设计算法对每个词找到所有包含它的文件,你只有 100K 内存
使用倒排索引来解决,即建立起单词——文件的映射,只需要遍历所有文章,如果文章中出现过查询词,则将文件号追加在对应词的倒排拉链中即可,如果100M的文件放不下内存中,就对数据进行切割后处理即可
C++ 数据结构
版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。