概述
一道经典的面试问题:如何判断一个元素在亿级数据中是否存在?
常规思路:HashMap/HashSet。但是很容易内存溢出。
故而,最需要解决的是如何将庞大的数据load到内存中。而是否可以换种思路,因为只是需要判断数据是否存在,也不是需要把数据查询出来,所以完全没有必要将真正的数据存放进去。
BurtonHoward提出BloomFilter算法主要就是用于解决判断一个元素是否在一个集合中,优势在于只需占用很小的内存空间却有着极高的查询效率。最重要的两个方法是:
add()
和
contains()
。不会存在false negative,即:如果contains()返回false,则该元素一定不在集合中,但会存在一定的true negative,即:如果contains()返回true,则该元素可能在集合中。
原理
一个保存很长的二级制向量,同时结合 Hash 函数实现的。
如图:
- 首先需要初始化一个二进制的数组,长度设为 L,同时初始值全为 0 。
- 当写入一个 A1=1000 的数据时,进行 H 次 hash 函数的运算(这里为 2 次);与 HashMap 有点类似,通过算出的 HashCode 与 L 取模后定位到 0、2 处,将该处的值设为 1。
- A2=2000 也是同理计算后将 4、7 位置设为 1。
- 当有一个 B1=1000 需要判断是否存在时,也是做两次 Hash 运算,定位到 0、2 处,此时他们的值都为 1 ,所以认为 B1=1000 存在于集合中。
- 当有一个 B2=3000 时,第一次 Hash 定位到 index=4 时,数组中的值为 1,所以再进行第二次 Hash 运算,结果定位到 index=5 的值为 0,所以认为 B2=3000 不存在于集合中。
整个的写入、查询的流程就是这样,汇总起来就是:
对写入的数据做 H 次 hash 运算定位到数组中的位置,同时将数据改为 1 。当有数据查询时也是同样的方式定位到数组中。 一旦其中的有一位为 0 则认为数据肯定不存在于集合,否则数据可能存在于集合中。
几个特点:
- 只要返回数据不存在,则肯定不存在。
- 返回数据存在,但只能是大概率存在。
- 同时不能清除其中的数据。
为什么返回存在的数据却是可能存在呢,在有限的数组长度中存放大量的数据,即便是再完美的 Hash 算法也会有冲突,所以有可能两个完全不同的 A、B 两个数据最后定位到的位置是一模一样的。
删除数据也是同理,当把 B 的数据删除时,其实也相当于是把 A 的数据删掉,这样也会造成后续的误报。
基于以上的 Hash 冲突的前提,所以 BloomFilter 有一定的误报率,误报率和 Hash算法的次数 H,以及数组长度 L 都是有关的。
测试
测试一个元素是否属于一个百万元素集合所需耗时
import com.google.common.hash.BloomFilter;
import com.google.common.hash.Funnels;
@Slf4j
public class Test {
private static int size = 1000000;
// 第三个参数为误判率;2个参数,默认误判率为;
private static BloomFilter<Integer> bloomFilter = BloomFilter.create(Funnels.integerFunnel(), size);
public static void main(String[] args) {
for (int i = 0; i < size; i++) {
bloomFilter.put(i);
}
long startTime = System.nanoTime();
if (bloomFilter.mightContain(29999)) {
System.out.println("命中了");
}
long endTime = System.nanoTime();
log.info("程序运行时间: " + (endTime - startTime) + "纳秒");
}
}
输出:命中了
程序运行时间: 219386纳秒
也就是说,判断一个数是否属于一个百万级别的集合,只要0.219ms即可。
Guava
上面已经使用过Guava封装好的工具类。这里做一下源码分析,Guava提供好几个构造函数,最后都是调用下面这个:
static <T> BloomFilter<T> create(Funnel<? super T> funnel, long expectedInsertions, double fpp, Strategy strategy) {
}
有两个比较重要的参数,expectedInsertions表示预计存放多少数据,fpp表示可以接受的误报率,Guava 通过这两个参数计算出你应当会使用的数组大小 numBits 以及需要计算几次 Hash 函数 numHashFunctions 。
long numBits = optimalNumOfBits(expectedInsertions, fpp);
int numHashFunctions = optimalNumOfHashFunctions(expectedInsertions, numBits);
应用
布隆过滤器至少有如下三个使用场景:
- 网页爬虫对URL的去重,避免爬取相同的URL地址
- 反垃圾邮件,从数十亿个垃圾邮件列表中判断某邮箱是否垃圾邮箱(垃圾短信)
- 防止缓存击穿,将已存在的缓存放到布隆过滤器中,当黑客访问不存在的缓存时迅速返回避免缓存及DB挂掉。
其中第三点,具体来说:IO是很多系统的瓶颈。当请求消息查询某些信息时,可能先检查缓存中是否有相关信息,有的话返回,如果没有的话可能就要去数据库里面查询。问题:如果大量请求是在请求数据库根本不存在的数据,数据库就要频繁响应这种不必要的IO查询。布隆过滤器可以派生用场。
Redis
防止缓存击穿。
Redisson客户端工具也通过一个API,
org.redisson.RedissonBloomFilter
,和Guava类似,
tryInit
方法接受2个参数,先计算得到size,再计算得到hash函数次数:
public boolean tryInit(long expectedInsertions, double falseProbability) {
size = optimalNumOfBits(expectedInsertions, falseProbability);
hashIterations = optimalNumOfHashFunctions(expectedInsertions, size);
CommandBatchService executorService = new CommandBatchService(commandExecutor.getConnectionManager());
executorService.evalReadAsync(configName, codec, RedisCommands.EVAL_VOID,
"local size = redis.call('hget', KEYS[1], 'size');" +
"local hashIterations = redis.call('hget', KEYS[1], 'hashIterations');" +
"assert(size == false and hashIterations == false, 'Bloom filter config has been changed')",
Arrays.<Object>asList(configName), size, hashIterations);
executorService.writeAsync(configName, StringCodec.INSTANCE,
new RedisCommand<Void>("HMSET", new VoidReplayConvertor()), configName,
"size", size, "hashIterations", hashIterations,
"expectedInsertions", expectedInsertions, "falseProbability", BigDecimal.valueOf(falseProbability).toPlainString());
executorService.execute();
return true;
}
参考