经典的大数据面试问题

栏目:大数据面试丨时间:05-24丨来源:网络丨作者:光环IT学院

在开始之前,首先要确定的一个问题:什么是大数据?

  大数据(big data,mega data),或称巨量资料,指的是需要新处理模式才能具有更强的决策力、洞察力和流程优化能力的海量、高增长率和多样化的信息资产。 在维克托·迈尔-舍恩伯格及肯尼斯·库克耶编写的《大数据时代》中大数据指不用随机分析法(抽样调查)这样的捷径,而采用所有数据进行分析处理。大数据的4V特点:Volume(大量)、Velocity(高速)、Variety(多样)、Value(价值)。

  给一个超过100G大小的log file,log中存着IP地址 ,设计算法找到出现次数最多的IP地址?

  答:

  首先看到100G的日志文件,我们的第一反应肯定是太大了,根本加载不到内存,更别说设计算法了,那么怎么办呢?既然装不下,我们是不是可以将其切分开来,一小部分一小部分轮流进入内存呢,答案当然是肯定的。

  在这里要记住一点:但凡是大数据的问题,都可通过切分来解决它。

  粗略算一下:如果我们将其分成1000个小文件,每个文件大概就是500M左右的样子,现在计算机肯定轻轻 松松就能装下。

  那么,问题又来了,怎样才能保证相同的IP被分到同一个文件中呢?

  这里我想到的是哈希切分,使用相同的散列函数(如 BKDRHash)将所有IP地址转换为一个整数key,再利用 index=key%1000就可将相同IP分到同一个文件。

  依次将这1000个文件读入内存,出现次数最多的IP进行统计。

  最后,在1000个出现次数最多的IP中找出最大的出现次数即为所求。

  用到的散列函数:

  

  与上题条件相同,如何找到TOP K的IP?

  答:

  这倒题说白了就是找前K个出现次数最多的IP,即降序排列IP出现的次数。

  与上题类似,我们用哈希切分对分割的第一个个小文件中出现最多的前K个IP建小堆,

  然后读入第二个文件,将其出现次数最多的前K个IP与 堆中数据进行对比,

  如果包含大于堆中的IP出现次数,则更新小堆,替换原堆中次数的出现少的数据

  再读入第三个文件,以此类推……

  直到1000个文件全部读完,堆中出现的K个IP即是出现 次数最多的前K个IP地址。

  给定100亿个整数,设计算法找到只出现一次的整数 ?

  答:

  看到此题目,我的第一反应就是估算其占用内存的大小:100亿个int,一个int4个字节,100亿*4=400亿字节

  又因为42亿字节约等于4G,所以100亿个整数大概占用的内存为40G,一次加载到内存显然是不太现实的。

  反过来想,所有整数所能表示的范围为2^32,即16G, 故给出的数据有很多数据是重复的。

  解法1:哈希切分

  与第一题类似,用哈希切分将这些数据分到100个文件 中,每个文件大约400M,将每一个文件依次加载到内存中,利用哈希表统计出现一次的整数,将100个文件中出现一次的整数汇总起来即为所求。

  解法2:位图变形

  我们知道,位图是利用每一位来表示一个整数是否存在来节省空间,1表示存在,0表示不存在。

  而上题对于所有整数而言,却有三种状态:不存在、 存在一次、存在多次。

  故此,我们需要对传统位图进行扩展,用两位来表示一个整数的状态:00表示不存在、01表示存在一次, 10表示存在多次,11表示无效状态。

  按照上述表示,两位表示一个整数状态,所有整数只需要1G即可表示其存在与否。

  解法3:

  众所周知,一个整数占32位,那么我们可对每一位按照0和1将其分为两个文件,直到划分到最低位,如果被分的文件中哪个文件只包含一个数据,那么,此数据即为只出现一次的整数。

  如下图:

  

  给两个文件,分别有100亿个整数,我们只有1G内存 ,如何找到两个文件交集?

  答:100亿*4字节 = 400亿字节 = 40G

  解法1:普通查找

  将其中的一个文件分为100个小文件,每一份占400M, 将每一小份轮流加到内存中,与第二个文件中的数据进行对比,找到交集。此种算 法时间复杂度为O(N*N)。

  解法2:哈希切分

  对两个文件分别进行哈希切分,将其分为100个小文件 ,index=key%100(index为文件下标)。

  将两个文件中下标相同的小文件进行对比,找出其交集。将100个文件的交集汇总起来即为所给文件的文件交集 。此种算法时间复杂度为O(N)。

  解法3:位图

  我们知道,位图中的每一位就可代表一个整数的存在与否,而16G的整数用位图512M即可表示,将第一个文件中的整数映射到位图中去拿第二个文件中的数字到第一个文件映射的位图中去对比,相同数字存在即为交集。此种算法时间复杂度为O(N)。

  注意:重复出现的数字交集中只会出现一次。

  位图的简单模拟:

  

  运行结果:

  

  1个文件有100亿个int,1G内存,设计算法找到出现次数不超过两次的所有整数?

  答:

  此题思路类似第三题。

  解法1:哈希切分

  与第一题类似,用哈希切分将这些数据分到100个文件中,每个文件大约400M,

  将每一个文件依次加载到内存中,利用哈希表统计出现不超过两次的整数

  将100个文件中出现不超过两次的整数汇总起来即为所求。

  解法2:位图变形

  我们知道,位图是利用每一位来表示一个整数是否存在来节省空间,1表示存在,0表示不存在。

  而上题对于所有整数而言,却有三种状态:不存在、 存在一次、存在多次。

  故此,我们需要对传统位图进行扩展,用两位来表示一个整数的状态:00表示不存在、

  01表示存在一次, 10表示存在两次,11表示出现超过两次。

  按照上述表示,两位表示一个整数状态,所有整数只需要1G即可表示其存在次数。

  给两个文件,分别有100亿个query,我们只有1G内存,如何找到两个文件交集?分别给出精确算法和近似算法。

  答:

  这道题思路类似于第四题:100亿*4字节 = 400亿字节 = 40G。

  精确算法:哈希切分

  对两个文件分别进行哈希切分,使用相同的散列函数 (如 BKDRHash散列函数)将所有query转换为一个整数key ,再利用 index=key%1000就可将相同query分到同一 个文件。(index为文件下标)

  将两个文件中下标相同的小文件进行对比,找出其交集。

  将100个文件的交集汇总起来即为所给文件的文件交集 。此种算法时间复杂度为O(N)。

  近似算法:布隆过滤器

  首先使用相同的散列函数(如 BKDRHash散列函数)将所有 query转换为一个整数key,

  又因为布隆过滤器中的每 一位就可代表一个整数的存在 与否,而16G的整数用位图512M即可表示,

  将第一个文件中的整数映射到位图中去,

  拿第二个文件中的数字到第一个文件映射的位图中去对比,相同数字存在即为交集。

  此种算法时间复杂度为O(N)。

  注意:布隆过滤器判断不存在是确定的,而存存在在可能导致误判,所以称近似算法。

  布隆过滤器的简单模拟:

  各种不同的散列函数:

  

  布隆过滤器:

  

  测试函数:

  

  运行结果:

  

  如何扩展BloomFilter使得它支持删除元素的操作?

  答:

  因为一个布隆过滤器的key对应多个为位,冲突的概率比较大,所以不支持删除,因为删除有可能影响到其他元素。如果要对其元素进行删除,就不得不对每一个位进行引用计数,同下题。

  如何扩展BloomFilter使得它支持计数的操作?

  答:

  我们都知道,位图非常的节省空间,但由于每一位都要引入一个int,所以空间浪费还是比较严重的, 因此不得不放弃位图了,代码如下:

  

  给上千个文件,每一个文件大小为1K-100M,给n个单 词,设计算法对每个词找到所有包含它的文件,你只 有100K内存。

  答:

  对上千个文件生成1000个布隆过滤器,并将1000个布隆过滤器存入一个文件中,将内存分为两份,一份用来读取布隆过滤器中的词,一份用来读取文件, 直到每个布隆过滤器读完为止。

  用一个文件info 准备用来保存n个词和包含其的文件信息。

  首先把n个词分成x份。对每一份用生成一个布隆过滤器(因为对n个词只生成一个布隆过滤器,内存可能不够用)。把生成的所有布隆过滤器存入外存 的一个文件Filter中。

  将内存分为两块缓冲区,一块用于每次读入一个 布隆过滤器,一个用于读文件(读文件这个缓冲区使用 相当于有界生产者消费者问题模型来实现同步),大文 件可以分为更小的文件,但需要存储大文件的标示信 息(如这个小文件是哪个大文件的)。

  对读入的每一个单词用内存中的布隆过滤器来判 断是否包含这个值,如果不包含,从Filter文件中读 取下一个布隆过滤器到内存,直到包含或遍历完所有 布隆过滤器。如果包含,更新info 文件。直到处理完 所有数据。删除Filter文件。

  有一个词典,包含N个英文单词,现在任意给一个字符串,设计算法找出包含这个字符串的所有英文单词。

  答:

  对于这道题目,我们要用到一种特殊的数据结构----字典树来解决它,所谓字典树,又称单词查找树(或Trie树),是一种哈希树的变种。

  典型应用:用于统计、排序和保存大量的字符串,经 常被搜索引擎系统用于文本词频统计。

  优点:利用字符串的公共前缀来减少查询时间,最大 限度地减少无谓的字符串比较,查询效率高于哈希表 。

  基本性质:根节点不包含字符,除根节点外每个节点 都只包含一个字符;

  从根节点到某一节点,路径上所有经过的字符连接起来,为该节点对应的字符串;

  每个节点的所有子节点包含的字符都不相同 。

  应用:串的快速检索、串排序、最长公共前缀

  解法如下:

  用给出的N个单词建立一棵与上述字典树不同的字典树 ,用任意字符串与字典树中的每个节点中的单词进行 比较,在每层中查找与任意字符串首字母一样的,找到则遍历其下面的子树,找第二个字母,以此类推, 如果与任意字符串的字符全部相同,则算找到。

  如下图:

  

光环IT学院,专注IT培训16年,培养IT行业精英! —

光环IT学院

注:本站文章采用原创+网络转载两个方式,对于转载的文章,由于网络信息过多,无法100%找到原始出处。如果本站文章有侵犯了您的权益,请联系我们删除或授权。

请遵守理性,宽容,换位思考的原则

2017-05-24 12:55 发布 丨 人浏览

热点推荐

微信
公众号

微信扫码,即可关注

反馈
意见
回到
顶部