大数据面试题锦集 | 数据仓库工具HIVE篇
文末领取【MySQL练习题+答案解析】
进入DATE时代,大数据技术成为互联网发展的核心要素之一。与此同时大数据开发工程师的薪资也成为行业内高薪的代表。
想从事大数据开发需要掌握多种核心技术:Hadoop、Hive、Storm、Spark、Scala等等。而且这些技术知识点已经成为大数据工程师进入职场时面试中必备的考点。这里主要和大家分享一下数据仓库工具hive相关的面试题!
有3 种 join 方式:
1. 在reduce端进行join,最常用的join方式。
Map端的主要工作:为来自不同表(文件)的key/value对打标签以区别不同来源的记录。然后用连接字段作为 key,其余部分和新加的标志作为value,最后进行输出。
reduce端的主要工作:在reduce端以连接字段作为key的分组已经完成,我们只需要在每一个分组当中将那些来源于不同文件的记录 (在map阶段已经打标志)分开,最后进行笛卡尔。
2. 在map端进行join,使用场景
一张表十分小、一张表很大。在提交作业的时候先将小表文件放到该作业的DistributedCache中,然后从DistributeCache中取出该小表进行join key/value解释分割放到内存中(可以放大 Hash Map 等等容器中)。然后扫描大表,看大表中的每条记录的join key/value值是否能够在内存中找到相同join key的记录,如果有则直接输出结果。
3. SemiJoin,semijoin:左边连接是reducejoin的一种变种
在map端过滤掉一些数据,在网络传输过程中,只传输参与连接的数据,减少了 shuffle的网络传输量,其他和 reduce的思想是一样的。
实现:将小表中参与join的key单独抽取出来通过DistributeCache 分发到相关节点,在map阶段扫描连接表,将join key不在内存hashset的纪录过滤掉,让参与join的纪录通过shuffle传输到reduce端进行join,其他和reduce join一样。
内部表:建表时会在 hdfs 创建一个表的存储目录,增加分区的时候,会将数据复制到此location下,删除数据的时候,将表的数据和元数据一起删除。
外部表:一般会建立分区,增加分区的时候不会将数据移到此表的location下,删除数据的时候,只删除了表的元数据信息,表的数据不会删除。
建表语句:create table tablename (id) partitioned by (dt string)
增加分区:alter table tablenname add partition (dt = ‘2016-03-06’)
删除分区:alter table tablename drop partition (dt = ‘2016-03-06’)
1.存储于derby数据库,此方法只能开启一个hive客户端,不推荐使用
2.存储于mysql数据库中,可以多客户端连接,推荐使用。
1. join优化:尽量将小表放在 join 的左边,如果一个表很小可以采用 mapjoin。
2. 排序优化:order by 一个reduce效率低,distirbute by+sort by也可以实现全局排序。
3. 使用分区:查询时可减少数据的检索,从而节省时间。
压缩格式RCFile、TextFile、SequenceFile各有什么区别?
TextFile:默认格式,数据不做压缩,磁盘开销大,数据解析开销大
SequenceFile:Hadoop API提供的一种二进制文件支持,使用方便,可分割,可压缩,支持三种压缩,NONE,RECORD,BLOCK。
-
RCFILE :一种行列存储相结合的方式。首先,将数据按行分块,保证同一个 record 在同一个块上,避免读一个记录读取多个block。其次,块数据列式存储,有利于数据压缩和快速的列存取。数据加载的时候性能消耗大,但具有较好的压缩比和查询响应。
1. 存储,hive存储在hdfs上,oracle存储在本地文件系统。
2. 扩展性,hive可以扩展到数千节点,oracle理论上只可扩展到100台左右。
3. 单表存储,数据量大hive可以分区分桶,oracle数据量大只能分表。
order by:会对输入数据做全局排序,只有一个reduce,数据量较大时,很慢。
-
sort by:不是全局排序,只能保证每个reduce有序,不能保证全局有序,需设置mapred.reduce.tasks>1。
End.
来源:博学谷资讯
本文为转载分享,如侵权请联系后台删除
长按下方海报领取【MySQL练习题+答案解析】
往期精彩文章