搜文章
推荐 原创 视频 Java开发 iOS开发 前端开发 JavaScript开发 Android开发 PHP开发 数据库 开发工具 Python开发 Kotlin开发 Ruby开发 .NET开发 服务器运维 开放平台 架构师 大数据 云计算 人工智能 开发语言 其它开发
Lambda在线 > 人工智能产业链联盟 > 【D】京东金融数据分析:MySQL+HIVE的结合应用案例详解【附全代码】

【D】京东金融数据分析:MySQL+HIVE的结合应用案例详解【附全代码】

人工智能产业链联盟 2020-06-13


给定的数据为业务情景数据,所有数据均已进⾏了采样和脱敏处理,字段取值与分布均与真实业务数据不同。提供了时间为 2016-08-03 到 2016-11-30 期间,用户在移动端的行为数据、购物记录和历史借贷信息,及 11 月的总借款金额。【数据集请在文末添加顾问老师领取】


文件包括user.csv,order.cav,click.csv,loan.csv,loan_sum.csv


前 言




一般的大数据项目一般都分为两种,一种是批处理一种是流式处理,此次练习批处理使用hive和presto处理,流式处理使用SparkStreaming+kafka来处理


任务 1



一般情况下我们的user的数据都是存在自己的关系型数据库中,所以这里将 t_user 用户信息到 MySQL 中,我们在从MySQL中将其导入到hdfs上,其他三个文件及,t_click,t_loan 和 t_loan_sum 直接导入到 HDFS 中。 


mysql自带csv导入功能所以先创建数据库和user表


【D】京东金融数据分析:MySQL+HIVE的结合应用案例详解【附全代码】


导入数据


【D】京东金融数据分析:MySQL+HIVE的结合应用案例详解【附全代码】


任务 2




利用 Sqoop 将 MySQL 中的 t_user 表导入到 HDFS 中,显示有哪些数据库


【D】京东金融数据分析:MySQL+HIVE的结合应用案例详解【附全代码】


显示有哪些表


【D】京东金融数据分析:MySQL+HIVE的结合应用案例详解【附全代码】


使用sqoop把MySQL中表t_user数据导入到hdfs的/data/sq目录下


sqoop import --connect jdbc:mysql://master:3306/jd --username root --password '' --table t_user --target-dir /data/sq


出错了


18/08/21 13:44:26 ERROR tool.ImportTool: Import failed: No primary key could be found for table t_user. Please specify one with --split-by or perform a sequential import with '-m 1'.


说是这个表中没有主键。我们可以建表的时候给它设置上主键,也可以使用下面–split-by来指定使用哪个字段分割


 sqoop import --connect jdbc:mysql://master:3306/jd --username root --password '' --table t_user --target-dir /data/sq --split-by 'uid'


又出错了


【D】京东金融数据分析:MySQL+HIVE的结合应用案例详解【附全代码】


错误原因:因为我这里的hadoop集群使用了3台虚拟机,slave和slave2没有使用root用户访问MySQL的权限 


进入mysql的控制台:

use mysql 

select host,user,password from user;


【D】京东金融数据分析:MySQL+HIVE的结合应用案例详解【附全代码】


可以看到现在只有master有权限,给slave和slave2也设置权限


【D】京东金融数据分析:MySQL+HIVE的结合应用案例详解【附全代码】


这才执行OK。查看导入后的hdfs上的目录hdfs dfs -ls /data/sq


【D】京东金融数据分析:MySQL+HIVE的结合应用案例详解【附全代码】


查看每一部分的数据hdfs dfs -cat /data/sq


【D】京东金融数据分析:MySQL+HIVE的结合应用案例详解【附全代码】


OK导入完成 剩下的几个CSV文件直接功过hadoop的put命令上传到hdfs上对应的目录即可。


任务 3



利用 Presto 分析产生以下结果,并通过 web 方式可视化: 

  • 各年龄段消费者每日购买商品总价值 

  • 男女消费者每日借贷金额


我们在使用presto做数据分析的时候,一般是跟hive联合起来使用,先从hive中创建相应的数据表,然后使用presto分析hive中的表。 


启动hive


//启动hive的metastorenohup hive --service metastore >> /home/chs/apache-hive-2.1.1-bin/metastore.log 2>&1 &//启动hive servernohup hive --service hiveserver2 >> /home/chs/apache-hive-2.1.1-bin/hiveserver.log 2>&1 &//启动客户端 beeline 并连接beelinebeeline> !connect jdbc:hive2://master:10000/default hadoop hadoop


创建用户表


【D】京东金融数据分析:MySQL+HIVE的结合应用案例详解【附全代码】


导入hdfs上的数据


【D】京东金融数据分析:MySQL+HIVE的结合应用案例详解【附全代码】


创建用户订单表


【D】京东金融数据分析:MySQL+HIVE的结合应用案例详解【附全代码】


导入hdfs上的数据


【D】京东金融数据分析:MySQL+HIVE的结合应用案例详解【附全代码】


创建用户点击表


【D】京东金融数据分析:MySQL+HIVE的结合应用案例详解【附全代码】


导入hdfs上的数据


【D】京东金融数据分析:MySQL+HIVE的结合应用案例详解【附全代码】


创建借款信息表t_loan


【D】京东金融数据分析:MySQL+HIVE的结合应用案例详解【附全代码】


导入hdfs上的数据


【D】京东金融数据分析:MySQL+HIVE的结合应用案例详解【附全代码】


创建月借款总额表t_loan_sum


【D】京东金融数据分析:MySQL+HIVE的结合应用案例详解【附全代码】


导入hdfs上的数据


【D】京东金融数据分析:MySQL+HIVE的结合应用案例详解【附全代码】


启动Presto 

在安装目录下运行 bin/launcher start

运行客户端 bin/presto –server master:8080 –catalog hive –schema default 

连接hive !connect jdbc:hive2://master:10000/default hadoop hadoop 

开始查询分析


第一题


select t_user.age,t_order.buy_time,sum(t_order.price*t_order.qty-t_order.discount) as sum from t_user join t_order on t_user.uid=t_order.uid group by t_user.age,t_order.buy_time;


部分结果


【D】京东金融数据分析:MySQL+HIVE的结合应用案例详解【附全代码】


第二题 


select t_user.sex,SUBSTRING(t_loan.loan_time,0,10) as time,sum(t_loan.loan_amount) as sum from t_user join t_loan on t_user.uid=t_loan.uid group by t_user.sex ,SUBSTRING(t_loan.loan_time,0,10);


部分结果


【D】京东金融数据分析:MySQL+HIVE的结合应用案例详解【附全代码】


任务 4



利用 Spark RDD 或 Spark DataFrame 分析产生以下结果:

  •  借款金额超过 2000(因为数据做过处理,这里就分析大于5的) 且购买商品总价值超过借款总金额的用户 ID 

  • 从不买打折产品且不借款的用户 ID


【D】京东金融数据分析:MySQL+HIVE的结合应用案例详解【附全代码】

代码过长仅展示部分,完整代码请添加顾问领取


任务 5



利用 spark streaming 实时分析每个页面点击次数和不同年龄段消费总金额。


步骤:编写 Kafka produer 程序读取hdfs上的文件每隔一段时间产生数据,然后使用spark streaming读取kafka中的数据进行分析,分析结果写入到redis中。


(1)将 t_click 数据依次写入 kafka 中的 t_click 主题中,每条数据写入间隔为10 毫秒,其中 uid 为 key,click_time+” ,” +pid 为 value


【D】京东金融数据分析:MySQL+HIVE的结合应用案例详解【附全代码】

代码过长仅展示部分,完整代码请添加顾问领取


运行结果


【D】京东金融数据分析:MySQL+HIVE的结合应用案例详解【附全代码】


(2)将 t_order 数据依次写入 kafka 中的 t_order 主题中,每条数据写入间隔为10 毫秒,其中 uid 为 key,uid+” ,” +price + “,” + discount 为value


【D】京东金融数据分析:MySQL+HIVE的结合应用案例详解【附全代码】

代码过长仅展示部分,完整代码请添加顾问领取


运行结果


【D】京东金融数据分析:MySQL+HIVE的结合应用案例详解【附全代码】


(3)编写 spark streaming 程序,依次读取 kafka 中 t_click 主题数据,并统计:每个页面累计点击次数,并存入 redis,其中 key 为” click+pid” ,value 为累计的次数


【D】京东金融数据分析:MySQL+HIVE的结合应用案例详解【附全代码】

代码过长仅展示部分,完整代码请添加顾问领取


运行结果redis


【D】京东金融数据分析:MySQL+HIVE的结合应用案例详解【附全代码】


(4)编写 spark streaming 程序,依次读取 kafka 中 t_order 主题数据,并统计:不同年龄段消费总金额,并存入 redis,其中 key 为” age” ,value 为累计的消费金额


【D】京东金融数据分析:MySQL+HIVE的结合应用案例详解【附全代码】

代码过长仅展示部分,完整代码请添加顾问领取


运行结果redis


【D】京东金融数据分析:MySQL+HIVE的结合应用案例详解【附全代码】



荐:


声明

来源:CSDN,RAD极客会(ID:RAD_Geek_Club)推荐阅读,不代表RAD极客会立场,转载请注明,如涉及作品版权问题,请联系我们删除或做相关处理!


版权声明:本站内容全部来自于腾讯微信公众号,属第三方自助推荐收录。《【D】京东金融数据分析:MySQL+HIVE的结合应用案例详解【附全代码】》的版权归原作者「人工智能产业链联盟」所有,文章言论观点不代表Lambda在线的观点, Lambda在线不承担任何法律责任。如需删除可联系QQ:516101458

文章来源: 阅读原文

相关阅读

关注人工智能产业链联盟微信公众号

人工智能产业链联盟微信公众号:aiyuexingqiu

人工智能产业链联盟

手机扫描上方二维码即可关注人工智能产业链联盟微信公众号

人工智能产业链联盟最新文章

精品公众号随机推荐