文章摘要
这篇文章主要介绍了Hive数据导出的六种方法及其应用场景。Hive是一种基于Hadoop的分布式数据处理平台,常用于大数据分析。文章详细介绍了如何通过Hive向本地路径、HDFS(Hadoop分布式文件系统)和MySQL等目标导出数据,提供了具体的代码示例,包括`insert`命令的不同形式、`Hadoop dfs`命令、`Hive` CLI脚本的使用方法等。此外,文章还讨论了使用`Truncate`命令删除表中数据(仅删除内部数据,不包括HDFS上的数据)的方法,以及如何将数据导出到MySQL进行可视化操作。文章强调了Hive语句的重要性,并提到这一技术在大数据时代的广泛应用和学习热潮。总结来看,文章内容简明扼要,重点突出Hive数据导出的主要方法和应用场景。
目录一、数据导出是什么?二、六大帮派1.insert2.Hadoop命令导出到本地3.Hive shell命令导出4.export导出到HDFS上5.Sqoop导出6.清除表中的数据(Truncate)——删库跑路总结
hive是一个依赖Hadoop集群的数据处理平台,我们不仅需要对数据进行筛选处理,更需要进行导出,供我们多次重复使用。
insert有两种形式,加local上传到本地路径,不加local上传到集群
代码如下(示例):
insert加local
insert overwrite local directory ‘/root/export/data/student’ select * from student;
insert不加local(并将数据格式化)
insert overwrite directory ‘/student’ row format delimited fields terminated by ‘,’ select * from student;
代码如下(示例):
hadoop dfs -get /user/hive/warehouse/hive.db/student/student.txt /root/export/data/student/
一个 > 是覆盖,两个>是追加
代码如下(示例):
bin/hive -e ‘select * from hive.student’ >> /root/export/data/student/student.txt
当该hdfs路径下有文件时或表存在,都不可导,与import连用。
代码如下(示例):
export table hive.student to ‘/user/hive/warehouse/hive.db/student’;
将数据导出到window系统的mysql,并进行可视化操作
Truncate只能删除管理表,不能删除外部表的数据(但可以将外部表转为内部表哦,嘿嘿嘿)只是删除内部表的hdfs数据,元数据还在
内部转为外部表
alter table student set tblproperties(‘EXTERNAL’=’TRUE’)一定大写
alter table student set tblproperties(‘EXTERNAL’=’TRUE’)一定大写
截断表
Truncate table student;
六大派别与五大帮派共同统治着数码武林,侠义精神深入人心,hive语句妇孺皆知。街头小巷上谈论着他们的英雄事迹,再一次掀起了学习hive秘籍的狂潮。或许现在人们学习的已经不再是傍身之计,更多的是对天下武功,为快不灭的热爱。有人的地方就会就有江湖,大数据时代亦是如此。
到此这篇关于Hive数据导出详解的文章就介绍到这了,更多相关Hive数据导出内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!
您可能感兴趣的文章:python导出hive数据表的schema实例代码Hive数据去重的两种方式?(distinct和group?by)hive数据仓库新增字段方法Java API如何实现向Hive批量导入数据解决sqoop import 导入到hive后数据量变多的问题hive中将string数据转为bigint的操作
© 版权声明
文章版权归作者所有,未经允许请勿转载。