首页 理论教育 使用MySQL导入Hive表数据

使用MySQL导入Hive表数据

时间:2023-06-24 理论教育 版权反馈
【摘要】:数据从MySQL 表中导入Hive 中,其过程是先导入HDFS,再load 到Hive。无须提前创建Hive 表,Sqoop 会自动进行创建。--hive-table mysql_employee2:设置导入的Hive 表名,默认为MySQL 表名,可以自定义。通过HDFS Web 查看Hive 数据表文件,如图9. 13 所示,在“/user/hive/warehouse/apachedb/”目录下新增了一个“mysql_employee2”目录,里面包括了两个文件,这个就是导入的Hive 表数据文件。图9.13导入的Hive 表数据文件也可以在Hive 命令行中查询结果,如图9.14 所示。图9.14MySQL 表数据导入Hive 结果图9.14MySQL 表数据导入Hive 结果

使用MySQL导入Hive表数据

数据从MySQL 表中导入Hive 中,其过程是先导入HDFS,再load 到Hive。无须提前创建Hive 表,Sqoop 会自动进行创建。其执行命令为:

上述命令中的参数说明如下:

--hive-import:指定Hive 导入。

--hive-overwrite:Hive 覆写导入,将原来Hive 表中的数据覆盖。

--hive-database apachedb:指定导入的Hive 数据库为apachedb。

--hive-table mysql_employee2:设置导入的Hive 表名,默认为MySQL 表名,可以自定义。

--fields-terminated-by ',':设置列分隔符为“,”。(www.xing528.com)

--lines-terminated-by '\n':设置行分隔符为“\n”。

通过HDFS Web 查看Hive 数据表文件,如图9. 13 所示,在“/user/hive/warehouse/apachedb/”目录下新增了一个“mysql_employee2”目录,里面包括了两个文件,这个就是导入的Hive 表数据文件。

图9.13 导入的Hive 表数据文件

也可以在Hive 命令行中查询结果,如图9.14 所示。

图9.14 MySQL 表数据导入Hive 结果

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈