现在的位置: 首页 > 综合 > 正文

利用sqoop 将 hive/hdfs数据 导入 Oracle中

2017年12月20日 ⁄ 综合 ⁄ 共 756字 ⁄ 字号 评论关闭

首先我们要安装好sqoop
笔者我用的是sqoop1
其次我们需要ojdbc6.jar 这个jar 包下载地址如下:

http://www.oracle.com/technetwork/database/enterprise-edition/jdbc-112010-090769.html

将解压的包 复制到sqoop安装目录下的lib 目录中

最后执行我们的导入命令即可

sqoop  export --table FDC_JPLP   --connect jdbc:oracle:thin:@localhost:port:test1   --username test --password test     --export-dir /user/hive/warehouse/data_w.db/seq_fdc_jplp     --columns  goal_ocityid,goal_issueid,compete_issueid,ncompete_rank  --input-fields-terminated-by '\001'     --input-lines-terminated-by '\n' 

注意要指定 --columns 参数 否则会报错 找不到 columns
用法: --columns

查询数据是否导入成功

sqoop  eval   --connect jdbc:oracle:thin:@localhost:port:test1 --query "select * from FDC_JPLP"  --username fccsreport --password fccsoracle10g_report 

当然你也可以使用Oracle相关的管理工具查看。

说明:做数据导入 导出操作的时候请注意 两边表字段类型尽量要保持一致 否则会出现数据类型转化错误

原文地址:http://yangqijun.com/archives/258

抱歉!评论已关闭.