`

sqoop1: import to hive partitioned table

 
阅读更多

mysql table user



 

hive metastore table

 



sqoop import scripts

 

import --verbose --connect jdbc:mysql://192.168.122.1:3306/sample 
--username zhaohj --password 123456 
--table user 
--split-by user_id 
-m 2 
--hive-import 
--hive-database user 
--hive-partition-key first_letter
--create-hive-table

 


Imported Failed: Partition key first_letter cannot be a column to import.

 

 

 --------------------

 

 

import --verbose --connect jdbc:mysql://192.168.122.1:3306/inok 
--username zhaohj --password 123456 
--table user --split-by user_id 
-m 2 
--hive-database user 
--hive-table user 
--hive-import

 

 

 Need to specify partition columns because the destination table is partitioned

 

 -----------------------------------------

dynamic partition

1. set hive-site.xml

hive.exec.dynamic.partition=true

hive.exec.dynamic.partition.mode=nonstrict

 

2.create partition table in hive

 

 

3.import data from mysql to hive dynamic partition table

 

 

 

References

https://cwiki.apache.org/confluence/display/Hive/LanguageManual+DDL

https://issues.apache.org/jira/browse/SQOOP-312

http://www.2cto.com/kf/201207/144807.html

https://cwiki.apache.org/confluence/display/Hive/DynamicPartitions

https://cwiki.apache.org/confluence/display/Hive/Tutorial#Tutorial-DynamicpartitionInsert

http://docs.hortonworks.com/HDPDocuments/HDP1/HDP-1.3.2/bk_dataintegration/content/ch_using-sqoop-hcat-integration.html

 

blogs

http://www.qubole.com/5-tips-for-efficient-hive-queries/

https://gist.github.com/bugcy013/7188933

  • 大小: 15 KB
  • 大小: 14.1 KB
分享到:
评论

相关推荐

    Sqoop导Oracle数据到Hive

    sqoop import --connect jdbc:oracle:thin:@192.168.91.4:1521:ORCL --username JIAOTONG --password dsjyjy123456 --table HADOOP_EVENT_INFO --hive-import -m 1 --fields-terminated-by '\n' --lines-terminated-...

    数据同步Sqoop用法之mysql与Hive导入导出.docx

    Sqoop 用法之 MySQL 与 Hive 导入导出 Sqoop 是一个专门用于将 Hadoop 和关系型数据库中的数据相互转移的工具,可以将一个关系型数据库(例如:MySQL、Oracle、Postgres 等)中的数据导进到 Hadoop 的 HDFS 中,也...

    sqoop-1.4.7.zip

    1. 将`sqoop-1.4.7.jar`复制到`$SQOOP_HOME/lib`目录下,其中`$SQOOP_HOME`是你的Sqoop安装目录。 2. 如果有其他依赖JAR,也应一并放入`lib`目录。 3. 更新环境变量`CLASSPATH`,包括`$SQOOP_HOME/lib`目录。 4. ...

    Sqoop通过Phoenix导hbase数据到hive

    at org.apache.sqoop.tool.ImportTool.importTable(ImportTool.java:515) at org.apache.sqoop.tool.ImportTool.run(ImportTool.java:621) at org.apache.sqoop.Sqoop.run(Sqoop.java:147) at org.apache.hadoop...

    sqoop-1.4.6.2.3.99.0-195.jar..zip

    编译Atlas用 sqoop-1.4.6.2.3.99.0-195.jar 内含安装jar包以及maven手动安装命令 详情可参考我的博客: https://blog.csdn.net/qq_26502245/article/details/108008070

    Sqoop中文文档

    Sqoop的使用主要分为四个方面:codegen、create-hive-table、eval和 import。 2. codegen codegen是Sqoop中的一个重要功能,该功能可以将关系数据库中的表映射为一个Java文件、Java class类以及相关的jar包。...

    HBbase HIVE Sqoop介绍说明

    Hadoop HBbase HIVE Sqoop概念介绍说明,及和RDBMS的比较

    sqoop1使用必备

    sqoop import –connect jdbc:mysql://localhost:3306/hive –username root –password 123456 –table user –split-by id –hive-import ``` - **连接字符串**:同上。 - **表名**:user,即要导入的数据库表。 ...

    Sqoop数据采集工具简介、安装、使用学习笔记(配合Hive和Hbase)

    基于这些考量,最终选择了 Sqoop1 版本,并直接将数据导入到 Hive 或 HBase 中。 ### Sqoop1 与 Sqoop2 区别 - **RDBMS -> Hive/HBase**:Sqoop1 支持此功能,而 Sqoop2 不支持。对于 Sqoop2,可以通过先将数据...

    sqoop导入数据到hive中,数据不一致

    在大数据处理领域,Sqoop和Hive是两个重要的工具,分别用于数据迁移和数据仓库管理。当使用Sqoop将数据导入Hive时,有时可能会遇到数据不一致的问题,这可能是由于多种原因引起的。本文将深入探讨这个问题,并提供...

    2、sqoop导入(RMDB-mysql、sybase到HDFS-hive)

    sqoop import --direct --connect jdbc:mysql://<hostname>:<port>/<database> --username <username> --password <password> --table my_mysql_table --hive-import --hive-overwrite --hive-table my_hive_table ...

    yinian_hive_increase_sqoop:sqoop从mysql同步数据到hive

    【标题】"yinian_hive_increase_sqoop:sqoop从mysql同步数据到hive" 描述了一种使用Apache Sqoop工具将数据从MySQL数据库高效地导入到Hadoop的Hive数据仓库的过程。这个过程在大数据处理中至关重要,因为它允许用户...

    java连接sqoop源码-docker-hive:docker-hive

    java连接sqoop源码 hive 的安装依赖于hadoop ,上节基于docker的hadoop安装参见 所以hive的安装是在hadoop的image基础上进行的。 第一步 完成hadoop的iamge构建 按照 完成hadoop 的image 构建 第二步 完成mysql的...

    sqoop学习文档(2){Sqoop import、Sqoop export}.docx

    Sqoop 还可以直接将数据导入到 Hive,通过 `--hive-import` 开启此功能。可以使用 `--hive-overwrite` 覆盖现有数据,`--hive-table` 设置目标 Hive 表名。导入数据会先存放在默认的 HDFS 用户目录,然后迁移至 ...

    sqoop-1.4.7.jar

    sqoop框架开发工具使用的jar sqoop-1.4.7.jar 手动安装到maven <groupId>org.apache.sqoop <artifactId>sqoop <version>1.4.7 </dependency>

    load_data_incr_sqoop (2).zip

    【标题】"load_data_incr_sqoop (2).zip" 提供的是一个使用Sqoop进行增量数据加载的示例。Sqoop是Apache Hadoop生态中的一个工具,专门用于在关系数据库与Hadoop之间高效地传输数据。这个压缩包可能包含了执行增量...

    sqoop开发者中文手册

    sqoop eval --connect jdbc:mysql://localhost:3306/hive --username root --password 123456 -e "INSERT INTO TBLS2 VALUES(100,1375170308,1,0,'Hadoop',0,1,'guest','MANAGED_TABLE','abc','ddd')" ``` #### ...

Global site tag (gtag.js) - Google Analytics