我们可以通过CLI、Client、Web UI等Hive提供的用户接口来和Hive通信,但这三种方式最常用的是CLI;Client 是Hive的客户端,用户连接至 Hive Server。在启动 Client 模式的时候,需要指出Hive Server所在节点,并且在该节点启动 Hive Server。 WUI 是通过浏览器访问 Hive。今天我们来谈谈怎么通过HiveServer来操作Hive。
Hive提供了jdbc驱动,使得我们可以用Java代码来连接Hive并进行一些类关系型数据库的sql语句查询等操作。同关系型数据库一样,我们也需要将Hive的服务打开;在Hive 0.11.0版本之前,只有HiveServer服务可用,你得在程序操作Hive之前,必须在Hive安装的服务器上打开HiveServer服务,如下:
1 |
[wyp @localhost /home/q/hive- 0.11 . 0 ]$ bin/hive --service hiveserver -p 10002
|
2 |
Starting Hive Thrift Server |
上面代表你已经成功的在端口为10002(默认的端口是10000)启动了hiveserver服务。这时候,你就可以通过Java代码来连接hiveserver,代码如下:
08 |
import java.sql.SQLException;
|
09 |
import java.sql.Connection;
|
10 |
import java.sql.ResultSet;
|
11 |
import java.sql.Statement;
|
12 |
import java.sql.DriverManager;
|
14 |
public class HiveJdbcTest {
|
16 |
private static String driverName =
|
17 |
"org.apache.hadoop.hive.jdbc.HiveDriver" ;
|
19 |
public static void main(String[] args)
|
22 |
Class.forName(driverName);
|
23 |
} catch (ClassNotFoundException e) {
|
28 |
Connection con = DriverManager.getConnection(
|
30 |
Statement stmt = con.createStatement();
|
31 |
String tableName = "wyphao" ;
|
32 |
stmt.execute( "drop table if exists " + tableName);
|
33 |
stmt.execute( "create table " + tableName +
|
34 |
" (key int, value string)" );
|
35 |
System.out.println( "Create table success!" );
|
37 |
String sql = "show tables '" + tableName + "'" ;
|
38 |
System.out.println( "Running: " + sql);
|
39 |
ResultSet res = stmt.executeQuery(sql);
|
41 |
System.out.println(res.getString( 1 ));
|
45 |
sql = "describe " + tableName;
|
46 |
System.out.println( "Running: " + sql);
|
47 |
res = stmt.executeQuery(sql);
|
49 |
System.out.println(res.getString( 1 ) + "\t" + res.getString( 2 ));
|
53 |
sql = "select * from " + tableName;
|
54 |
res = stmt.executeQuery(sql);
|
56 |
System.out.println(String.valueOf(res.getInt( 1 )) + "\t"
|
60 |
sql = "select count(1) from " + tableName;
|
61 |
System.out.println( "Running: " + sql);
|
62 |
res = stmt.executeQuery(sql);
|
64 |
System.out.println(res.getString( 1 ));
|
编译上面的代码,之后就可以运行(我是在集成开发环境下面运行这个程序的),结果如下:
02 |
Running: show tables 'wyphao'
|
04 |
Running: describe wyphao |
07 |
Running: select count( 1 ) from wyphao
|
10 |
Process finished with exit code 0
|
如果你想在脚本里面运行,请将上面的程序打包成jar文件,并将上面的依赖库放在/home/wyp/lib/(这个根据你自己的情况弄)中,同时加入到运行的环境变量,脚本如下:
02 |
HADOOP_HOME=/home/q/hadoop- 2.2 . 0
|
03 |
HIVE_HOME=/home/q/hive- 0.11 . 0 -bin
|
07 |
for i in /home/wyp/lib/*.jar ; do
|
08 |
CLASSPATH=$CLASSPATH:$i
|
12 |
/home/q/java/jdk1. 6 .0_20/bin/java -cp \
|
13 |
$CLASSPATH:/export1/tmp/yangping.wu/OutputText.jar com.wyp.HiveJdbcTest
|
上面是用Java连接HiveServer,而HiveServer本身存在很多问题(比如:安全性、并发性等);针对这些问题,Hive0.11.0版本提供了一个全新的服务:HiveServer2,这个很好的解决HiveServer存在的安全性、并发性等问题。这个服务启动程序在${HIVE_HOME}/bin/hiveserver2里面,你可以通过下面的方式来启动HiveServer2服务:
1 |
$HIVE_HOME/bin/hiveserver2 |
也可以通过下面的方式启动HiveServer2
1 |
$HIVE_HOME/bin/hive --service hiveserver2 |
两种方式效果都一样的。但是以前的程序需要修改两个地方,如下所示:
01 |
private static String driverName = "org.apache.hadoop.hive.jdbc.HiveDriver" ;
|
03 |
private static String driverName = "org.apache.hive.jdbc.HiveDriver" ;
|
07 |
Connection con = DriverManager.getConnection( |
10 |
Connection con = DriverManager.getConnection( |
其他的不变就可以了。
这里顺便说说本程序所依赖的jar包,一共有以下几个:
1 |
hadoop- 2.2 . 0 /share/hadoop/common/hadoop-common- 2.2 . 0 .jar
|
2 |
$HIVE_HOME/lib/hive-exec- 0.11 . 0 .jar
|
3 |
$HIVE_HOME/lib/hive-jdbc- 0.11 . 0 .jar
|
4 |
$HIVE_HOME/lib/hive-metastore- 0.11 . 0 .jar
|
5 |
$HIVE_HOME/lib/hive-service- 0.11 . 0 .jar
|
6 |
$HIVE_HOME/lib/libfb303- 0.9 . 0 .jar
|
7 |
$HIVE_HOME/lib/commons-logging- 1.0 . 4 .jar
|
8 |
$HIVE_HOME/lib/slf4j-api- 1.6 . 1 .jar
|
如果你是用Maven,加入以下依赖
02 |
<groupId>org.apache.hive</groupId>
|
03 |
<artifactId>hive-jdbc</artifactId>
|
04 |
<version> 0.11 . 0 </version>
|
08 |
<groupId>org.apache.hadoop</groupId>
|
09 |
<artifactId>hadoop-common</artifactId>
|
10 |
<version> 2.2 . 0 </version>
|
本博客文章除特别声明,全部都是原创!
尊重原创,转载请注明: 转载自过往记忆(http://www.iteblog.com/)
本文链接: 【Hive:用Java代码通过JDBC连接Hiveserver】(http://www.iteblog.com/archives/846)
分享到:
相关推荐
Hive JDBC连接示例该项目展示了如何使用各种不同的方法连接到Hiveserver2。 所有类仅适用于Hiveserver2。 正在使用Cloudera JDBC驱动程序,可以从下载。 在撰写本文时,最新版本为v2.5.15 。要求: 您需要下载驱动...
Hive提供了jdbc驱动,使得我们可以用Java代码来连接Hive并进行一些类关系型数据库的sql语句查询等操作。同关系型数据库一样,我们也需要将Hive的服务打开;在Hive 0.11.0版本之前,只有HiveServer服务可用,你得在...
SpringBoot整合HiveJdbc, 远程连接HiveServer2,并结合Java和HiveSQL 对存储在Hadoop 的6万条电商数据,进行数据分析。后端生成Json 格式,前端解析Json格式,并实现数据大屏可视化。 通过大数据分析,生成有价值...
jdbc连接hive的小示例程序,使用方法: 1、在Hadoop服务器上启动远程服务接口,命令: nohup hive --service hiveserver 10000 & (指定端口启动) 2、将test主程序里的IP改为自己用的Hadoop服务器ip,即可使用。
用于与HIVE的JDBC连接的实用程序软件作者:Anton Mishel 快速入门指南 : 查看回购: $ git克隆 调整您想连接的主机名: $ vi src / main / java / com / java / hiveutil / HiveRemoteCommands.java例如,在...
问题 解决方案 在hadoop的配置文件core-site.xml增加如下配置: hadoop.proxyuser.hc.hosts * hadoop.proxyuser.hc.groups * 其中“hc”是连接beeline的用户。...3. 连接hiveserver2 作者:梁云亮
是一款通过 JDBC 连接 HiveServer2 的图形界面工具(JDBC 就是 Java 数据库连接,说白了就是用 Java 语言来操作数据库)。 简单介绍一下 DataGrip: 由 JetBrains 公司推出的数据库管理软件, 几乎支持所有主流 的...
1.使用jdbc方式连接hiveserver,只能使用默认的数据库即default。官方文档说明如下: "jdbc:hive://localhost:10000/default". Currently, the only dbname supported is "default". 2.从hive导出数据到本地时注意...
2.Hive JDBC服务(参考java jdbc连接mysql) 3.hive启动为一个服务器,来对外提供服务 bin/hiveserver2 nohup bin/hiveserver2 1>/var/log/hiveserver.log 2>/var/log/hiveserver.err & 启动成功后,可以在别...
A Java SQL client for any JDBC compliant database 网上有很多SQuirrel SQL Client安装配置及连接hive配置文档,但大部分文档都没有提到3个比较坑的地方: (1)连接前先开启hiveserver2服务; (2)hive连接附加...
104_hive安装-使用: r/ Q& x. ~6 `- d* Y& R U4 X 105_hive beeline-hiveserver2 106_hive beeline-外部表-内部标 107_hive 分区表-桶表 108_hive word count 109_hive连接查询-union查询-load数据 110_hbase概述 ...