先启动Hive远程服务接口
hive --service hiveserver
import java.sql.Connection; import java.sql.DriverManager; import java.sql.ResultSet; import java.sql.ResultSetMetaData; import java.sql.Statement; import org.apache.hadoop.hive.jdbc.HiveDriver;; public class HiveTest { public static void main(String[] args) throws Exception { Class.forName("org.apache.hadoop.hive.jdbc.HiveDriver"); //String dropSQL="drop table javabloger"; //String createSQL="create table javabloger (key int, value string)"; //String insterSQL="LOAD DATA LOCAL INPATH '/work/hive/examples/files/kv1.txt' OVERWRITE INTO TABLE javabloger"; //String querySQL="SELECT a.* FROM javabloger a"; String querySQL="SELECT * FROM person"; Connection con = DriverManager.getConnection("jdbc:hive://127.0.0.1:10000/default", "", ""); Statement stmt = con.createStatement(); ResultSet rs = null; // rs = stmt.executeQuery("select * from rc_box_office"); ResultSetMetaData meta2 = stmt.executeQuery("SELECT * FROM person").getMetaData(); System.out.println(meta2.getColumnCount()+" *0"); System.out.println(meta2.getColumnName(1)+" *1"); System.out.println(meta2.getColumnType(1)+" *2"); System.out.println(meta2.getColumnType(2)+" *3"); System.out.println(meta2.getColumnType(3)+" *4"); //System.out.println(meta2.getCatalogName(1)+" *4"); // stmt.executeQuery(dropSQL); // stmt.executeQuery(createSQL); // stmt.executeQuery(insterSQL); /* ResultSet res = stmt.executeQuery(querySQL); while (res.next()) { System.out.println("Result: key:"+res.getString(1) +" –> value:" +res.getString(2)); } */ } }
那天写个同步oracle和hive表的程序试试
相关推荐
jdbc连接hive数据库的jar包.整理可用合集.
java使用JDBC连接Hadoop的hive数据库所用jar包,JDBC连接hive具体实现查看https://editor.csdn.net/md/?articleId=103372571
hive-jdbc
JDBC连接hive,用JD连接hive。
通过jdbc链接hive时所需要的jar包,把需要的jar都下载下来汇总到一起,供有需要的人使用
JDBC链接hive所需jar
亲测有用,在ambari2.5.2下安装的hadoop版本,后面的版本应该都没问题
jdbc 连接impala或者jdbc连接hive所需的jar包。
Hive-jdbc-3.1.1.zip hive jdbc,用于大数据 hive 开发和数据库连接。
hive JDBC连接实例 maven工程
DBeaver链接hive驱动包下载: hive-jdbc-uber-2.6.5.0-292.jar
driver = "org.apache.hive.jdbc.HiveDriver" user = "hive" password = "hive" table = ods_wjw_jb_gxy_hz_glk query = "select a,b,c from ods_wjw_jb_gxy_hz_glk" fetch_size = 300 } }
jdbc连接hive server需要的jar包
jdbc连接hive所需的一个包 ( hive-jdbc-3.1.2.jar)
argodb亲测可是使用hive驱动包,国产argodb的没有什么资料,当时使用的hive的一套语法,我还发布了其他版本的jdbc包,可以查看其他资源
如果系统语言不是utf-8的话,通过jdbc调用hive的数据时,中文会是乱码,通过修改jdbc包加上utf8标识后就好了,这个是改好了的包
压缩包中包含Java通过JDBC连接Hive所需的jar包。包含有,antlr-runtime-3.0.1.jar;commons-logging-1.0.4.jar;hadoop-core-1.2.1.jar;hive-exec-0.10.0.jar;hive-jdbc-0.13.1.jar;hive-metastore-0.9.0.jar;hive-...
使用javaJDBC连接hive数据,实现简单的操作!
hive jdbc jar包用于hive连接数据库驱动
使用jdbc连接hive 里面提供了很多封装方法 .....................................................................