1.Hive shell
<1>执行HiveQL语句hive>select * from userinfo;
<2>设置和查看临时变量hive>set fs.default.name=hdfs://192.168.1.10:9000
<3>导入jar包hive>add jar hivejar.jar
<4>创建函数hive>create temporary function udfTest as 'com.cstore.udfExample'
也可以使用本地系统的命令去执行Hive的shell
hive -e 'select * from userinfo'执行HiveQL语句
hive -config /hive-0.7.1/conf重新载入新的配置文件
hive -service hiveserver启动服务
2.JDBC/ODBC
<1>JDBC
Hive的jar包中"org.apache.hadoop.hive.jdbc.HiveDriver"负责提供JDBC接口
当Hive在指定的端口启动了hiveserver服务后,客户端通过java的Thrift和Hive服务器进行通行,具体过程如下:
1.开启hiveserver服务hive --service hiveserver 50000
2.建立与Hive的连接Class.forName("org.apache.hadoop.hive.jdbc.HiveDriver");
Connection con = DriverManager.getConnection("jdbc:hive://localhost:50000/default","hive","123456");
认只能连接到default
<2>ODBC
与JDBC类似
JDBC和ODBC都不是很成熟
3.Thrif服务
Hive的Thrif是一种跨语言服务的可伸缩软件框架
4.web接口
Hive Web Interface 简称hwi 是hive提供的web接口
首先把hwi服务的主机地址和监听端口配置到hive-site.xml中
<property> <name>hive.hwi.listen.host</name> <value>0.0.0.0</value> <description>This is the host address the Hive Web Interface will listen on</description> </property> <property> <name>hive.hwi.listen.port</name> <value>9999</value> <description>This is the port the Hive Web Interface will listen on</description> </property>
开启Hive的Web服务需要引入ant的jar包,命令如下:
export ANT_LIB=$ANT_HOME/lib
hive --service hwi
完成上述操作后在浏览器中键入http://localhost:9999/hwi 即可进入Hive的web界面
5.源数据服务
Hive的源数据中保存了表的属性和服务信息,为查询操作提供依据,默认的源数据库是内嵌的Deby,这种情况下metastore和其他Hive服务运行在统一个java虚拟机里。
只能允许建立单个会话,要实现多用户多会话支持,需要配置一个独立的源数据库,提供源数据服务。Hive的元数据服务可以把metastore共享给其他客户端。
相关推荐
hive自带的启停hive服务非常不方便,操作麻烦,那么有没什么办法一键启停hive服务呢?这个文章就是解决这个问题的
hive服务的测试代码源码
一键启动HDFS集群、YARN集群、Hive服务脚本
一键停止HDFS集群、YARN集群、Hive服务脚本
Hive学习必备——配置Hive环境教程 在这篇文章中,我们将详细介绍如何配置Hive环境,包括安装Hive、配置Hadoop环境、配置Hive Metastore数据库等步骤。同时,我们还将使用Xshell6工具来远程连接到Hive服务器,并...
Hive的配置,选定一个Hive的master,其他的节点为slaves,master和slaves的配置略有不同,不是完全照搬,准确的来说,应该是只有一个节点是Hive的服务器节点负责和元数据库以及集群内部通信,其他的Hive节点其实是装...
* Zookeeper(协调服务) * Pig(数据流) * Sqoop * Hive(SQL) * MapReduce(分布式计算框架) * Hbase(列存储) * HCatalog(元数据) * HDFS(Hadoop 分布式文件系统) Hive 用户接口 ---------------- Hive...
本文档为总结的hive基础知识,包括hive服务、变量和属性、日志、表操作……等基础知识。
包括Hive的基本配置、元数据存储、Hive服务器等方面的设置,以满足不同部署场景的需求。 适用人群: 数据工程师、数据科学家和数据库管理员 需要在本地或远程环境中部署Hive的技术人员 对Hive数据库配置感兴趣的系统...
它提供了具体的SQL示例,如创建用户表、加载CSV文件数据、执行各种查询操作(如筛选、统计、分组等),并指出了在实际操作中需要注意的事项,如确保Hive服务启动、连接Hive客户端、修改路径和文件名,以及根据权限和...
centos7 pyhive连接hive(基于kerberos)。由于基于kerberos校验的hive服务器通过python连接的过程很麻烦,故整理文档。
hive的安装其实有两部分组成,一个是Server端、一个是客户端,所谓服务端其实就是Hive管理Meta的那个Hive,服务端可以装在任何节点上,当hive服务并发量不高时推荐部署在数据节点上,并发量高时推荐单独部署在若干台...
简单配置单元 这是Cloud Foundry的简单Hive服务。 如果您遇到以下两种情况,这是给您的: “我正在开发一个应用程序,它取决于Hive。现在怎么办?” “有人提到Cloud Foundry ,服务和经纪人,但我没有得到。” ...
完成以上配置修改后,需要重启 Hive 服务,并在 HiveServer2 的 WebUI 中确认修改是否生效。 step 4: 配置 Impala 然后,需要在 CM > Impala > 配置 > 搜索 catalog 命令行参数 添加如下配置: 值:--hms_event_...
将“數倉數據提供與報表流程開發\码表导入\TY”中csv内容导入hive的码表当中。 目标csv:sfc_b_phase.csv 2、将csv文件放到hive对应的服务器上 hadoop服务器:10.176.153.32 1、将sfc_b_phase.csv放在32的root目录下...
2.Hive JDBC服务(参考java jdbc连接mysql) 3.hive启动为一个服务器,来对外提供服务 bin/hiveserver2 nohup bin/hiveserver2 1>/var/log/hiveserver.log 2>/var/log/hiveserver.err & 启动成功后,可以在别...
hive的驱动jar包,支持第三方使用。例如sql developer、SQuirreL SQL Client等免费的工具,都可以加载第三方驱动包,直接链接hive服务,就像操纵关系型数据库一样,操作hive上的数据。
在Hive 0.11.0版本之前,只有HiveServer服务可用,你得在程序操作Hive之前,必须在Hive安装的服务器上打开HiveServer服务,如下: 1 [wyp@localhost/home/q/hive-0.11.0]$ bin/hive --service hiveserver -p10002 2 ...
实验目的: 学习Hive基本知识;2)提高Linux操作技能;3)巩固Hadoop相关知识;4)了解Hive架构与相关组件。...2)配置并运行Hive服务HiveServer2;3)以beeline连接HiveServer2,可以运行初级查询命令。
hive介绍和hive环境搭建。。一、 安装mysql 1. 使用root用户: su root 2.... yum install mysql yum install mysql-server ... 重启一下这个mysql服务。 10. 使用hive用户创建数据库并修改连接信息。