用CREATE TEMPORARY FUNCTION 的函数,下次进入又要重新CERATE,很费劲。
发现hive -i <脚本文件>, 在启动时会执行脚本文件,正好能解决这个问题。
1.在${HIVE_HOME}下建一个sql目录,vi init.sql,内容为:
#要用到的jar
add jar /setup/hive/lib/mysql-connector-java-5.1.25-bin.jar;
add jar /setup/hive/lib/hive_contrib.jar;
add jar /setup/hive/lib/hive-contrib-0.9.0.jar;
#创建function
CREATE TEMPORARY FUNCTION dboutput AS 'org.apache.hadoop.hive.contrib.genericudf.example.GenericUDFDBOutput';
2.在sql目录下,执行 hive -i init.sql
hive> [root@master sql]# hive -i init.sql
WARNING: org.apache.hadoop.metrics.jvm.EventCounter is deprecated. Please use org.apache.hadoop.log.metrics.EventCounter in all the log4j.properties files.
Logging initialized using configuration in file:/setup/hive/conf/hive-log4j.properties
Hive history file=/tmp/root/hive_job_log_root_201309261546_1027834988.txt
hive> list jar;
/setup/hive/lib/hive-contrib-0.9.0.jar
/setup/hive/lib/hive_contrib.jar
/setup/hive/lib/mysql-connector-java-5.1.25-bin.jar
file:/setup/hive/lib/hive-builtins-0.9.0.jar
hive> show functions 'dboutput';
OK
dboutput
Time taken: 0.432 seconds
WARNING: org.apache.hadoop.metrics.jvm.EventCounter is deprecated. Please use org.apache.hadoop.log.metrics.EventCounter in all the log4j.properties files.
Logging initialized using configuration in file:/setup/hive/conf/hive-log4j.properties
Hive history file=/tmp/root/hive_job_log_root_201309261546_1027834988.txt
hive> list jar;
/setup/hive/lib/hive-contrib-0.9.0.jar
/setup/hive/lib/hive_contrib.jar
/setup/hive/lib/mysql-connector-java-5.1.25-bin.jar
file:/setup/hive/lib/hive-builtins-0.9.0.jar
hive> show functions 'dboutput';
OK
dboutput
Time taken: 0.432 seconds
相关推荐
大数据hadoop中hive-1.1.0 的cli ,jar包,hive-cli-1.1.0.jar
通过mysql> source XXXXX\hive-schema-3.1.0.mysql.sql初始化元数据
HiveCLI和Beeline命令行的基本使用,基础篇
官方版的hive,通过命令:desc table1,是不能正常显示中文注释的,附件是对源码改造过的hive-0.10.0可以通过命令:desc table1 正常显示中文注释
用于Hive和HBase的连接,通过hive操作hbase上的表 解压缩后全部放入hive/lib下,需先删除原有jar
hive-cli.jar hive-common.jar hive-contrib.jar hive-hbaseec.jar hive-hbase-handler.jar hive-hwi.jar hive-jdbc.jar hive-metastorejar hive-serde.jar hive-service.jar hive-shims.jar hadoop-core-1.0.4.jar
基于Hadoop Hive健身馆可视化分析平台项目源码+数据库文件.zip启动方式 环境启动 hadoop hive2元数据库 sql导入 导入hivesql脚本,修改application.yml 启动主程序 HadoopApplication 基于Hadoop Hive健身馆可视化...
hive执行计划可视化工具
hive安装依赖以及启动脚本 文件包含如下: 01_mysql-community-common-5.7.29-1.el7.x86_64.rpm 02_mysql-community-libs-5.7.29-1.el7.x86_64.rpm 03_mysql-community-libs-compat-5.7.29-1.el7.x86_64.rpm 04_...
NULL 博文链接:https://liyonghui160com.iteye.com/blog/2120104
hive提供了三种用户接口:CLI,JDBC/ODBC和 WebUI CLI,即Shell命令行 JDBC/ODBC 是 Hive 的Java,与使用传统数据库JDBC的方式类似 WebGUI是通过浏览器访问 Hive 本文主要介绍的就是第二种用户接口,直接进入正题。 ...
hive hive hive hive hive hive hive hive hive hive hive hive
在启动 Client 模式的时候, 需要指出 Hive Server 所在节点,并且在该节点启动 Hive Server 。 WUI 是通过浏览器访问 Hive 。 2、 Hive 将元数据存储在数据库中,如 mysql 、 derby 。 Hive 中的元数据包括表的...
附件包括一个数据文件(csv文件,包括92168条记录)和一个包含操作命令的txt文件,用于Hive的学习。 其中csv文件可以上传到HDFS构建测试数据,txt文件给出了相关的操作命令。
-- hive查询时输出列名 --> <name>hive.cli.print.header <value>true <!-- 显示当前数据库名 --> <name>hive.cli.print.current.db <value>true <!-- 开启本地模式,默认是false --> <name>hive....
使用hive3.1.2和spark3.0.0配置hive on spark的时候,发现官方下载的hive3.1.2和spark3.0.0不兼容,hive3.1.2对应的版本是spark2.3.0,而spark3.0.0对应的hadoop版本是hadoop2.6或hadoop2.7。 所以,如果想要使用高...
hive-jdbc
3.hive启动为一个服务器,来对外提供服务 bin/hiveserver2 nohup bin/hiveserver2 1>/var/log/hiveserver.log 2>/var/log/hiveserver.err & 启动成功后,可以在别的节点上用beeline去连接 bin/beeline -u ...
hive