`

hive cli启动时初始化temporary function

    博客分类:
  • hive
 
阅读更多
用CREATE TEMPORARY FUNCTION 的函数,下次进入又要重新CERATE,很费劲。
 
发现hive -i <脚本文件>, 在启动时会执行脚本文件,正好能解决这个问题。
 
1.在${HIVE_HOME}下建一个sql目录,vi init.sql,内容为:
 
#要用到的jar
add jar /setup/hive/lib/mysql-connector-java-5.1.25-bin.jar;
add jar /setup/hive/lib/hive_contrib.jar;
add jar /setup/hive/lib/hive-contrib-0.9.0.jar;
 
#创建function
CREATE TEMPORARY FUNCTION dboutput AS 'org.apache.hadoop.hive.contrib.genericudf.example.GenericUDFDBOutput';
 
 
2.在sql目录下,执行 hive -i init.sql
 
hive> [root@master sql]# hive -i init.sql
WARNING: org.apache.hadoop.metrics.jvm.EventCounter is deprecated. Please use org.apache.hadoop.log.metrics.EventCounter in all the log4j.properties files.
Logging initialized using configuration in file:/setup/hive/conf/hive-log4j.properties
Hive history file=/tmp/root/hive_job_log_root_201309261546_1027834988.txt
hive> list jar;
/setup/hive/lib/hive-contrib-0.9.0.jar
/setup/hive/lib/hive_contrib.jar
/setup/hive/lib/mysql-connector-java-5.1.25-bin.jar
file:/setup/hive/lib/hive-builtins-0.9.0.jar
hive> show functions 'dboutput';
OK
dboutput
Time taken: 0.432 seconds
分享到:
评论

相关推荐

    hive-cli-1.1.0.jar

    大数据hadoop中hive-1.1.0 的cli ,jar包,hive-cli-1.1.0.jar

    hive元数据mysql初始化导入

    通过mysql&gt; source XXXXX\hive-schema-3.1.0.mysql.sql初始化元数据

    HiveCLI和Beeline命令行的基本使用.md

    HiveCLI和Beeline命令行的基本使用,基础篇

    cli正常显示中文的hive-0.10.0

    官方版的hive,通过命令:desc table1,是不能正常显示中文注释的,附件是对源码改造过的hive-0.10.0可以通过命令:desc table1 正常显示中文注释

    hive所有jar文件

    用于Hive和HBase的连接,通过hive操作hbase上的表 解压缩后全部放入hive/lib下,需先删除原有jar

    hive jar 包

    hive-cli.jar hive-common.jar hive-contrib.jar hive-hbaseec.jar hive-hbase-handler.jar hive-hwi.jar hive-jdbc.jar hive-metastorejar hive-serde.jar hive-service.jar hive-shims.jar hadoop-core-1.0.4.jar

    基于Hadoop Hive健身馆可视化分析平台项目源码+数据库文件.zip

    基于Hadoop Hive健身馆可视化分析平台项目源码+数据库文件.zip启动方式 环境启动 hadoop hive2元数据库 sql导入 导入hivesql脚本,修改application.yml 启动主程序 HadoopApplication 基于Hadoop Hive健身馆可视化...

    hive执行计划可视化工具

    hive执行计划可视化工具

    hive安装依赖以及启动脚本

    hive安装依赖以及启动脚本 文件包含如下: 01_mysql-community-common-5.7.29-1.el7.x86_64.rpm 02_mysql-community-libs-5.7.29-1.el7.x86_64.rpm 03_mysql-community-libs-compat-5.7.29-1.el7.x86_64.rpm 04_...

    Hive配置(Oracle数据库为元数据)

    hive 三种启动方式及用途

    NULL 博文链接:https://liyonghui160com.iteye.com/blog/2120104

    hadoop+hive+mapreduce的java例子

    hive提供了三种用户接口:CLI,JDBC/ODBC和 WebUI CLI,即Shell命令行 JDBC/ODBC 是 Hive 的Java,与使用传统数据库JDBC的方式类似 WebGUI是通过浏览器访问 Hive 本文主要介绍的就是第二种用户接口,直接进入正题。 ...

    hive

    hive hive hive hive hive hive hive hive hive hive hive hive

    Hive用户指南(Hive_user_guide)_中文版.pdf

    在启动 Client 模式的时候, 需要指出 Hive Server 所在节点,并且在该节点启动 Hive Server 。 WUI 是通过浏览器访问 Hive 。 2、 Hive 将元数据存储在数据库中,如 mysql 、 derby 。 Hive 中的元数据包括表的...

    Hive数据文件以及CLI操作命令

    附件包括一个数据文件(csv文件,包括92168条记录)和一个包含操作命令的txt文件,用于Hive的学习。 其中csv文件可以上传到HDFS构建测试数据,txt文件给出了相关的操作命令。

    Hive2.3.4安装文档

    -- hive查询时输出列名 --&gt; &lt;name&gt;hive.cli.print.header &lt;value&gt;true &lt;!-- 显示当前数据库名 --&gt; &lt;name&gt;hive.cli.print.current.db &lt;value&gt;true &lt;!-- 开启本地模式,默认是false --&gt; &lt;name&gt;hive....

    Hive3.1.2编译源码

    使用hive3.1.2和spark3.0.0配置hive on spark的时候,发现官方下载的hive3.1.2和spark3.0.0不兼容,hive3.1.2对应的版本是spark2.3.0,而spark3.0.0对应的hadoop版本是hadoop2.6或hadoop2.7。 所以,如果想要使用高...

    hive-jdbc hive jdbc驱动

    hive-jdbc

    hivesql语句练习

    3.hive启动为一个服务器,来对外提供服务 bin/hiveserver2 nohup bin/hiveserver2 1&gt;/var/log/hiveserver.log 2&gt;/var/log/hiveserver.err & 启动成功后,可以在别的节点上用beeline去连接 bin/beeline -u ...

    Hive 对 Protobuf 序列化文件读取.zip

    hive

Global site tag (gtag.js) - Google Analytics