hive本身的配置还是很简单的,关键在于需要一些前提条件。
1)hadoop必须配置成伪分布模式或者集群模式
2)必须启动hadoop
hive的数据仓库路径不是本机文件系统路径,而是hdfs的路径
<property>
<name>hive.metastore.warehouse.dir</name>
<value>/home/hadoop/hive/warehouse</value>
<description>location of default database for the warehouse</description>
</property>
创建表
create table visit_record(code string, created_at string, phone string, ip string) row format delimited fields terminated by ' ';
向hive数据仓库中加载数据
load data local inpath '/home/hadoop/hive.txt' into table visit_record;
这里的inpath是本机文件系统路径
采用mysql存储metadata
hive-site.xml文件添加如下配置:
<property>
<name>hive.metastore.local</name>
<value>true</value>
</property>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>
jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true
</value>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>这里是mysql的用户名</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>这里是mysql的密码</value>
</property>
把mysql的java版本的jdbc驱动复制到hive的Lib目录下,启动hive。
当输入show tables;没有报错时,配置成功。登录到mysql查看是否创建了
名为hive的数据库。
分享到:
相关推荐
hive 配置文件,包括hive-site.xml与hive-env.sh两个配置文件,可根据自己需要修改
适合需要使用到hive环境的人,大致有2.3.7的hive、1.8.0_231的java等
本文件内容适用于学习Hadoop时所需配置Hive的所有文件,包括以下内容: apache-hive-2.0.0-bin.tar.gz ...Hive配置文件收集不易,有部分配置内容已单独复制出来! 希望大家点个收藏点个赞,谢谢大家!
hive配置参数及含义, 在大数据维护中对hive的优化参数的配置明细
spark下安装hive标准配置文档。Ubuntu安装hive,并配置mysql作为元数据库时候需要的标准hive-site.xml配置文件,可以根据这个文件联系我的博文内容就行修改,避免入坑。实现快捷启动hive。
使用hive,hadoop,spark,datax,python,scala修改添加的配置
Hive安装与配置
hive配置,hive-default.xml.template,大数据hive常用配置
hive配置说明
12_Hadoop及Hive配置支持snappy压缩 13_Hive中的常见调优 14_Hive中的数据倾斜及解决方案-三种join方式 15_Hive中的数据倾斜及解决方案-group by 16_Hive中使用正则加载数据 17_Hive中使用Python脚本进行预处理
!
!
flink 集成 hive 所需要的依赖包,包括 antlr-runtime-3.5.2.jar flink-connector-hive_2.12-1.14.4.jar flink-shaded-hadoop-3-3.1.1.7.2.9.0-173-9.0.jar flink-sql-connector-hive-3.1.2_2.12-1.14.4.jar hive-...
hive实现并发机制:hive里,同一sql里,会涉及到n个job,默认情况下,每个job是顺序执行的。 如果每个job没有前后依赖关系,可以并发执行的话,可以通过设置该参数 set hive.exec.parallel=true,实现job并发执行...
hive-site.xml 这是一份我本地配置的好用的,hadoop2.7.3 搭建hive-site.xml可以参考一下,希望对您有帮助啊
!
!
Hive配置单元包含一个名为 default 默认的数据库. create database [if not exists] ;---创建数据库 show databases; --显示所有数据库 drop database if exists <database name> [restrict|cascade]; --...
hive配置