1.向表中装载数据
load data local inpath '${env:HOME}/california-employees'
overwrite into table employees
partition (country='US',state='CA');
2.通过查询语句向表中插入数据
insert overwrite/into table employees
partition (country='US',state='OR')
select * from staged_employees se
where se.cnty='US' and se.st='OR';
全表扫描一次
form staged_employees se
insert overwrite table employees
partition (country='US',state='OR')
select * where se.cnty='US' and se.st='OR'
insert overwrite table employees
partition (country='US',state='CA')
select * where se.cnty='US' and se.st='CA'
insert overwrite table employees
partition (country='US',state='IL')
select * where se.cnty='US' and se.st='IL';
动态分区插入
insert into table employees
partition (country,state)
select ...,se.cnty,se.st
from staged_employees se;
静态动态分区混合
insert into table employees
partition (country='US',state)
select ...,se.cnty,se.st
from staged_employees se
where se.cnty='US';
hive.exec.dynamic.partition
默认false,设置成true,表示开启动态分区功能
hive.exec.dynamic.partition.mode
默认strict,设置成nostrict,表示允许所有分区都是动态的
hive.exec.max.dynamic.partitions.pernode
默认100,每个mapper或reducer可以创建的最大动态分区个数
hive.exec.max.dynamic.partitions
默认+1000,一个动态分区创建语句可以创建的最大动态分区个数
hive.exec.max.created.files
默认100000,全局可以创建的最大文件个数
3.单个查询语句创建表并加载数据
create table ca_employees
as select name,salary,address
from employees se
where se.state='CA';
4.导出数据
haddop fs -cp source_path target_path
insert overwrite local directory '/tmp/ca_employees'
select name,salary,address
from employees
where se.state='CA'
指定多个输出文件夹目录
from staged_employees se
insert overwrite directory '/tmp/or_employees'
select * where se.cty='US' and se.st='OR'
insert overwrite directory '/tmp/ca_employees'
select * where se.cty='US' and se.st='CA'
insert overwrite directory '/tmp/il_employees'
select * where se.cty='US' and se.st='IL';
分享到:
相关推荐
《Hive数据仓库案例教程》教学课件 第5章 Hive数据操作.pdf《Hive数据仓库案例教程》教学课件 第5章 Hive数据操作.pdf《Hive数据仓库案例教程》教学课件 第5章 Hive数据操作.pdf《Hive数据仓库案例教程》教学课件 第...
大数据学习:Hive数据操作语言.pdf
Hive数据操作-教案.pdf 学习资料 复习资料 教学资源
题目:实验六:熟悉Hive的基本操作 姓名:小猪猪 日期:2022/5/15 1、实验环境: 设备名称 LAPTOP-9KJS8HO6 处理器 Intel(R) Core(TM) i5-10300H CPU @ 2.50GHz 2.50 GHz 机带 RAM 16.0 GB (15.8 GB 可用) 主机操作...
主要介绍了在python中使用pyspark读写Hive数据操作,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
使用javaJDBC连接hive数据,实现简单的操作!
hive的定义与简单操作,大数据开发hive的简单介绍,入门级别知识点.
附件包括一个数据文件(csv文件,包括92168条记录)和一个包含操作命令的txt文件,用于Hive的学习。 其中csv文件可以上传到HDFS构建测试数据,txt文件给出了相关的操作命令。
hive 操作相关的测试数据集hive
Hive运维中通常会用到操作元数据,这里提供了常用的sql语句
Hive原理/Hive SQL/Hive 函数/数据仓库分层和建模/Hive sql优化/数据倾斜
1.5 HIVE的数据存储 11 1.6 其它HIVE操作 11 2. HIVE 基本操作 12 2.1 create table 12 2.1.1 总述 12 2.1.2 语法 12 2.1.3 基本例子 14 2.1.4 创建分区 15 2.1.5 其它例子 16 2.2 Alter Table 17 2.2.1 Add ...
hive数据模型操作.pdf 学习资料 复习资料 教学资源
完成Hive工具的安装和配置 Hive工具能够正常启动运行 Hive控制台命令能够正常使用 够正常操作数据库,表,数据
spring-boot集成mybatis+druid实现 hive/mysql多数据源切换,用mysql数据库作为用户验证库以及用户信息库,hive作为数据可视化源库。
Hive数据模型操作-教案.pdf 学习资料 复习资料 教学资源
2 Hive支持的数据类型: 2 2.1原子数据类型: 2 2.2复杂数据类型: 2 2.3 Hive类型转换: 3 3 Hive创建/删除数据库 3 3.1创建数据库: 3 3.2 删除数据库: 3 4 Hive 表相关语句 3 4.1 Hive 建表: 3 4.1.1使用LIKE...
大数据Hive测试数据uaction.rar,包含了用户操作记录,为文件大小为300余M,包含800W条数据。
Hive 安装(1.2.1Linux 下 Mysql 数据hive 的运行及访问方式