背景:
业务中需要创建表的时候,每个月执行都需要表名后有日期后缀,后缀到月份,
现在的做法是: hive创建表语句和处理依旧不变,最后做完ETL后生成了最终表后,
在执行如下脚本即可:
#!/bin/bash tablename="stu" currentdate=$(date +%Y%m) currentdate=$currentdate"00" hive -S -e "use st_qypf_intermediate; alter table ${tablename} rename to ${tablename}${currentdate};"
相关推荐
hive的Linux安装包,hive0.13.1的Linux下的tgz包,可用于集群安装
4.2.3 Hive 重命名表名: 4 4.3Hive 删除表: 4 5 Hive 分区 4 5.1 Hive 添加分区 4 5.2 Hive 删除分区 5 6 SHOW语句 5 7 DESCRIBE语句 5 8 加载数据 5 9表连接 6 10 子查询 6 11 UNION ALL 6 12 Hive使用注意点: 6 ...
hive表修改分区数据
hive2.1.1 show create table 表名,hive中文乱码,替换hive-exec-2.1.1.jar
hive Linux安装和配置文档,供大家参考学习使用!,附详细安装配置过程,以及问题处理等
Hive安装讲义(linux_hive linux_mysql)
大数据的hive资源的详细代码设计以及分享,望博友相互交流
命令行模式,或者说目录模式,可以使用hive 执行命令。 选项说明: -e : 执行短命令 -f : 执行文件(适合脚本封装) -S : 安静模式,不显示MR的运行过程 -hivevar : 用于定义hive运行时的变量替换 ,专门...
kerberos认证hive连接代码,springmvc配置加上java触发认证kerberos认证
云计算HIVE使用 云计算HIVE使用云计算HIVE使用云计算HIVE使用云计算HIVE使用云计算HIVE使用云计算HIVE使用云计算HIVE使用
Hive_64bit_linux_centos,编译过的hive,64位。官网上下载的是32位。编译过程挺复杂的。建议下载!
使用hive,hadoop,spark,datax,python,scala修改添加的配置
Hive是把一个查询转化成多个MapReduce任务,然后一个接一个执行。执行的中间结果通过对磁盘的读写来同步。然而,Presto没有使用MapReduce,它是通过一个定制的查询和执行引擎来完成的。它的所有的查询处理是在内存中...
使用hive3.1.2和spark3.0.0配置hive on spark的时候,发现官方下载的hive3.1.2和spark3.0.0不兼容,hive3.1.2对应的版本是spark2.3.0,而spark3.0.0对应的hadoop版本是hadoop2.6或hadoop2.7。 所以,如果想要使用高...
本文档为总结的hive基础知识,包括hive服务、变量和属性、日志、表操作……等基础知识。
Hive安装讲义(linux_hive windows_mysql)
hive hive hive hive hive hive hive hive hive hive hive hive
Ambari下Hive3.0升级到Hive4.0,验证自测;
Linux 搭建Hive链接mysql教程 适用搭建hadoop,配置环境使用