`

hive日常

    博客分类:
  • hive
 
阅读更多
1、sql
select ROUND(RAND()*1000,0) from dual;    生成随机数
 
2、hive创建临时表
create TEMPORARY table up_speed select a.place,a.quart,a.year,a.kwh/b.kwh-1 as elec_speed_up from  (select c.place,c.year,c.quart,sum(c.kwh) as kwh from user_h_growth c group by place,quart,year) a JOIN (select d.place,d.year,d.quart,sum(d.kwh) as kwh from user_h_growth d grou```  
 
3、
drop database aaa cascade⋯⋯傻琪记不住命令
 
4、

 
 
支持Python中运行hive语句,还需要安装bison  下载thrift依赖的东西  yum -y install automake libtool flex bison pkgconfig gcc-c++ boost-devel libevent-devel zlib-devel Python-devel ruby-devel crypto-utils openssl openssl-devel
 
8、
hive调用的包明明在本机存在,却报不存在,需要把端口kill掉重启hive --service hiveserver 重启,因为ambari开机时会自动起一个10086,这个端口是不能用的。
 

 
10、
ORA-12899: value too large for column 列宽太小,修改列宽
 
11、
hive的join 要用on 用where的时候outer join不起作用和inner join一样····(这都能差······)
 
 

 
 
 
17、
Hive没有关系数据库的临时表,只能先生成一个表后再用完再删除叫喊
 
18、oracle insert数据后需要commit 否则不生效
 
 

20、

今天完成一个简单的join,却一直报

 

org.apache.hadoop.hive.ql.metadata.HiveException: Hive Runtime Error while processing row 

这样的错误,还具体列出了某行,查询两表,均有该字段···

 

最后解决。

就是把小的表加入内存,可以配置以下参数,是hive自动根据sql,选择使用common join或者map join

set hive.auto.convert.join = true;

hive.mapjoin.smalltable.filesize 默认值是25mb

 

21、hive oracle语句有很多函数区别,比如参数,hive没有to_char,oracle需要trun之类,最大的区别是字段标识 hive子查询可以没有标识符,字段得加AS

oracle子查询表需要加标识符

 22、
不能从表中查取数据存入csv中
 
2015-05-22 14:23:44,354 WARN org.apache.hadoop.mapred.Child: Error running child
java.lang.RuntimeException: java.lang.AbstractMethodError: com.bizo.hive.serde.csv.CSVSerde.getSerDeStats()Lorg/apache/hadoop/hive/serde2/SerDeStats;
    at org.apache.hadoop.hive.ql.exec.ExecMapper.map(ExecMapper.java:161)
    at org.apache.hadoop.mapred.MapRunner.run(MapRunner.java:50)
    at org.apache.hadoop.mapred.MapTask.runOldMapper(MapTask.java:436)
    at org.apache.hadoop.mapred.MapTask.run(MapTask.java:372)
    at org.apache.hadoop.mapred.Child$4.run(Child.java:255)
    at java.security.AccessController.doPrivileged(Native Method)
    at javax.security.auth.Subject.doAs(Subject.java:396)
    at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1059)
    at org.apache.hadoop.mapred.Child.main(Child.java:249)
Caused by: java.lang.AbstractMethodError: com.bizo.hive.serde.csv.CSVSerde.getSerDeStats()Lorg/apache/hadoop/hive/serde2/SerDeStats;
    at org.apache.hadoop.hive.ql.exec.FileSinkOperator.processOp(FileSinkOperator.java:574)
    at org.apache.hadoop.hive.ql.exec.Operator.process(Operator.java:471)
    at org.apache.hadoop.hive.ql.exec.Operator.forward(Operator.java:762)
    at org.apache.hadoop.hive.ql.exec.SelectOperator.processOp(SelectOperator.java:84)
    at org.apache.hadoop.hive.ql.exec.Operator.process(Operator.java:471)
    at org.apache.hadoop.hive.ql.exec.Operator.forward(Operator.java:762)
    at org.apache.hadoop.hive.ql.exec.TableScanOperator.processOp(TableScanOperator.java:83)
    at org.apache.hadoop.hive.ql.exec.Operator.process(Operator.java:471)
    at org.apache.hadoop.hive.ql.exec.Operator.forward(Operator.java:762)
    at org.apache.hadoop.hive.ql.exec.MapOperator.process(MapOperator.java:529)
    at org.apache.hadoop.hive.ql.exec.ExecMapper.map(ExecMapper.java:143)
    ... 8 more
 
 
23、libthrift JAR包冲突导致,libthrift-0.9.0  替换为 libthrift-0.8.0 
Exception in thread "main" java.lang.RuntimeException: java.lang.RuntimeException: Unable to instantiate org.apache.hadoop.hive.metastore.HiveMetaStoreClient
at org.apache.hadoop.hive.ql.session.SessionState.start(SessionState.java:346)
at org.apache.hadoop.hive.cli.CliDriver.run(CliDriver.java:681)
at org.apache.hadoop.hive.cli.CliDriver.main(CliDriver.java:625)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:39)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)
at java.lang.reflect.Method.invoke(Method.java:597)
at org.apache.hadoop.util.RunJar.main(RunJar.java:156)
Caused by: java.lang.RuntimeException: Unable to instantiate org.apache.hadoop.hive.metastore.HiveMetaStoreClient
at org.apache.hadoop.hive.metastore.MetaStoreUtils.newInstance(MetaStoreUtils.java:1412)
at org.apache.hadoop.hive.metastore.RetryingMetaStoreClient.<init>(RetryingMetaStoreClient.java:62)
at org.apache.hadoop.hive.metastore.RetryingMetaStoreClient.getProxy(RetryingMetaStoreClient.java:72)
at org.apache.hadoop.hive.ql.metadata.Hive.createMetaStoreClient(Hive.java:2453)
at org.apache.hadoop.hive.ql.metadata.Hive.getMSC(Hive.java:2465)
at org.apache.hadoop.hive.ql.session.SessionState.start(SessionState.java:340)
... 7 more
Caused by: java.lang.reflect.InvocationTargetException
at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method)
at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:39)
at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:27)
at java.lang.reflect.Constructor.newInstance(Constructor.java:513)
at org.apache.hadoop.hive.metastore.MetaStoreUtils.newInstance(MetaStoreUtils.java:1410)
... 12 more
Caused by: java.lang.NoSuchMethodError: org.apache.thrift.EncodingUtils.setBit(BIZ)B
at org.apache.hadoop.hive.metastore.api.PrivilegeGrantInfo.setCreateTimeIsSet(PrivilegeGrantInfo.java:245)
at org.apache.hadoop.hive.metastore.api.PrivilegeGrantInfo.<init>(PrivilegeGrantInfo.java:163)
at org.apache.hadoop.hive.metastore.HiveMetaStore$HMSHandler.createDefaultRoles(HiveMetaStore.java:563)
at org.apache.hadoop.hive.metastore.HiveMetaStore$HMSHandler.init(HiveMetaStore.java:398)
at org.apache.hadoop.hive.metastore.HiveMetaStore$HMSHandler.<init>(HiveMetaStore.java:356)
at org.apache.hadoop.hive.metastore.RetryingHMSHandler.<init>(RetryingHMSHandler.java:54)
at org.apache.hadoop.hive.metastore.RetryingHMSHandler.getProxy(RetryingHMSHandler.java:59)
at org.apache.hadoop.hive.metastore.HiveMetaStore.newHMSHandler(HiveMetaStore.java:4944)
at org.apache.hadoop.hive.metastore.HiveMetaStoreClient.<init>(HiveMetaStoreClient.java:171)
 
 24、

csv-serde下载地址:http://ogrodnek.github.io/csv-serde/

用法:
add jar path/to/csv-serde.jar;

create table my_table(a string, b string,...)
 row format serde 'com.bizo.hive.serde.csv.CSVSerde'
 stored as textfile
;

自定义分隔符:


add jar path/to/csv-serde.jar;

create table my_table(a string, b string,...)
 row format serde 'com.bizo.hive.serde.csv.CSVSerde'with serdeproperties ("separatorChar"="\t","quoteChar"="'","escapeChar"="\\")	  
 stored as textfile
;

  • 大小: 99.4 KB
  • 大小: 60.2 KB
分享到:
评论

相关推荐

    Hive日常积累优化技巧.pdf

    Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供简单的 sql查询功能,可以将sql语句转换 为MapReduce任务进行运行。 其优点是学习成本低,可以通过类SQL 语句快速实现简单的...

    hive on spark mr 数据开发常见问题解决

    hive工作常见问题解决收集开发人员在Hive日常开发过程中难免遇到各种各样的hive报错,这些报错信息很多时间并没有形成汇总的知识库,每次遇到问题都会重复查资料,效率非常低 现在总结一些常见的知识库,方便大家...

    Hive 简明教程.pdf

    第一部分:完全以日常使用为目标,整理了常用的Hive 语法,而抛弃了不常用的部分,用来 满足不懂技术的分析人员来快速使用Hive 进行常见的日常数据分析。 第二部分:如果想能写出高效的Hive 语句,必须要先了解Hive ...

    hive常用命令+日常

    hive常用命令+日常

    hive-jdbc-2.1.1.zip(包含必须的jar包文件)

    通过导入jar包,连接hive数据库驱动,DbVisualizer连接Hive数据库所需jar包,包含:hadoop-common-2.2.0.jar,hive-jdbc-2.1.1-standalone.jar,hive-jdbc-2.1.1.jar,满足日常hive查询需求。

    hive查询优化

    hive作为hadoop系列的计算模型,在公司的数据清洗和报表开发广泛使用,合理的优化自己的语句结构可以节省计算时间,优化集群的计算资源,下面总结下日常工作中自己碰到的一些问题和别人总结的一些方法。

    海量数据处理-Hive数据仓库

    海量数据处理-Hive数据仓库是HADOOP方面介绍HIVE的资料,总结的东西是日常用的。

    自动生成hive建表语句查询语句程序及源码.rar

    在excel模板中填写自己表的字段英文名、字段类型、字段中文名、分区英文名、分区数据类型、分区中文名、表英文名、表中文名,自动生成建表语句和查询语句,提高日常数据效率。 前提:本机安装java1.7,并且配置了...

    HIVE 自建落地表

    3、日常导数要求时效性高; 4、部门数仓的表太多字段; 综上四点,还有其他的原因;都需要我们自己落建地表,方便自己查询,以及加快BI报表直接用复杂的SQL语句跑数时间。 HIVE SQL创建内/外部表、分区表 1、创建...

    python 实现 hive中类似 lateral view explode的功能示例

    日常行车服务,汽车资讯 去加油站,加完油后直接离开?最开心的可能是加油站的工作人员 社会民生 已致2死20伤 !景区突遭尘卷风袭击,孩子被卷上天!现场画面曝光 目标数据: label ocr 日常行车服务 去...

    Hive:为HiVE Vancouver开发的应用程序

    该项目耗费了大量的Google文档,并使管理层可以轻松地将它们上传到基于云的应用程序中,从而摆脱了日常管理的麻烦。 管理人员可以自由地做他们最擅长的事情,而不必试图跟踪许多不同的钥匙扣和邮箱。 我将项目从...

    基于Hadoop数据分析系统设计(需求分析).docx

    随着云时代的来临,大数据也吸引越来越多的关注,企业在日常运营中生成、积累的用户网络行为数据。这些数据是如此庞大,计量单位通常达到了PB、EB甚至是ZB。Hadoop作为一个开源的分布式文件系统和并行计算编程模型...

    PersonalInternetDataAnalyC:这个项目是关于数据分析的。目前它分析我在移动设备和电脑上的日常行为。使用到的技术包括:hadoop,hive,hbase,pig,zookeeper,oozie,机器学习等等

    目前它分析我在移动设备和电脑上的日常行为。 使用到的技术包括:hadoop,hive,hbase,pig,zookeeper,oozie,机器学习等等。 这个项目主要使用hadoop等技术,做一些我认为酷的事情。 项目中有详尽的中文注释,以便初学...

    HiveFlux-crx插件

    通过包括时间估计和最终完成时间,它为经理提供了平衡团队日常工作量所需的所有工具。 HiveFlux是针对人而不是项目而设计的。 这意味着您可以始终实时地实时了解公司所涉及的所有项目,以及它们如何每天和每周影响每...

    java版ss源码-sputnik:人造卫星

    Hive 作为主存储。 是第一颗人造地球卫星。 苏联于 1957 年 10 月 4 日将其送入椭圆形近地轨道,在其电池耗尽前绕轨道运行了三周,然后又安静地运行了两个月,然后又落回大气层。 动机 是通用执行引擎,可提供强大的...

    java8源码-daily:我的日常演示

    主要日常学习得一些例子 └─src ├─main │ ├─java │ │ └─com │ │ └─skrein │ │ ├─aixcoder # idea aixcoder插件 │ │ ├─bitmap # bitmap位图算法 │ │ ├─collection │ │ ├─hadoop # ...

    Hadoop权威指南(中文版)2015上传.rar

    日常管理过程 委任节点和解除节点 升级 第11章 Pig简介 安装与运行Pig 执行类型 运行Pig程序 Grunt Pig Latin编辑器 示例 生成示例 与数据库比较 PigLatin 结构 语句 表达式 1.4.4 类型 模式 函数 用户自定义函数 ...

    Hadoop权威指南 第二版(中文版)

     日常管理过程  委任节点和解除节点  升级 第11章 Pig简介  安装与运行Pig  执行类型  运行Pig程序  Grunt  Pig Latin编辑器  示例  生成示例  与数据库比较  PigLatin  结构  语句  表达式  1.4.4 ...

    大数据-数据仓库.docx

    申明:只适用于基于hive搭建的大数据数仓,其他不要下载,谢谢,适用与想从事数仓架构师和数仓开发人员,或者想入门数据仓库开发的人,大数据开发想整体了解数仓只看这个就够了,项目中用到的整体规范文档,包括数仓...

    CDH集群安装手册(详细版)

    Hadoop由HDFS、MapReduce、HBase、Hive和ZooKeeper等成员组成,其中最基础最重要的两种组成元素为底层用于存储集群中所有存储节点文件的文件系统HDFS(Hadoop Distributed File System)和上层用来执行MapReduce程序...

Global site tag (gtag.js) - Google Analytics