- 浏览: 2147234 次
- 性别:
- 来自: 北京
文章分类
- 全部博客 (682)
- 软件思想 (7)
- Lucene(修真篇) (17)
- Lucene(仙界篇) (20)
- Lucene(神界篇) (11)
- Solr (48)
- Hadoop (77)
- Spark (38)
- Hbase (26)
- Hive (19)
- Pig (25)
- ELK (64)
- Zookeeper (12)
- JAVA (119)
- Linux (59)
- 多线程 (8)
- Nutch (5)
- JAVA EE (21)
- Oracle (7)
- Python (32)
- Xml (5)
- Gson (1)
- Cygwin (1)
- JavaScript (4)
- MySQL (9)
- Lucene/Solr(转) (5)
- 缓存 (2)
- Github/Git (1)
- 开源爬虫 (1)
- Hadoop运维 (7)
- shell命令 (9)
- 生活感悟 (42)
- shell编程 (23)
- Scala (11)
- MongoDB (3)
- docker (2)
- Nodejs (3)
- Neo4j (5)
- storm (3)
- opencv (1)
最新评论
-
qindongliang1922:
粟谷_sugu 写道不太理解“分词字段存储docvalue是没 ...
浅谈Lucene中的DocValues -
粟谷_sugu:
不太理解“分词字段存储docvalue是没有意义的”,这句话, ...
浅谈Lucene中的DocValues -
yin_bp:
高性能elasticsearch ORM开发库使用文档http ...
为什么说Elasticsearch搜索是近实时的? -
hackWang:
请问博主,有用solr做电商的搜索项目?
Solr中Group和Facet的用法 -
章司nana:
遇到的问题同楼上 为什么会返回null
Lucene4.3开发之第八步之渡劫初期(八)
这两天,打算给现有的Apache Hadoop2.7.1的集群装个hue,方便业务人员使用hue的可视化界面,来做一些数据分析任务,这过程遇到不少问题,不过大部分最终都一一击破,收获经验若干,折腾的过程,其实也是一个学习的过程,一个历练的过程,我相信优秀的人,都是经历过无数磨难成就的,并且有着坚持不放弃的心态,迎接各种挑战,如果你总是遇到困难就放弃,那么你永远也不能成为最优秀的人,废话不多说了,下面开始进入正题:
框架版本如下:
Centos6.5
Apache Hadoop2.7.1
Apache Hbase0.98.12
Apache Hive1.2.1
Apache Pig0.15.0
Apache oozie4.2.0
Apache Spark1.6.0
Cloudrea Hue3.8.1
(一)安装hue
1,到官网下载 http://gethue.com/category/release/
2,解压到某个目录hue
3,安装依赖:yum install -y asciidoc cyrus-sasl-devel cyrus-sasl-gssapi gcc gcc-c++ krb5-devel libtidy libxml2-devel libxslt-devel make mysql mysql-devel openldap-devel python-devel sqlite-devel openssl-devel gmp-devel
4,进入hue目录,运行make apps编译
5,配置desktop/conf/hue.ini
6,启动build/env/bin/supervisor 杀死脚本(ps -ef | grep hue- | gawk '{print $2}' | xargs kill -9)
如果你的hue只是用来操作hive的,那么没必要安装oozie了,那么整个流程就简单了,进入hive目录启动memstore和hiveserver2服务即可:
bin/hive --service metastore
bin/hiveserver2
一个使用hue查询的hive的查询如下:
很漂亮,用来调试sql非常方便,如果你想使用工作流或者pig功能,那么就需要安装oozie了
oozie安装编译比较坑,这里需要注意一下,目前最新的版本oozie的最新版本是4.2.0,但是依赖的
hive只支持0.13.1
hbase支持到0.94.2
spark,hadoop,pig均可支持当然最新版本
而且pom文件里面用到的codehash镜像已经失效,如果不去掉,则会编译失败:
<repository> <id>Codehaus repository</id> <url>http://repository.codehaus.org/</url> <snapshots> <enabled>false</enabled> </snapshots> </repository>
(二) 安装oozie
1,下载oozie
wget http://archive.apache.org/dist/oozie/4.2.0/oozie-4.2.0.tar.gz
2,解压至某个盘符,修改其根目录下的pom文件里面的pig(加载类是h2,代表hadoop2.x),hadoop,hbase,hive,spark等版本,hbase和hive使用最新的可能会编译失败,这一点需要注意,经测试hbase0.94.2和hive0.13.1可正常编译通过,
3,修改完毕后,执行编译
bin/mkdistro.sh -P hadoop-2 -DskipTests
或
mvn clean package assembly:single -P hadoop-2 -DskipTests
4,执行成功后,拷贝oozie-4.2.0/distro/target/oozie-4.2.0-distro.tar.gz 至安装目录,
具体请参考我的这篇文章:
http://qindongliang.iteye.com/blog/2212503
(三)在hue里面测试pig脚本:
写一个简单的pig脚本:
点击运行,发现oozie会启动两个任务,一个是launcher,一个pig脚本,lancher任务一直卡着95%进度,不再有任何变化,而主体的pig脚本,则一直在初始化阶段,不能被执行,看日志log无任何错误,就是一直打印
Heart beat
Heart beat
Heart beat
......
经过查资料,发现在集群小的时候,如果集群资源不充足,导致RM无法分配多个MR的资源,就会一直等待,然后整个任务就会处于假死状态,一直死锁不运行,其实就是多个MR任务,抢占资源,导致最后谁也运行不了造成的,如何解决?
方案一:
切换haodop集群默认使用的容量调度器为公平调度器,允许当前队列最多只能运行一个MR任务,多了就阻塞等待。
方案二:
切换haodop集群默认使用的容量调度器为公平调度器,创建多个队列把任务提交到不同的队列里面,避免资源抢占
<property> <name>yarn.resourcemanager.scheduler.class</name> <value>org.apache.hadoop.yarn.server.resourcemanager.scheduler.fair.FairScheduler</value> </property> <property> <name>yarn.scheduler.fair.allocation.file</name> <value>file:/%HADOOP_HOME%/etc/hadoop/fair-scheduler.xml</value> </property>
fair-scheduler.xml配置:
<?xml version="1.0"?> <allocations> <queue name="test"> <minResources>1000 mb, 1 vcores</minResources> <maxResources>5000 mb, 1 vcores</maxResources> <maxRunningApps>1</maxRunningApps> <aclSubmitApps>webmaster</aclSubmitApps> <weight>2.0</weight> <schedulingPolicy>fair</schedulingPolicy> <queue name="test-sub"> <aclSubmitApps>webmaster</aclSubmitApps> <minResources>500 mb, 1 vcores</minResources> </queue> </queue> <user name="root"> <maxRunningApps>1</maxRunningApps> </user> <user name="webmaster"> <maxRunningApps>1</maxRunningApps> </user> <!-- <user name="gpadmin"> <maxRunningApps>5</maxRunningApps> </user>--> <userMaxAppsDefault>1</userMaxAppsDefault> <fairSharePreemptionTimeout>30</fairSharePreemptionTimeout> </allocations>
关于hadoop的资源调度,请参考下面的链接:
https://support.pivotal.io/hc/en-us/articles/201999117-How-to-Configure-YARN-Capacity-Scheduler-on-a-PHD-Cluster
修改完成后同步分发所有的hadoop节点,并拷贝一份到oozie/conf/hadoop-conf/下面一份,重启hadoop集群和oozie服务,再次执行脚本,发现运行没有问题:
如果还想配置,solr,hbase,只要在hue.ini里面配置即可,注意hbase的服务,需要启动hbase的thrift端口才行,
bin/hbase-daemon.sh start thrift
然后在hue.ini里面配置: hbase_clusters=(Cluster|h1:9090),必须是这种格式,否则hue不会识别
配置solr比较简单,支持写上solr的url即可:
扫码关注微信公众号:我是攻城师(woshigcs),我们一起学习,进步和交流!(woshigcs)
本公众号的内容是有关搜索和大数据技术和互联网等方面内容的分享,也是一个温馨的技术互动交流的小家园,有什么问题随时都可以留言,欢迎大家来访!
发表评论
-
Apache Flink在阿里的使用(译)
2019-02-21 21:18 1057Flink是未来大数据实时 ... -
计算机图形处理的一些知识
2018-04-25 17:46 1189最近在搞opencv来做一些 ... -
如何在kylin中构建一个cube
2017-07-11 19:06 1206前面的文章介绍了Apache Kylin的安装及数据仓 ... -
理解数据仓库中星型模型和雪花模型
2017-07-06 17:29 4273在数据仓库的建设中, ... -
Apache Kylin的入门安装
2017-06-27 21:27 2111Apache Kylin™是一个开源的分布式分析引擎,提供 ... -
ES-Hadoop插件介绍
2017-04-27 18:07 1947上篇文章,写了使用spark集成es框架,并向es写入数据,虽 ... -
如何在Scala中读取Hadoop集群上的gz压缩文件
2017-04-05 18:51 2087存在Hadoop集群上的文件,大部分都会经过压缩,如果是压缩 ... -
如何收集项目日志统一发送到kafka中?
2017-02-07 19:07 2746上一篇(http://qindongliang.iteye. ... -
spark sql on hive笔记一
2016-12-09 20:42 2223Spark sql on Hive非常方便,通过共享读取hiv ... -
Hive2.1.0集成Tez
2016-11-21 19:39 1290#### Tez是什么? Tez是Hontonworks ... -
Apache Hive2.1.0安装笔记
2016-11-16 18:51 1150Hive2.x已经足够稳定了,前面也安装过hive0.x和H ... -
Hue+Hive临时目录权限不够解决方案
2016-06-14 10:40 4638安装Hue后,可能会分配多个账户给一些业务部门操作hive,虽 ... -
hive自定义udf实现md5功能
2016-05-25 11:54 4982Hive自定义UDF实现md5算法 Hive发展至今,自身已 ... -
开源大数据索引项目hive-solr
2016-05-06 16:15 1898github地址:https://github.com/qi ... -
Hadoop的8088页面失效问题
2016-03-31 11:21 4375前两天重启了测试的hadoop集群,今天访问集群的8088任 ... -
Hadoop+Hbase集群数据迁移问题
2016-03-23 21:00 2474数据迁移或备份是任何 ... -
如何监控你的Hadoop+Hbase集群?
2016-03-21 16:10 4833前言 监控hadoop的框架 ... -
如何使用Hive集成Solr?
2016-03-17 15:05 2779(一)Hive+Solr简介 Hive ... -
Logstash与Kafka集成
2016-02-24 18:44 11503在ELKK的架构中,各个框架的角色分工如下: Elastic ... -
Kakfa集群搭建
2016-02-23 15:36 2590先来整体熟悉下Kafka的一些概念和架构 (一)什么是Ka ...
相关推荐
《大数据框架Sqoop+Flume+Oozie+Hue视频教程》Sqoop+Flume+Oozie+Hue整合大数据视频教程 经典之作 值得珍藏的大数据视频教程。
大数据框架Sqoop+Flume+Oozie+Hue视频教程(59讲) 内含百度云地址
hue平台oozie工作流操作sqoop,把mysql数据传输到hdfs上
本文档是入门文档,详细描述使用Hue编辑workflows提交spark程序。
第四章:Hue与RDBMS、Oozie、Impala集成 1.Hue配置集成RDBMS 2.Hue集成MySQL实战案例 3.Hue配置集成Oozie 4.Hue集成Oozie实战案例 5.Hue配置集成Hbase 6.Hue集成ThriftServer实战案例 7.Hue配置集成Impala-...
从零开始讲解大数据调度系统构成,集成大数据计算任务构建大数据工作流,基于Oozie构建实现企业级自动化任务开发 课程亮点 1,知识体系完备,从小白到大神各阶段读者均能学有所获。 2,生动形象,化繁为简,讲解...
hue-3.9.0 rpm
hue中对spark任务的支持,是靠oozie支撑的。文档中提供了如何在hue中提交spark作业的操作步骤。
CDH6.3.2配置Hue+Sentry权限管理.pdf
Ambari2.7.4集成Hue4.6.0 安装部署详细步骤文档
大数据常用组件 Hue的常见问题解决方案,包涵大部分常见Hue的问题整理,供参考
CDH安装oozie后不能看console,必须把ext依赖放入oozie的libex
hue集成单点登录的源码包,其中单点登录系统为cas系统,压缩包中含有文档,可以查看部署1111111111111111111111111111111111111111111111111111111111111111111111
submitting Pig jobs using Hue; and working with Oozie. You’ll also see how to extend the framework by writing UDFs and custom load, store, and filter functions. Finally you’ll cover different ...
参考安装链接:http://blog.csdn.net/jethai/article/details/52345065
第3章 任务调度框架Oozie 3.02_02_03_01 工作流调度框架Oozie功能初步认识 网页.mp4 3.02_02_03_02 Linux Crontab调度讲解 网页.mp4 3.02_02_03_03 大数据Hadoop常用三种调度框架讲解 网页.mp4 3.02_02_03_04 Oozie ...
submitting Pig jobs using Hue; and working with Oozie. You'll also see how to extend the framework by writing UDFs and custom load, store, and filter functions. Finally you'll cover different ...
一个Node.js +粒子光子项目,用于对Hue灯光的无线控制。 设置 常规设置为: 至少一个具有两个按钮连接到D0和D1的粒子光子 一个Node.js服务器,该服务器通过TCP和Web接收命令,并作为响应将命令发布到同一网络上的...
Hue 常见问题解决方案,包涵大部分常见Hue的问题整理,供参考