`
扬州老鬼
  • 浏览: 302390 次
  • 性别: Icon_minigender_1
  • 来自: 苏州
社区版块
存档分类
最新评论

Hadoop Metrics2

 
阅读更多
Apache Hadoop 0.20.203 and Later, and CDH4 (metrics2)
从Apache Hadoop 0.20.203开始,metrics2就必须被使用了,从管理员的角度来说,最值得关注的变化就是配制方法和一些命名系统的变化。其中很多概念和功能集成了metrics1的特点。
Metrics1首要的不足之处是其context和插件之间一对一的关系。对于hadoop来说,能够支持metrics信息能被多个插件同时处理是很有必要的,在metrics2中,我应用metrics sources和sinks。source是产生的metrics信息,而sinks就是消费这些metrics信息。这两个术语,和context与plug-in的关系很接近。在Hadoop内部中需要产生metrics信息的组件必须要实现MetricsSource接口,或者使用java annotation(注解),那些需要接收,和处理metrics信息的组件就需要实现MetricsSink接口。这种架构(基于管理员提供的配置文件)处理metrics在source和sink之前的传递。
默认情况下,所有的sources的metrics信息都会被传递给所有的sinks,这种设计是为了满足通用的需求,比如需要将metrics信息传递给单独的文件,或者给Ganglia。
在特殊情况下,如果有很复杂的数据,管理员可以过滤metrics信息。Filtes可以被应用到source,record,设置是metrics名,需要注意的是,定义了filter,当然会引起负载压力。
hadoop-metrics2.properties就是metrics2的标准配置文件,和metrics1一样,这个配置文件也是java properties文件,但是他使用一些条目来定义默认设置和重写设置。举例如下:
Example 10-5. Sample hadoop-metrics2.properties configuration file
# hadoop-metrics2.properties
# By default, send metrics from all sources to the sink
# named 'file', using the implementation class FileSink.
*.sink.file.class = org.apache.hadoop.metrics2.sink.FileSink
# Override the parameter 'filename' in 'file' for the namenode.
namenode.sink.file.filename = namenode-metrics.log
# Send the jobtracker metrics into a separate file.
jobtracker.sink.file.filename = jobtracker-metrics.log

配置文件中的每一个property都包含四个components:prefix,type,instance,option。
例如:namenode.sink.file.filename,namenode就是prefix,sink就是type,file就是instance,filename就是option。

What about SNMP?
大多数的管理员都遇到过使用SNMP。SNMP和JMX一样是一个metrics提取的一种标准,Hadoop没有直接的SNMP接口,和mib module。用户被鼓励使用JMX,因为JMX提供了相似的性能。
0
1
分享到:
评论

相关推荐

    GraphiteMetrics2:与metrics2一起使用的石墨的hadoop上下文包

    石墨上下文 像 Hadoop 的 GangliaContext 一样,将指标发送到 Graphite 编译: ... *.sink.graphite.class=org.apache.hadoop.metrics2.graphite.GraphiteContext # default sampling period *.p

    hadoop0.23.9离线api

    org.apache.hadoop.metrics2.sink.ganglia org.apache.hadoop.metrics2.source org.apache.hadoop.metrics2.util org.apache.hadoop.net org.apache.hadoop.record org.apache.hadoop.record.compiler org....

    hadoop2.7安装演示

    Apache Hadoop 2.7.3 is a minor release in the 2.x.y release line, building upon the previous stable release 2.7.2. Here is a short overview of the major features and improvements. Common ...

    hadoop-2.6.0-hadoop.dll-winutils.exe

    log4j:WARN No appenders could be found for logger (org.apache.hadoop.metrics2.lib.MutableMetricsFactory). log4j:WARN Please initialize the log4j system properly. log4j:WARN See ...

    Optimizing Hadoop for MapReduce(PACKT,2014)

    Starting with how MapReduce works and the factors that affect MapReduce performance, you will be given an overview of Hadoop metrics and several performance monitoring tools. Further on, you will ...

    Apache Hadoop 2.7.2

    Apache Hadoop 2.7.2 is a minor release in the 2.x.y release line, building upon the previous stable release 2.7.1. Here is a short overview of the major features and improvements. Common ...

    apache hadoop 2.7.2.chm

    Compatibilty between Hadoop 1.x and Hadoop 2.x Encrypted Shuffle Pluggable Shuffle/Sort Distributed Cache Deploy MapReduce REST APIs MR Application Master MR History Server YARN Overview YARN ...

    Hadoop权威指南 第二版(中文版)

     Amazon EC2上的Hadoop 第10章 管理Hadoop  HDFS  永久性数据结构  安全模式  日志审计  工具  监控  日志  度量  Java管理扩展(JMX)  维护  日常管理过程  委任节点和解除节点  升级 第11章 Pig简介 ...

    Hadoop权威指南(中文版)2015上传.rar

    Amazon EC2上的Hadoop 第10章 管理Hadoop HDFS 永久性数据结构 安全模式 日志审计 工具 监控 日志 度量 Java管理扩展(JMX) 维护 日常管理过程 委任节点和解除节点 升级 第11章 Pig简介 安装与运行Pig 执行类型 ...

    log4j:WARN No appenders could be found for logger (org.springframework.context.s

    NULL 博文链接:https://wait7758521.iteye.com/blog/1933964

    Pro Hadoop Data Analytics

    Best practices to use when building analytic systems with Hadoop, and metrics to measure performance and efficiency of components and systems How to connect to standard relational databases, noSQL ...

    Pro Hadoop Data Analytics(Apress,2016)

    Best practices to use when building analytic systems with Hadoop, and metrics to measure performance and efficiency of components and systems How to connect to standard relational databases, noSQL ...

    hadoop_the_definitive_guide_3nd_edition

    Hadoop on Amazon EC2 332 10. Administering Hadoop . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 337 HDFS 337 Persistent Data Structures 337 Safe ...

    hadoop-hdfs-fsimage-exporter:将Hadoop HDFS内容统计信息导出到Prometheus

    Prometheus Hadoop HDFS FSImage导出器 | 将Hadoop HDFS统计信息导出到包括 总数/每个用户/每个组/每个配置的目录路径/每个路径集 目录数 文件数 文件大小和大小分布(可选) 块数 文件复制(总体/每个用户摘要)...

    hfind:查找Hadoop实现

    H找到 hfind是Hadoopfind(1)实现。 入门 在下载最新版本的hfind tarball。 压缩包包含两个文件,一个shell脚本和一个jar。 首先,您需要通过HFIND_OPTS...[pierre@mouraf ~/downloads]$ tar zxvf metrics.hfind-

    xmljava系统源码-bigdata:大数据平台

    metrics的监控) 7 自动扩容 8 组件的配置都是经过生产实践考验的配置(50PB+数据 , 1k+ server, 10w+job/天) hdfs nameservice划分 需要开发什么系统和与什么内部系统对接 主要组件介绍 大概都需要怎么样的服务器 ...

    大数据HDPAmbariambari-metrics-collector-2.7.7.0-0.x86-64.rpm

    Apache Ambari 是一个用于配置、管理和监控 Apache Hadoop 集群的工具。Ambari 由一组 RESTful API 和一个基于浏览器的管理界面组成。 ambari-metrics-collector是用于管理收集群集节点的指标的代理器。详细安装...

    flume-metrics-influxdb

    flume-metrics-influxdb Flume指标下沉到Influxdb 在Flume 1.8.0版上进行了测试 启动Flume代理 将罐子复制到类路径,并使用以下内容启动水槽...Dflume.monitoring.password=hadoop -Dflume.monitoring.cluster=flume2

    Cloudera_Hadoop_UserMetrics:查询Cloudera Manager API以生成作业数据以确定用户指标

    Cloudera_Hadoop_UserMetrics 查询Cloudera Manager API以生成作业数据以确定用户指标 查询REST API,如此处所述: : 以写入csv。 这可用于生成自定义指标,以确定集群使用情况。 有关文档,请参见

    Big-Data-Analysis-on-International-Health-and-Population-Metrics:我使用过 Hadoop、Hive、Spark 等大数据工具来分析我从 Kaggle 获取的数据集

    国际健康与人口指标大数据分析 我使用过 Hadoop、Hive、Spark 等大数据工具来分析我从 Kaggle 获取的数据集。

Global site tag (gtag.js) - Google Analytics