hadoop集群的配置与扩展。
其中大体都提到,基本是180G磁盘/1核cpu,这样可以保证单位磁盘的计算能力(密度)。
由第一篇淘宝的文章计算:
淘宝Hadoop集群现在超过1700个节点,服务于用于整个阿里巴巴集团各部门,数据来源于各部门产品的线上数据库(Oracle, MySQL)备份,系统日志以及爬虫数据,数量总量已经超过17个PB,每天净增长20T左右。
一个节点:硬件配置:16CPU*4核,96G内存。
那么:17*1024*1024G/1700节点/64CPU核 = 163.84G/CPU核 姑且认为是:180G/CPU核
那么如果2CPU核4G内存的机器,应该分配2*180G/CPU核=360G的磁盘。
初始化机器为:3个节点,3*2CPU核4G内存360G磁盘(顶多放到500G,计算密度为180G/CPU核 )。
计算的好处:
1、如果单位机器磁盘过大,计算能力密度过低,磁盘的利用率差,很快计算能力会成为瓶颈(此时磁盘还有大量空闲)
2、如果单位磁盘的计算能力过强,磁盘已经耗尽,但计算能力过分富足也会浪费机器成本
3、综合来看,合理的单位磁盘计算密度,可以节省磁盘+计算资源,并且当整体资源不足时,以较低较合理的成本,从3个节点,扩展到10,扩展到100个节点。
腾讯云的服务器资源:
3台大概是1200元,5台大概是2000元。
另一种配置,磁盘放大到500G。
这是2CPU核4G内存,500G磁盘的单位机器成本。
磁盘单位计算能力密度相应下降一点点
相关推荐
Hadoop集群搭建详细简明教程及搭建方法
非常详细的hadoop集群搭建教程,包含SSH免密码登录,基本上按照教程上一步一步操作就能搭建成功,非常适合大数据初学者使用
详细的Hadoop集群搭建过程,有6部分,前提是能连接网络,前三部都是很简单免密要仔细看,推荐JAVA版本1.8,Hadoop版本2.2.7 这两个版本都是稳定的
非常详细的linux上的hadoop集群搭建文档,可供参考,希望大家能够从中获益
hadoop集群搭建文档,欢迎您下载使用欢迎您下载使用欢迎您下载使用欢迎您下载使用欢迎您下载使用
本文档深刻解析了hadoop集群搭建的过程,有自己编写的过程,有完整的搭建过程。
超详细集群搭建教程(从虚拟机安装到集群搭建完成,集群搭建成功验证),每一个步骤都有,照做即可。 内有集群搭建所需安装包:hadoop2.2.0,zookeeper3.4.5
Hadoop集群搭建的详细步骤,涉及Linux:Centos6.5基础环境配置,Hadoop集群离线部署方式。
详细的hadoop集群搭建步骤
基于haodoop 集群搭建hbase集群。(2台机器的情况。)
该文档提供了linux环境中搭建hadoop集群(大数据)的步骤,个人认为比较详细,供大家学习
在虚拟机上面搭建hdfs 集群亲测可用 记得 修改ip地址就行
Hadoop2.2.0安装配置手册!完全分布式Hadoop集群搭建过程 按照文档中的操作步骤,一步步操作就可以完全实现hadoop2.2.0版本的完全分布式集群搭建过程
linux下hadoop集群搭建,很不错的资料,欢迎下载
Linux 操作系统安装环境下Hadoop集群搭建详细简明教程
从配置Linux IP 到hadoop集群安装的详细步骤附带linux命令,最后总结安装中常见的错误,以及处理办法。