`

project web architecture

阅读更多

http://www.alexa.com/topsites

2012中国软件开发者大会(SDCC)

http://www.csdn.net/article/a/2012-09-08/2809730

于9月8-9日在国家会议中心召开,本次大会由CSDN、《程序员》杂志、ITEye合办

Twitter高级软件工程师岳峣解读Twitter基础架构

Twitter的基础架构及迁移

Twitter的创意自始至终都非常简单,一直只是这样一个基本模型,基本上核心业务第一是时间线,第二条内容单位是推文,第三是推文所有者以及用户ID。基本来说Twitter所有核心计算都是围绕着这三类基本数据进行的。

它的计算类型,当一个用户生成一条推文的时候必须存储在一个可靠的文件里,所以这个步骤是有很高实质性要求的。每一秒钟,Twitter大概有 5000条推文生成,但可能有几十万条不同的读取请求。读一条可能要用几十条、上百条的推文,这个数据量很大,所以读通路和写通路大大不同,读通路需要写 通路配合,使得通路获得最新的信息,这个过程会提高写通路的延时。最后一类是用户不容易见到的离线通路,比如说做一个数据统计或者分析,可能会经过一些比 较复杂的计算,但是它的时时要求是最迫切的。

在存储和数据提取中有用户存储、用户交互关系存储、推文的存储。用户对推文有几个所有关系,从开始到现在没有特别大的变动。但是对上面的数据处理以 及对数据进行渲染,都是基于一个应用完成的。随着Twitter的逐步增长,Twitter将一些核心功能抽取出来,将体系从单片化转向模块化,从 Ruby转向了JVM。

模块化的利与弊

模块化有很多好处,单位开发时间缩短了,第二有了系统边界以后,一个系统服务失效发生异常不容易扩散到系统其他部分。另外在资源规划的时候,系统各个部件增长不见得同步,模块化也有些问题,以前在本机上的操作现在可以通过远程调用,网络的复杂性和不确定性、延时需要考虑。

Twitter意识到在大型系统中要知道系统是否可靠,很重要的是对系统各个部件进行有效观测,大概两年前Twitter完全从底层开始设计了系统 运营数据收集、存储、表达和系统健康状况预警,同时还支持分布式的追踪。分布式系统测往往需要一个驱动器,还有接口生成标准等等。

如何管理成品环境

成品环境在软件开发早期,人为干涉、人为管理在你有成千上万服务器的时候就完全失效了,而且对于一个快速发展的公司来说有一个问题,成品环境的管理是需要很长周期建设的,不是说今天人为管理,明天就可以精细化管理,这需要公司有远见及早进行这方面的投资。

成品管理有几个目标,第一个是可用性,然后你的硬件资源还要有效使用,当达到一定规模的时候要是自动化的。Twitter的答案是Mesos,我们 一般操作系统中由内核负责资源分配和程序的调用,Mesos就是在一个分布式系统中的新内核。Mesos首先整合资源,就是这些服务器,把它拿过来进行统 计,根据不同应用需求,任何应用只要向Mesos请求资源,Mesos都能够给予支持。

2009系统架构师大会

http://focus.it168.com/focus/201007/saccing/include/3.html

 

 

知名网站的技术发展历程

http://www.cnblogs.com/end/archive/2012/05/25/2518400.html

《构建高性能web站点》/gouijiangaoxingnengwebzhandian

http://baike.baidu.com/view/2721734.htm

http://item.zhigou.com/bookschina/q23862332.html

http://ishare.iask.sina.com.cn/f/8427790.html?from=isnom

http://static.ishare.down.sina.com.cn/8810742.pdf?ssig=F8eq662iNw&Expires=1350144000&KID=sina,ishare&ip=1350045290,221.226.47.&fn=%E6%9E%84%E5%BB%BA%E9%AB%98%E6%80%A7%E8%83%BDWEB%E7%AB%99%E7%82%B9.pdf



该书深入分析了常见高性能Web技术,轻松搭建高性能Web站点。涵盖了Web站点性能优化的几乎所有内容,通过通俗易懂的文字和生动有趣的配图,让读者充分并深入理解高性能架构的真相。
作者:     郭欣
ISBN:     9787121093357
页数:     402
定价:     59元
   
出版社:     电子工业出版社
出版时间:     2009-8-1
装帧:     平装
开本:     16开

目录
    编辑推荐
    作者简介
    目录
    展开
编辑本段编辑推荐
  《构建高性能Web站点》是作者在Web系统领域多年工作、实践和探索的结晶。本书涉及Web系统优化的各个方面,从浏览器、Cache到Web、数据库和分布式文件系统等;穿插了大量的实际测试数据和很多流行开源软件的使用方法与案例;内容丰富,文字生动,对比形象。对于网络系统架构师、运维和开发人员,这是很好的参考书目;对于想了解Web性能并希望动手实践的人员,这是由浅入深的学习书籍。
  ——章文嵩博士,LVS作者,Linux内核作者之一
  本书深入分析了常见的高性能Web技术的方法和原理,对搭建高性能Web站点具备很强的可操作性。
  ——张松国,腾讯网技术总监
  这是一个令人兴奋的领域,这一系列准则和方法在TopN的互联网公司中都有大规模的实践和应用,作者在书中进行了详细而量化的论述。如果你正在为日益庞大的应用而手足无措,那么你唯一要做的就是拥有这本书,并且实践它。
  ——朱鑫,Memcache DB作者,新浪网研发中心平台部高级工程师
  互联网寄托着我们的梦想,它改变了人们的生活,从社交网站到网络游戏,从搜索引擎到电子商务,成功的秘诀在于如何构建高性能Web站点。郭欣在这本书中几乎涵盖了Web性能优化的所有内容,并从多个角度进行了全面的阐述,你可以通过其通俗易懂的文字深入理解高性能站点架构的真相,并开拓视野,从而对性能瓶颈对症下药。本书可谓是高性能站点的必读精作。
  ——沈翔,Google Developer Advocate,加州总部
  内容简介
  本书围绕如何构建高性能Web站点,从多个方面、多个角度进行了全面的阐述,涵盖了Web站点性能优化的几乎所有内容,包括数据的网络传输、服务器并发处理能力、动态网页缓存、动态网页静态化、应用层数据缓存、分布式缓存、Web服务器缓存、反向代理缓存、脚本解释速度、页面组件分离、浏览器本地缓存、浏览器并发请求、文件的分发、数据库I/O优化、数据库访问、数据库分布式设计、负载均衡、分布式文件系统、性能监控等。在这些内容中充分抓住本质并结合实践,通过通俗易懂的文字和生动有趣的配图,让读者充分并深入理解高性能架构的真相。同时,本书充分应用跨学科知识和科学分析方法,通过宽泛的视野和独特的角度,将本书的内容展现得更加透彻和富有趣味。
编辑本段作者简介
  郭欣,曾在腾讯网基础平台研发团队,负责诸多Web应用的开发和技术管理,并致力于性能研究和实践推广。在加入腾讯之前,获得国家系统分析师职称,目前在工作之余从事独立研究,其中包括高性能Web架构和Web敏捷开发框架,并且积极投身开源事业,同时在为Smart Developer系列进行创作。
编辑本段目录
第1章 绪论
  1.1 等待的真相
  1.2 瓶颈在哪里
  1.3 增加带宽
  1.4 减少网页中的HTTP请求
  1.5 加快服务器脚本计算速度
  1.6 使用动态内容缓存
  1.7 使用数据缓存
  1.8 将动态内容静态化
  1.9 更换Web服务器软件
  1.10 页面组件分离
  1.11 合理部署服务器
  1.12 使用负载均衡
  1.13 优化数据库
  1.14 考虑可扩展性
  1.15 减少视觉等待
第2章 数据的网络传输
  2.1 分层网络模型
  2.2 带宽
  2.3 响应时间
  2.4 互联互通
第3章 服务器并发处理能力
  3.1 吞吐率
  3.2 CPU并发计算
  3.3 系统调用
  3.4 内存分配
  3.5 持久连接
  3.6 I/O模型
  3.7 服务器并发策略
第4章 动态内容缓存
  4.1 重复的开销
  4.2 缓存与速度
  4.3 页面缓存
  4.4 局部无缓存
  4.5 静态化内容
第5章 动态脚本加速
  5.1 opcode缓存
  5.2 解释器扩展模块
  5.3 脚本跟踪与分析
第6章 浏览器缓存
  6.1 别忘了浏览器
  6.2 缓存协商
  6.3 彻底消灭请求
第7章 Web服务器缓存
  7.1 URL映射
  7.2 缓存响应内容
  7.3 缓存文件描述符
第8章 反向代理缓存
  8.1 传统代理
  8.2 何为反向
  8.3 在反向代理上创建缓存
  8.4 小心穿过代理
  8.5 流量分配
第9章 Web组件分离
  9.1 备受争议的分离
  9.2 因材施教
  9.3 拥有不同的域名
  9.4 浏览器并发数
  9.5 发挥各自的潜力
第10章 分布式缓存
  10.1 数据库的前端缓存区
  10.2 使用memcached
  10.3 读操作缓存
  10.4 写操作缓存
  10.5 监控状态
  10.6 缓存扩展
第11章 数据库性能优化
  11.1 友好的状态报告
  11.2 正确使用索引 
  11.3 锁定与等待
  11.4 事务性表的性能
  11.5 使用查询缓存 
  11.6 临时表
  11.7 线程池
  11.8 反范式化设计 
  11.9 放弃关系型数据库
第12章 Web负载均衡
  12.1 一些思考
  12.2 HTTP重定向
  12.3 DNS负载均衡
  12.4 反向代理负载均衡
  12.5 IP负载均衡 
  12.6 直接路由
  12.7 IP隧道 
  12.8 考虑可用性
第13章 共享文件系统
  13.1 网络共享
  13.2 NFS
  13.3 局限性
第14章 内容分发和同步
  14.1 复制
  14.2 SSH
  14.3 WebDAV
  14.4 rsync
  14.5 Hashtree
  14.6 分发还是同步
  14.7 反向代理
第15章 分布式文件系统
  15.1 文件系统
  15.2 存储节点和追踪器
  15.3 MogileFS
第16章 数据库扩展
  16.1 复制和分离
  16.2 垂直分区
  16.3 水平分区
第17章 分布式计算
  17.1 异步计算
  17.2 并行计算
第18章 性能监控
  18.1 实时监控
  18.2 监控代理
  18.3 系统监控
  18.4 服务监控
  18.5 响应时间监控
  参考文献
  索引

 

 

 

http://code.taobao.org/

淘蝌蚪 » 创意池 » 孵化项目 » Mvn Repository »

 

《程序员》

http://www.programmer.com.cn/category/architecture/

《程序员》杂志2011年01期,

《程序员》官网地址:http://www.programmer.com.cn/4544/

架构师接龙:盛大许式伟 VS 金山张宴

http://blog.s135.com/architect_solitaire

 

ebay,youku,facebook等架构文档

http://yuquan-nana.iteye.com/blog/551835

 

taobao_arch_qcon_2009.pdf

http://dl.iteye.com/topics/download/5f6b4174-a5ca-3cf4-a27f-7e01f7b1f1e8

douban_qcon2009_beijing.pdf

http://dl.iteye.com/topics/download/8d2de6d8-d9de-3463-aef4-e36253502c11

youku_arch_qcon2009_beijing.pdf

http://dl.iteye.com/topics/download/6db9765c-196a-3af6-8306-11534a141f61

facebook_architecture.pdf

http://dl.iteye.com/topics/download/eadf1705-1419-363b-8b57-c2345d8ec03c

ebay_architecture.pdf

http://dl.iteye.com/topics/download/97a9dd28-0db8-3d49-b956-e607dc619ba3

amazon_dynamo_sosp2007.pdf

http://dl.iteye.com/topics/download/e707550c-15e3-39f1-bb15-41c601567acd

google_mapreduce.pdf

http://dl.iteye.com/topics/download/4c39c182-4328-3103-b57a-22c7d2b38659

 

门户级网站架构设计

1、  新浪

新浪采用了ChinaCache做的CDN系统,ChinaCache在全国分布了四十多个点,同时采用基于动态DNS分配的全球服务器负载均衡技术。

        从新浪的站点结构可以看出:

> www.sina.com.cn

Server:  UnKnown

Address:  192.168.1.254



Non-authoritative answer:

Name:    libra.sina.com.cn

Addresses:  61.135.152.71, 61.135.152.72, 61.135.152.73, 61.135.152.74          61.135.152.75, 61.135.152.76, 61.135.153.181, 61.135.153.182, 61.135.53.183,       61.135.153.184, 61.135.152.65, 61.135.152.66, 61.135.152.67, 61.135.12.68,  61.135.152.69, 61.135.152.70

Aliases:  www.sina.com.cn, jupiter.sina.com.cn

        在北京地区ChinaCache将www.sina.com.cn的网址解析到libra.sina.com.cn,然后 libra.sina.com.cn做了DNS负载均衡,将libra.sina.com.cn解析到61.135.152.71等16个ip上,这16 个ip分布在北京的多台前台缓存服务器上,使用squid做前台缓存。如果是在其它地区访问www.sina.com.cn可能解析到本地相应的服务器, 例如pavo.sina.com.cn,然后pavo又对应了很多做了squid的ip。这样就实现了在不同地区访问自动转到最近的服务器访问,达到加快 访问速度的效果。

        我们再看一个新浪其它频道是指到哪里的:

> news.sina.com.cn

Server:  UnKnown

Address:  192.168.1.254



Non-authoritative answer:

Name:    libra.sina.com.cn

Addresses:  61.135.152.65, 61.135.152.66, 61.135.152.67, 61.135.152.68          61.135.152.69, 61.135.152.70, 61.135.152.71, 61.135.152.72, 61.135.152.73          61.135.153.178, 61.135.153.179, 61.135.153.180, 61.135.153.181, 61.135.153.182          61.135.153.183, 61.135.153.184

Aliases:  news.sina.com.cn, jupiter.sina.com.cn

可以看出,各个频道的前台缓存集群与www.sina.com.cn的前台缓存集群是相同的。

2、  搜狐

Sohu与新浪的原理差不多,下面是nslookup的结果:

> www.sohu.com

Server:  UnKnown

Address:  192.168.1.254



Non-authoritative answer:

Name:    pagegrp1.sohu.com

Addresses:  61.135.132.172, 61.135.132.173, 61.135.132.176, 61.135.133.109          61.135.145.47, 61.135.150.65, 61.135.150.67, 61.135.150.69, 61.135.150.74           61.135.150.75, 61.135.150.113, 61.135.150.145, 61.135.131.73, 61.135.131.91          61.135.131.180, 61.135.131.182, 61.135.131.183, 61.135.132.65, 61.135.

132.80

Aliases:  www.sohu.com

只不过libra.sina.com.cn换成了pagegrp1.sohu.com

我们再来看一下sohu的频道:

> news.sohu.com

Server:  UnKnown

Address:  192.168.1.254



Non-authoritative answer:

Name:    pagegrp1.sohu.com

Addresses:  61.135.145.47, 61.135.150.65, 61.135.150.67, 61.135.150.69          61.135.150.74, 61.135.150.75, 61.135.150.113, 61.135.150.145, 61.135.131.73          61.135.131.91, 61.135.131.180, 61.135.131.182, 61.135.131.183, 61.135.132.65          61.135.132.80, 61.135.132.172, 61.135.132.173, 61.135.132.176, 61.135.133.109

Aliases:  news.sohu.com

同新浪相同,用的是同样的服务器群,这可能是因为他们用的都是ChinaCache的服务吧,不过sohu的名字起的有点土,pagegrp1,没有libra,pavo好听,这名字听起来有点像法语,比较浪漫。

3、  网易

网易似乎没用ChinaCache的服务,下面是nslookup结果:

> www.163.com

Server:  UnKnown

Address:  192.168.1.254



Non-authoritative answer:

Name:    www.163.com

Addresses:  202.106.168.103, 202.106.168.104, 202.106.168.109, 202.106.168.121          202.108.36.153, 202.108.36.155, 202.108.36.156, 202.108.36.167, 202.108.36.172          202.108.36.196

直接在www.163.com 这个域名上做了DNS负载均衡。这样的话就要求服务器必须放的非常靠近主节点,才能保证各地的用户访问的速度。

但163不同的频道是放在不同的缓存集群上的,这与sina,sohu有些不同,等于sina,sohu是按照地区划分服务器集群,而网易按照频道划分服务器集群。

> 163.com

Server:  UnKnown

Address:  192.168.1.254



Non-authoritative answer:

Name:    163.com

Addresses:  202.108.36.205, 202.108.36.206, 202.108.36.207, 202.108.36.201          202.108.36.202, 202.108.36.203, 202.108.36.204

显然,这和www.163.com不是一个集群,我们再来试一个:

> sports.163.com

Server:  UnKnown

Address:  192.168.1.254



Non-authoritative answer:

Name:    channel.cache.163.com

Addresses:  202.108.36.136, 202.108.36.208, 202.108.36.209, 202.108.36.210          202.108.36.211, 202.108.36.212, 202.108.36.213

Aliases:  sports.163.com

可以看出,和上面的集群也是不同的。

4、  百度

百度的前台服务器就不是很多了:

> www.baidu.com

Server:  UnKnown

Address:  192.168.1.254



Non-authoritative answer:

Name:    www.baidu.com

Addresses:  202.108.250.249, 202.108.249.134



> baidu.com

Server:  UnKnown

Address:  192.168.1.254



Non-authoritative answer:

Name:    baidu.com

Address:  202.108.250.228



> mp3.baidu.com

Server:  UnKnown

Address:  192.168.1.254



Non-authoritative answer:

Name:    mp3.baidu.com

Address:  202.108.249.131

只有www.baidu.com做了两台服务器的集群,频道都用了一台服务器做前台



5、  一搜

> yisou.com

Server:  UnKnown

Address:  192.168.1.254



Non-authoritative answer:

Name:    yisou.com

Addresses:  202.165.102.114, 202.43.217.14, 202.43.217.15, 202.43.217.16          202.43.217.17, 202.165.102.111, 202.165.102.112, 202.165.102.113



> www.yisou.com

Server:  UnKnown

Address:  192.168.1.254



Non-authoritative answer:

Name:    www.yisou.com

Addresses:  202.43.217.17, 202.165.102.111, 202.165.102.112, 202.165.102.113          202.165.102.114, 202.43.217.14, 202.43.217.15, 202.43.217.16



> mp3.yisou.com

Server:  UnKnown

Address:  192.168.1.254



Non-authoritative answer:

Name:    www.yisou.com

Addresses:  202.165.102.113, 202.165.102.114, 202.43.217.14, 202.43.217.15          202.43.217.16, 202.43.217.17, 202.165.102.111, 22.165.102.112

Aliases:  mp3.yisou.com

       前台做了8台服务器的缓存集群,www.yisou.com和 yisou.com以及mp3.yisou.com是用的同一个集群。



通过前面的分析我们可以得到一个结论:sina和sohu使用了CDN与GSBL与DNS负载均衡技术,每个地区一组前台服务器群,网易,百度使用了DNS负载均衡技术,每个频道一组前台服务器,一搜使用了DNS负载技术,所有频道共用一组前台服务器集群。


1,站点页面分析
1-1,主页面整体分析
1-2,浏览器兼容性分析
1-3,元标记检查
1-4,下载时间检查和图片检查
1-5,链接检查
1-6,原代码设计检查
2,站点运用技术和设计分析
2-1,站点采用技术及合理性
2-2,站点艺术性、设计创意和导航性分析
3,站点交互性分析
3-1,站点查询
3-2,电子邮件组
3-3,反馈信息表单
3-4,BBS
3-5,定单表单
4,站点内容分析
4-1,站点主线、版块安排与风格
4-2,页面中标题
4-3,产品或服务价值描述
4-4,产品或服务外附加有价值信息
4-5,站点信息吸引力
4-6,站点信任度
4-7,站点内容唯一性
4-8,站点信息源
5,电子商务运行环境分析
5-1,电子商务平台的运行环境
5-2,数据库开发与支持

5-3,商务平台运行的稳定性

 

中文题目:   LTE 与2G/ 3G 系统互操作研究 (例)              
投稿日期:  2012-09-28(例)      字数:    2500 (例)   
中文摘要: 

为确保现有移动用户良好的业务体验感知, LTE 对不同系统间的互操作做了较为完备的规定,

但带来了现网设备复杂的升级和高昂的投入 本文通过对其他运营商和技术制式实现方法的介绍,

提出了LTE建设初期与2G/3G系统间互操作的要求(例)                  

中文关键字: LTE;互操作;电路域语音回退;单射频语音连续控制 (例)                  
中心:***部门:*** 作者(推荐人)姓名:***工号:***联系方式:***邮箱地址:***                    
正文:

Google (尾注) 在2003年到2004年公布了关于GFS、MapReduce和BigTable三篇技术论文,

这也成为后来云计算发展的重要基石,如今Google在后Hadoop时代的新 “三驾马车”——Caffeine、Pregel、Dremel再一次影响着全球大数据技术的发展潮流。(例)
参考文献:

 

尊敬的各位hadoop亲们,
    大家好!根据公司的发展的需要,我们将在公司内部进行Hadoop方面技术探索的需要,现在面向部门招募一些有Hadoop经验(或者非常感兴趣)的人。主要要求如下:
1.  IT技术管理中心内部员工;
2.  具有良好的java开发功底——面向Hadoop的开发,具有并行化、分布式和算法基础的;
3.  具有良好的测试功底——面向Hadoop和分布式系统的测试,数量掌握分布式测试环境的测试原理,具有Hadoop基础知识;
4.  具有良好的运维功底——面向Hadoop的后期运维,具有系统、网络、硬件的基本知识,具有Hadoop、HDFS和HBase的知识的员工;
5.  对Hadoop熟悉或者非常感兴趣,有兴趣进行探索的员工。
众所周知,IT未来的核心是云商战略,而Hadoop是google云计算理论基础的开源实现,也是目前各大互联网公司用于云计算、大数据和数据挖掘的核心技术。把握未来云计算,把握未来职场先机。
有兴趣的亲们,请在动漫广场5栋3层12072613@CNS*****.COM处报名,请写明“工号+姓名+方向”。

 

李*国*亮

 

知名网站的技术发展历程

http://www.cnblogs.com/end/archive/2012/05/25/2518400.html
互联网已经发展多年,其中不乏脱颖而出者,这些网站多数都已存在了接近 10 年或 10 年以上,在如此长时间的发展过程中,除了业务上面临的挑战,在技术上也面临了很多的挑战。我挑选了一些 Alexa排名较前的网站(排名截止到 2012 年 4 月 21 日),看看它们在技术上是如何应对业务发展过程中的挑战的。

   Google 目前 Alexa 排名第1。它诞生于 1997 年,当时是一个研究性项目,每个月 build 一次索引,build 出来的索引通过 sharding(shard by doc)的方式分散到多台服务器(Index Server)上,具体的网页数据同样通过 sharding 的方式分散到多台服务器(Doc Server)上,当用户提交请求时,通过前端的一台服务器将请求提交给 Index Server 获得打了分的倒排索引,然后从 Doc Server 提取具体的网页信息(例如网页标题、搜索关键词匹配的片段信息等),最终展现给用户。

  随着索引的网页增加,这个结构可通过增加 Index Server 以及 Doc Server 来存储索引以及网页的数据,但仍然会面临其他很多方面的问题,于是在这之后的十多年的时间里,Google 做了很多事情来改进上面的结构。

   1999年,Google 增加了一个 Cache Cluster,用来 Cache 查询的索引结果和文档片段信息,同时将 Index Server 和 Doc Server 通过 Replicate 的方式变成了 Cluster。这两个改造带来的好处是网站的响应速度、可支撑的访问量以及可用性(Availability)得到了提升。这个变化造成了成本的增 加,Google 在硬件方面的风格始终是不用昂贵的高端硬件,而是在软件层面来保证系统的可靠性及高性能,于是同年,Google 开始采用自行设计的服务器来降低成本。2000年,Google 开始自行设计 DataCenter,采用了各种方法(例如采用其他的制冷方法来替代空调)来优化 PUE(能源利用率),同时对自行设计的服务器也做了很多化。2001年,Google 对 Index 的格式进行了修改,将所有的 Index 放入内存, 这次改造带来的好处是网站的响应速度以及可支撑的访问量得到了极大的提升。2003年,Google 发表了文章 Google Cluster Architecture,其 Cluster 结构组成为硬件 LB+Index Cluster+Doc Cluster+ 大量廉价服务器(例如 IDE 硬盘、性价比高的 CPU 等),通过并行处理 +sharding 来保证在降低对硬件要求的同时,响应速度仍然很快。同年 Google 发表了关于 Google 文件系统的论文(GFS 在 2000 年就已经上线),这篇论文很大程度也体现了 Google 不用昂贵硬件的风格,通过 GFS+ 大量廉价的服务器即可存储大量的数据。2004年,Google 再次对 Index 的格式进行了修改,使得网站的响应速度继续提升。同年 Google 发表关于 MapReduce 的论文,通过 MapReduce+ 大量廉价的服务器即可快速完成以前要使用昂贵小型机、中型机甚至是大型机才能完成的计算任务,而这显然对于 Google 快速地构建索引提供了很大的帮助。2006年,Google 发表了关于 BigTable 的论文(2003年开始上线),使得海量数据的分析能够达到在线系统的要求了,这对于 Google 提升网站的响应速度起到了很大的帮助。

  以上 3 篇论文彻底改变了业界对于海量数据的存储、分析和检索的方法(小道消息:Google 内部已完成了 GFS、MapReduce、BigTable 的替换),也奠定了 Google 在业界的技术领导地位。

  在一些场景中,Google 也采用 MySQL 来存储数据。同样,Google 对 MySQL 也做了很多修改,它使用的 MySQL 信息可以从 https://code.google.com/p/google-mysql/了解。

   2007年,Google 将 build 索引的时间缩短到分钟级,当新网页出现后,几分钟后即可在 Google 搜索到,同时将 Index Cluster 通过 Protocol Buffers 对外提供 Service,以供 Google 各种搜索(例如网页、图片、新闻、书籍等)使用,除了 Index Cluster 提供的 Service 外,还有很多其他的 Service,例如广告、词法检查等。Google 的一次搜索大概需要调用内部 50 个以上的 Service,Service 主要用 C++ 或 Java 来编写。2009年,Google 的一篇《How Google uses Linux》文章,揭示了 Google 在提升机器利用率方面也做了很多的努力,例如将不同资源消耗类型的应用部署在同一台机器上。

  在之后,Google 又研发了 Colossus(下一代类 GFS 文件系统)、Spanner(下一代类 BigTable 海量存储和计算架构)、实时搜索(基于 Colossus 实现),主要都是为了提升搜索的实时性以及存储更多数据。除了在海量数据相关技术上的革新外,Google 也不断对业界的传统技术进行创新,例如提高 TCP 的初始拥塞窗口值、改进 HTTP 的 SPDY 协议、新的图片格式 WebP 等。

  在 Google 的发展过程中,其技术的改造主要围绕在可伸缩性、性能、成本和可用性 4 个方面,Google 不采用昂贵硬件的风格以及领先其他网站的数据量决定了其技术改造基本都是对传统的软硬件技术的革新。

  Facebook 目前 Alexa 排名第2。它采用 LAMP 构建,随着业务的发展,它也在技术上做了很多改造。

   作为改造的第一步,Facebook 首先在 LAMP 结构中增加了 Memcached,用来缓存各种数据,从而大幅度提升系统的响应时间以及可支撑的访问量,之后又增加了 Services 层,将 News Feed、Search 等较通用的功能作为 Service 提供给前端的 PHP 系统使用,前端的系统通过 Thrift 访问这些 Service。Facebook 采用了多种语言来编写各种不同的 Service,主要是针对不同的场景选择合适的语言,例如C++、Java、Erlang。

  大量使用 Memcached 以及访问量的不断上涨,导致访问 Memcached 的网络流量太大,交换机无法支撑,Facebook 通过改造采用 UDP 的方式来访问 Memcached,以降低单连接上的网络流量。除此之外,还有其他一些改造,具体信息可以查看 http://on.fb.me/8R0C

   PHP 作为脚本语言,优势是开发简单、易上手,劣势是需要消耗较多的 CPU 和内存。当 Facebook 的访问量增长到了一定规模后,这个劣势就比较突出了,于是从 2007 年起,Facebook 就尝试多种方法来解决这个问题,最后诞生于 Facebook Hackathon 的 HipHop 产品成功地脱颖而出。HipHop 可以自动将 PHP 转化为 C++ 代码,Facebook 在使用 HipHop 后,同等配置的机器,可支撑的请求量是之前的 6 倍,CPU 的使用率平均下降了 50%,从而为 Facebook 节省了大量主机。将来 Facebook 还会对 HipHop 进行再次改进,通过 HipHop 将 PHP 编译为 bytecode,放入 HipHop VM 中执行,再由 HipHop VM 来编译为机器代码,方式与 JIT 类似。

   2009年,Facebook 研发了 BigPipe,借助此系统,Facebook 成功让网站的速度提升了两倍。随着 Facebook 访问量的上涨,收集众多服务器上的执行日志也开始面临挑战,于是 Facebook 研发了 Scribe 来解决此问题。对于存储在 MySQL 中的数据,Facebook 采用垂直拆分库和水平拆分表的方式来支撑不断增长的数据量。作为 Facebook 技术体系中重要的一环,Facebook 也对 MySQL 进行了很多优化和改进,例如 Online Schema Change 等,更多信息可见 http://www.facebook.com/MySQLAtFacebook

   发展之初的 Facebook 采用了高端的存储设备(例如 NetApp、Akamai)来存图片,随着图片不断增加,成本也大幅提高,于是 2009 年 Facebook 开发了 Haystack 来存储图片。Haystack 可采用廉价的 PC Server 进行存储,大幅度降低了成本。

  Facebook 除了使用 MySQL 存储数据外,近几年也开始摸索采用新的方式。在 2008 年 Facebook 开发了 Cassandra,在 Message Inbox Search 中作为新的存储方式。不过在 2010 年,Facebook 又放弃了 Cassandra,转为采用 HBase 作为其 Messages 的存储,并在 2011 年将 HBase 应用在了 Facebook 更多的项目上(例如 Puma、ODS)。据说,现在 Facebook 更是在尝试将其用户以及关系数据从 MySQL 迁移到 HBase。

  从 2009 年开始,Facebook 尝试自行设计 DataCenter 以及服务器,以降低其运行成本,并对外开放了其构建的 PUE 仅1.07的 DataCenter 的相关技术。Facebook 在技术方面的基本原则是:“在能用开源产品的情况下就用开源,根据情况对其进行优化并反馈给社区”。从 Facebook 的技术发展历程上可以看到这个原则贯彻始终,Facebook 的技术改造也主要是围绕在可伸缩、性能、成本和可用性 4 个方面。

   Twitter 目前 Alexa 排名第8。在 2006 年诞生之时是采用 Ruby On Rails+ MySQL 构建的,2007年增加了 Memcached 作为 Cache 层,以提升响应速度。基于 Ruby on Rails 让 Twitter 享受到了快速的开发能力,但随着访问量的增长,其对 CPU 和内存的消耗也让 Twitter 痛苦不堪,于是 Twitter 做了不少改造和努力,例如编写了一个优化版的 Ruby GC。

  2008年 Twitter 决定逐步往 Java 迁移,选择了 Scala 作为主力的开发语言(理由是“难以向一屋子的 Ruby 程序员推销 Java”),采用 Thrift 作为其主要的通信框架,开发了 Finagle 作为其 Service Framework,可将后端各种功能暴露为 Service 提供给前端系统使用,使得前端系统无需关心各种不同的通信协议(例如对于使用者可以用同样的调用服务的方式去访问 Memcache、Redis、Thrift 服务端),开发了 Kestrel 作为其消息中间件(替代之前用 Ruby 写的 Starling)。

  Twitter 的数据存储一直采用 MySQL,发展过程中出现的小插曲是,当 Facebook 开源了 Cassandra 时,Twitter 本计划使用,但最终还是放弃,仍然保持了使用 MySQL,Twitter 的 MySQL 版本已开源(https://github.com/twitter/mysql)。Twitter 也是采用分库分表的方式来支撑大数据量,使用 Memcached 来 Cache tweet,timeline 的信息则迁移为用 Redis 来 Cache。

  2010年,Twitter 在盐湖城拥有了第一个自建的 DataCenter,主要是为了增加可控性。从 Twitter 的发展过程看,6年来它的技术改造主要围绕可伸缩以及可用性。

  作为一家电子商务网站的员工,请允许我在此介绍这个 Alexa 排名 21 的著名电子商务网站的技术演变。

   1995年,eBay 诞生,当时采用 CGI 编写,数据库采用的是 GDBM,最多只能支撑 5 万件在线商品。1997年,eBay 将操作系统从 FreeBSD 迁移到 Windows NT,另外将数据库从 GDBM 迁移为 Oracle。1999年,eBay 将前端系统改造为 Cluster(之前只有一台主机),采用 Resonate 作为负载均衡,后端的 Oracle 机器升级为 Sun E1000小型机,同年给数据库增加了一台机器作为备库,提升可用性。前端机器随着访问量不断增加还可以应付,但数据库机器在 1999 年 11 月时已经达到了瓶颈(已经不能再加 CPU 和内存了),于是在 11 月开始将数据库按业务拆分为多个库。2001-2002年,eBay 将数据表进行了水平拆分,例如按类目存储商品,同时部署 Oracle 的小型机换为 Sun A3500。2002年,将整个网站迁移为用 Java 构建,在这个阶段,做了 DAL 框架来屏蔽数据库分库分表带来的影响,同时还设计了一个开发框架以供开发人员更好地上手进行功能开发。从 eBay 的整个发展过程来看,技术改造主要围绕在可伸缩性和可用性两点。

   腾讯目前 Alexa 排名第9。最初 QQ IM 采用的是单台接入服务器来处理用户的登录和状态保持,但在发展到一百万用户同时在线时,这台服务器已经无法支撑。于是 QQ IM 将所有单台服务器改造为了集群,并增加了状态同步服务器,由其完成集群内状态的同步,用户的信息存储在 MySQL 中,做了分库分表,好友关系存储在自行实现的文件存储中。为了提升进程间通信的效率,腾讯自行实现了用户态 IPC。之后腾讯将状态同步服务器也改造为同步集群,以支撑越来越多的在线用户。在经历了前面几次改造后,已基本能支撑千万级别的用户同时在线,但可用性 比较差,于是腾讯对 QQ IM 再次进行改造,实现了同城跨 IDC 的容灾,加强了监控和运维系统的建设。此后腾讯决定对 QQ IM 架构完全重写(大概是 2009 年持续到现在),主要是为了增强灵活性、支持跨城市的 IDC、支撑千万级的好友。在这次大的技术改造过程中,腾讯的数据都不再存储于 MySQL 中,而是全部存储在了自己设计的系统里。

  从 QQ  IM 的技术演变来看,其技术改造主要是围绕在可伸缩性和可用性上。

   2003年,淘宝诞生,直接购买了一个商业的 phpAuction 的软件,在此基础上改造产生了淘宝。2004年,将系统由 PHP 迁移到 Java,MySQL 迁移为 Oracle(小型机、高端存储设备),应用服务器采用了 WebLogic。2005-2007年的发展过程中,用 JBoss 替代了 WebLogic,对数据库进行了分库,基于 BDB 做了分布式缓存,自行开发了分布式文件系统 TFS 以支持小文件的存储,并建设了自己的 CDN。2007-2009年对应用系统进行垂直拆分,拆分后的系统都以 Service 的方式对外提供功能,对数据采用了垂直和水平拆分。

  在进行了数据的垂直和水平拆分后,Oracle 产生的成本越来越高,于是在之后的几年,淘宝又开始将数据逐渐从 Oracle 迁移到 MySQL,同时开始尝试新型的数据存储方案,例如采用 HBase 来支撑历史交易订单的存储和检索等。近几年淘宝开始进行 Linux 内核、JVM、Nginx 等软件的修改定制工作,同时也自行设计了低能耗服务器,同时在软硬件上进行优化,以更好地降低成本。

  从淘宝的整个发展过程来看,技术改造主要围绕在可伸缩性和可用性两点,现在也开始逐渐将精力投入在了性能和成本上。目前淘宝的 Alexa 排名为第 14。

  总结

   从上面这些 Alexa 排名靠前网站的技术发展过程来看,每家网站由于其所承担的业务不同、团队人员组成不同、做事风格相异,在技术的不同发展阶段中会采用不同的方法来支撑业务 的发展,但基本都会围绕在可伸缩性、可用性、性能以及成本这 4 点上,在发展到比较大规模后,各网站在技术结构上有了很多的相似点,并且这些结构还将继续进行演变。

  作者林昊,目前就职于淘宝,2007-2010年负责设计和实现淘宝的服务框架,此服务框架在淘宝大面积使用,每天承担了 150 亿+的请求;2011年开始负责 HBase 在淘宝的落地,目前淘宝已有 20 个以上的在线项目在使用 HBase。

 

2009系统架构师大会 / System Architect Coference China 2009

http://focus.it168.com/focus/201007/saccing/include/3.html

一、8.28上午: 技术大会主场 系统架构整体设计

 

1、演讲主题: 大型可扩展系统架构-新浪网动态应用平台介绍
      演讲人: 童剑 新浪高级系统架构师,研发中心平台部总监

演讲主题概要:
      新浪网动态应用平台是一个托管网站应用程序的大型系统平台,托管了近千个项目的程序和数据库等服务,每日总访问量达到数十亿Hits。全部系统采用分布式架构,可以通过增加服务器实现平台性能扩展,而无须修改应用程序代码。而平台通过一定程度的技术封装,使开发人员仍然象使用单台服务器一样简单。平台主要功能由5大系统和4小系统构成,5大系统为:程序运行环境(Web前端)、静态内容加速(Cache前端)、数据库集群、Memcached集群、VFS存储系统,4小系统为:服务监控系统、文件和程序发布系统、网站内容编辑管理系统、线上测试调试系统。

      全部系统都基于LAMP技术,并且大量使用了其他优秀的开源软件如:Xen、Haproxy、Heartbeat、Cfengine等。本案例的精彩演讲,将为大家提供很好的案例参考,为自己企业构建类似的平台,提供极好的参考价值。
个人简介:
      童剑:有多年的平台开发经验,参与过新浪CDN系统的开发,带领团队开发了新浪动态 应用平台、分布式数据库平台、虚拟化服务器平台等系统,目前新浪大多数产品 都运行在这些平台之上,通过平台上资源共享和统一调度,避免了很多重复建设, 大大降低了软硬件采购成本,提高了资产利用率。擅长大规模系统架构的设计和性 能调优,精通Linux/MySQL/TCPIP/网络安全/虚拟化等技术,喜欢用简单的方法解 决复杂的问题。

 

2、Facebook最佳实践:从百万访问到千万并发访问
吴静涛:F5中国技术总监,高级架构师

演讲主题概要:

      以通过FaceBook的案例,介绍应用架构师如何构建一个可以在2年内,服务器从1000台暴涨到40000台,用户从千万到几亿的快速增长平台,如何在系统架构初期考虑按需扩展,客户体验,新业务快速投放等一系列问题;同时又要考虑到系统维护,错误处理,攻击防护等复杂情况;最后配合公司的成长,业务的扩展,得到个人事业的满足和成功。

此外,本内容系统分析网络架构师和应用架构师的区别,详细阐述应用架构师的目标,价值,挑战。

吴静涛:
      1999年开始进入应用交付的前身-负载均衡领域,2002年加入F5公司,历任北区技术,北区技术经理,中国区技术经理,中国区技术总监;对电信,金融,政府等行业都有一定了解,能够从系统架构层面如何进行灵捷部署提出自己的独到见解,涉及技术包括应用高可用技术,优化技术和应用安全防护技术等,并且和各大网站相关技术人员保持紧密联系,对互联网的新技术有深入了解。

 

3、腾讯网案例实践:海量SNS网站的柔性运营

邱跃鹏:腾讯网 互联网运营部总经理

演讲主题概要:

      随着SNS网站的崛起,UCG数据的大幅增加,用户的访问模型离散、关系链复杂、数据量庞大,传统的门户网站的运营模式无法承载海量UCG的访问,如何保证过百T数据、过百G带宽、过万台服务器、过亿用户的海量服务的7X24可用?海量服务柔性运营将能解决这一系列问题。

演讲嘉宾介绍:nofeeling(邱跃鹏) 
2002至今,腾讯,
2003年,一手打造腾讯Q币体系,奠定腾讯渠道支付体系
2005年,腾讯会员、宠物等产品技术总监
2006年,担任互联网运营部总经理,运营Qzone、会员、qqshow、QQ音乐、qqlive,着手打造海量服务运营支撑体系。

 

4、系统架构设计实践
凌冲:Myspace中国首席架构师(待更新)


二、8.28下午:网络架构设计专场

1、LVS架设的网络服务,解决百万访问瓶颈难点
章文嵩:LVS源代码研发者、TelTel的首席科学家

演讲主题简介:

      随着互联网的飞速发展和网络服务的访问量不断增加,对网络服务的架构提出了越来越高的要求:高可扩展性、高可用、低成本等,LVS(Linux VirtualServer)是架设高扩展、高可用网络服务的一种很好选择。

      本讲座将介绍LVS项目的由来、软件框架和所实现的集群技术,详细描述三种负载均衡技术的原理和特点,以及负载调度的算法等;给出了一个可扩展网络服务的通用结构,与在Web系统、Cache系统、邮件系统、媒体服务系统、DNS集群系统和MySQL集群系统中的应用,可将这些集群系统组合成一个大规模分布式的网络服务系统;列举了LVS在国内外的一些应用站点和公司,以及用户的评价;讨论了LVS所需的硬件平台,低功耗的CPU和万兆网卡;最后,总结LVS的特点和用途。

 

演讲嘉宾介绍:
      *章文嵩,博士,开放源码及Linux内核的开发者,著名的Linux集群项目--LVS (Linux Virtual
Server)的创始人和主要开发人员,LVS集群代码已在Linux2.4和2.6的官方内核中。在设计和架构大型系统、系统软件开发、Linux操作系统、系统安全和软件开发管理上有着丰富的经验。他一直在自由软件的开发上花费时间,并以此为乐。

      目前,LVS (Linux Virtual Server)在国内外已经得到了较大规模的应用,有很多实际应用案例。

 

2、新华社 全球网络实时新闻办公系统实践

新华社高级工程师:王健伟 ,Riverbed技术总监:丁伟

演讲主题简介:
      随着全球化的发展,企业分布式办公随着业务模式也成普遍。企业多元化的业务不再全都集中在总部。IT的运营管理变得日益复杂化。面对日益倍增的多媒体数据流量,应用响应速度和成本效率成为IT架构师挑战,许多企业正在重新策划部署未来IT整合、服务虚拟化的架构。先进的广域网优化技术通过数据传输优化、应用加速为企业解决地域,带宽和时延带来的问题,增强了企业员工工作效率和协作能力, 同时减少运营管理开销和费用。

本案例以新华社为案例,详细剖析新华社是如何打造全球网络实时新闻办公系统的实践。

演讲人介绍:
演讲人1:新华社高级工程师:王健伟
演讲人2:丁伟
      丁伟先生现任Riverbed科技公司大中华区产品市场总监一职。丁先生在计算机网络、网络安全产品和电信通信的设计及营销拥有20年的丰富经验。他曾在Bay Networks公司,Ascend通讯公司,朗讯科技,UT斯达康公司以及Secure Computing公司的工程部,市场销售部和业务拓展部门担任高级管理职务。

公司介绍:
      Riverbed科技公司致力於提升企業IT架構的性能,为企业提供广域网应用加速、数据传输优化等一系列解决方案,从而解决了地域,带宽和时延带来的问题,增强了企业员工工作效率和协作能力。在使用Riverbed的解决方案后,以前需要上小时、几十分钟传输的文件或应用响应,现在只需几秒钟就可完成。让全球员工在毫无网络瓶颈的状态下能随时随地(不论是在公司总部、分支机构,还是移动办公地点)访问到企业信息资源。
Riverbed Steelhead 系列产品已广泛地应用在: 应用加速、广域网带宽优化 、IT基础架构整合、 备份灾难恢复 、安全的应用加速 、移动办公。

 

3、经典案例剖析:广域网优化最佳实践(确定)
演讲主题:案例剖析 广域网优化最佳实践
朱晓东:深信服科技产品总监
演讲主题简介:
随着广域网加速的概念逐渐为国内客户所接受,广域网加速技术在国内也获得了越来越多的应用,但是加速技术在专线环境与互联网环境下的应用情况有着明显不同,如何在不同情况下抓住其中关键,前沿网络厂商深信服科技将在此为您解答。

演讲人介绍:
朱晓东毕业于华南理工大学,在进入深信服公司后,朱晓东先生曾先后担任技术工程师,产品经理,产品运营经理等职位,目前全面负责深信服网络类产品的运营推广工作,对网络技术及网络市场的现状及发展有着深入的认识和独特的见解。

 

4、探寻架构设计中的第六感(新浪网) 
李晓栋:新浪网研发中心架构部 技术经理

演讲主题概要:
      在系统及网络相关架构设计中,一个妙招往往在不经意间可以帮助我们节约大量的人力、物理资源,达到事半功倍的效果。因此在架构设计中要充分利用系统、网络、安全、内核等领域的各方面知识,让你的“第六感小宇宙"充分燃烧起来,想出最巧妙、最省钱、性能最优的方案来。
本演讲正是围绕这一主题,通过分享几个实际案例,给大家一些启迪和思考

  个人简介:

      李晓栋,在新浪有5年以上系统、网络、安全相关工作经验; 特别是在Linux系统内核、服务性能评估和优化等方面有丰富经验, 曾获新浪公司2008年度技术创新奖。自07年9月以来带领团队研发了新浪DDOS防火墙、 流量快速分析系统、软件负载均衡系统、IPSec -VPN等重要产品, 为公司节约成本1千多万元, 在此过程中负责架构设计 、解决疑难问题及相关推广工作。 除此之外还在公司内部开展了《Linux下TIME_WAIT对性能影响》、《Lighttpd优化配置》等多次技术讲座,深受好评。 目前主要负责新浪网络设备和新浪操作系统研发、优化 及技术人员的培养。

 

5、主题:淘宝开放平台架构设计与实践

岑文初: 淘宝网开放平台架构师

演讲主题简介: 
      TOP作为大淘宝战略的重要支撑平台,逐渐从萌芽阶段走向成熟阶段,从幕后逐渐走到台前。本次演讲,首先会介绍淘宝开放平台的背景及未来的构想,然后再从业务和系统两个方面介绍淘宝开放平台的架构设计的经验。通过分析具体的设计实例点,分享在开放平台架构设计中的思考和进化。

个人简介:
      岑文初:2006年加入阿里巴巴集团,随后转入阿里软件创业团队,担任阿里软件基础平台架构师一职,负责了阿里软件基础服务平台架构设计与开发。2008年主导设计了阿里软件与淘宝合作的服务集成平台,并在项目设计过程中申请多项专利并被专利局受理。2009年加入淘宝开放平台团队,担任开放平台架构师,负责整个开放平台技术架构设计。他在业界也十分活跃,常在个人博客发表文章与看法: http://blog.csdn.net/cenwenchu79/。




三、8.28下午:应用服务器架构设计专场


1、电子支付系统的分布式服务架构与开放架构研究
程立:支付宝(中国)网络技术有限公司 首席架构师

演讲主题介绍:
      构建大规模的复杂业务系统,必须采用分而治之的方法。以服务为中心组织业务、系统与数据,并通过服务复合形成产品与解决方案已经成为大型企业系统的主流构建方法。然而,基于分布式服务架构构建面向互联网用户的关键业务应用时,必然会遇到健壮性、性能与容量的技术挑战,需要有充分的手段保证系统的设计能够满足这些关键质量需求,同时在系统运行与长期演化的过程中始终符合设计要求。

      本次演讲以互联网上电子支付系统研发中的体会为基础,与参会者交流探讨该领域的经验与模式。

演讲人介绍:

      程立是支付宝公司的首席架构师。他从2004年起参与支付宝与淘宝网的建设,2005年正式成为支付宝人,随着支付宝的业务与技术的成长,从开发工程师、架构师到首席架构师一路走来,全身心投入并见证了支付宝业务与系统发展的完整过程。在加入支付宝之前,他在上海交通大学攻读计算机专业博士,同时作为Sun公司的兼职顾问,参加过电信、制造、互联网、教育等各个行业Java企业系统的咨询与建设。

      支付宝是国内领先的独立第三方支付平台,通过建立信任,以技术创新带动信用体系的完善的理念,致力于为中国电子商务提供“简单、安全、快速”的在线支付解决方案。截止到2009年5月10日,支付宝注册用户达到1.8亿,日交易额达到7亿,日交易笔数达到400万笔。 业务领域不但涵盖了电子商务的各个领域,而且提供了一站式的公共事业缴费、信用卡还款等服务,成为人们的生活助手。

 

2、基于关键应用的服务器性能评估、性能调优 
主题:基于互联网关键应用的服务器性能评估与优化
乔鑫,浪潮服务器方案评测部经理

      内容简介:服务器已经成为互联网企业最重要的生产工具,如何有效评估服务器的性能、如何使用更少的资源完成更多的响应,成为众多互联网客户面临的困惑。基于对互联网行业应用的深刻理解,浪潮将通过一个个真实的案例,与广大互联网用户一起分享基于关键应用的服务器应用效果评估方法、提高评估结果可用性、应用优化思路和方法等方面的经验,共同打造高效的IT平台。

演讲人介绍:
      乔鑫,浪潮服务器方案评测部经理,负责浪潮服务器及存储全线产品的测试、方案评估和优化工作。在他的带领下,浪潮服务器先后7次在SPECjAppServer应用性能测试、SPECpower节能测试、TPC-E数据库性能测试等国际权威测试中创造新的世界纪录,其中2004年成功打破了TPC-H商业智能计算测试世界纪录,创造了中国服务器产业的第一个世界纪录。基于在方案测试、调优的经验积累,负责过众多大客户的项目测试、优化工作,对互联网、政府、制造业和教育等行业用户的测试选型和调优有着丰富的经验。

3、北京市计算中心工业计算部 数据中心绿色节能技术方案探讨
欧阳巨星: 北京市计算中心工业计算部经

 

4、世纪互联数据中心实践:下一代数据中心的设计与优化管理
姜俊海 世纪互联设施运维管理中心 总经理

演讲主题概要:
      数据中心的功能、性能主要是由设计需求所决定的;数据中心的总造价主要是由设计需求、设计方案、设计所选设备材料档次决定的;数据中心的可靠性、可管理性、节能性主要是由设计方案决定的。因此,制定合理的、性价比高的设计需求,选择最优的设计方案是数据中心总体规划和设计中的重要工作。
      数据中心建设工程竣工时,应对整个数据中心进行全面的带载测试,从而发现系统、设备、部件、零件、材料存在的缺陷,核实整个机房从功能、性能上是否达到设计要求,以便及时对工程进行整改和完善,并为以后的运维工作提供真实的数据。
      数据中心的可靠性指标主要是由设备、系统的性能决定的,但运行、维护的管理水平影响数据中心的可靠性,同时也影响设备的实际使用寿命、数据中心的单位能耗。

姜俊海个人简介:
      姜俊海,世纪互联数据中心有限公司IDC事业部副总经理,主管世纪互联IDC基础设施的运行、维护、管理工作,同时负责公司数据中心新技术、新产品的研究工作。
      从1999年世纪互联建设第一个数据中心开始,先后参与和主管公司所有数据中心的总体规划、设计、建设和运维管理工作,在数据中心的设计和运维方面积累了较为丰富的经验,对国际上数据中心的最新技术发展也有较为深刻的认识。

 

5、案例实践:高性能服务器程序设计(应用服务器调优)
演讲人介绍:
      肖彬:TOM在线网站事业部技术总监,目前负责tom-skype本地化、计费、支付、TOM门户等开发工作;05年负责开发了P2P流媒体直播系统,该系统应用于NBA中国视频直播,支撑了百万级的同时在线用户;04年负责了TOM统一认证系统的开发工作。对高性能服务器程序设计、P2P等有较多的了解。

四:8.29上午:数据库架构设计专场

 

1、高可用分布式数据库系统架构实践(Oracle\Mysql等数据库)
陈吉平:淘宝网技术总监、首席DBA、DBA Manager、Oracle ACE

演讲主题的简介:
      从2004年加入淘宝到目前已经超过5年,亲身历经了淘宝网的成长与壮大。在淘宝的快速发展过程中,曾经遇到过非常多的问题,包括数据库也是如此,经历了小规模起步,业务压力的飞涨,IT信息的爆炸,再到成熟稳定的整个阶段。

      本PPT介绍了淘宝从Mysql起步,Oracle单库->Oracle垂直拆分-> Oracle+Mysql读写分离&水平拆分等多个阶段的发展过程,构想了高可用数据库构架的未来发展方向,并且通过2个Case来描述了淘宝数据库读写分离与水平分割的高可用构架。

 

演讲人介绍:
      陈吉平:淘宝网首席DBA,资深技术专家&技术总监,主要负责淘宝后台数据库与网站稳定性等相关工作。Oracle ACE Director,也是《构建Oracle高可用环境》一书的作者。

 

 

2、Sybase高业务连续性案例实践

演讲主题:Sybase 业务连续性实践案例
宋一平:Sybase软件(中国)有限公司售前技术总监

演讲主题介绍:
      通过对高可用性(HA)、集群技术(Clustering)、数据复制技术Replication)和灾难备份(Disaster Recovery)等四种业务连续性保障技术的阐述,并结合Sybase解决方案和案例,说明当今业务连续性相关技术的发展趋势,对数据库以及相关软硬件架构的设计具体启迪的作用。
演讲人简介:
      作为Sybase公司售前技术总监,宋一平先生主管全国售前技术工作。他参与并
领导Sybase在国内各行业(金融、邮电、政府、能源交通等)的技术方案讨论、系统论证、产品配置、技术答标、评审、技术咨询和项目鉴定等工作。同时,为有利配合全国各销售团队业务的开展,他也承担着调配全国售前工程师资源、组织公司内部技术研讨等工作。

 

3、Mysql压力极限测试报告实践
邵宗文:新浪资深数据库专家,数据库平台主管

演讲主题概要:
      数据库极限性能测试以 MySQL 数据库的极限性能测试为切入点,然后揭示互联网门户网站是如何通过规划高可用架构,细分各种应用项目,合理分配机器资源,使用各种优化和外部手段,实现每天几十亿次的数据库读写和99.999%的稳定性。相信能对一些中小互联网数据库运维人员有所帮助。

演讲人介绍:

      邵宗文:新浪资深数据库专家,数据库平台主管,1负责新浪数据库平台的日常管 理,1并作为核心人员参加了如统一通行证,发布系统,博客圈,财经,体育等重大项目的数据库架构改造和实施。

4、Mysql数据库性能优化实战
叶金荣:搜狐游戏高级MySQL DBA

演讲主题的简介:

      MySQL的优化是一个长期而循序渐进的过程,并且需要有丰富的硬件、软件、操作系统理解能力。MySQL的优化需要从硬件、软件、MySQL自身、应用系统架构等4个主要方面着手,只有从这4个方面都统筹兼顾到了,解决所有的短板,才能实现整体的性能飞跃。

      本次主题演讲以寻找MySQL优化的瓶颈所在为入口,辅以各种性能优化的各种方法实例,阐述了MySQL优化的几个重要环节,希望对各位能起到提纲挈领作用。

个人简介:

      叶金荣:搜狐畅游(www.changyou.com)高级MySQL DBA,负责搜狐游戏多款热门网游MySQL数据库管理、优化。致力于MySQL推广,擅长MySQL调优。 个人网站:http://imysql.cn 

 

五、8.29上午:系统监控安全专场

 

1、网游企业监控实践:整个系统架构如何决定监控架构 (应用服务器、存储、网络、关联数据库) 
曹世军:北京武神世纪网络技术有限公司 系统架构师

演讲主题的简介:

     游戏企业基础系统架构与对应的监控策略,介绍游戏企业的基础系统架构,包括数据中心、游戏服务器、下载服务器、自动更新、官方网站及论坛。以上述架构为例介绍一个游戏企业的整体监控解决方案。

 

演讲人介绍:

     曹世军,早年从事IPSec vpn产品的研发,后进入网络游戏行业,先后就职于北京完美时空、上海程波网络运维总监等多家网络游戏企业,一直从事网络游戏运维工作,有着丰富的Linux系统游戏服务器集群架构经验,目前就职于武神世纪(5shen.net),任系统架构师,负责游戏服务器、运维平台的系统架构设计与实现。

 

2、Web应用访问安全 案例实践剖析

演讲主题:解析基于企业WEB应用的安全挑战
郑爽:梭子鱼网络(中国)有限公司北方区销售总监

演讲主题介绍:
     互联网的快速发展,使基于Web的业务模式渐成主流。今天,当我们在尽享Web Mail、IM即时通信、电子支付、OA、ERP以及社交网络等带来的快捷和便利同时,来自Web的安全隐患,却让许多IT管理人员疲于应对。事实告诉我们,今天的IT管理不得不面临复合型的安全新挑战。如果您一直关注安全动向,或许您已发现,近年来由Web应用所带来的安全事件逐年增加,所产生的影响也是巨大的。动辄上千万的数据泄露事件,少则对企业造成难以预估的财产损失,重则对企业造成致命的打击。

     面对威胁,VISA率先发力,强制要求银行构建安全的应用交付网络;而电信行业在3G应用的趋势下,也在思考如何满足用户新业务的安全需求;与此同时石油、化工等支柱型产业更是为满足业务的持续运营而积极推动信息安全建设。可以说,IT应用越成熟的地方,业务所面临的Web安全威胁越显著。因此,作为我国IT应用最集中的电信、金融、能源等行业而言,新形式下的安全挑战无可回避。梭子鱼网络有限公司将与您共同探讨解析基于Web应用的安全挑战和相关解决方案。

演讲人简介:
     郑爽,现任梭子鱼网络(中国)有限公司北方区销售总监,负责梭子鱼网络在北方区市场的销售运营,与合作伙伴紧密合作,携手为客户提供全面的网络安全及应用交付解决方案。郑爽具有10年的行业客户和渠道管理销售经验,在加入梭子鱼网络之前,郑爽曾在多家知名IT公司担任高级销售经理、销售总监等职位。

 

3、实践:有效监控分析系统,找到关键系统瓶颈的临界点
王怀志:海纳互联网研究中心 技术总监

演讲主题的简介:
     本次演讲以实践案例为基础,主要针对互联网后台系统的优化和运维进行监控,重点在于:系统瓶颈方面如何通过监控手段去定位。

     介绍互联网后台系统的监控,尤其是针对大规模高负载高并发系统,利用有效的监控手段,找到的关键瓶颈的临界点,对互联网系统后台系统的扩展,优化和架构调整提供决策支持。

 

演讲嘉宾介绍:
     王怀志:多年的互联网后台高负载高并发技术架构和研发工作经验。现任海纳互联网研究中心技术总监,专注于互联网关 键技术研究和解决方案。

4、实践:有效监控分析网络,找到关键系统瓶颈的临界点
田逸,资深系统架构师,

演讲主题的简介:

本案以高考中国网为例,完整地演示一个互联网网站怎么以开源技术实现高可用、可扩展、负载均衡,以应对急剧增长的用户访问已经提高用户的访问体验。本主题分以下几个部分来讲解:

      网站的整体架构
  • 局部的高可用、可扩展、负载均衡
  • 全局的高可用、可扩展、负载均衡
  • 具体的实现技术

演讲嘉宾介绍:
      田逸,资深系统架构师,超过10年的网络运维管理经验,擅长并热衷于大规模的网络运维。IT168、ChinaUnix技术 沙龙、技术论坛金牌应用实践讲师,近期著作:《开源运营技术精髓》。



六、8.29下午:存储架构设计优化专场

 

1、分布式存储网络在视频领域的应用
杨永强:乐视网 首席技术官

主题介绍:
      视频领域对存储技术提出了许多新的要求,存储容量、存储性能、线性扩展。介绍以DAS文件存储为节点的虚拟化存储网络技术,解决网络视频存储领域对存储容量和线性扩展的需求;独具特色的可管理P2P CDN系统,实现在不同地区和不同网络中的快速存取。

 

2、数据存储实践:文件虚拟化 如何帮助企业降低数据存储管理成本?
杨明非:F5北方区技术经理 应用交付网络架构师

 

演讲主题概要:
      本部分内容分析了基于NAS技术的文件存储虚拟化技术,详细阐述了在文件存储虚拟化模式下需要考虑的一些问题,比如分级存储、负载均衡、数据迁移、备份和远程数据同步等方面的技术。针对目前文件存储的飞速增长的需求,提供一个真正可以解决困扰存储架构师管理问题的解决方案。另外,还从文件存储虚拟化如何实现其商业价值方面来讨论如何通过分级存储模式节省存储的一次性投入和扩展投入,适应当前的大环境经济情况,为企业节省在存储上的资金投入。

 

个人简介:
      杨明非:1995年参加工作,1997年开始进入服务器和网络领域。从2000年开始从事负载均衡专业服务工作。2004年加入F5公司,现任F5北方区技术经理。       参加过多家保险、证券和基金公司的应用系统负载均衡和应用交付系统建设, 参与过工行、农行、建行、人民银行等大型金融机构的网上银行、服务器集群、应用加速等系统建设。另外在大型网站和电信行业也有丰富的网站、应用系统建设经验;在文件存储虚拟化领域也有深入研究。

 

3、海量集群文件存储:Moosefs分布式文件系统应用实践

田逸,资深系统架构师(确定)

演讲主题的简介:

      分布式文件系统作为高可用、可扩展、负载均衡互联网数据共享的一部分,不仅解决了数据的高可用性,而且还极大地提高的系统的性能,也更近一步地消除了数据同步的问题。本主题涉及mfs的体系结构、各部分的作用已经怎样应用于实际环境。大概分一下几个部分来讲解:

  • 分布式文件系统的特性
  • 分布式文件系统mfs的体系机构
  • Mfs主服务器的部署
  • Mfs存储服务器的部署
  • Mfs客户端的挂接与使用
  • 功能测试

 

4、Mysql数据库 在线灾备实践分析(70分演讲)

徐景春:51.com数据库主管

演讲主题的简介
      主要分享开源数据库的灾备体系的建设思路,以及在建设过程中的一些技术实施细节与注意事项,进而实现各个功能模块,将思想和需求转化为实际的产品,再融合汇聚成一整套制度共同构造的灾备体系。

演讲人介绍:

      徐景春,曾就职于腾讯,现任51.com DB TEAM Leader,专职DBA工作4年。
在数据库体系建设,从监控,备份,测试,优化,架构到运营平台搭建有自己独到的见解和行之有效的方案.能充分挖掘团队的潜力,对团队管理,跨部门组织协调有着丰富的经验.



七、8.29下午:教育行业 架构设计专场技术沙龙

 

1、北京邮电大学网络教育学院:网络教育平台的平台构建实践 北京邮电大学网络教育学院

(1)、 北邮网院远程教育平台设计理念与整体架构 
李建伟 北邮网院技术总监 8年软件设计、管理经验.

      介绍北京邮电大学开展远程教育过程中,远程教育平台的发展历程,目前北邮远程教育平台的整体架构设计,远程教务管理系统中管理流程模块化的设计理念,远程教学系统中使用引领式学习模式的设计理念,高可用、高可扩展性的基础服务平台的设计方案。最后,总结了北邮远程教育平台的特点和未来的发展趋势等内容。


(2)、 使用Sakai构建开放式教学平台 
李江涛 北邮网院运维总监 6年开发维护经验.

      Sakai是一个开源免费的学习系统、一个在线协作系统,支持教学、学习和研究的协作。使用Sakai可以方便的添加各种教学工具,而当前已有大量的工具供选用。该主题将介绍Sakai的开放性,介绍如何使用Sakai构建开放式教学平台,并从Web、文件存储、数据库、网络等多个层面介绍如何构建高可用的Sakai环境,最后还将介绍北京邮电大学网络教育学院使用Sakai的经验和教训。


(3)、 开放式插件系统的研究 
苏占玖 北邮网院首席架构师 8年开发设计经验.

 

演讲人介绍:

      李建伟 北京邮电大学讲师长期参与远程教育方面的研究和开发工作,曾做为主要人员参与了国家“十五”重大科技攻关计划——网络教育关键技术及示范工程项目的两个子课题“作业与考试工具”、“职业培训示范工程”的研究开发工作;国家发改委科学研究计划项目“CNGI远程教学公用通信平台系统”的研究工作。主持开发了北邮网络教育学院的远程教育平台1.0版和2.0版。

      苏占玖 毕业以来长期从事远程教育相关软件平台的研发工作,曾任北邮在线总工程师,负责开发了网络多媒体课件制作系统、远程培训平台、课件点播系统、作业考试系统等软件产品以及一系列的多媒体课件,应用于多家网络教育学院、通信企业以及国家电网。后参加北邮网院网络教务教学平台2.0版的研发,负责系统架构和设计工作。

      李江涛 北京邮电大学工程师 长期从事开源软件在教育行业的应用研究,曾作为核心成员参与了多个国家十五、十一五项目的设计与开发,同时具有多年的运维经验,现负责北邮网院教学、教务等多个系统的运维,以及学院教学系统的开发。

 

      北京邮电大学是教育部直属、首批进入 " 211 工程 " 的全国重点大学、也是我国最早举办成人高等教育的院校之一。经过五十余年的发展,北京邮电大学已经发展成为一所以信息科技为特色,工学门类为主体,工管文理相结合的多科性大学,是我国通信和信息人才的重要培养基地。

      北京邮电大学网络教育学院(原函授学院)是北京邮电大学开展成人高等学历教育的专门机构,自 1956 年开办成人高等学历教育至今已有 50 余年的历史。我校成人高等学历教育以服务学生、服务社会为宗旨,以培养技能型、应用型人才为目标,以规范办学、确保质量为理念,形成了面向通信信息领域开展学历教育的办学特色。经过多年的发展,在通信信息领域的在职学历教育方面保持了领先的优势,形成了良好的口碑,被业内誉为邮电通信行业的"黄埔军校"。

 

2、华东师范大学网络教育平台架构实践

吴永和:华东师范大学技术部主任高级工程师 博士

演讲题目:e-Learning技术系统的演化与发展
报告人:吴永和

演讲题目:开源学习管理系统Sakai的体系结构演变
报告人:姜昌华

 

演讲主题的简介
⑴ e-Learning技术系统的演化与发展:
报告包括回顾网络教育的学习技术发展历程,学习技术系统发展态势,中国网络教育转型期的学习技术系统发展走向等三个方面内容。
①回顾我国网络教育发展历程和国际上发展情况,并以若干网络教育学院学习平台建设为例说明网络教育的学习技术发展历程。
②阐述学习技术系统发展态势以及系统架构情况。
③分析中国网络教育转型期情况,网络教育的学习技术系统发展走向。

⑵关于开源协作学习环境Sakai的学习与思考
首先将介绍开源协作学习环境Sakai的起源及发展,然后将介绍Sakai从版本2.5到3.0的系统架构,并从Sakai的架构变迁分析Sakai的发展路线,内容涉及Velocity、JSF、Ajax等表现层技术,Spring、Hibernate等后台技术,OSGI、云计算等目前比较热门的新技术;最后将介绍我们在Sakai上所作的一些工作,结合我们的经验介绍Sakai的优缺点,分析Sakai在国内应用推广时应做的工作。

 

⑴吴永和简介
      吴永和,男,华东师范大学网络教育学院技术服务部主任,华东师大教育信息化系统工程中心主任助理,中国网络教育标准委员会专家委员,参与国际标委会ISO JTC1/SC 36 ITLET标准(信息技术 学习、教育、培训标准)制定工作,高级工程师,博士。
      主持和参加的科研项目共20多项,其中主持了12项,在主持项目中有国家或省部级7项,包括863项目(子课题)2项、国家科技支撑计划课题(子课题、任务)2项、全国教育科学规划教育部重点课题1项、上海市教科重点课题1项、信产部课题1项等。在核心期刊发表了十多篇论文,参与撰写3本著作,提交多项e-Learning标准提案(国家和国际)和教育信息化技术标准草案,以及技术白皮书和软件著作权等。

⑵姜昌华简介
      姜昌华,男,2007年6月毕业于华东师范大学,获博士学位。
      具有10年企业应用软件开发经验,其中6年J2EE软件架构与开发经验。
      目前主要从事数字化学习平台的研究与开发工作。
      参与国家自然科学基金项目1项,在核心期刊上发表了10多篇学术论文。

 

架构师-刘国庆-13588827425 / 携程、苏*宁*易*购、杭州

 

分布式对象存储sdoss  /  weedfs / weed-fs

分布式文件系统SDFS  /  GlusterFS

分布式文件存储产品   /  fastDFS 

 

 

 

end

  • 大小: 8 KB
  • 大小: 56 KB
  • 大小: 49.4 KB
分享到:
评论

相关推荐

Global site tag (gtag.js) - Google Analytics