`

构建高性能网站,针对前台工程师--总结篇

阅读更多

首先从一次完整的的请求说起:(以此为例get,www,baidu.com)

1,webbrower 发出request,

2,然后解析www.baidu.com为ip,找到ip的服务器,

3,服务器处理请求资源并返回请求的内容,

4,browser接受请求内容过程,(返回内容是按顺序读取的)

4.1遇到外联css,就会并发去读取css内容(),

4.2遇到图片时,回去并发读取图片,目前浏览器的并发数为2,

4.3遇到js时则会阻塞其他请求。

4.4加载完css后,browse开始渲染页面,

4.5直到加载完页面中的文本资源,这时dom的结构已经确定,会出发 document.ready方法

4.6 browse继续加载 图片和js,完成后。页面就全部加载完成,这时会出发 window.onload()方法

 

来分析一下里面具体的时间开销:

1,从1--4.4 用户才开始看到页面上有内容,在这以前页面就是空白的

2,解析域名也是有一定时间开销的,如果是大机房的可以通过路由配置 dns 缓存,依赖于外部机房环境,可控性比较小。  

3,这是服务器处理的时间,优化程序代码可以减少这里的时间

   4,

4.1浏览器在接收完css之前,一般是不去渲染dom的,以避免无所谓的刷新和闪烁。所以直到4.4用户才真正在页面上看到内容。

4.2 浏览器的单域名并发访问数 为2,多域名下并发数没限制,可以通过定义域名别名改善

4.3 浏览器加载js时会阻塞其他请求,直到加载完成。改善的话可以把js放到页面下面去加载。

 

从上面的流程可以分析出以下建议:

1,减少连接数(原因:并发限制,dns开销)

2,将css放到 head中。(1,首先这符合w3c规范,2,应为css加载完后,遇到dom对象时就会直接显示,可以更快的显示页面。)

3,将js放到页面底部,(加载js时会阻塞其他请求,这段时间页面没有反映,如果js中没有write的话应该放到底部,页面渲染完后再加载js)

4,减少下载内容(网络是有速度限制的,内容越少当然加载越快)

 

针对上面4条建议给出具体做法:

1,使用 css sprite将小图片合并,合并css、js。使用浏览器缓存: cache-control、expires。不使用etag

2、3不用说了,上面已经解释清楚了。

4,采用gzip压缩,可以使用 jsmin 将js精简,使用工具将css,html精简,尽可能缩减图片。

按照 性能黄金法则 说明: 文本内容只占所有时间的10%-20%, 这样做以后 至少能将时间缩小40%-50%。能明显改善用户体验。

 

这只是一些建议参考,具体的需要你针对自己的网站进行分析,分析工具可以使用firedebug,yslow,(这两个可以集成)

yslow会直接给出你建议。

 

 

分享到:
评论
31 楼 zhang8mss 2011-07-29  
总结的不错,支持
30 楼 feiyan35488 2011-05-27  
fch415 写道
这份总结和其后的回复看出,不是真正做过大网站前端优化的人(说明:我的领域跨过前后端)。

(除前文外)再指出几个明显的问题吧:
1)几乎不会真的用Jsmin做压缩,因为它存在一个严重的缺陷,就是当存在直接量的正则表达式时,代码会压缩出问题。
一般都是用YUI Comprosser。

2)一般不采用gzip方案,因为浏览器decode会有性能开销,如果服务器端打开动态gzip的encode更是吃不消。

3)真正做多域名时,不会只准备两个域名,而是一组域名的。
比如:
static1.xxx.com
static2.xxx.com
.....
static10.xxx.com
动态页面(比如JSP)会在每个URL前随机生成一个域名(1-10的随机数)。
而且为了有效利用304缓存(以免相同的URL每次的域名不同,导致无法利用HTTP缓存机制),还需要对URL做hash后的伪随机算法。

写了几个html页面,写几行后台hello代码,就敢说 领域跨过前后端。可笑
29 楼 int08h 2011-05-27  
fch415 写道
这份总结和其后的回复看出,不是真正做过大网站前端优化的人(说明:我的领域跨过前后端)。

(除前文外)再指出几个明显的问题吧:
1)几乎不会真的用Jsmin做压缩,因为它存在一个严重的缺陷,就是当存在直接量的正则表达式时,代码会压缩出问题。
一般都是用YUI Comprosser。

2)一般不采用gzip方案,因为浏览器decode会有性能开销,如果服务器端打开动态gzip的encode更是吃不消。

3)真正做多域名时,不会只准备两个域名,而是一组域名的。
比如:
static1.xxx.com
static2.xxx.com
.....
static10.xxx.com
动态页面(比如JSP)会在每个URL前随机生成一个域名(1-10的随机数)。
而且为了有效利用304缓存(以免相同的URL每次的域名不同,导致无法利用HTTP缓存机制),还需要对URL做hash后的伪随机算法。



那我也随便说说好了?
1、用什么压缩不是问题,现在google closure compiler也正在取代YUI,再过段时间也许你的YUI也一样是个“过时货”,压缩是个理念,何必纠结于JSMIN还是YUI?

2、decode的性能开销?你真有实测过用不用gzip浏览器的最终load差了多少?有的话给个数字吧?根据我们这边的实测,一个页面+3-5个gzip的资源(图片不会gzip),用不用gzip相关不到100毫秒来着。至于encode的开销,看服务器有多牛呗,不牛的就只对不变的静态资源开gzip,牛的就对动态页面也一起开了,顺便也要看看是你的服务器贵,还是你买的网络更贵,对吧?

3、多域名……我现在首先怀疑多域名的必要性,其次到底是2个还是多个,难道不是按照平均一个页面中的资源数量来决定的吗?难道一个页面只有6-7个资源,你也准备20个域名放着?
28 楼 damoqiongqiu 2011-05-27  
总结得非常好,学习了。
27 楼 feiyan35488 2011-05-27  
macrotea 写道
feiyan35488 的分享精神还是值得赞同的
我支持你!

谢谢,为了提高共同提高。最讨厌那些冒充高手到处喷粪的垃圾
26 楼 macrotea 2011-05-27  
feiyan35488 的分享精神还是值得赞同的
我支持你!
25 楼 feiyan35488 2011-05-27  
fch415 写道
这份总结和其后的回复看出,不是真正做过大网站前端优化的人(说明:我的领域跨过前后端)。

(除前文外)再指出几个明显的问题吧:
1)几乎不会真的用Jsmin做压缩,因为它存在一个严重的缺陷,就是当存在直接量的正则表达式时,代码会压缩出问题。
一般都是用YUI Comprosser。

2)一般不采用gzip方案,因为浏览器decode会有性能开销,如果服务器端打开动态gzip的encode更是吃不消。

3)真正做多域名时,不会只准备两个域名,而是一组域名的。
比如:
static1.xxx.com
static2.xxx.com
.....
static10.xxx.com
动态页面(比如JSP)会在每个URL前随机生成一个域名(1-10的随机数)。
而且为了有效利用304缓存(以免相同的URL每次的域名不同,导致无法利用HTTP缓存机制),还需要对URL做hash后的伪随机算法。

你倒是做过,你烂在肚子里有什么用。我是后台开发的,看了看书,顺便总结一下。有本事你也总结一下啊
24 楼 fch415 2011-05-26  
这份总结和其后的回复看出,不是真正做过大网站前端优化的人(说明:我的领域跨过前后端)。

(除前文外)再指出几个明显的问题吧:
1)几乎不会真的用Jsmin做压缩,因为它存在一个严重的缺陷,就是当存在直接量的正则表达式时,代码会压缩出问题。
一般都是用YUI Comprosser。

2)一般不采用gzip方案,因为浏览器decode会有性能开销,如果服务器端打开动态gzip的encode更是吃不消。

3)真正做多域名时,不会只准备两个域名,而是一组域名的。
比如:
static1.xxx.com
static2.xxx.com
.....
static10.xxx.com
动态页面(比如JSP)会在每个URL前随机生成一个域名(1-10的随机数)。
而且为了有效利用304缓存(以免相同的URL每次的域名不同,导致无法利用HTTP缓存机制),还需要对URL做hash后的伪随机算法。
23 楼 feiyan35488 2011-05-06  
int08h 写道
以总结为主,引发一个话题,其他有研究的人可以借此平台来分享进一步的知识,这就是论坛啊,有什么不好

  
22 楼 int08h 2011-05-06  
以总结为主,引发一个话题,其他有研究的人可以借此平台来分享进一步的知识,这就是论坛啊,有什么不好
21 楼 feiyan35488 2011-05-06  
lz12366 写道
麻烦以后如果是摘录书籍的东西,请注释下。。。

不是摘录,集合平常经验总结的
20 楼 lz12366 2011-05-06  
麻烦以后如果是摘录书籍的东西,请注释下。。。
19 楼 meepo3927 2011-05-06  
非常不错啊。
18 楼 int08h 2011-05-03  
printfabcd 写道
int08h 写道
1、并发数并不是绝对的2,IE6-7为2,IE8、Firefox、Chrome为6,Opera为16
2、遇到js下载时不会阻塞其他请求(除IE6-7外)
3、用script标签写出来的js文件必须加载、解析、执行完成后,才会触发DOMReady,和你说的不一样
4、事实上link和style这2个标签只能放在head中,放在body中是不符合标准的,楼主说得很对,这里强调科普下~(除非style有scoped属性,不过很少人知道这属性)

总得来说,楼主还是仅仅从网上收集了一些“教条”和“圣经”,以及一些大家普遍在宣扬着的数据,似乎没有亲身实测过,这里还是自我推荐下我的研究:
http://www.otakustay.com/browser-strategy-loading-external-resource/

请问,js可以并行的加载那些js的时候,怎么保证,js脚本按照正确的顺序到达浏览器呢?,下面的脚本可能要依赖上面的脚本才能运行


别这么想啊,他就不能到达浏览器了也藏着不执行嘛~反正保证执行顺序正常就OK了啊
17 楼 printfabcd 2011-05-03  
int08h 写道
1、并发数并不是绝对的2,IE6-7为2,IE8、Firefox、Chrome为6,Opera为16
2、遇到js下载时不会阻塞其他请求(除IE6-7外)
3、用script标签写出来的js文件必须加载、解析、执行完成后,才会触发DOMReady,和你说的不一样
4、事实上link和style这2个标签只能放在head中,放在body中是不符合标准的,楼主说得很对,这里强调科普下~(除非style有scoped属性,不过很少人知道这属性)

总得来说,楼主还是仅仅从网上收集了一些“教条”和“圣经”,以及一些大家普遍在宣扬着的数据,似乎没有亲身实测过,这里还是自我推荐下我的研究:
http://www.otakustay.com/browser-strategy-loading-external-resource/

请问,js可以并行的加载那些js的时候,怎么保证,js脚本按照正确的顺序到达浏览器呢?,下面的脚本可能要依赖上面的脚本才能运行
16 楼 feiyan35488 2011-04-26  
yanyan_zhl 写道
和这个很相像,吼吼...

http://blog.aixiaogou.com/?p=13

这些都是 《构建高性能网站》 书中的,我结合自己的理解总结一下
15 楼 enix2212 2011-04-25  
接电话都需要攻城狮干了啊
14 楼 yanyan_zhl 2011-04-25  
和这个很相像,吼吼...

http://blog.aixiaogou.com/?p=13
13 楼 int08h 2011-04-24  
axxxx2000 写道
int08h 写道
定义一个新的域名来加载图片,如果新域名和原域名依旧指向一台服务器的话,其实唯一的作用就是增大HTTP请求并行度,但是现在浏览器6的并行度完全够用了,除非你做淘宝搜索页之类的大量图片构成的页面
另外,如果新开域名的话,注意一个事,尽可能保证服务静态资源的域没有cookie,所以永远不要把cookie写到二级域名下去

嘿嘿,问下尽可能保证服务静态资源的域没有cookie  这个真不明白...能讲解下不?


一次HTTP GET Request中唯一不能确定大小的只有2点,1是URL长度,2是cookie的内容,其他的所有HTTP头都由浏览器生成,且可以很容易找出规律并大小固定

所以对单次GET型的HTTP请求的优化,主要就集中在控制URL的长度和cookie的大小上,而这两者一比较,cookie的大小又占了比较大的比重(毕竟URL因为要有明确的表意性,有时不是那么容易优化的,或者说优化了也不会有太多的区别)
12 楼 feiyan35488 2011-04-24  
axxxx2000 写道
int08h 写道
定义一个新的域名来加载图片,如果新域名和原域名依旧指向一台服务器的话,其实唯一的作用就是增大HTTP请求并行度,但是现在浏览器6的并行度完全够用了,除非你做淘宝搜索页之类的大量图片构成的页面
另外,如果新开域名的话,注意一个事,尽可能保证服务静态资源的域没有cookie,所以永远不要把cookie写到二级域名下去

嘿嘿,问下尽可能保证服务静态资源的域没有cookie  这个真不明白...能讲解下不?

如果域名下有cookie的话,这个cookie的也会传到server中,增加请求内容和响应内容。
只是静态资源的话,这些cookie是没有必要的。所以增加cookie只会请求的时间开销。

相关推荐

Global site tag (gtag.js) - Google Analytics