论坛首页 Java企业应用论坛

做网站前,考虑网站并发

浏览 22819 次
精华帖 (0) :: 良好帖 (1) :: 新手帖 (0) :: 隐藏帖 (0)
作者 正文
   发表时间:2011-08-15  
数据读取缓存技术 ,尽量不要直接和数据库交互。
0 请登录后投票
   发表时间:2011-08-15  
楼主不说话我还以为他是个高手大牛呢?一说话就露馅了,原来是个井底蛙。。
0 请登录后投票
   发表时间:2011-08-15  
你所说的是用户并发  而不是用户操作并发~~一个操作可能引起N次并发
0 请登录后投票
   发表时间:2011-08-15  
blablabla 写道

把我笑喷了,做java都是这种奇葩?。。

。。。。


不恶意中伤 同业者 是程序员基本素养~~
1 请登录后投票
   发表时间:2011-08-15  
张洪财 写道
njyu 写道
每个省份部署一份相当麻烦,貌似都用CDN来搞!

看来需要上网,学习下CDN了。否则都out了。

CDN你学得起也未必用得起,全国分布部署CDN可不是一笔小开支,即便超大型公司也只能对主要产品线进行这种级别的CDN部署,至于部署得少了,CDN也没效果了
0 请登录后投票
   发表时间:2011-08-15  
张洪财 写道
godson_2003 写道
并发是这样计算的么?打开一个网页加载N张图片 N个CSS N个JS 这些算不算并发?


关于包含css和图片应该是服务器内部处理吧,我猜测的 。 如向你说的那样,也太耗费服务器资源了。我数了下新浪首页最少50张图片,那么它一个页面就会产生不低于50的请求.不调优的tomcat稳定支持是200并发,因为maxThreads默认200。

同时4个用户请求(含50张图片+1css 文件的)网页就会出现请求超时,真是比较可怕。还不如用flash 做网站,一个页面就一个flesh 。那么默认tomcat可以支持200用户并发,是html做网页的的50倍。


如果明白的可以讨论下这个问题。

谁说新浪是用tomcat的裸奔的?
静态资源有静态资源的服务器,用tomcat处理静态资源不是乱搞嘛
0 请登录后投票
   发表时间:2011-08-15  
agapple 写道
不要忘了,中国的爬虫访问量也不少,我们公司网站每天上千万的请求都是来自于这些。

一般不会是严格的2-8原则,除此之外你还得考虑高峰期和极限值。

话说1000并发已经很高了,我们每台机器高峰tps在100多,机器load已经有了形状了。所以说1000并发你得需要两位数的机器来抗,再考虑下极限值,机器再翻一番。如果遇上推广或者秒杀的活动你得另外算

前面很多仁兄也提到,一个页面上的ajax,css,img会多增加几倍的并发请求。css,img这些静态资源都好说,CDN,squid或者expire time能挡掉一部分,最后落到apache上。像我们几billion的访问后台也就10来台apache顶住。ajax是个双刃剑,自己掂量着用,也可以利用浏览器的cache等等进行优化,或者就是用后台的异步加载进行优化(http://agapple.iteye.com/blog/918898)


赞一句 ,牛人,一看就感觉是有实际经验的。


网络爬虫的我也深有体会,每天都有大量的搜索引擎上来访问。搜索引擎提供了屏蔽自己搜索的代码,部分高并页面可以不让它访问。

每台机器高峰tps在100多,这个是实践数据还是思考数据?首先和网友解释下TPS(Transaction per second) 。
这个没明白它的瓶颈在哪。 内存? cpu? 硬盘读写?网络?  程序业务逻辑负责?  可用端口数一定没达到。


0 请登录后投票
   发表时间:2011-08-15  
张洪财 写道
agapple 写道
不要忘了,中国的爬虫访问量也不少,我们公司网站每天上千万的请求都是来自于这些。

一般不会是严格的2-8原则,除此之外你还得考虑高峰期和极限值。

话说1000并发已经很高了,我们每台机器高峰tps在100多,机器load已经有了形状了。所以说1000并发你得需要两位数的机器来抗,再考虑下极限值,机器再翻一番。如果遇上推广或者秒杀的活动你得另外算

前面很多仁兄也提到,一个页面上的ajax,css,img会多增加几倍的并发请求。css,img这些静态资源都好说,CDN,squid或者expire time能挡掉一部分,最后落到apache上。像我们几billion的访问后台也就10来台apache顶住。ajax是个双刃剑,自己掂量着用,也可以利用浏览器的cache等等进行优化,或者就是用后台的异步加载进行优化(http://agapple.iteye.com/blog/918898)


赞一句 ,牛人,一看就感觉是有实际经验的。


网络爬虫的我也深有体会,每天都有大量的搜索引擎上来访问。搜索引擎提供了屏蔽自己搜索的代码,部分高并页面可以不让它访问。

每台机器高峰tps在100多,这个是实践数据还是思考数据?首先和网友解释下TPS(Transaction per second) 。
这个没明白它的瓶颈在哪。 内存? cpu? 硬盘读写?网络?  程序业务逻辑负责?  可用端口数一定没达到。




经验数据,针对常见的web页面,普通的响应时间在100ms左右,我们一般单机器承担访问量在300~500w左右。如果是做SOA服务的请求,那tps就可以更高,每天可以承担请求是几kw。

系统会受到很多方面的制约,一般更多的是网络I/O上,大部分还是在数据库DB上,所以你在一些java代码细节上扣的一些性能(比如StringBuilder替代StringBuffer,ReentrantLock替代synchronize原语等等)根本比不上你一次sql优化,少调用一次就是2ms。一般很少应用的瓶颈会是CPU和disk,除非你是一些特殊场景的应用。
0 请登录后投票
   发表时间:2011-08-15  
这个没有搞过,在此学习了。
0 请登录后投票
   发表时间:2011-08-15  
blablabla 写道

把我笑喷了,做java都是这种奇葩?。。

。。。。

楼主虽然表现的比较菜,你也不用说话这么恶毒吧。。。虽然其实我内心也很恶毒。
0 请登录后投票
论坛首页 Java企业应用版

跳转论坛:
Global site tag (gtag.js) - Google Analytics