- 浏览: 217684 次
- 性别:
- 来自: 北京
-
文章分类
最新评论
-
q10000000:
你好 适用madMadia点击上传到服务器 没有反应啊LZ
在项目中整合FCKeditor文本编辑器 -
liweixxxx1990:
spring本版是3.0的(和版本也有关系吗?) 配置用到了s ...
struts2+spring发送mail -
floger:
liweixxxx1990 写道我照着你这个写的出现了下面的错 ...
struts2+spring发送mail -
liweixxxx1990:
我照着你这个写的出现了下面的错误,怎么解决啊??:Messag ...
struts2+spring发送mail -
jueyue:
不错,把问题解决了
Myeclipse下java.lang.OutOfMemoryError: Java heap space的解决
https://docs.google.com/document/pub?id=1FCcJNu5DrNzRKvQOZ7bdnCMT1R7gyDthHMOqd1gYmBs
浅析Ruby on Rails部署方案 ShiningRay
浅析Ruby on Rails部署方案
目录
前言
简介
前端的选择
后端的选择
性能测试
后端的问题
前端的问题
前后端搭配的测试
测试结果
分析和小结
延伸
其它问题
总结
前言
2006初,我接到了公司分配的一个遗留项目,让我负责一个基于C/S的系统的服务器端。其实是系统是基于HTTP协议的,因为负责客户端的同事对于服务器端编程不甚了解,虽然使用PHP对熟悉C++的他来说是驾轻就熟,但是在进一步实现更多的功能和更高的性能上就捉襟见肘了。项目是在非常突然的情况下交给我的,因为该同事在客户端上有更多的事情要做。我在分析了他的数据库结构和PHP源代码之后,决定按照与客户端的通讯协议重写他的服务器端。为了能应付老板苛刻的时间限制,我打算使用正在学习的Ruby on Rails。后来,项目在功能上非常顺利地交付了。
两年过去了,随着客户端数量的不断增加、客户端功能的增加、与服务器端交互数据的增加、老板对功能的要求不断增加,我在这个项目上走了不少弯路,尤其是在部署——或者说是架构——方面。
我遇到的最大的问题就在于并发链接数上。服务器与客户端的每次交互的数据量并不大,但内容无法缓存。起初用的是Nginx/Apache+Mongrel的部署方式,但当遇到大量并发请求时,常常会遇到Mongrel进程死掉的情况。而客户端的用户在无法登录客户端的时候,经常会反复尝试,加重了服务器的负担、导致最后所有的Mongrel进程都挂掉。
最后,经过不懈努力,在现有的3台低端服务器上,可以满足每天500万次的请求。在这里,我将我的一些心得和研究成果总结出来,与大家分享。
简介
Ruby on Rails的部署方案基本上都是由两层结构组成,前端做请求的分发,后端以多个Ruby进程接受并处理请求,主要的差别便是其中的通讯协议,比如使用FastCGI 或者是HTTP。这里讨论的局限于一台服务器,所以我不称之为架构方案,而仅仅是部署配置方案。
前端的选择
前端也有很多种不同的选择,我们来看一下开源领域主流的选择:
Apache功能十分强大,稳定性也十分好,是全球市场占有率最高的Web服务器。与它搭配的Rails部署方案也有很多,如:
- Apache+mod_ruby:类似于mod_php、mod_python,将Ruby解释器作为一个模块加载到Apache中。(mod_ruby以及停止更新,所以并不流行)
- Apache+mod_fastcgi或Apache+mod_fcgid,通过FastCGI协议与Rails进程通讯。(mod_fastcgi由于设计有缺陷因此仅推荐使用mod_fcgid)
- Apache2.2 + mod_proxy_balancer:使用反向代理负载均衡器,通过HTTP与后端的Ruby Web服务器通讯,如Mongrel/Thin/Ebb等。
- Apache2 + Passenger (mod_rails) :新兴的模块方式,部署方式十分简单,大致的方式和FastCGI差不多,只不过与后台进程间的通讯协议使用了它自己的协议。
Apache的一大问题就是Apache的性能和一些轻量级新秀Web服务器相比差很多,原因在于Apache到目前为止仅有prefork(进程)模式和worker(线程)模式的MPM是稳定的,这两种工作方式每服务一个链接,就需要创建一个进程或线程,而新兴的轻量级Web服务器,则都很好地利用内核的事件机制提高性能,极大地减少了线程或进程数量,而Apache的event(事件)模式的MPM依然在开发中。例如,Apache的请求处理速度、并发处理能力都比Lighttpd慢3-5倍,内存消耗和CPU消耗也高出很多。另一个问题是,mod_proxy_balancer虽然功能强大,但分发性能不高,比HAproxy或Nginx差很多。
基于这些问题,所以Apache+FastCGI/mod_proxy_balancer的部署方案并不流行,然而新兴的Passenger由于部署方式出奇简单,使得Apache可能会重新在Rails部署上再次占据一席之地。
轻量级高性能Web服务器,服务静态文件的性能非常高。目前的稳定版本Lighttpd1.4中的反向代理模块有所缺陷,此模块会在1.5中全部重写并提供更好的负载均衡算法,可以对基于FastCGI、HTTP、AJP、SCGI的后端进行请求分发。Lighttpd+FastCGI是目前非常流行的一种部署方式,国内著名的JavaEye便采用的这种方式,JavaEye 负责人之一Robbin对Lighttpd+FastCGI的方式推崇备至。
Nginx也是一个轻量级高性能的Web服务器/反向代理负载均衡器。Nginx也支持FastCGI,但不像Lighttpd 1.5支持对FastCGI后端的负载均衡调度。Nginx+Mongrel的方式受到很多人推荐。
HAproxy是一个纯粹的反向代理均衡器,非常小巧,基于事件机制。它不仅可以做HTTP反向代理,还可以作TCP的转发,所以同样可以对FastCGI做负载均衡。在做HTTP反向代的同时可以对请求作一些修改控制。在ThoughtWorks推出的Rubyworks这个Rails应用套件中用到了它,原因是它能很方便地限制到后端服务器的链接数量。但HAproxy不是Web服务器,它不能处理静态文件。
Swiftiply是一个负载均衡反向代理,但它与后端服务器的通讯方式很特殊——它开放一个端口让后端服务器主动链接到Swiftiply,这样可以与后端服务器建立一个持久链接,而且无须重启就可以非常容易地增加新的后端。Swiftiply使用了Ruby的EventMachine 实现了实践驱动机制。支持它的协议的后端有Swiftiplied Mongrel和Thin。
后端的选择
后端Rails的运行方式可以通过FastCGI或者是Ruby应用服务器的方式,CGI和mod_ruby已经不推荐。可以选的Ruby服务器有有:
WEBrick是Ruby标准库中自带的默认HTTP服务器,完全使用Ruby写成,性能较差。利用了Ruby的线程来服务并发的链接。有人写了利用事件机制来提高性能的补丁,由于应用少,不在讨论范围。
目前最为成熟Ruby应用服务器。使用了C++写的HTTP头解析器,所以具有较好的性能,它同样利用了Ruby的线程机制来服务并发的链接。Mongrel的优点是稳定,兼容性好,很多平台上都可以使用,包括JRuby。Swiftiply小组还写了一个利用EventMachine的Mongrel修改版,称之为Evented Mongrel,使用单线程、事件驱动方式。
利用事件驱动机制的Ruby应用服务器,并借用了Mongrel的HTTP头解析器,事件机制的部分同样是利用了EventMachine。相比Mongrel来说,稳定性和兼容性略差。例如,我在CentOS 3.2的平台上编译后启动便崩溃。
又一个高性能的Ruby应用服务器,有多种工作模式,可以使用事件驱动机制,也可以使用线程模式。据说线程模式服务Merb(另一个Ruby的Web应用框架)可以达到更好的性能。和Thin一样,由于刚出现不久,还不是非常稳定。它要求Glibc 2以上版本,所以老版本的Linux无法使用,另外我在自己的Ubuntu 8.04上编译的版本在运行中无法正常接受链接,所以在本文中没有涉及到Ebb的测试。
性能测试
为了了解各种前、后端程序搭配的方式各自的性能如何,必须做大量的测试。下面我将我为公司做的这个项目所进行的一系列测试的结果展示出来,并做简单的分析。
我利用了Apache Benchmark(ab),对服务器端压力最大的身份验证部分进行压力测试。
注意:这些测试都相对比较简单和宽松,很多因素、细节没有考虑进去,只是作为一个参考。而且,对于不同的Rails应用、应用中的不同部分,都应该做独立的测试,来找到最合适的部署方法。
后端的测试 首先,我们先测试我们所使用的后端在同一台机器上的性能,由于前端通常通过内部环路或UNIX套接字与后端通讯,所以我没有从另外一台机器上进行测试。由于ab不能直接测试FastCGI,为了能了解FastCGI的性能,我通过Nginx来与FastCGI通讯,分别测试TCP和Unix套接字的性能,将这个测试结果做个参考。
测试机器为ThinkPad T43,Intel Pentium M 1.86G,1.5G RAM,系统为Ubuntu 8.04,内核版本为2.6.24-16。
被测试的对象的版本为:
- Mongrel 1.1.3,以及Evented Mongrel
- Thin 0.8.1(EventMachine 0.10.0)
- fcgi 0.8.7(Nginx 0.6.29)
以上全部使用默认配置。测试方法是从1开始,以10为步长,到500的数值,作为并发链接数,每次测试1000个请求,得到的ab的报告中取每秒的请求数作为测试的结果。
由于Ebb没有能在我的系统上成功运行起来,所以尚未得到它的数据。其中Thin还支持KeepAlive,所以单独进行了测试,由于这个服务器的应用主要是动态内容,所以后面的测试都不测KeepAlive。
测试结果如下,左边的图是点和线,为了不让画面太乱,能清晰地了解的性能情况,我取了B样条,如右图:
我们从图上,在结合一些现有的知识,可以印证一些概念:
测试的前半部分FastCGI比HTTP快的原因是:
- 由于FastCGI是二进制协议,避免了HTTP协议复杂的格式解析、生成的消耗——这部分内容通常由更高效的前端服务器来完成。
- FastCGI与前端服务器之间建立的是持久链接,避免了大量的打开关闭套接字的操作。
我们也看到了起初支持KeepAlive的Thin处理请求的速度也很快,同样应该是得益于持久链接,减少了打开关闭套接字的操作而造成的。
两个FastCGI的测试,虽然TCP套接字的额外开销要比UNIX套接字高一点,但基本是接近的,因为这两者性能的差异与Rails应用本身的处理速度相比是很微小的。所以FastCGI无论是走TCP还是走Unix套接字性能都是接近的。
然而,当FastCGI接受的并发链接数量不断上升时,请求的处理速度不断降低,这是因为FastCGI的处理请求方式是阻塞的,每次只处理一个请求(可以从fcgi包中的代码中看出来),随着并发链接数量上升,维持链接的开销越来越大。同样的情况也发生在使用了KeepAlive的Thin中。
测试中,Mongrel的响应速度非常稳定。虽然性能在前250并发量的测试中占下风,但是随着并发链接数的上升,它利用线程的好处逐渐显现出来。Thin虽然使用了单线程,由于是基于事件驱动,与Mongrel性能相差不多,但稳定性则低了。
Evented Mongrel的性能令人印象深刻,在后半部的测试中占据了上风。同样使用了EventMachine的Thin,性能却不如它,我觉得可能在于:一、Mongrel不支持KeepAlive,Thin支持,所以需要作额外的考虑;二、可能是Mongrel的HTTP头解析器性能更好。关于第一个因素,我将最大持久链接数设为了0,最后的测试结果是比Mongrel还要低。至于进一步研究为什么,就不在本文讨论了。
后端的问题
在前面的测试报告中,我们似乎看不出什么问题,好像即使处理速度不够,多开几个进程就可以了。这是因为测试是在比较理想的环境下进行的,而实际的生产环境情况要复杂得多。虽然Mongrel在此次测试的结果中显示了很好的稳定性,但是这并不能表示Mongrel就可以在生产环境中同样保持很好的稳定性。
原因在于Ruby的线程机制。但首先这里要强调的是,虽然Ruby的虚拟机有缺陷,线程是伪线程,线程性能较差,但这并不妨碍Ruby可以做一些同步或异步的工作(可以参考Erlang)。问题的关键在于Rails本身不是线程安全的,如果查看Mongrel的代码则会发现,Mongrel在调用Rails的分发器之前就加了锁,直到Rails处理完这个请求。请参考/var/lib/gems/1.8/gems/mongrel-1.1.4/lib/mongrel/rails.rb第74行(不同的系统上的目录有所不同,不同版本的mongrel,代码出现的位置也可能不同)如下:
@guard.synchronize {
@active_request_path = request.params[Mongrel::Const::PATH_INFO]
Dispatcher.dispatch(cgi,
ActionController::CgiRequest::DEFAULT_SESSION_OPTIONS,
response.body)
@active_request_path = nil
}
我们知道,对于锁的粒度一般是越小越好的,而这里的锁就这是造成问题的关键原因。
假设一个Mongrel当前的请求被阻塞在Rails的代码中(比如一个较长的查询),后续的请求就会被阻塞,假如阻塞的时间足够长,导致队列中请求满了,那么接下来就是出现大量时间花费在上下文切换和锁的争用上。
这就是为什么Rails应该以进程方式来运行的原因。所以之后很多人致力于开发单线程、非阻塞IO的方式来处理请求,这样做的好处是可以减少对连接的创建、关闭的等待时间,以及省去对锁的操作——锁操作是非常昂贵的。但它并不能解决Rails应用程序中被阻塞时的并发问题。同样地,FastCGI也无法解决这个问题。
而新的Ruby框架如Merb,则实现了线程安全,解决了这个问题,因此可以利用线程的方式来提高并发性。Ebb也宣称其线程模式的运行方式在运行Merb可以承受更大的压力。
为了解决这个我问题,我们要做的就是使用多个进程来进行服务,并限制从前端到后端的链接数。
而使用进程方式的问题就在于,进程之间不能共享信息,进程比线程占用更多的资源。我给公司写的程序在启动完毕Mongrel之后,单个进程占用内存为34M,随着访问量的不断增加,内存占用也会逐渐增长,如果遇到大量并发请求,内存会增长地更快。
前端的问题 前面列举的各种前端,除了Swiftiply因为是专门为Ruby设计的,其他的程序都十分通用,网上有非常多的比较,在此我们直接跳过对于前端的测试,直接讨论对于前端的问题。
Apache
Apache的问题前面提到过,Apache占用资源非常多,在Prefork方式下,单个进程占用内存在5至10M,而占用的VMSize则非常巨大,随着服务的连接数增长,实际内存占用空间可以很容易达到内存极限,而VMSize可以达到十几倍于实际内存的数量。虽然Apache和Linux的稳定性让它和系统不至于崩溃,但这确实是很可怕和危险的数字。相对而言,Lighttpd、Nginx等则每个进程只占用1到2兆内存,便可以提供于与Apache相匹配的能力。
而前面也提到了,Rails也最好使用进程方式来运行,Rails占用内存更加巨大,加上为了给进程运行中一些缓冲的空间,一般一台1G内存的VPS建议最多只开10个Mongrel进程,也就只能同时服务10个链接。而如果Apache也与Rails争内存的话,便会使原本就紧张的内存空间更紧张,接着开始使用很多交换分区,CPU便把大量时间花费在内存交换上。所以,除非使用Passenger方式部署Rails应用和在Windows平台下部署,其他情况下推荐考虑别的部署方式。
如果不得不用Apache+Mongrel方式,也不用担心,因为Apache的负载均衡非常强大,不仅支持不同的后端,还实现了链接池的概念,通过smax和max两个水平线来控制到后端的数量,具体可以查看Apache的ProxyPass指令的解释。如下图:
1<=min<=smax<=max<=系统限制在1到min之间是与后端创建的最少的连接数,一般是持久连接,min到smax之间是根据请求数量创建的动态链接的数量,smax到max之间的连接被放入连接池中,被给定一个生存时间ttl,大于max数量的链接将等待timeout时间。其中在Prefork模式下系统限制始终为1,Worker方式下为每个进程的线程数。
有了这些参数,使用Apache+Mongrel的部署方式我们便可以控制链接到Mongrel的链接数。
而且Apache也支持到后端服务器的持久链接,即KeepAlive
Lighttpd
如果采用尚未发布的Lighttpd 1.5,那么基本上可以说是没有什么问题,不仅占用资源少,功能也十分齐全,几乎无可挑剔。即可以支持HTTP后端的负载均衡,也支持FastCGI后端,同时还能限制到后端的链接数,并且可以支持不同的负载均衡算法。
虽然Lighttpd1.5也实现了链接池,但他不像Apache实现了两层的水平线,他只有一个最大链接池尺寸的参数来控制到后端的链接的数量,而没有设计等候池,所以超时时间不容易设置,在后面的测试中会显示出来。
Nginx
Nginx在HTTP分发上性能非常好,但不支持链接数的限制,同时只实现了round-robin算法,而且不支持FastCGI后端的分发。
HAproxy
HAproxy作为一个负载均衡反向代理而言,功能十分强大,他和Apache一样,实现了对后端的两层的连接池,请求的控制也能好,同时占用资源也十分少。由于HAproxy不能服务静态页面,所以我们通常需要将HAproxy和其他几个软件搭配使用,或者在系统的架构上进行一些别的处理。
Swiftiply
Swiftiply用Ruby写成,即便使用了一些C扩展,性能到底如何还是值得怀疑。Swiftiply不仅能实现分发,还能实现虚拟主机的功能来绑定不同域名。但其工作机制比较特殊,是让后端的进程主动链接到它,这样可以非常方便地增加进程。
前后端搭配的测试 各种前端的,我在这里要测试的性能主要是对于动态请求的响应速度,所以本案中的某些配置既没有考虑使用Rewrite或其他方式对静态文件进行单独处理(除了Passenger和Swiftiply默认配置便实现了这个功能),也不考虑测试到前端的KeepAlive请求。主要测试以下的组合:
- Apache + Passenger
- Nginx + Mongrel
- Nginx + Evented Mongrel
- Nginx + Thin
- Swiftiply + Swiftiplied Mongrel
- Swiftiply + Thin
- HAproxy + Mongrel
- HAproxy + Thin
- Lighttpd + Mongrel
- Lighttpd + Thin
- Lighttpd + FastCGI/Socket
- Lighttpd + FastCGI/TCP
做服务器的被测试机器为ThinkPad T43,Intel Pentium M 1.86G,1.5G RAM,系统为Ubuntu 8.04。发送请求的是无线局域网中的另外一台笔记本,运行Vista。两台机器通过TP-Link WR340G+ 801.11g 54MB的无线局域网相连。
前端和后端处于同一台机器上,所有的后端都设为10个进程,绑定于30000-30009端口,Passenger设置为最大生成10个进程,Swiftiply则是绑定于4000端口监听。FastCGI的socket路径为/tmp/rails[0-9].sock。
Apache的配置
Apache版本为2.2.8,编译配置选项如下:
CFLAGS="-march=pentium4 -O3 -pipe -fomit-frame-pointer" ./configure --prefix=/opt/apache2 --disable-authn-file --disable-authn-default --disable-authz-host --disable-authz-groupfile --disable-authz-user --disable-authz-default --disable-auth-basic --disable-include --disable-filter --disable-charset-lite --disable-log-config --disable-env --disable-setenvif --disable-mime --disable-status --disable-autoindex --disable-asis --disable-cgid --disable-cgi --disable-negotiation --disable-dir --disable-actions --disable-userdir --disable-alias --enable-suexec --enable-http --enable-suexec --enable-proxy --enable-proxy-http --enable-proxy-balancer --enable-static-support --enable-static-htpasswd --enable-static-htdigest --enable-static-rotatelogs --enable-static-logresolve --enable-static-htdbm --enable-static-ab --enable-static-checkgid --with-mpm=prefork这个配置尽量减少了Apache所加载的模块,仅启用和测试相关的以提升Apache的性能。另外,这种配置下必须删除rails应用的public目录下默认的.htaccess文件,否则无法使Passenger成功处理静态文件。
Passenger推荐使用Apache的Prefork工作方式,但为了做一个对比,我还会给出Worker方式的Apache配合Passenger的性能比较。
Apache的配置文件httpd.conf为:
ServerRoot "/opt/apache2"
Listen 8080
<IfModule !mpm_netware_module>
<IfModule !mpm_winnt_module>
User shiningray
Group shiningray
</IfModule>
</IfModule>
<IfModule !mpm_netware_module>
PidFile "logs/httpd.pid"
</IfModule>
<IfModule !mpm_winnt_module>
<IfModule !mpm_netware_module>
LockFile "logs/accept.lock"
</IfModule>
</IfModule>
<IfModule mpm_worker_module>
ThreadLimit 20000
ServerLimit 32
StartServers 2
MaxClients 8192
MinSpareThreads 64
MaxSpareThreads 1024
ThreadsPerChild 256
MaxRequestsPerChild 0
</IfModule>
<IfModule mpm_prefork_module>
ServerLimit 1024
StartServers 5
MinSpareServers 5
MaxSpareServers 10
MaxClients 1024
MaxRequestsPerChild 0
</IfModule>
ServerAdmin admin@shiningray.cn
ServerName 127.0.0.1:8080
DocumentRoot "/var/www/"
<IfModule dir_module>
DirectoryIndex index.html
</IfModule>
ErrorLog "logs/error_log"
KeepAlive off
MaxKeepAliveRequests 1024
NameVirtualHost *:8080
LoadModule passenger_module "/var/lib/gems/1.8/gems/passenger-1.0.1/ext/apache2/mod_passenger.so"
RailsSpawnServer /var/lib/gems/1.8/bin/passenger-spawn-server
RailsAutoDetect off
<VirtualHost *:8080>
ServerName localhost
DocumentRoot /home/shiningray/NetBeansProjects/botadmin/public
RailsBaseURI /
RailsEnv "production"
RailsMaxPoolSize 10
</VirtualHost>
Nginx的配置
Nginx 0.6.29,编译配置选项如下:
./configure --prefix=/opt/nginx --cpu-opt=pentium4
配置文件nginx.conf如下:
#user nobody;
worker_processes 1;
events {
worker_connections 1024;
use epoll;
}
http {
include mime.types;
default_type application/octet-stream;
sendfile on;
keepalive_timeout 65;
upstream mongrel {
server 127.0.0.1:30000;
server 127.0.0.1:30001;
server 127.0.0.1:30002;
server 127.0.0.1:30003;
server 127.0.0.1:30004;
server 127.0.0.1:30005;
server 127.0.0.1:30006;
server 127.0.0.1:30007;
server 127.0.0.1:30008;
server 127.0.0.1:30009;
}
server {
listen 8080;
server_name localhost;
root /home/shiningray/NetBeansProjects/botadmin/public;
location / {
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_set_header Host $http_host;
proxy_redirect false;
include fastcgi_params;
if (-f $request_filename/index.html) {
rewrite (.*) $1/index.html break;
}
if (-f $request_filename.html) {
rewrite (.*) $1.html break;
}
if (!-f $request_filename) {
#proxy_pass http://mongrel;
#fastcgi_pass unix:/tmp/rails0.sock;
fastcgi_pass 127.0.0.1:9000;
break;
}
}
error_page 500 502 503 504 /50x.html;
location = /50x.html {
root html;
}
}
}
Swiftiply的配置
我直接通过“gem i swiftiply”来安装了Swiftiply,Swiftiply的配置文件如下:
cluster_address: 0.0.0.0
cluster_port: 8080
daemonize: false
map:
- incoming:
- localhost
- 192.168.1.100
outgoing: 127.0.0.1:4000
default: true
docroot: /home/shiningray/NetBeansProjects/botadmin/public
cache_extensions:
- htm
- html
- txt
HAproxy的配置
HAproxy 1.2.17,编译选项为
make TARGET="linux26" CPU="pentium4"配置文件haproxy.cfg为:
# this config needs haproxy-1.1.28 or haproxy-1.2.1
global
log 127.0.0.1 local0
log 127.0.0.1 local1 notice
maxconn 2000
defaults
log global
mode http
option httplog
option dontlognull
retries 3
redispatch
maxconn 2000
contimeout 5000
clitimeout 50000
srvtimeout 50000
listen localhost 0.0.0.0:8080
balance roundrobin
server mongrel_30000 127.0.0.1:30000 maxconn 1
server mongrel_30001 127.0.0.1:30001 maxconn 1
server mongrel_30002 127.0.0.1:30002 maxconn 1
server mongrel_30003 127.0.0.1:30003 maxconn 1
server mongrel_30004 127.0.0.1:30004 maxconn 1
server mongrel_30005 127.0.0.1:30005 maxconn 1
server mongrel_30006 127.0.0.1:30006 maxconn 1
server mongrel_30007 127.0.0.1:30007 maxconn 1
server mongrel_30008 127.0.0.1:30008 maxconn 1
server mongrel_30009 127.0.0.1:30009 maxconn 1
maxconn参数表示限制到后端的连接数,我会在测试中调整这些参数来看对性能的影响。
Lighttpd的配置
Lighttpd版本为 1.5.0 r1922
编译配置选项为:
./configure --prefix=/opt/lighttpd配置文件lighttpd为
server.modules = (
"mod_rewrite",
"mod_access",
"mod_proxy_core",
"mod_proxy_backend_http",
"mod_proxy_backend_fastcgi")
server.document-root = "/home/shiningray/NetBeansProjects/botadmin/public"
server.bind = "0.0.0.0"
server.port = 8080
server.pid-file = "/opt/lighttpd/logs/lighttpd.pid"
server.username = "shiningray"
server.groupname = "shiningray"
server.errorlog = "/opt/lighttpd/logs/lighttpd.error.log"
url.rewrite-once = ( "^/.*$" => "/dispatch.fcgi" )
$HTTP["url"] =~ "\.fcgi$" {
proxy-core.balancer = "round-robin"
proxy-core.allow-x-sendfile = "enable"
proxy-core.protocol = "fastcgi"
proxy-core.backends = (
"unix:/tmp/rails0.sock",
"unix:/tmp/rails1.sock",
"unix:/tmp/rails2.sock",
"unix:/tmp/rails3.sock",
"unix:/tmp/rails4.sock",
"unix:/tmp/rails5.sock",
"unix:/tmp/rails6.sock",
"unix:/tmp/rails7.sock",
"unix:/tmp/rails8.sock",
"unix:/tmp/rails9.sock"
)
proxy-core.max-pool-size=64
}FastCGI的TCP方式则是将proxy-core-backends参数中的后端改为:
"127.0.0.1:30000",
"127.0.0.1:30001",
"127.0.0.1:30002",
"127.0.0.1:30003",
"127.0.0.1:30004",
"127.0.0.1:30005",
"127.0.0.1:30006",
"127.0.0.1:30007",
"127.0.0.1:30008",
"127.0.0.1:30009",Lighttpd使用HTTP后端的配置文件为:
server.modules = (
"mod_rewrite",
"mod_access",
"mod_proxy_core",
"mod_proxy_backend_http",
"mod_proxy_backend_fastcgi")
server.document-root = "/home/shiningray/NetBeansProjects/botadmin/public"
server.bind = "0.0.0.0"
server.port = 8080
server.pid-file = "/opt/lighttpd/logs/lighttpd.pid"
server.username = "shiningray"
server.groupname = "shiningray"
server.errorlog = "/opt/lighttpd/logs/lighttpd.error.log"
$HTTP["url"] =~ "^.*$" {
proxy-core.balancer = "round-robin"
proxy-core.allow-x-sendfile = "enable"
proxy-core.protocol = "http"
proxy-core.backends = (
"127.0.0.1:30000",
"127.0.0.1:30001",
"127.0.0.1:30002",
"127.0.0.1:30003",
"127.0.0.1:30004",
"127.0.0.1:30005",
"127.0.0.1:30006",
"127.0.0.1:30007",
"127.0.0.1:30008",
"127.0.0.1:30009",
)
proxy-core.max-pool-size=1
}
proxy-core.max-pool-size参数表示限制到后端的连接数,还将分别调整此参数来看对性能的影响。
测试结果 HAproxy和Lighttpd的测试需要调整很多参数,我们先看看无需调整参数的几种方案的测试结果,我同样除了原始数据的折线图,还会给出B样条的图以更清晰地看到结果:
从图上我们看到Nginx+Mongrel的方式性能很稳定,但在并发量小于150的情况下与其他方案相比还是差很多的。
Nginx+Thin/Evented Mongrel两种方式的性能则相差不大,毕竟都是使用的EventMachine。
Swiftiply的两种方式都体现出了很高的性能,尤其是Swiftiply+Swiftiplied Mongrel令人印象深刻,即使在500的并发量左右,性能依然保持稳定。
Apache+Passenger模式在低并发(<=300)的情况下效率很高,但随着并发量上升,Apache的两种工作模式本身的效率下降得就很快,Prefork模式在大于450的情况下降到了0(我认为是出现了TCP错误导致AB测试中断)。
这个测试中,除了Nginx,其他的搭配方式Swiftiply和Passenger,应该每次都只给后端一个请求,同时也是建立的持久链接。
HAproxy/Mongrel的测试结果
通过对HAproxy的maxconn参数的调整,得到了如上图的测试结果,我们不难发现在maxconn=1的情况下是效率最高的,这印证了前面对后端缺点的分析。因为在限制了每次只有一个链接之后,Mongrel的进程减少了锁和上下文切换的开销,所以得到了很稳定的性能,另外我们还可以注意到,随着maxconn越来越大,最后达到50的时候,这时候Mongrel进程中对于锁和上下文切换的开销也趋于平稳,情况变成了和Nginx/Mongrel的情况一样。
通过对比,我们可以发现,利用HAproxy限制到Mongrel的链接数为1,可以比Nginx+Mongrel的方式性能提高23%~28%,不过相比Passenger/Swiftiply方式而言,还是差一点点,但性能依然十分稳定。
这也是为什么ThoughtWorks的Rubyworks采用了HAproxy的缘故,我觉得在Rubyworks推出的当时是非常正确的选择,因为当时没有其他选择。
HAproxy/Thin的测试结果
由于Thin没有锁和上下文切换的开销,因此限制maxconn在测试结果上不如对Mongrel的效果那么明显。但基本上也可以看出来,将链接到后端的连接数限制在较小的范围内会对性能和稳定性有更好的帮助。
Lighttpd/Mongrel的测试结果
Lighttpd+Mongrel的图像与HAproxy+Mongrel的非常不同,尤其是在限制到后端的链接效果上。我在测试结果中发现了大量的504Gatewaytimeout错误返回,从而导致了响应速度的降低。随着链接限制参数的变大,504错误越来越少。我们可以发现在并发量小于100的时候,其效果还是和HAproxy类似的。当链接限制大到一定程度,其效果和Nginx+Mongrel的方式也是一样的。
Lighttpd/Thin的测试结果
Lighttpd搭配Thin的情况同样出现了Mongrel一样的情况,在max-pool-size参数为1的时候出现了大量的504错误返回,并随着这个参数的增加错误数减少。
Lighttpd+Thin的方式在不限制连接数的情况下性能要大大优于Nginx+Thin和HAproxy+Thin的方式。
Lighttpd/FastCGI的测试结果
通过Socket方式
通过TCP方式
我们可以发现Lighttpd的FastCGI方式走TCP或Socket在性能方面没有太大差别,但限制链接数容易造成Lighttpd直接给出错误返回,随着连接数限制的放宽,错误数也减少,响应速度也变得稳定。
根据前面对后端的测试,无论何种后端都应该在低链接的情况下有更好的表现,Lighttpd为何在限制了连接数之后反而有更过504错误呢,我认为是Lighttpd未实现像Apache和HAproxy的双重链接池的功能,同时Lighttpd的默认的超时时间又只有10秒钟。在Apache和HAproxy的情况中,当链接未进入某个后端服务器的等待队列时,会等待Timeout时间,而进入了后端等待队列之后会重新等待TTL的时间,这样就避免了快达到Timeout的时候进入等待队列没多久就被放弃的情况。当然Apache和HAproxy的Timeout和TTL参数也需要根据系统的性能和要求小心调整。而对于Lighttpd则可以考虑适当增大Timeout时间。
分析和小结
我先来将本案中的各种部署方式的性能排个名次,以下是后各种方案在并发量>=10的情况下的平均值(去掉出现0值的情况):
前端 |
后端 |
平均每秒响应数 |
最大链接限制 |
Lighttpd |
FastCGI/TCP |
215.33 |
64 |
Lighttpd |
FastCGI/Socket |
214.65 |
64 |
Lighttpd |
Thin |
196.16 |
64 |
Swiftiply |
Swiftiplied Mongrel |
191.33 |
N/A |
HAproxy |
Thin |
188.73 |
10 |
Swiftiply |
Thin(Swiftiplied) |
178.96 |
N/A |
Apache2.2/Prefork |
Passenger |
173.02 |
N/A |
HAproxy |
Mongrel |
170.4 |
1 |
Apache2.2/Worker |
Passenger |
163.9 |
N/A |
Lighttpd |
Mongrel |
149.85 |
64 |
Nginx |
Evented Mongrel |
149.78 |
N/A |
Nginx |
Thin |
143.88 |
N/A |
Nginx |
Mongrel |
138.86 |
N/A |
在这个表中,Lighttpd的三种方案占据了前三位,Lighttpd+FastCGI是性能最高的部署方式。这种方式比另一种流行方案Nginx+Mongrel的方式性能提升了高达50%!
FastCGI的好处在此体现出来:
- 二进制协议,无需HTTP的解析
- 与前端可以建立持久链接
- 没有锁和上下文切换的开销
另外Lighttpd相对于Nginx的优势在于请求和响应的接收缓冲区很大,省去多次接收和发送的开销。
Lighttpd+Thin的方式的性能列第三位,这点似乎出乎意料之外,但实际上是因为Lighttpd 1.5支持对HTTP后端建立HTTP KeepAlive链接。在第一部分对后端单独的测试中,小并发下的Thin的KeepAlive测试性能并不比FastCGI差,同时Thin实现了非阻塞IO,而FastCGI则是阻塞式的。相反,HAproxy和Nginx则都不支持HTTP KeepAlive。
而Swiftiply的方式也显示出了强劲的性能,应该是得益于它的“让后端主动连接到Swiftiply”的这种特殊的结构。
当前备受关注的Passenger的部署方式在本案中并没有显示出特别的性能上的优势,不过如果将并发链接数放在300以内,则Apache2.2/Prefork + Passenger的部署方式的平均每秒响应数上升为204.03,这样看来,倘若为Apache进行一些优化配置,依然不失为一种高效的部署方案。而同时Passenger又是最容易配置的一种方案,能达到这种效果已经非常令人满意。
HAproxy + Mongrel并限制链接数为1,则是一种稳定、保守的部署方式,虽然在这里性能不出众,但是稳定性非常好。
最后,与Nginx相关的三种方案都排在了该榜的末尾,由于Nginx的反向代理负载均衡缺少一些高级的特性以及Rails本身的特性而导致其不适合单独应用在Rails程序的部署上:
- 缺少到后台服务器端的链接数限制的能力,这导致了Mongrel在接受大量请求时将时间消耗在上下文切换和锁的争用上。
- 缺乏建立到后台服务器端的持久链接的能力,这导致了在链接的打开、建立、关闭上花费了额外的开销。
延伸 Windows操作系统
由于*nix操作系统中,可以替代Apache的选择很多,而Windows下基本上只能使用Apache2.2+Mongrel的方式了,想使用Thin的朋友要记得单独安装EventMachine 0.8.1 ,目前最新的Windows安装包。
我给出一个比较合理的Apache2.2的配置,最简化的配置文件如下:
ThreadsPerChild 1024
MaxRequestsPerChild 0
ServerRoot "C:/Apache2"
Listen 80
KeepAlive off
KeepAliveTimeout 15
Timeout 30
MaxKeepAliveRequests 1024
LoadModule log_config_module modules/mod_log_config.so
LoadModule proxy_module modules/mod_proxy.so
LoadModule proxy_balancer_module modules/mod_proxy_balancer.so
LoadModule proxy_http_module modules/mod_proxy_http.so
LoadModule rewrite_module modules/mod_rewrite.so
LoadModule status_module modules/mod_status.so
ServerAdmin admin@shiningray.cn
ServerName shiningray.cn
DocumentRoot "D:/wwwroot/rails/public"
ErrorLog logs/error.log
LogLevel warn
<IfModule log_config_module>
LogFormat "%h %l %u %t \"%r\" %>s %b \"%{Referer}i\" \"%{User-Agent}i\"" combined
LogFormat "%h %l %u %t \"%r\" %>s %b" common
<IfModule logio_module>
LogFormat "%h %l %u %t \"%r\" %>s %b \"%{Referer}i\" \"%{User-Agent}i\" %I %O" combinedio
</IfModule>
CustomLog logs/access.log common
</IfModule>
<Proxy balancer://mongrels>
BalancerMember http://127.0.0.1:30000 max=10 smax=1
BalancerMember http://127.0.0.1:30001 max=10 smax=1
#在这里放更多的后端服务器
</Proxy>
ProxyRequests off
RewriteEngine On
RewriteCond %{REQUEST_FILENAME} !-d
RewriteCond %{REQUEST_FILENAME} !-f
RewriteRule ^/(.*)$ balancer://mongrels%{REQUEST_URI} [QSA,P,L]其中,smax=1表示限制到后端的最大链接数为1,max=10表示等待队列为10。如果后端是Mongrel,这样就可以解决Mongrel接受大量请求对锁和上下文切换的消耗。
而如果后端采用了Thin,根据前面的测试结果,应该打开KeepAlive功能,即在每个BalancerMember后面加上keepalive=on,并且适当提升max和smax的值,以充分利用Thin的特性。关于这些参数可以参考ProxyPass指令的解释。
在本文中就不对该平台下的部署方式进行性能测试了,这种方案通常是在对遗留项目的迁移中才会出现,建议Rails应用还是最终应该部署在*nix的平台上以达到最好的性能。
其他有意思的部署方式
当然,除了前面的几种方案之外,我们可以还可以根据实际情况采用不同的组合来实现功能,下面我给出几个复杂一些的方案,希望能抛砖引玉。
一、虽然Nginx不能限制到对后端的链接,而HAproxy又不支持静态文件,那么二者结合会怎样呢?我在公司的一台CentOS 3的服务器上便使用的是Nginx+HAproxy+Mongrel的方式。由于这个部署方式是对HAproxy+Mongrel在外面套一层,性能基本基本接近没有太大差别,便不放测试测试数据了。
二、之前提到了Nginx不支持对FastCGI的后端进行分发,似乎有些遗憾,但我们也提到HAproxy也可以做TCP转发的负载均衡器,利用Nginx+HAproxy来对FastCGI的后端做请求分发效果会如何呢?
于是我做了个测试:
HAproxy的配置改为:
# this config needs haproxy-1.1.28 or haproxy-1.2.1
global
log 127.0.0.1 local0
log 127.0.0.1 local1 notice
#log loghost local0 info
maxconn 2000
#chroot /usr/share/haproxy
#uid 99
#gid 99
#daemon
#debug
#quiet
defaults
log global
mode http
option httplog
option dontlognull
retries 3
redispatch
maxconn 2000
contimeout 5000
clitimeout 50000
srvtimeout 50000
listen test 0.0.0.0:9000
mode tcp
balance roundrobin
server mongrel_30000 127.0.0.1:30000 maxconn 8
server mongrel_30001 127.0.0.1:30001 maxconn 8
server mongrel_30002 127.0.0.1:30002 maxconn 8
server mongrel_30003 127.0.0.1:30003 maxconn 8
server mongrel_30004 127.0.0.1:30004 maxconn 8
server mongrel_30005 127.0.0.1:30005 maxconn 8
server mongrel_30006 127.0.0.1:30006 maxconn 8
server mongrel_30007 127.0.0.1:30007 maxconn 8
server mongrel_30008 127.0.0.1:30008 maxconn 8
server mongrel_30009 127.0.0.1:30009 maxconn 8
Nginx的配置改为:
worker_processes 1;
events {
worker_connections 1024;
use epoll;
}
http {
include mime.types;
default_type application/octet-stream;
sendfile on;
#tcp_nopush on;
#keepalive_timeout 0;
keepalive_timeout 65;
server {
listen 8080;
server_name localhost;
root /home/shiningray/NetBeansProjects/botadmin/public;
location / {
include fastcgi_params;
if (-f $request_filename/index.html) {
rewrite (.*) $1/index.html break;
}
if (-f $request_filename.html) {
rewrite (.*) $1.html break;
}
if (!-f $request_filename) {
fastcgi_pass 127.0.0.1:9000;
break;
}
}
error_page 500 502 503 504 /50x.html;
location = /50x.html {
root html;
}
}
}据我测试,此部署方案的性能也可以与Lighttpd的几种一较高下,但毕竟因为多了一层,还是略占下风。
这两种方案部署上更为繁琐,小型应用上其实只需要考虑前面的两层方案便可,在此不做详细的评测了。
其它问题除了对部属方案的性能考虑之外,我们还需要考虑一些别的问题。
Lighttpd虽然方案性能最高,但是有个不便之处,Lighttpd的mod_rewrite功能不如Apache和Nginx强大,他不能判断请求的文件是否存在,如果不存在便向后端发送,这对于小型网站并不方便,必须根据情况配置复杂的rewrite规则。值得一提的是,Lighttpd可以使用Lua脚本进行更高级的rewrite。该功能的ticket被关闭又被打开:http://trac.lighttpd.net/trac/ticket/985 -Shiningray 5/6/08 7:22 PM
Mongrel后端的启动是通过mongrel_cluster启动的,我们只要安装这个gem便可,如果要添加为自启动脚本可以利用mongrel_cluster自带的init脚本。但是这些脚本不能实现当mongrel进程崩溃、退出后的重新启动,同时,如果配置不恰当,当mongrel进程被强制杀死或系统宕机之后,mongrel遗留的pid文件会导致无法启动mongrel进程,必须先删除这些文件(Mongrel_cluster提供了--clean选项来事先清除无用pid)。FastCGI进程也有同样的问题。
有一个非常好的进程监控程序称之为Monit。Rubyworks也搭配了Monit来监控Mongrel的进程,而不使用Mongrel_cluster。并且monit可以限制mongrel的进程的内存用量,防止出现内存溢出的问题等。同时monit也可以监控其他的进程如我们的前端。
总结 Rails的部署方式的核心问题就在于解决一、Rails本身是非线程安全,二、Ruby的线程性能差这两个问题上。本文列举了十余种常见的Rails部署方案,其中基于Lighttpd 1.5的几种解决方案都从原理上很好地解决了Rails部署的两大问题,而且有着不俗的性能。由于本案中的测试仅建立在我为公司的服务器端所做测试的基础上,并且设计、执行得不够严谨,仅仅具有一定的参考意义。另外限于我的能力和精力问题,通过JRuby借助JavaEE平台的部署方案未能进行评测,我相信也是很有潜力的方案。
不同的部署方式都有各自的优势,大家需要根据各自所开发的应用的特点和服务器特点来选择恰当的部署方式,例如跨平台性、易用性。
这些方案虽然是针对Ruby on Rails应用的,但是其中的原理是通用的,也希望能对大家在其他应用的部署和架构上有些启发。
仅作为自己的一个学习参考,如有侵犯作者权限,请通知删除!!
相关推荐
文档支持目录章节跳转同时还支持阅读器左侧大纲显示和章节快速定位,文档内容完整、条理清晰。文档内所有文字、图表、函数、目录等元素均显示正常,无任何异常情况,敬请您放心查阅与使用。文档仅供学习参考,请勿用作商业用途。 编译闪电般迅速,并发性能卓越,部署轻松简单!Go 语言以极简设计理念和出色工程性能,成为云原生时代的首选编程语言。从 Docker 到 Kubernetes,全球顶尖科技企业都在采用 Go。点击了解 Go 语言的核心优势、实战窍门和未来走向,开启高效编程的全新体验!
内容概要:本文详细介绍了基于MATLAB/Simulink搭建的两端MMC-HVDC输电模型,重点讨论了模型预测控制(MPC)和电容均压策略的应用。模型采用C语言编写控制器,利用MPC实现对未来系统的预测并优化控制输入,确保系统性能最优。同时,通过电容均压策略维持电容电压的均衡,防止系统运行不稳定。文中展示了模型的具体参数设置和验证结果,证明了该模型在不同电压等级下的有效性和适应性。 适合人群:从事电力系统研究和技术开发的专业人士,尤其是对高压直流输电技术和MATLAB建模感兴趣的工程师。 使用场景及目标:适用于需要深入理解和研究MMC-HVDC输电系统的科研机构和企业。目标是通过该模型提高对高压直流输电系统的认识,优化控制系统设计,提升系统稳定性和效率。 其他说明:文章提供了详细的代码片段和仿真技巧,帮助读者更好地理解和实现相关技术。强调了在实际应用中需要注意的关键点,如预测步长与开关频率的匹配、仿真步长的调整等。
内容概要:本文详细介绍了基于西门子PLC的小区换热站自动控制系统的设计与实现。系统主要实现了流量和温度的自动控制与检测,通过高精度传感器和PLC的协同工作,确保热交换过程的最佳状态。文中涵盖了组态程序、图纸及IO口分配的具体内容,提供了详细的代码示例和技术细节。此外,还讨论了PID控制、防振荡逻辑、组态画面设计、IO分配规范等方面的技术要点,强调了系统的稳定性和响应速度。 适合人群:从事自动化控制领域的工程师和技术人员,尤其是熟悉PLC编程和换热站控制系统的专业人士。 使用场景及目标:适用于新建或改造小区换热站项目的规划与实施,旨在提高供热系统的稳定性和智能化水平,确保居民在寒冷季节享受到舒适的室内温度。 其他说明:文章不仅提供了理论指导,还包括了许多实际操作经验和技巧,如防抖动逻辑、信号抗干扰措施、组态画面优化等,有助于解决现场调试过程中可能遇到的问题。
仿真环境:Proteus8.11 SP0 编译环境:KEIL4 包含内容:Proteus仿真文件 + Keil4工程源码 功能细节:采用两个MCU的设计,主MCU为电梯本体控制器,从MCU为模拟各楼层的控制器,使用4*4按键模拟电梯的上下行以及出入操作
内容概要:本文详细介绍了光伏并网系统的关键组件及其控制策略,特别是在Simulink环境下搭建光储系统模型的经验。主要内容涵盖变步长扰动观察法MPPT算法、电网电压定向控制(VOC)、蓄电池双闭环控制等核心技术。文中不仅提供了具体的MATLAB/Simulink代码实现,还分享了许多实际调试过程中遇到的问题及解决方案。例如,在光照突变情况下,MPPT算法能够迅速响应并在短时间内稳定输出;电网电压定向控制通过精确的锁相环参数设置确保了频率跟踪误差在可控范围内;而蓄电池的双闭环控制则有效避免了充放电时的电压波动。 适合人群:对光伏发电系统感兴趣的工程技术人员,尤其是有一定Simulink建模基础的研究人员。 使用场景及目标:适用于希望深入了解光伏并网系统内部工作机制的技术人员,帮助他们掌握如何利用Simulink进行高效建模和优化。目标是在实际应用中提高系统的稳定性和效率。 其他说明:文章强调了理论与实践相结合的重要性,提醒读者在实际操作中需要注意的一些细节问题,如硬件死区补偿、多云天气下的爬坡抑制策略等。同时,作者还分享了一些实用的小技巧,比如通过调整PI参数来改善波形质量等。
高校就业信息平台的设计与实现——以仲恺农业工程学院为例.pdf
内容概要:本文详细解析了中兴ZXD2400电源电路图4.1版本,涵盖输入、转换和输出三大部分。输入部分介绍了LC滤波电路的作用及其参数计算方法;转换部分围绕UC3842芯片的工作原理展开,展示了其通过比较反馈电压和参考电压来实现电压稳定转换的功能;输出部分讨论了线性稳压芯片的应用。此外,还深入探讨了PWM控制、MOSFET驱动、补偿网络、电压采样、保护电路等关键设计细节,并提供了多个Python代码片段用于参数计算和电路特性模拟。文章不仅帮助读者理解电源电路的工作机制,还分享了许多实际操作经验和注意事项。 适合人群:从事电源设计的技术人员、电子工程师、DIY爱好者。 使用场景及目标:适用于希望深入了解电源电路设计原理和技术细节的人群,旨在提高读者对电源系统的理解和实际应用能力。 其他说明:文中提供的Python代码片段有助于快速定位关键芯片位置、计算重要参数,便于理论联系实际。同时提醒读者关注版本变更说明,避免因使用旧版图纸而导致的问题。
幕墙玻璃协同下索网结构自振特性分析.pdf
数据集-目标检测系列- 蜥蜴 检测数据集 lizard >> DataBall 标注文件格式:xml 项目地址:https://github.com/XIAN-HHappy/ultralytics-yolo-webui 通过webui 方式对ultralytics 的 detect 检测任务 进行: 1)数据预处理, 2)模型训练, 3)模型推理。 脚本运行方式: * 运行脚本: python webui_det.py or run_det.bat 根据readme.md步骤进行操作。
文档支持目录章节跳转同时还支持阅读器左侧大纲显示和章节快速定位,文档内容完整、条理清晰。文档内所有文字、图表、函数、目录等元素均显示正常,无任何异常情况,敬请您放心查阅与使用。文档仅供学习参考,请勿用作商业用途。 Rust 以内存安全、零成本抽象和并发高效的特性,重塑编程体验。无需垃圾回收,却能通过所有权与借用检查机制杜绝空指针、数据竞争等隐患。从底层系统开发到 Web 服务构建,从物联网设备到高性能区块链,它凭借出色的性能和可靠性,成为开发者的全能利器。拥抱 Rust,解锁高效、安全编程新境界!
文档支持目录章节跳转同时还支持阅读器左侧大纲显示和章节快速定位,文档内容完整、条理清晰。文档内所有文字、图表、函数、目录等元素均显示正常,无任何异常情况,敬请您放心查阅与使用。文档仅供学习参考,请勿用作商业用途。 编译闪电般迅速,并发性能卓越,部署轻松简单!Go 语言以极简设计理念和出色工程性能,成为云原生时代的首选编程语言。从 Docker 到 Kubernetes,全球顶尖科技企业都在采用 Go。点击了解 Go 语言的核心优势、实战窍门和未来走向,开启高效编程的全新体验!
内容概要:本文详细介绍了如何利用MobileNet和TensorFlow开发一个高效的移动端垃圾分类系统。首先,作者使用Kaggle上的垃圾分类数据集进行预处理,采用ImageDataGenerator进行数据增强,确保模型能够应对不同拍摄条件下的垃圾图像。接着,通过迁移学习方法,使用预训练的MobileNetV2作为基础模型,并对其顶部结构进行了修改,以适配四分类任务。为了防止过拟合,加入了GlobalAveragePooling2D和Dropout层。训练过程中采用了Adam优化器和余弦退火学习率调度策略,同时使用ReduceLROnPlateau回调机制动态调整学习率。最后,将模型转换为TFLite格式以便在移动设备上高效运行,并解决了RGB通道顺序的问题,使得模型能够在红米Note等低端设备上流畅运行,达到60fps的速度,内存占用仅200MB。 适合人群:对机器学习、深度学习感兴趣的开发者,尤其是希望了解如何在移动端部署图像分类模型的研究人员和技术爱好者。 使用场景及目标:适用于需要快速、准确地进行垃圾分类的应用场景,如智能垃圾桶、环保应用等。目标是提高垃圾分类效率,减少人为错误,推动智能化垃圾分类系统的普及。 其他说明:文中提到的一些优化技巧,如数据增强、模型结构调整以及学习率调度等,对于提升模型性能至关重要。此外,针对实际部署中遇到的问题,如RGB通道顺序不一致等,提供了具体的解决方案。
内容概要:本文详细介绍了直流无感无刷电机的方波控制方法及其初始位置检测方案。主要内容涵盖ADC和比较器结合用于初始位置检测的技术细节,包括代码示例;多种控制方式如开环控制、速度环控制和双闭环控制的具体实现;通信部分采用串口进行数据交换;多重保护机制确保系统的安全可靠;以及启动方式的选择和优化。此外,还讨论了一些硬件特色,如休眠电路和防打火电路的设计。 适合人群:从事电机控制系统设计的研发工程师和技术爱好者,尤其是对直流无感无刷电机有研究兴趣的专业人士。 使用场景及目标:适用于需要深入了解直流无感无刷电机控制原理的研究人员,帮助他们掌握具体的实现技术和优化技巧,从而应用于实际项目中,提高电机控制系统的性能和可靠性。 其他说明:文中提供了大量实用的代码片段和实践经验,强调了实际应用中的注意事项和调试技巧,对于解决常见问题非常有帮助。
基于TypeScript+three.js 实现的三维地质模型剖切,以及剖面的补充+源码+项目文档,适合毕业设计、课程设计、项目开发。项目源码已经过严格测试,可以放心参考并在此基础上延申使用,详情见md文档 基于TypeScript+three.js 实现的三维地质模型剖切,以及剖面的补充+源码+项目文档,适合毕业设计、课程设计、项目开发。项目源码已经过严格测试,可以放心参考并在此基础上延申使用,详情见md文档~ 基于TypeScript+three.js 实现的三维地质模型剖切,以及剖面的补充+源码+项目文档,适合毕业设计、课程设计、项目开发。项目源码已经过严格测试,可以放心参考并在此基础上延申使用,详情见md文档 基于TypeScript+three.js 实现的三维地质模型剖切,以及剖面的补充+源码+项目文档,适合毕业设计、课程设计、项目开发。项目源码已经过严格测试,可以放心参考并在此基础上延申使用,详情见md文档 基于TypeScript+three.js 实现的三维地质模型剖切,以及剖面的补充+源码+项目文档,适合毕业设计、课程设计、项目开发。项目源码已经过严格测试,可以放心参考并在此基础上延申使用,详情见md文档
内容概要:本文详细介绍了基于FPGA的UART串口收发Verilog源码实现,适用于RS232和RS422协议。UART通信通过两根线(TX发送和RX接收)进行异步数据传输,每帧数据包含起始位、数据位、校验位(可选)和停止位。文中提供了完整的Verilog代码,包括模块定义、波特率发生器、发送模块、接收模块以及RS232与RS422的适配方法。代码采用了参数化设计,允许用户轻松调整波特率、数据位宽度、校验位和停止位等参数。此外,还讨论了一些优化技巧,如使用状态机设计、双倍采样抗干扰、异或运算生成校验位等。 适合人群:具备一定FPGA和Verilog编程基础的研发人员,特别是从事嵌入式系统、工业控制等领域工作的工程师。 使用场景及目标:①需要实现高效可靠的UART串口通信;②希望通过参数化设计快速适配不同通信需求;③希望了解UART通信的具体实现细节和技术优化方法。 其他说明:本文提供的代码已在Xilinx Artix-7平台上进行了实测,资源占用少,稳定性高,适用于工业控制和其他需要可靠串口通信的应用场景。
基于微信小程序的PHP商城,功能全,界面美 有商品到发货,收货的全过程截图, 有退货到审批
Delphi 12.3控件之RADStudio-12-3-29-0-55362-2017-KeyPatch.7z
内容概要:本文详细探讨了利用改进粒子群算法(MOPSO)解决分布式电源(DG)在配电网中的选址和定容问题。文中介绍了多目标优化的目标函数构建方法,如网损、投资成本和电压偏差的计算,并展示了如何通过动态惯性权重、随机扰动和拥挤度排序等手段提高算法性能。此外,文章还讨论了帕累托解集的维护和最终解的选择策略,强调了实际应用中的物理可行性和参数调优经验。 适合人群:从事电力系统规划、优化算法研究以及相关领域的工程师和技术人员。 使用场景及目标:适用于需要在配电网中合理配置分布式电源的实际工程项目,旨在降低网损、控制投资成本并维持电压稳定,从而提高电网的整体经济性和稳定性。 其他说明:文中提供了具体的代码实现和实际案例分析,帮助读者更好地理解和应用所介绍的方法。同时,作者指出,尽管算法能够提供多种平衡解,但在实际应用中还需结合具体情况进行选择。
文档支持目录章节跳转同时还支持阅读器左侧大纲显示和章节快速定位,文档内容完整、条理清晰。文档内所有文字、图表、函数、目录等元素均显示正常,无任何异常情况,敬请您放心查阅与使用。文档仅供学习参考,请勿用作商业用途。 Rust 以内存安全、零成本抽象和并发高效的特性,重塑编程体验。无需垃圾回收,却能通过所有权与借用检查机制杜绝空指针、数据竞争等隐患。从底层系统开发到 Web 服务构建,从物联网设备到高性能区块链,它凭借出色的性能和可靠性,成为开发者的全能利器。拥抱 Rust,解锁高效、安全编程新境界!