今天帮一个网站刚上线的客户解决一些服务器的琐碎问题,记录如下:
问题1:Server report出现很多404请求错误。如下图:
解决方案:查看详细日志,发现如下图:
这个robots.txt文件到底是什么呢?而且为什么被访问了这么多次?(见百度百科)
robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。robots.txt文件告诉蜘蛛程序在服务器上什么文件是可以被查看的。
当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。
robots.txt必须放置在一个站点的根目录下,而且文件名必须全部小写。
语法:最简单的 robots.txt 文件使用两条规则:
· User-Agent: 适用下列规则的漫游器
· Disallow: 要拦截的网页
每当用户试图访问某个不存在的URL时,服务器都会在日志中记录404错误文件(无法找到文件)。每当搜索蜘蛛来寻找并不存在的robots.txt文件时,服务器也将在日志中记录一条404错误文件,所以你应该在网站中添加一个robots.txt。
由此可见,只要在站点根目录添加一个robots文件就可以fix了。那怎么写这个文件呢?
参考这个链接
http://www.dunsh.org/2006/08/02/robotstxt/
问题2:空间商提供了一个临时域名,类似nw16XXX.chinaw3.com,通过临时域名进入系统的用户会在后续操作出现问题,因为系统的部分设置采用的正式域名www.abcd.cn。
解决方案:系统采用的asp.net,只要将通过临时域名进入的用户redirect到正式域名就可以了,在index.aspx中加入
<%
string url = Request.Url.ToString();
if(!url.Contains("abcd"))
Response.Redirect("http://www.abcd.cn/");
%>
为了防止通过正式域名进入的用户不进入死循环,加入了对当前请求url的字符串判断。只有来自临时域名的才会被重定向。
- 大小: 24 KB
- 大小: 30.7 KB
分享到:
相关推荐
robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。Robots.txt文件告诉蜘蛛程序在服务器上什么文件是可以被查看的。 当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果...
在国内,网站管理者似乎对robots.txt并没有引起多大重视,应一些朋友之请求,今天想通过这篇文章来简单谈一下robots.txt的写作
robots.txt使用方法 反爬虫 SEO.zip
robots.txt解析器_Ruby_下载.zip
搜索蜘蛛:什么是robots.txt,要怎么写?
robots.txt可以告诉搜索引擎您的网站哪些页面可以被收录,哪些页面不可以被收录,如果您不想让搜索引擎收录您网站的某些内容,请用robots.txt文件指定搜索引擎在您网站上的抓取范围。 此工具本人找了很久,源码...
一个经典的wordpress的robots.txt的写法 下载后直接复制就行了 略微调一下也行的 文件来自:www.52jiwai.com 分享时请注明来处!
搜索引擎机器人文件,上传到你网站的根目录,并改文件名为robots.txt即可..让你的网站更好的优化
robots.txt是一个纯文本文件,在这个文件中网站管理者可以声明该网站中不想被robots访问的部分,或者指定搜索引擎只收录指定的内容。 当一个搜索机器人(有的叫搜索蜘蛛)访问一个站点时,它会首先检查该站点根目录...
setUrl ( 'http://nodeguide.ru/robots.txt' , function ( parser , success ) { if ( success ) { parser . canFetch ( '*' , '/doc/dailyjs-nodepad/' , function ( access ) { if ( access ) { // parse url
robots.txt是一个纯文本文件,在这个文件中网站管理者可以声明该网站中不想被robots访问的部分,或者指定搜索引擎只收录指定的内容。 robots.txt基本介绍 robots.txt是一个纯文本文件,在这个文件中网站管理者可以...
robots写法,怎么写robots写法
Robots.io 是一个 Java 库,旨在简化网站“robots.txt”文件的解析。 如何使用 类提供了使用 robots.io 的所有功能。 例子 连接 要使用 User-Agent 字符串“test”解析 Google 的 robots.txt: RobotsParser ...
内容索引:脚本资源,Ajax/JavaScript,Robots 在线生成Robots.txt 的Js脚本,能帮助新手快速正确的建立 网站的Robots.txt文件,建立一个支持Google(谷歌) 、 Baidu(百度) baiduspider 、 Sogou(搜狗) sogou spider 、...
:robot: robots.txt即服务 :robot: :construction: 开发中的项目 通过API访问权限的分布式robots.txt解析器和规则检查器。 如果您正在使用分布式Web爬网程序,并且想要礼貌行事,那么您会发现此项目非常有用。 另外...
robotstxt-webpack-plugin 使用webpack生成robots.txt 。 为什么您需要 ? 用于软件包的Webpack插件。入门首先,您需要安装robotstxt-webpack-plugin : npm install --save-dev robotstxt-webpack-plugin webpack....
WordPress博客的robots.txt文件写法得根据自身网站情况来定,当然我们可以借鉴一些知名网站的robots.txt写法,比如可以看wordpress教程网的robots.txt,可以通过访问:http://www.shouce.ren/robots.txt 获取 ...
Robots.io是一个Java库,旨在简化网站“ robots.txt”文件的解析。 RobotsParser类提供了使用robots.io的所有功能。 传递给RobotsParser的域被规范化为始终以正斜杠结尾。 不允许的路径绝不会以正斜杠开头。 这样...
一个经典的zencart的robots.txt的写法 下载后直接复制就行了 略微调一下也行的
主要为大家介绍了帝国CMS中robots.txt文件用法,详细分析了robots协议的原理与使用技巧,并实例讲述了帝国CMS中robots.txt文件的使用方法,需要的朋友可以参考下