`
lzj0470
  • 浏览: 1243212 次
  • 性别: Icon_minigender_1
  • 来自: 深圳
社区版块
存档分类
最新评论

教你如何分析百度蛛蛛Baiduspider日志

    博客分类:
  • SEO
阅读更多
今天将昨日的网站日志进行下分析,很多人都不知道网站日志该如何分析,近日网站才被百度进行了收录,所以这段时间比较关注网站日志,这次主要分析下Baiduspider的抓取记录,和大家一起分享下吧!

我们注意粗体标注出来的地方

123.125.66.104 - - [23/Sep/2009:08:40:07 +0800] "GET / HTTP/1.1" 200 31909 "-" "Baiduspider+(+http://www.baidu.com/search/spider.htm) "www.west025.com  text/html "/usr/home/shijietools/htdocs/index.html"

分析:
A.123.125.66.104 这个是来源IP地址

B.[23/Sep/2009:08:40:07 +0800] 这个是访问的时间

C.GET / HTTP/1.1 get    表示请求,学过网站变成都应该知道,这种请求一般有两种:一是GET,就是平常我们打开一个URL访问的动作,二是POST,提交表单时的动作;  http/1.1  表示http协议的版本

D.200 31909  这里的200是正常返回,以下列出几种常见的返回代码以及所表示的含义

200 – 成功。 此状态代码表示 IIS 已成功处理请求。
304 – 未修改。 客户端请求的文档已在其缓存中,文档自缓存以来尚未被修改过。客户端使用文档的缓存副本,而不从服务器下载文档。
403 – 403表示没有权限,网站没有默认页会显示这个错误
404 – 未找到。 发生此错误的原因是您试图访问的文件已被移走或删除。
500 – 内部服务器错误。 很多服务器端的错误都可能导致该错误信息。
502 – 网关错误。 如果试图运行的 CGI 脚本不返回有效的 HTTP 标头集,将出现此错误信息。

E.Baiduspider+(+http://www.baidu.com/search/spider.htm)这个就是百度的蛛蛛了,新站如果看到这串,是不是很兴奋?

F."www.west025.com text/html"  前面的网址就是我们的网站域名 TEXT/HTML是文档类型

G:"/usr/home/shijietools/htdocs/index.html"这个就文件的绝对路径了

如果看懂了这些日志,那我们就知道网站优化的一些问题可以解决了,新手文章,希望多多批评和指教

附所有返回代码

200——交易成功
201——提示知道新文件的URL
202——接受和处理、但处理未完成
203——返回信息不确定或不完整
204——请求收到,但返回信息为空
205——服务器完成了请求,用户代理必须复位当前已经浏览过的文件
206——服务器已经完成了部分用户的GET请求

300——请求的资源可在多处得到
301——删除请求数据
302——在其他地址发现了请求数据
303——建议客户访问其他URL或访问方式
304——客户端已经执行了GET,但文件未变化
305——请求的资源必须从服务器指定的地址得到
306——前一版本HTTP中使用的代码,现行版本中不再使用
307——申明请求的资源临时性删除

400——错误请求,如语法错误
401——请求授权失败
402——保留有效ChargeTo头响应
403——请求不允许
404——没有发现文件、查询或URl
405——用户在Request-Line字段定义的方法不允许
406——根据用户发送的Accept拖,请求资源不可访问
407——类似401,用户必须首先在代理服务器上得到授权
408——客户端没有在用户指定的饿时间内完成请求
409——对当前资源状态,请求不能完成
410——服务器上不再有此资源且无进一步的参考地址
411——服务器拒绝用户定义的Content-Length属性请求
412——一个或多个请求头字段在当前请求中错误
413——请求的资源大于服务器允许的大小
414——请求的资源URL长于服务器允许的长度
415——请求资源不支持请求项目格式
416——请求中包含Range请求头字段,在当前请求资源范围内没有range指示值,请求也不包含If-Range请求头字段
417——服务器不满足请求Expect头字段指定的期望值,如果是代理服务器,可能是下一级服务器不能满足请求

500——服务器产生内部错误
501——服务器不支持请求的函数
502——服务器暂时不可用,有时是为了防止发生系统过载
503——服务器过载或暂停维修
504——关口过载,服务器使用另一个关口或服务来响应用户,等待时间设定值较长
505——服务器不支持或拒绝支请求头中指定的HTTP版本
分享到:
评论

相关推荐

    BaiduSpider,一个爬取百度搜索结果的爬虫.zip

    目前支持百度网页搜索,百度图片搜索,百度知道搜索,百度视频搜索,百度资讯搜索,百度文库搜索,百度经验搜索和百度百科搜索。 爬虫(Web Crawler)是一种自动化程序,用于从互联网上收集信息。其主要功能是访问...

    百度蜘蛛的代码分析与饲养技巧

    研究se爬行规律对于网站优化意义重大,特别是对百度蜘蛛Baiduspider的研究。本文解释一下百度蜘蛛爬行后返回代码代表的具体含义:

    模拟百度谷歌等蜘蛛抓取访问工具

    该工具集成了各大常见蜘蛛UA,模拟这些蜘蛛UA访问抓取网站,目前网络上很流行蜘蛛挂马,通过该工具模拟访问可以分析网站是否被挂针对搜索引擎的挂马,可以模拟蜘蛛查看源码。 用法也很简单,打开以后输入目标地址,...

    百度有价值内容 baidu SEO

    1、搜索引擎为用户展现...如果网站有新页面或页面内容有更新,百度蜘蛛却较长时间没有来过,此时可以通过抓取诊断工具邀请Baiduspider快速来抓取。 26、多域名同内容的常见问题。 ①多个域名指向同一个域名算是作弊么?

    BaiduSpider-web:百度蜘蛛网页版

    BaiduSpider网页版 此版本为Beta阶段的BaiduSpider网页版,演示: ://baidus.now.sh

    如何建设对BaiduSpider友好的站点

    站点结构 • 逻辑清晰的链 接层次结构 • PC/移动适配 • 数据主动提交 • 避免目录被黑/ 售卖 页面结构 • 不建议使用JS 加载页面内容 • 布局符合移动 友好性标准 • 索引页&&索引 ...• 死链反馈

    用php实现让页面只能被百度gogole蜘蛛访问的方法

    普通用户与搜索引擎蜘蛛爬行的区别在于发送的user agent,看网站日志文件能发现百度蜘蛛名字包含Baiduspider, 而google的则是Googlebot, 这样我们可以通过判断发送的user agent来决定要不要取消普通用户的访问,编写...

    scrapy 爬百度,bing大图

    python 通过scrapy框架,根据关键字爬取百度和bing大图 注意: 1.修改commands/crawl.py run函数为: def run(self, args, opts): if len(args) raise UsageError() # elif len(args) > 1: # raise UsageError...

    您所查看的网页不允许百度保存其快照的设置方法

    今天在百度搜索一个页面的时候,因为页面已经被删除,所以就自然而然用百度快照,打开百度快照,却显示:对不起,您所查看的网页不允许百度保存其快照,所以想到把如何设置禁止百度快照缓存的方法写下来,方法如下:...

    PHP统计nginx访问日志中的搜索引擎抓取404链接页面路径

    我在服务器上有每天切割nginx日志的习惯,所以针对每天各大搜索引擎来访,总能记录一些404页面信息,传统上我只是偶尔分析下日志,但是对于很多日志信息的朋友,人工来筛选可能不是一件容易的事情,这不我个人自己...

    Linux/Nginx如何查看搜索引擎蜘蛛爬虫的行为

    下面我们针对nginx服务器进行分析,日志文件所在目录:/usr/local/nginx/logs/access.log,access.log这个文件记录的应该是最近一天的日志情况,首先请看看日志大小,如果很大(超过50MB)建议别用这些命令分析,因为...

    利用php抓取蜘蛛爬虫痕迹的示例代码

    相信许多的站长、博主可能最关心的无非就是自己网站的收录情况,一般情况下我们可以通过查看空间服务器的日志文件来查看搜索引擎到底爬取了我们哪些个页面,不过,如果用php代码分析web日志中蜘蛛爬虫痕迹,是比较好...

    使用PHP实现蜘蛛访问日志统计

     if (strpos($useragent, ‘googlebot’)!== false){$bot = ‘Google’;} elseif (strpos($useragent,’mediapartners-google...} elseif (strpos($useragent,’baiduspider’) !== false){$bot = ‘Baidu’;} else

    阿铭IE蜘蛛模拟伪装工具.exe

    阿铭IE蜘蛛模拟伪装工具.exe 可以把IE模拟成任意蜘蛛 例如: 谷歌 GoogleBot 百度 Baiduspider 可以伪装成任意形式. 可以查看只允许蜘蛛抓去的网站内容. 适合SEO站长使用 作者QQ:57544477

    php实现屏蔽掉黑帽SEO的搜索关键字

    由于Baiduspider对每个站点的抓取额是有限定的,所以这些垃圾搜索结果页被百度收录,会导致其它有意义的页面因配额问题不被收录,同时可能因百度处理垃圾页面而影响网站正常排名。  具体的参考百度官方的页面...

    在线生成Robots.txt 的Js脚本

    内容索引:脚本资源,Ajax/JavaScript,Robots 在线生成Robots.txt 的Js脚本,能帮助新手快速正确的建立 网站的Robots.txt文件,建立一个支持Google(谷歌) 、 Baidu(百度) baiduspider 、 Sogou(搜狗) sogou spider 、...

    PHP采集相关教程之一 CURL函数库

    php function GetSources($Url,$User_Agent=”,$Referer_Url=”) //抓取某个指定的页面 { //$Url 需要抓取的页面地址 //$User_Agent 需要返回的user_agent信息 如“baiduspider”或“googlebot” $ch = curl_init();...

    baikespider:BaiKe Spider

    scrapy框架写的爬取百度百科的代码 数据库中一共有两张表 一张是实体表entity_table,一张是同名词表synonym_table,数据实体截图放在/picture文件夹下 保存的图片截图也放在/picture下 spider文件夹中的BaiDuSpider...

Global site tag (gtag.js) - Google Analytics