·思路简介:
时间是关键, 如果能抓准服务器的时间, 可以说胜算将得到很大的提高, 如何抓取服务器时间? 我们知道在通过HTTP对服务器发起请求时, 在响应的服务器头文件中包含所请求网页的相关条件信息, 其中有个Date头域, 里面记录着相关的时间, 我们就通过这个来获取cnblogs的服务器时间。
#!/usr/bin/python #------------------------------------------------------------------------------- # Name: GrabBook.py # Purpose: # # Author: Mr.Wid # # Created: 22-10-2012 # Copyright: (c) Mr.Wid 2012 # Licence: GNU GPL #------------------------------------------------------------------------------- import re import time import urllib import urllib2 import httplib import cookielib username = 'mr_wid' #你的用户名, 改为你的 password = 'xxxxxxxx' #你的密码 #先定义好编码转换函数 def en(x): return x.encode('utf-8') def cn(x): return x.decode('utf-8') #获取cnblogs服务器时间 def GetCnblogsServerTime(): """获取cnblogs服务器时间 GetCnblogsServerTime() -> list NOTE: 原理是通过服务器头文件响应获取服务器时间 """ conn = httplib.HTTPConnection( 'www.cnblogs.com' ) conn.request( 'GET', '/' ) response = conn.getresponse() ts = response.getheader('date') ltime = time.strptime( ts[5:25], '%d %b %Y %H:%M:%S' ) #按照特定时间格式将字符串转换为时间类型 serverTime = time.strftime( '%H:%M:%S', time.localtime(time.mktime(ltime)+ 8*3600 )).split(':') #将GMT时间转换为北京时间并以列表形式返回, -> [ hour, minute, second ] return serverTime #登录博客园 def cnblogs_login(): """登录博客园 cnblogs_login() -> None """ params_post = urllib.urlencode({ '__EVENTTARGET': '', '__EVENTARGUMENT': '', '__VIEWSTATE': r'/wEPDwULLTE1MzYzODg2NzZkGAEFHl9fQ29udHJvbHNSZXF1aXJlUG9zdEJhY2tLZXlfXxYBBQtjaGtSZW1lbWJlcm1QYDyKKI9af4b67Mzq2xFaL9Bt', '__EVENTVALIDATION': r'/wEWBQLWwpqPDQLyj/OQAgK3jsrkBALR55GJDgKC3IeGDE1m7t2mGlasoP1Hd9hLaFoI2G05', 'tbUserName':en(username), 'tbPassword':en(password), 'btnLogin':en('登录') }) cookie=cookielib.CookieJar() opener=urllib2.build_opener(urllib2.HTTPCookieProcessor(cookie)) urllib2.install_opener(opener) login_response=urllib2.urlopen('http://passport.cnblogs.com/login.aspx?',params_post) #给大叔发表一条评论 def PuhsishContent( content ): """给大叔发表一条评论 PuhsishContent( string content ) -> None """ comment_post = urllib.urlencode({ '__VIEWSTATE':en('/wEPDwUJNDYwODU2NjU1ZGQ='), 'txbComment': en(content), 'btnSubmint': en('提交评论') }) page = urllib2.urlopen( r'http://m.cnblogs.com/mobileAddComment.aspx?id=101461&entry=2733027', comment_post ) data = page.read() page.close() print cn( data ) #开始抢书 def PuhsishContentInTime(): luckHour = [ 10, 12, 14, 16, 18, 20 ] #这是幸运小时数 cnblogs_login() #登录博客园 while True: serverTime = GetCnblogsServerTime() #获取服务器时间 print serverTime if int(serverTime[0]) in luckHour and int(serverTime[1]) == 59: #当最新评论的分钟数为59分59秒时准备抢书 for i in range( int(serverTime[2]), 60 ): #进入最后倒计时阶段 time.sleep(1) time.sleep(0.75) #在59分59秒750毫秒时开始提交评论, 可自行调节毫秒数, sleep参数单位为秒 PuhsishContent( '大叔我来抢书啦~抢抢抢抢抢......' ) print '抢书任务完成, 下一轮抢书任何将在55分钟后自动执行, 等待...' time.sleep(55 * 60) #休息55分钟, 汤姆大叔说了, 连评无效 #time.sleep(1) #休息1秒再获取服务器时间 #执行抢书动作 PuhsishContentInTime() #这次真可以慢慢挂这个抢书了, 挂三天说不定就真有了!
在
time.sleep(0.75) #59分59秒后延迟750毫秒后开始抢书, 可自行调节毫秒数, sleep参数为秒
这行就是可自行调节的毫秒数, 输入小数表示毫秒级。
提示: 这里是使用了一个while True的死循环, 在获取时间是会产生大量的请求, 如果cnblogs一定时间内的请求数量有限制的话, 可以在while True里加上time.sleep(1)休息一秒再获取服务器时间, 对抢书的动作执行是没多大影响的, 在示例代码中我已将该句添加, 但是又将其注释掉了,
#time.sleep(1) ##休息1秒再获取服务器时间
这样就会产生大量的请求, 注释掉的原因是为了可以方便的查看每秒能产生多少次请求, 即每秒与服务器时间校对的频率, wid这平均每秒校对15次左右, 确保时间与服务器同步, 剩下的就仅是网络的延迟问题了。
来自:http://www.cnblogs.com/mr-wid/archive/2012/10/22/2734695.html
相关推荐
基于python的网页自动化工具。既能控制浏览器,也能收发数据包。可兼顾浏览器自动化的便利性和requests的高效率。功能强大,内置无数人性化设计和便捷功能。语法简洁而优雅,代码量少。DrissionPage 是一个基于 ...
一个简单的python示例,实现抓取 嗅事百科 首页内容 ,大家可以自行运行测试
资源中有3个视频,使用Python程序可以实现对视频中的目标进行检测
Python基于Scrapy的页面敏感词检测工具源码.zip
Welcome to our book on Python and web application testing. Penetration testing is a massive field and the realms of Python are even bigger. We hope that our little book can help you make these ...
在大的互联网公司干技术的基本都会... 大略思路是:用python写一个脚本来分析网页里的所有url,看是否包含日常的链接,然后把脚本放到crontab里跑定时任务,10分钟跑一次检查。如果发现非法链接,就发告警邮件给相关
Python网页OA系统POC漏洞检测系统 框架FLask + python + OAPOC payload 角色介绍 管理员 admin 123456 模块介绍 登录模块 首页模块 OA安全检测子模块(支持多个url或者单个url检测,调用payload并在界面回馈检测...
所以本次通过以B/S结构搭建一款能够渗透检测工具,通过该工具的开发来进行web网页漏洞、web端口扫描的技术实现,通过在线的网站检测来查找网页是否存在漏洞的情况,对于网站达的后期升级、保护有着非常好的帮助作用...
为方便统计同学们的“健康云”核酸检测结果,python来快速实现一个界面清新交互友好的核酸检测结果批量解析工具。
Python网页OA系统POC漏洞检测系统 框架FLask + python + OAPOC payload 角色介绍 管理员 admin 123456 模块介绍 登录模块 首页模块 OA安全检测子模块(支持多个url或者单个url检测,调用payload并在界面回馈检测...
yolov5在线检测目标检测网页实时识别python目标检测flask 效果链接https://blog.csdn.net/babyai996/article/details/123922138
python 生成第三方的测试报告 模板.zip HTMLTestRunner.py HTMLTestRunnerCN.py
用python写了一个下载...为了测试多线程爬虫的性能,本程序使用了50个线程分析内页图片地址,100个线程下载图片,自动下载,整个过程只需要动几下鼠标,哗啦啦一堆美女图片到手,再也不用手动下载壁纸那么麻烦了。
├─千锋Python教程:第01章 第一个Python程序与数据存储及数据类型(9集) │ │ .DS_Store │ │ │ ├─code │ │ 1、数据存储.txt │ │ 2、第一个python程序.py │ │ 3、注释.py │ │ 4、输出与输入.py │ ...
python的安装和环境配置、python的基本语法、模块和函数、内置数据结构、...网页开发框架的使用方法、测试驱动开发模式应用、python进程和线程、python系统管理、网络模块、python图像处理和游戏开发、python扩展和嵌入...
除了合并两者,本库还以网页为单位封装了常用功能,简化了 selenium 的操作和语句,在用于网页自动化操作时,减少考虑细节,专注功能实现,使用更方便。 一切从简,尽量提供简单直接的使用方法,对新手更友好。 ...
网页旋转验证码识别 Python
python连接mysql数据库,简单的例子,需要先安装pythone3.0、pymysql模块、mysql数据库才能运行
这段Python源代码的功能是使用Selenium和smtplib库截取指定网页的截图,并通过电子邮件发送给指定的收件人。下面是安装和使用的简要说明: 安装所需的库: 1. 安装Selenium库:使用pip install selenium命令安装...
这是一款网页篡改检测工具,可以检测特定网页内容是否被篡改,包括文本和图片,对于被篡改的图片,该工具能够智能识别出其中的文字信息,便于风险检测。