这两天上班接手,别人留下来的爬虫发现一个很好玩的 SQL脚本拼接。
只要你的Scrapy Field字段名字和 数据库字段的名字 一样。那么恭喜你你就可以拷贝这段SQL拼接脚本。进行MySQL入库处理。
具体拼接代码如下:
def process_item(self, item, spider):
if isinstance(item, WhoscoredNewItem):
table_name = item.pop('table_name')
col_str = ''
row_str = ''
for key in item.keys():
col_str = col_str + " " + key + ","
row_str = "{}'{}',".format(row_str, item[key] if "'" not in item[key] else item[key].replace("'", "\\'"))
sql = "insert INTO {} ({}) VALUES ({}) ON DUPLICATE KEY UPDATE ".format(table_name, col_str[1:-1], row_str[:-1])
for (key, value) in six.iteritems(item):
sql += "{} = '{}', ".format(key, value if "'" not in value else value.replace("'", "\\'"))
sql = sql[:-2]
self.cursor.execute(sql) #执行SQL
self.cnx.commit()# 写入操作
这个SQL拼接实现了,如果数据库存在相同数据则 更新,不存在则插入 的SQL语句
具体实现就是第一个for循环,获取key作为MySQL字段名字、VALUES做为SQL的VALUES(拼接成一个插入的SQL语句)
第二个for循环,实现了 字段名 = VALUES的拼接。
和第一个for循环的中的sql就组成了 insert into XXXXX on duplicate key update 这个。存在则更新 不存在则插入的SQL语句。
我只能所 6666666666 写这个拼接的小哥儿有想法。还挺通用。
不知道你们有没有想到这种方法 反正我是没想到。
分享到:
相关推荐
Python开源爬虫框架:Scrapy架构分析-为程序员服务[定义].pdf
python库。 资源全名:nimbus_scrapy-3.1.4-py2.py3-none-any.whl
Scrapy框架需要安装的库 Scrapy-1.6.0-py2.py3-none-any.whl 和Twisted-18.9.0-cp37-cp37m-win_amd64.whl
scrapy_redis-0.6.8-py2.py3-none-any.whl 使用方式 pip install xx.whl 即可
Scrapy-2.3.0-py2.py3-none-any.whl 安装Scrapy所需要的资源,安装命令:pip target 本地资源路径
PythonCrawler-Scrapy-Mysql-File-Template, scrapy爬虫框架模板,将数据保存到Mysql数据库或者文件中。
资源分类:Python库 所属语言:Python 资源全名:nimbus_scrapy-3.5.5-py2.py3-none-any.whl 资源来源:官方 安装方法:https://lanzao.blog.csdn.net/article/details/101784059
python库。 资源全名:scrapy-amazon-robot-middleware-jondot-0.2.3.tar.gz
资源来自pypi官网。 资源全名:scrapy-auto-translation-middleware-0.0.6.tar.gz
Scrapy-1.5.0-py2.py3-none-any.whl可以用,放心xiasssasa
资源来自pypi官网。 资源全名:scrapy-contrib-bigexporters-0.1.0.tar.gz
资源来自pypi官网。 资源全名:scrapy-scylla-proxies-0.1.4.1.tar.gz
python库。 资源全名:scrapy-coco-0.1.1.tar.gz
python库。 资源全名:scrapy-toolbox-0.3.4.tar.gz
python库。 资源全名:scrapy-warc-0.5.4.tar.gz
Python常用库,官方原版whl文件,文件下载到本地后, 直接终端 pip install xxx.whl 安装 scrapy需要twisted库支持,先要安装该库
资源来自pypi官网。 资源全名:scrapy-redis-filterhomepage-0.8.4.dev0.tar.gz
资源来自pypi官网。 资源全名:scrapy-scrapingbee-0.0.4.tar.gz
资源来自pypi官网。 资源全名:scrapy-tools-0.0.2.tar.gz
资源来自pypi官网。 资源全名:scrapy-scrapingbee-0.0.1.tar.gz