博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
scrapy主动退出爬虫的代码片段
阅读量:6275 次
发布时间:2019-06-22

本文共 592 字,大约阅读时间需要 1 分钟。

self.crawler.engine.close_spider(self, '结束爬虫!')

1,此行代码是写在spider文件中的

2,虽然这一行代码会停止爬虫,但是这一行代码的停止并不是立即停止

原因是因为当我们不更改爬虫的setting.py文件的时候,默认配置是:

# Configure maximum concurrent requests performed by Scrapy (default: 16)

# CONCURRENT_REQUESTS = 32
含义就是:Scrapy downloader 并发请求(concurrent requests)的最大值,默认: 16

那么这个时候的问题来了,按照以上的写法,在队列里就已经有十几个请求了,你停止之后,这十几个请求依旧会执行下去,所以并不是立即停止,如果想改变的话,就必须改变此项配置,设为:

CONCURRENT_REQUESTS = 1

---------------------
作者:故意养只喵叫顺儿
来源:CSDN
原文:https://blog.csdn.net/qq_36745087/article/details/86624459
版权声明:本文为博主原创文章,转载请附上博文链接!

转载于:https://www.cnblogs.com/kaibo520/p/10643794.html

你可能感兴趣的文章
《TCP/IP协议》- TCP协议知识目录
查看>>
详尽! Win10安装Java8+Tomcat9!
查看>>
1127
查看>>
一次痛的经历
查看>>
智能运维(AIOps)时代开启,一文帮你快速了解其定义与发展现状
查看>>
第1讲 快速入门 《Kotlin 极简教程 》
查看>>
[Hadoop]MapReducer工作过程
查看>>
VMware PowerCli批量实现虚拟机快照备份
查看>>
小程聊微服务-基于dubbo的mock测试系统
查看>>
在阿里云服务器使用scrapyd部署scrapy项目
查看>>
业界 | 从观望者到变革者:给新媒体的AI解决方案
查看>>
利用 CSS 变量实现令人震惊的悬浮效果
查看>>
爬虫入门之handler与opener(三)
查看>>
Linux Kernel 5.2 将进一步支持 AMD FreeSync
查看>>
Java CompletableFuture:thenCompose (3)
查看>>
Node.js编程之异步
查看>>
亦策软件与Qlik联合参加第六届大数据世界论坛
查看>>
RecyclerView进阶
查看>>
Java8学习(4)-Stream流
查看>>
SVG Path路径在网页开发的作用
查看>>