[Python3 网络爬虫开发实战] 1.9.4-Scrapyd API 的安装

网友投稿 718 2022-05-30

安装好了 Scrapyd 之后,我们可以直接请求它提供的 API 来获取当前主机的 Scrapy 任务运行状况。比如,某台主机的 IP 为 192.168.1.1,则可以直接运行如下命令获取当前主机的所有 Scrapy 项目:

1

curl http://localhost:6800/listprojects.json

运行结果如下:

1

{"status": "ok", "projects": ["myproject", "otherproject"]}

返回结果是 JSON 字符串,通过解析这个字符串,便可以得到当前主机的所有项目。

但是用这种方式来获取任务状态还是有点烦琐,所以 Scrapyd API 就为它做了一层封装,下面我们来看下它的安装方式。

1. 相关链接

GitHub:https://pypi.python.org/pypi/python-scrapyd-api/

PyPI:https://pypi.python.org/pypi/python-scrapyd-api

官方文档:http://python-scrapyd-api.readthedocs.io/en/latest/usage.html

2. pip 安装

这里推荐使用 pip 安装,命令如下:

1

pip install python-scrapyd-api

3. 验证安装

安装完成之后,便可以使用 Python 来获取主机状态了,所以上面的操作便可以用 Python 代码实现:

1

[Python3 网络爬虫开发实战] 1.9.4-Scrapyd API 的安装

2

3

from scrapyd_api import ScrapydAPI

scrapyd = ScrapydAPI('http://localhost:6800')

print(scrapyd.list_projects())

运行结果如下:

1

["myproject", "otherproject"]

这样我们便可以用 Python 直接来获取各个主机上 Scrapy 任务的运行状态了。

API Python 网络

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:【学习笔记】AI全栈成长计划-AI应用篇-第一章:企业应用最广泛的AI案例开发 OCR文字识别
下一篇:一、学爬虫前,你需要知道的爬虫常识
相关文章