资讯专栏INFORMATION COLUMN

Python3网络爬虫实战---13、部署相关库ScrapydClient、ScrapydAPI

lolomaco / 2098人阅读

摘要:相关链接使用说明安装推荐使用安装,命令如下验证安装安装成功后会有一个可用命令,叫做,即部署命令。我们可以输入如下测试命令测试是否安装成功如果出现如图类似输出则证明已经成功安装图运行结果在后文我们会详细了解它的用法。

上一篇文章:Python3网络爬虫实战---12、部署相关库的安装:Docker、Scrapyd
下一篇文章:Python3网络爬虫实战---14、部署相关库的安装:Scrapyrt、Gerapy
ScrapydClient的安装

在将 Scrapy 代码部署到远程 Scrapyd 的时候,其第一步就是要将代码打包为 Egg 文件,其次需要将 Egg 文件上传到远程主机,这个过程如果我们用程序来实现是完全可以的,但是我们并不需要做这些工作,因为 ScrapydClient 已经为我们实现了这些功能。
下面我们就来过一下 ScrapydClient 的安装过程。

1. 相关链接

GitHub:https://github.com/scrapy/scr...

PyPi:https://pypi.python.org/pypi/...

使用说明:https://github.com/scrapy/scr...

2. Pip安装

推荐使用 Pip 安装,命令如下:

pip3 install scrapyd-client
3. 验证安装

安装成功后会有一个可用命令,叫做 scrapyd-deploy,即部署命令。
我们可以输入如下测试命令测试 ScrapydClient 是否安装成功:

scrapyd-deploy -h

如果出现如图 1-87 类似输出则证明 ScrapydClient 已经成功安装:

图 1-87 运行结果
在后文我们会详细了解它的用法。

ScrapydAPI的安装

安装好了 Scrapyd 之后,我们可以直接请求它提供的 API 即可获取当前主机的 Scrapy 任务运行状况。

如某台主机的 IP 为 192.168.1.1,则可以直接运行如下命令获取当前主机的所有 Scrapy 项目:

curl http://localhost:6800/listprojects.json

运行结果:

{"status": "ok", "projects": ["myproject", "otherproject"]}

返回结果是 Json 字符串,通过解析这个字符串我们便可以得到当前主机所有项目。

但是用这种方式来获取任务状态还是有点繁琐,所以 ScrapydAPI 就为它做了一层封装,下面我们来看下它的安装方式。

1. 相关链接

GitHub:https://pypi.python.org/pypi/...

PyPi:https://pypi.python.org/pypi/...

官方文档:http://python-scrapyd-api.rea...

2. Pip安装

推荐使用 Pip 安装,命令如下:

pip install python-scrapyd-api
3. 验证安装

安装完成之后便可以使用 Python 来获取主机状态了,所以如上的操作便可以用 Python 代码实现:

from scrapyd_api import ScrapydAPI
scrapyd = ScrapydAPI("http://localhost:6800")
print(scrapyd.list_projects())

运行结果:

["myproject", "otherproject"]

这样我们便可以用 Python 直接来获取各个主机上 Scrapy 任务的运行状态了。

文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。

转载请注明本文地址:https://www.ucloud.cn/yun/44031.html

相关文章

  • Python3网络爬虫实战---14、部署相关的安装:Scrapyrt、Gerapy

    摘要:相关链接官方文档安装推荐使用安装,命令如下命令执行完毕之后即可完成安装。的安装是一个分布式管理模块,本节来介绍一下的安装方式。如果没有错误报出,则证明库已经安装好了。上一篇文章网络爬虫实战部署相关库下一篇文章网络爬虫实战爬虫基础基本原理 上一篇文章:Python3网络爬虫实战---13、部署相关库ScrapydClient、ScrapydAPI下一篇文章:Python3网络爬虫实战--...

    nihao 评论0 收藏0
  • Python3网络爬虫实战---12、部署相关的安装:Docker、Scrapyd

    摘要:阿里云安装脚本安装脚本两个脚本可以任选其一,速度都非常不错。推荐的加速器有和阿里云。阿里云不同平台的镜像加速方法配置可以参考的官方文档。以上便是的安装方式说明。上一篇文章网络爬虫实战爬虫框架的安装下一篇文章网络爬虫实战部署相关库 上一篇文章:Python3网络爬虫实战---11、爬虫框架的安装:ScrapySplash、ScrapyRedis下一篇文章:Python3网络爬虫实战---...

    ityouknow 评论0 收藏0
  • Python3网络爬虫实战---11、爬虫框架的安装:ScrapySplash、ScrapyRedi

    摘要:上一篇文章网络爬虫实战爬虫框架的安装下一篇文章网络爬虫实战部署相关库的安装的安装是一个中支持渲染的工具,本节来介绍一下它的安装方式。另外一个是的库的安装,安装之后即可在中使用服务。 上一篇文章:Python3网络爬虫实战---10、爬虫框架的安装:PySpider、Scrapy下一篇文章:Python3网络爬虫实战---12、部署相关库的安装:Docker、Scrapyd Scrap...

    harryhappy 评论0 收藏0
  • Python3网络爬虫实战---7、Python3网络爬虫实战---APP爬取相关的安装:Char

    摘要:点击,即可进入证书的安装页面。上一篇文章网络爬虫实战库的安装下一篇文章网络爬虫实战爬取相关库的安装的安装 上一篇文章:Python3网络爬虫实战---6、Web库的安装:Flask、Tornado下一篇文章:Python3网络爬虫实战---8、APP爬取相关库的安装:MitmProxy的安装 除了 Web 网页,爬虫也可以对 APP 的数据进行抓取,APP 中的页面要加载出来,首先需...

    keelii 评论0 收藏0
  • Python3网络爬虫实战---8、APP爬取相关的安装:MitmProxy的安装

    摘要:下的安装的安装非常简单,使用即可,命令如下执行命令后即可完成的安装。另外还可以在端口上启动,命令如下更多启动方式可以参考的安装说明。上一篇文章网络爬虫实战网络爬虫实战爬取相关库的安装的安装下一篇文章网络爬虫实战爬取相关库的安装的安装 上一篇文章:Python3网络爬虫实战---7、Python3网络爬虫实战---APP爬取相关库的安装:Charles的安装下一篇文章:Python3网络...

    Kerr1Gan 评论0 收藏0

发表评论

0条评论

lolomaco

|高级讲师

TA的文章

阅读更多
最新活动
阅读需要支付1元查看
<