摘要:所以我模仿这些爬虫框架的优势,以尽量简单的原则,搭配实际上是开发了这套轻量级爬虫框架。将下载器,解析器,调度器,数据处理器注入核心成为对象。提供对爬虫进行管理监控。每个脚本被认为是一个,确定一个任务。
现在有很多爬虫框架,比如scrapy、webmagic、pyspider都可以在爬虫工作中使用,也可以直接通过requests+beautifulsoup来写一些个性化的小型爬虫脚本。但是在实际爬取过程当中,爬虫框架各自有优势和缺陷。比如scrapy,它的功能强大,但过于强大的功能也许反而让新手无所适从,并且它采用twisted异步框架开发,对新手来说源码难以理解,项目难于调试。所以我模仿这些爬虫框架的优势,以尽量简单的原则,搭配gevent(实际上是grequests)开发了这套轻量级爬虫框架。
downloader是下载器。
processor是解析器。
scheduler是调度器。
pipeline是数据处理器。
将下载器,解析器,调度器,数据处理器注入核心core成为spider对象。
通过manager管理spider对象
manager透过webapi提供外部访问/控制接口
主要特点框架代码结构简单易用,易于修改。新手、老鸟皆可把控。
采用gevent实现并发操作,与scrapy的twisted相比,代码更容易理解。
完全模块化的设计,强大的可扩展性。
使用方式和结构参考了scrapy和webmagic。对有接触过这两个框架的朋友非常友好。
不采用命令行来启动爬虫,方便调试。
对数据的解析模块并没有集成,可以自由使用beautifulsoup、lxml、pyquery、html5lib等等各种解析器进行数据抽取。
集成代理换IP功能。
支持高并发采集数据。
支持分布式。
支持增量爬取。
支持爬取js动态渲染的页面(加载SeleniumDownLoader即可)。
提供webapi对爬虫进行管理、监控。
提供即时爬虫的集成思路和结构。
安装pip install sasila准备
请准备好您的redis服务器进行调度。
并在settings.py文件中 写入您的redis服务器地址
REDIS_HOST = "localhost" REDIS_PORT = 6379构建processor(解析器)
#!/usr/bin/env python # -*- coding: utf-8 -*- from bs4 import BeautifulSoup as bs from sasila.system_normal.processor.base_processor import BaseProcessor from sasila.system_normal.downloader.http.spider_request import Request from sasila.system_normal.spider.request_spider import RequestSpider class Mzi_Processor(BaseProcessor): spider_id = "mzi_spider" spider_name = "mzi_spider" allowed_domains = ["mzitu.com"] start_requests = [Request(url="http://www.mzitu.com/", priority=0)] @checkResponse def process(self, response): soup = bs(response.m_response.content, "lxml") print soup.title.string href_list = soup.select("a") for href in href_list: yield Request(url=response.nice_join(href["href"]))
写法与scrapy几乎一样
所有的解析器都继承自 BaseProcessor ,默认入口解析函数为def process(self, response)。
为该解析器设置spider_id和spider_name,以及限定域名。
初始爬取请求为 start_requests,构建Request对象,该对象支持GET、POST方法,支持优先级,设置回调函数等等所有构建request对象的一切属性。默认回调函数为 process。
可以使用@checkResponse装饰器对返回的 response 进行校验并记录异常日志。你也可以定义自己的装饰器。
解析函数因为使用 yield 关键字,所以是一个生成器。当 yield 返回 Request 对象,则会将 Request 对象推入调度器等待调度继续进行爬取。若 yield 不是返回 Request 对象则会进入 pipeline , pipeline 将对数据进行清洗入库等操作。
与scrapy相似,sasila同样提供LinkExtractor的方式来提取链接,以下是用LinkExtractor的方式构造processor下载妹子图的示例
#!/usr/bin/env python # -*- coding: utf-8 -*- from sasila.system_normal.processor.base_processor import BaseProcessor, Rule, LinkExtractor from sasila.system_normal.downloader.http.spider_request import Request import os import uuid class MezituProcessor(BaseProcessor): spider_id = "mzitu" spider_name = "mzitu" allowed_domains = ["mzitu.com", "meizitu.net"] start_requests = [Request(url="http://www.mzitu.com/xinggan/")] rules = ( Rule(LinkExtractor(regex_str=r"http://i.meizitu.net/d{4}/d{2}/[0-9a-z]+.jpg"),callback="save", priority=3), Rule(LinkExtractor(regex_str=r"http://www.mzitu.com/d+"), priority=1), Rule(LinkExtractor(regex_str=r"http://www.mzitu.com/d+/d+"), priority=2), Rule(LinkExtractor(regex_str=r"http://www.mzitu.com/xinggan/page/d+"), priority=0), ) def save(self, response): if response.m_response: if not os.path.exists("img"): os.mkdir("img") with open("img/" + str(uuid.uuid1()) + ".jpg", "wb") as fs: fs.write(response.m_response.content) print("download success!")
LinkExtractor的构造方式为
LinkExtractor(regex_str=None, css_str=None, process_value=None)
提供正则表达式提取方式:regex_str
提供css选择器提取方式:css_str
也可以自定义process_value来提取链接,其中process_value是一个生成器
若使用此方式构造processor,请不要定义默认入口函数def process(self, response)
构建pipeline该pipeline获取数据后将数据转为json格式,并输出到屏幕
from sasila.system_normal.pipeline.base_pipeline import ItemPipeline import json class ConsolePipeline(ItemPipeline): def process_item(self, item): print json.dumps(item).decode("unicode-escape")构建spider(爬虫对象)
通过注入 processor 生成spider对象
from sasila.system_normal.spider.request_spider import RequestSpider spider = RequestSpider(Mzi_Processor())
RequestSpider对象包含批下载数量 batch_size,下载间隔 time_sleep,使用代理 use_proxy 等一切必要的属性
RequestSpider(processor=None, downloader=None, use_proxy=False,scheduler=None,batch_size=None,time_sleep=None)
本项目集成使用代理IP的功能,只要在构建RequestSpider时将 use_proxy 设置为 True,并在脚本同级目录下放置proxy.txt文件即可。你也可以在settings.py文件中写入代理IP文件路径。
PROXY_PATH_REQUEST = "proxy/path"
proxy.txt文件中请写入代理IP,格式为:IP,端口号。若该代理IP有账号密码,在末尾追加账号密码即可。
127.0.0.1,8080 127.0.0.2,8080,user,pwd 127.0.0.3,8080,user,pwd
RequestSpider已经默认设置好了 downloader 和 scheduler,如果不满意,可以自己进行定制。
可以为spider设置 downloader 和 pipeline 甚至 scheduler
spider = spider.set_pipeline(ConsolePipeline())
可以通过该方式启动爬虫
spider.start()
也可以将spider注入manager进行管理
from sasila.system_normal.manager import manager from sasila import system_web manager.set_spider(spider) system_web.start()
访问 http://127.0.0.1:5000/slow_sp... 来启动爬虫。
访问 http://127.0.0.1:5000/slow_sp... 来停止爬虫。
访问 http://127.0.0.1:5000/slow_sp... 来查看爬虫详细信息。
可以为downloader加载登录器(loginer),在使用downloader的时候使用loginer进行登录获取cookies,再进行爬取
也可以自己定义一个cookie池,批量进行登录并将登录成功的cookies放进cookie池中随时进行取用。项目中暂时没有这些功能。欢迎pull request~
架构任务由 scheduler 发起调度,downloader 抓取网页内容, processor 执行预先编写的py脚本,输出结果或产生新的提链任务(发往 scheduler),形成闭环。
每个脚本被认为是一个spider,spiderid确定一个任务。
downloader
1.method, header, cookie, proxy,timeout 等等抓取调度控制。
2.可以通过适配类似 phantomjs 的webkit引擎支持渲染。
processor
1.灵活运用pyquery,beautifulsoup等解析页面。
2.在脚本中完全控制调度抓取的各项参数。
3.可以向后链传递信息。
4.异常捕获。
scheduler
1.任务优先级。
2.对任务进行监控。
3.对任务进行去重等操作。
4.支持增量。
webApi
1.对爬虫进行增删改查等操作。
即时爬虫是可以通过api调用,传入需要爬取的页面或者需求,即时爬取数据并返回结果。现阶段开发并不完善。仅提供思路参考。示例核心代码在 sasila.system_instant 中。
为啥叫Sasila?作为一个wower,你可以猜到吗ヾ( ̄▽ ̄)
联系方式如果对使用有疑问,或者有想法,欢迎加入讨论群:602909155交流~
项目地址
文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。
转载请注明本文地址:https://www.ucloud.cn/yun/40628.html
摘要:一个爬虫框架的雏形,应该包含调度器队列请求对象等。我们平时写的爬虫程序,连最基本的框架都不具备。这样,不仅开发效率会提高很多,而且爬虫的健壮性也更强。支持多种消息队列如。将抓取任务分发给进行抓取,执行并得到响应随后将响应发送给。 showImg(https://segmentfault.com/img/remote/1460000015557057); 为什么要使用爬虫框架 在我们平常...
摘要:那在届有哪些被封神的库呢,今天就给大家介绍十个堪称杀手级别的工具包。总之,是一款非常强大且易用的网络请求库。地址最好用的框架。图像处理,该库是你的不二之选。 Pyt...
摘要:那在届有哪些被封神的库呢,今天就给大家介绍十个堪称杀手级别的工具包。该库是在之上完善的,自此请求就变得异常的简单,一行代码即可搞定。这是最流行的网络爬虫框架库,没有之一。最好用的框架。图像处理,该库是你的不二之选。 文 | 豆豆 来源:Python 技术「ID: pythonall」 ...
摘要:各个爬虫的节点通过注册到从而实现爬虫集群的管理。是一款基于等框架实现的通用爬虫框架。爬虫集群的监控包含了和。用于实现爬虫的业务逻辑,可以添加到,由来管理各个的生命周期。ZooKeeper showImg(https://user-gold-cdn.xitu.io/2019/5/27/16af702ccb4a3d84); ZooKeeper 是一个开源的分布式协调服务,ZooKeeper框架...
摘要:下载器下载器负责获取页面数据并提供给引擎,而后提供给。下载器中间件下载器中间件是在引擎及下载器之间的特定钩子,处理传递给引擎的。一旦页面下载完毕,下载器生成一个该页面的,并将其通过下载中间件返回方向发送给引擎。 作者:xiaoyu微信公众号:Python数据科学知乎:Python数据分析师 在爬虫的路上,学习scrapy是一个必不可少的环节。也许有好多朋友此时此刻也正在接触并学习sc...
阅读 2060·2023-04-25 21:11
阅读 2962·2021-09-30 09:47
阅读 2270·2021-09-24 09:48
阅读 4426·2021-08-23 09:43
阅读 894·2019-08-30 15:54
阅读 558·2019-08-28 18:01
阅读 1396·2019-08-27 10:55
阅读 587·2019-08-27 10:55