摘要:,引言最近一直在看爬虫框架,并尝试使用框架写一个可以实现网页信息采集的简单的小程序。本文主要介绍如何使用结合采集天猫商品内容,文中自定义了一个,用来采集需要加载的动态网页内容。
1,引言
最近一直在看Scrapy 爬虫框架,并尝试使用Scrapy框架写一个可以实现网页信息采集的简单的小程序。尝试过程中遇到了很多小问题,希望大家多多指教。
本文主要介绍如何使用Scrapy结合PhantomJS采集天猫商品内容,文中自定义了一个DOWNLOADER_MIDDLEWARES,用来采集需要加载js的动态网页内容。看了很多介绍DOWNLOADER_MIDDLEWARES资料,总结来说就是使用简单,但会阻塞框架,所以性能方面不佳。一些资料中提到了自定义DOWNLOADER_HANDLER或使用scrapyjs可以解决阻塞框架的问题,有兴趣的小伙伴可以去研究一下,这里就不多说了。
2,具体实现需要执行以下步骤,准备Python开发和运行环境:
Python--官网下载安装并部署好环境变量 (本文使用Python版本为3.5.1)
lxml-- 官网库下载对应版本的.whl文件,然后命令行界面执行 "pip install .whl文件路径"
Scrapy--命令行界面执行 "pip install Scrapy",详细请参考《Scrapy的第一次运行测试》
selenium--命令行界面执行 "pip install selenium"
PhantomJS -- 官网下载
上述步骤展示了两种安装:1,安装下载到本地的wheel包;2,用Python安装管理器执行远程下载和安装。注:包的版本需要和python版本配套
首先找到需要采集的网页,这里简单找了一个天猫商品,网址https://world.tmall.com/item/526449276263.htm,页面如下:
然后开始编写代码,以下代码默认都是在命令行界面执行
1),创建scrapy爬虫项目tmSpider
E:python-3.5.1>scrapy startproject tmSpider
2),修改settings.py配置
更改ROBOTSTXT_OBEY的值为False;
关闭scrapy默认的下载器中间件;
加入自定义DOWNLOADER_MIDDLEWARES。
配置如下:
DOWNLOADER_MIDDLEWARES = { "tmSpider.middlewares.middleware.CustomMiddlewares": 543, "scrapy.contrib.downloadermiddleware.useragent.UserAgentMiddleware": None }
3),在项目目录下创建middlewares文件夹,然后在文件夹下创建middleware.py文件,代码如下:
# -*- coding: utf-8 -*- from scrapy.exceptions import IgnoreRequest from scrapy.http import HtmlResponse, Response import tmSpider.middlewares.downloader as downloader class CustomMiddlewares(object): def process_request(self, request, spider): url = str(request.url) dl = downloader.CustomDownloader() content = dl.VisitPersonPage(url) return HtmlResponse(url, status = 200, body = content) def process_response(self, request, response, spider): if len(response.body) == 100: return IgnoreRequest("body length == 100") else: return response
4),使用selenium和PhantomJS写一个网页内容下载器,同样在上一步创建好的middlewares文件夹中创建downloader.py文件,代码如下:
# -*- coding: utf-8 -*- import time from scrapy.exceptions import IgnoreRequest from scrapy.http import HtmlResponse, Response from selenium import webdriver import selenium.webdriver.support.ui as ui class CustomDownloader(object): def __init__(self): # use any browser you wish cap = webdriver.DesiredCapabilities.PHANTOMJS cap["phantomjs.page.settings.resourceTimeout"] = 1000 cap["phantomjs.page.settings.loadImages"] = True cap["phantomjs.page.settings.disk-cache"] = True cap["phantomjs.page.customHeaders.Cookie"] = "SINAGLOBAL=3955422793326.2764.1451802953297; " self.driver = webdriver.PhantomJS(executable_path="F:/phantomjs/bin/phantomjs.exe", desired_capabilities=cap) wait = ui.WebDriverWait(self.driver,10) def VisitPersonPage(self, url): print("正在加载网站.....") self.driver.get(url) time.sleep(1) # 翻到底,详情加载 js="var q=document.documentElement.scrollTop=10000" self.driver.execute_script(js) time.sleep(5) content = self.driver.page_source.encode("gbk", "ignore") print("网页加载完毕.....") return content def __del__(self): self.driver.quit()
5) 创建爬虫模块
在项目目录E:python-3.5.1tmSpider,执行如下代码:
E:python-3.5.1 mSpider>scrapy genspider tmall "tmall.com"
执行后,项目目录E:python-3.5.1tmSpidertmSpiderspiders下会自动生成tmall.py程序文件。该程序中parse函数处理scrapy下载器返回的网页内容,采集网页信息的方法可以是:
使用xpath或正则方式从response.body中采集所需字段,
通过gooseeker api获取的内容提取器实现一站转换所有字段,而且不用手工编写转换用的xpath(如何获取内容提取器请参考python使用xslt提取网页数据),代码如下:
# -*- coding: utf-8 -*- import time import scrapy import tmSpider.gooseeker.gsextractor as gsextractor class TmallSpider(scrapy.Spider): name = "tmall" allowed_domains = ["tmall.com"] start_urls = ( "https://world.tmall.com/item/526449276263.htm", ) # 获得当前时间戳 def getTime(self): current_time = str(time.time()) m = current_time.find(".") current_time = current_time[0:m] return current_time def parse(self, response): html = response.body print("----------------------------------------------------------------------------") extra=gsextractor.GsExtractor() extra.setXsltFromAPI("31d24931e043e2d5364d03b8ff9cc77e", "淘宝天猫_商品详情30474","tmall","list") result = extra.extract(html) print(str(result).encode("gbk", "ignore").decode("gbk")) #file_name = "F:/temp/淘宝天猫_商品详情30474_" + self.getTime() + ".xml" #open(file_name,"wb").write(result)
6),启动爬虫
在E:python-3.5.1tmSpider项目目录下执行命令
E:python-3.5.1simpleSpider>scrapy crawl tmall
输出结果:
提一下,上述命令只能一次启动一个爬虫,如果想同时启动多个呢?那就需要自定义一个爬虫启动模块了,在spiders下创建模块文件runcrawl.py,代码如下
# -*- coding: utf-8 -*- import scrapy from twisted.internet import reactor from scrapy.crawler import CrawlerRunner from tmall import TmallSpider ... spider = TmallSpider(domain="tmall.com") runner = CrawlerRunner() runner.crawl(spider) ... d = runner.join() d.addBoth(lambda _: reactor.stop()) reactor.run()
执行runcrawl.py文件,输出结果:
以自定义DOWNLOADER_MIDDLEWARES调用PhantomJs的方式实现爬虫后,在阻塞框架的问题上纠结了很长的时间,一直在想解决的方式。后续会研究一下scrapyjs,splash等其他调用浏览器的方式看是否能有效的解决这个问题。
4,相关文档1, Python即时网络爬虫:API说明
5,集搜客GooSeeker开源代码下载源1, GooSeeker开源Python网络爬虫GitHub源
6,文档修改历史1,2016-07-04:V1.0
文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。
转载请注明本文地址:https://www.ucloud.cn/yun/38042.html
摘要:开源即时网络爬虫项目将与基于的异步网络框架集成,所以本例将使用采集淘宝这种含有大量代码的网页数据,但是要注意本例一个严重缺陷用加载网页的过程发生在中,破坏了的架构原则。 showImg(https://segmentfault.com/img/bVyzAX); 1,引言 本文讲解怎样用Python驱动Firefox浏览器写一个简易的网页数据采集器。开源Python即时网络爬虫项目将与S...
摘要:,引言注释上一篇爬虫实战安居客房产经纪人信息采集,访问的网页是静态网页,有朋友模仿那个实战来采集动态加载豆瓣小组的网页,结果不成功。 showImg(https://segmentfault.com/img/bVzdNZ); 1, 引言 注释:上一篇《Python爬虫实战(3):安居客房产经纪人信息采集》,访问的网页是静态网页,有朋友模仿那个实战来采集动态加载豆瓣小组的网页,结果不成功...
摘要:唠叨最近频繁的给客户做采集功能既然代码无法公布所以一直想写个思路类的文章既然是简单的爬虫那么一切自然以简单为原则能少用的都少用比如和这两个神兵利器就被我省略了打造这只虫子就像是樵夫砍柴一般该磨刀还是要磨刀远观拜拜山头对象站点国内知名电商平台 唠叨: 最近频繁的给客户做采集功能,既然代码无法公布,所以一直想写个思路类的文章.既然是简单的爬虫,那么一切自然以简单为原则,能少用的都少用,比如...
摘要:可以看到在元的月饼销量是反常的,说明这个价格比较受人们欢迎。高档的月饼在临近中秋节会买的越来越好,这符合人们的消费习惯。下一步重点研究买的好的店铺,天猫超市与稻香村食品旗舰店,票券票务十年老店主要是卖月饼劵,后面会说到。 造数带你选月饼,点击这里,过节再也不担忧 showImg(https://segmentfault.com/img/remote/1460000011412184);...
摘要:项目简介本实验通过使用实现一个淘宝女郎图片收集爬虫,学习并实践及正则表达式等知识。本教程由阿发布在实验楼,完整教程及在线练习地址实现淘女郎照片爬虫,可以直接在教程中下载代码使用。 showImg(https://segmentfault.com/img/bVBgrF); 项目简介:本实验通过使用 Python 实现一个淘宝女郎图片收集爬虫,学习并实践 BeautifulSoup、Sel...
阅读 3619·2021-11-16 11:41
阅读 2860·2021-09-23 11:45
阅读 656·2019-08-30 15:44
阅读 523·2019-08-30 13:10
阅读 1945·2019-08-30 12:49
阅读 3501·2019-08-28 17:51
阅读 1454·2019-08-26 12:20
阅读 683·2019-08-23 17:56