资讯专栏INFORMATION COLUMN

scrapy 学习之路上的那些坑

xiaodao / 5157人阅读

摘要:前言本文记录自己在学习当中遇到的各种大小问题,持续更新。错误分析本身是一个网络引擎框架,的运行依赖于。在打开新建的项目后,报错显示。错误分析的默认依赖项当中没有,或者说默认查找的路径中找不到。

前言

本文记录自己在学习scrapy当中遇到的各种大小问题,持续更新。

环境简介:
语言版本 爬虫框架 IDE 系统
python3.5 scrapy1.4.0 pycharm win10 x64
scrapy安装失败

报错显示缺少Twisted。
错误分析:Twisted本身是一个网络引擎框架,scrapy的运行依赖于Twisted。
解决办法:通过 http://www.lfd.uci.edu/~gohlk...,在通过pip install xxxpath(xxxpath 指代whl下载到本机的路径)。

No module named scrapy

在pycharm打开scrapy新建的项目后,import scrapy 报错显示No module named scrapy。
错误分析:pycharm的默认依赖项当中没有scrapy,或者说默认查找的路径中找不到scrapy。
解决办法:通过file=>Default Settings=>Project Interpreter 重新关联python,pycharm的local中加入本地的python.exe

XPaths谷歌插件使用

插件下载地址:
https://chrome.google.com/web...
安装完毕xpath之后,需要重新加载页面,方可使用。

scrapy 生成json文件中文是Unicode字符

错误分析:scrapy在做json序列化的时候默认使用的是ensure_ascii 编码。
解决办法:在设置当中(settings.py),加入FEED_EXPORT_ENCODING = "utf-8"

解决爬取数据频繁时,被禁止

错误分析:网站本身有反爬虫,会针对频繁快速拉去的ip和用户进行封锁。
解决办法:设置动态的用会代理和动态的ip代理。
在中间件文件middlewares.py中,增加动态IP代理类和动态用户代理类。

import random

PROXIES = [
    {"ip_port": "106.39.179.244:80"},
    {"ip_port": "65.52.223.99:80"},
    {"ip_port": "1.52.248.207:3128"},
    {"ip_port": "45.77.198.207:3128"},
    {"ip_port": "177.125.119.16:8080"},
    {"ip_port": "174.138.65.233:3128"}
]


class RandomUserAgent(object):
    """Randomly rotate user agents based on a list of predefined ones"""

    def __init__(self, agents):
        self.agents = agents

    @classmethod
    def from_crawler(cls, crawler):
        return cls(crawler.settings.getlist("USER_AGENTS"))

    def process_request(self, request, spider):
        # print "**************************" + random.choice(self.agents)
        request.headers.setdefault("User-Agent", random.choice(self.agents))


class ProxyMiddleware(object):
    def process_request(self, request, spider):
        proxy = random.choice(PROXIES)
        print("**************ProxyMiddleware no pass************" + proxy["ip_port"])
        request.meta["proxy"] = "http://%s" % proxy["ip_port"]

这组动态IP需要注意的是,隔一段时间可能会失效,需要重新获取IP。
在配置文件settings.py中增加

    DOWNLOADER_MIDDLEWARES = {
        "tutorial.middlewares.RandomUserAgent": 1,
        "scrapy.contrib.downloadermiddleware.httpproxy.HttpProxyMiddleware": 110,
        "tutorial.middlewares.ProxyMiddleware": 100
    }
    USER_AGENTS = [
    "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; AcooBrowser; .NET CLR 1.1.4322; .NET CLR 2.0.50727)",
    "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 6.0; Acoo Browser; SLCC1; .NET CLR 2.0.50727; Media Center PC 5.0; .NET CLR 3.0.04506)",
    "Mozilla/4.0 (compatible; MSIE 7.0; AOL 9.5; AOLBuild 4337.35; Windows NT 5.1; .NET CLR 1.1.4322; .NET CLR 2.0.50727)",
    "Mozilla/5.0 (Windows; U; MSIE 9.0; Windows NT 9.0; en-US)",
    "Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Win64; x64; Trident/5.0; .NET CLR 3.5.30729; .NET CLR 3.0.30729; .NET CLR 2.0.50727; Media Center PC 6.0)",
    "Mozilla/5.0 (compatible; MSIE 8.0; Windows NT 6.0; Trident/4.0; WOW64; Trident/4.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; .NET CLR 1.0.3705; .NET CLR 1.1.4322)",
    "Mozilla/4.0 (compatible; MSIE 7.0b; Windows NT 5.2; .NET CLR 1.1.4322; .NET CLR 2.0.50727; InfoPath.2; .NET CLR 3.0.04506.30)",
    "Mozilla/5.0 (Windows; U; Windows NT 5.1; zh-CN) AppleWebKit/523.15 (KHTML, like Gecko, Safari/419.3) Arora/0.3 (Change: 287 c9dfb30)",
    "Mozilla/5.0 (X11; U; Linux; en-US) AppleWebKit/527+ (KHTML, like Gecko, Safari/419.3) Arora/0.6",
    "Mozilla/5.0 (Windows; U; Windows NT 5.1; en-US; rv:1.8.1.2pre) Gecko/20070215 K-Ninja/2.1.1",
    "Mozilla/5.0 (Windows; U; Windows NT 5.1; zh-CN; rv:1.9) Gecko/20080705 Firefox/3.0 Kapiko/3.0",
    "Mozilla/5.0 (X11; Linux i686; U;) Gecko/20070322 Kazehakase/0.4.5",
    "Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.9.0.8) Gecko Fedora/1.9.0.8-1.fc10 Kazehakase/0.5.6",
    "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.56 Safari/535.11",
    "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_3) AppleWebKit/535.20 (KHTML, like Gecko) Chrome/19.0.1036.7 Safari/535.20",
    "Opera/9.80 (Macintosh; Intel Mac OS X 10.6.8; U; fr) Presto/2.9.168 Version/11.52",
]

文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。

转载请注明本文地址:https://www.ucloud.cn/yun/41101.html

相关文章

  • scrapy学习之路2(图片下载与下载的路径获取)

    摘要:图片下载和拿到下载后的路径小封面图的爬取,后面通过传到中详情页的爬取详情页的完整地址下一页的爬取与请求不明打开功能注意如要进一步定制功能补充新建 图片下载和拿到下载后的路径 1 items.py import scrapy class InfoItem(scrapy.Item): url = scrapy.Field() url_object_id = scrapy....

    WelliJhon 评论0 收藏0
  • scrapy学习之路1(简单的例子)

    摘要:的安装环境是后面创建用来运行的名网站域名在创建可以通过此文件运行本文件名父文件名路径和父文件名设置环境,必须以上运行可能在下会报错准备工作完在下获取列表页每一个的把获取到的交给 scrapy的安装 环境:python3.6 1 pip install -i https://pypi.douban.com/simple/ scrapy 2 scrapy startpr...

    guqiu 评论0 收藏0
  • scrapy学习之路5(selenium集成到scrapy下(crawspider未测试))

    摘要:基本优化为了不让每次启动添加它到定义类的初始方法中启动优化浏览器的自动开启与关闭在中加入信号链爬虫结束会输出 1:基本 Middlewares.py(downloader)showImg(https://segmentfault.com/img/bV182i?w=893&h=311); spider/xxx.pyshowImg(https://segmentfault.com/img/...

    adie 评论0 收藏0
  • 整理了一周的Python资料,包含各阶段所需网站、项目,收藏了慢慢来

    摘要:希望能够帮助到大家,减少在起步阶段的油耗,集中精神突破技术。关注公众后,后台回复关键字资料,获取项目包本篇文章对不同阶段的人群都适用,别再说怎么学,没有实战项目了。 showImg(https://segmentfault.com/img/bVbpcg3?w=1318&h=730); 这周应该有不少学校已经开学了,那么同学们都该动起来了,把家里面的那些懒习惯给扔掉了可以。 不知怎么的,...

    liuhh 评论0 收藏0

发表评论

0条评论

xiaodao

|高级讲师

TA的文章

阅读更多
最新活动
阅读需要支付1元查看
<