资讯专栏INFORMATION COLUMN

python爬虫实战:爬取西刺代理的代理ip(二)

fsmStudy / 1188人阅读

摘要:爬虫实战二爬取西刺代理的代理对于刚入门的同学来说,本次实战稍微有点难度,但是简单的爬取图片文本之类的又没营养,所以这次我选择了爬取西刺代理的地址,爬取的代理也能在以后的学习中用到本次实战用的主要知识很多,其中包括自动保存利用抓包工具获取和匹


爬虫实战(二):爬取西刺代理的代理ip

对于刚入门的同学来说,本次实战稍微有点难度,但是简单的爬取图片、文本之类的又没营养,所以这次我选择了爬取西刺代理的ip地址,爬取的代理ip也能在以后的学习中用到


本次实战用的主要知识很多,其中包括:

requests.Session()自动保存cookie

利用抓包工具获取cookie;

BeautifulSoup和xpath匹配html文档中的标签

subprocess测试ip并获取运行时间及匹配的丢包数


代码如下:


</>复制代码

  1. """
  2. 案例名称:学习使用ip代理池
  3. 需求:从网上找一个代理ip的网站,然后获取网站上的
  4. 100个ip,组成代理ip池,然后随机抽取其中一个ip,
  5. 并对该ip进行连通性测试,如果该ip可以,我们可以将
  6. 该ip作为代理ip来使用
  7. 思路:
  8. 1,先获取西刺代理网站上的ip(100)
  9. 2, 随机抽取其中一个ip,并检测其连通性
  10. 3,如果该ip可用,则可以作为代理ip使用
  11. 编码:
  12. 测试:
  13. """
  14. import requests
  15. from bs4 import BeautifulSoup
  16. from lxml import etree
  17. import subprocess as sp
  18. import random
  19. import re
  20. """
  21. 函数说明:获取代理ip网站的ip
  22. """
  23. def get_proxys(page):
  24. #requests的Session()可以自动保存cookie,
  25. #不需要自己维护cookie内容
  26. S = requests.Session()
  27. #目标网址的url
  28. target_url = "http://www.xicidaili.com/nn/%d" %page
  29. target_headers = {
  30. "Upgrade-Insecure-Requests": "1",
  31. "User-Agent": "Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36",
  32. "Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8",
  33. "Referer": "http://www.xicidaili.com/nn/",
  34. "Accept-Encoding": "gzip, deflate, sdch",
  35. "Accept-Language": "zh-CN,zh;q=0.8"
  36. }
  37. target_response = S.get(url=target_url,
  38. headers=target_headers)
  39. target_response.encoding = "utf-8"
  40. target_html = target_response.text
  41. # print(target_html)
  42. #解析数据(ip,port,protocol)
  43. bf1_ip_list = BeautifulSoup(target_html,"lxml")
  44. bf2_ip_list = BeautifulSoup(str(bf1_ip_list.find_all(id="ip_list")),"lxml")
  45. ip_list_info = bf2_ip_list.table.contents
  46. proxys_list = []
  47. for index in range(len(ip_list_info)):
  48. if index % 2 == 1 and index != 1:
  49. dom = etree.HTML(str(ip_list_info[index]))
  50. ip = dom.xpath("//td[2]")
  51. port = dom.xpath("//td[3]")
  52. protocol = dom.xpath("//td[6]")
  53. proxys_list.append(protocol[0].text.lower()
  54. + "#" + ip[0].text
  55. + "#" + port[0].text)
  56. return proxys_list
  57. """
  58. 函数说明:检测代理ip的连通性
  59. 参数:
  60. ip--代理的ip地址
  61. lose_time--匹配的丢包数
  62. waste_time--匹配平均时间
  63. 返回值:
  64. average_time--代理ip的平均耗时
  65. """
  66. def check_ip(ip, lose_time, waste_time):
  67. cmd = "ping -n 3 -w 3 %s"
  68. #执行命令
  69. p = sp.Popen(cmd %ip, stdin=sp.PIPE,
  70. stdout=sp.PIPE,
  71. stderr=sp.PIPE,
  72. shell=True)
  73. #获取返回结果并解码
  74. out = p.stdout.read().decode("GBK")
  75. lose_time = lose_time.findall(out)
  76. if len(lose_time) == 0:
  77. lose = 3
  78. else:
  79. lose = int(lose_time[0])
  80. #如果丢包数大于2,那么我们返回平均耗时1000
  81. if lose > 2:
  82. #返回false(1000)
  83. return 1000
  84. else:
  85. #平均时间
  86. average = waste_time.findall(out)
  87. if len(average) == 0:
  88. return 1000
  89. else:
  90. average_time = int(average[0])
  91. #返回平均耗时
  92. return average_time
  93. """
  94. 函数说明:初始化正则表达式
  95. 返回值:
  96. lose_time--匹配丢包数
  97. waste_time--匹配平均时间
  98. """
  99. def initpattern():
  100. #匹配丢包数
  101. lose_time = re.compile(u"丢失 = (d+)",re.IGNORECASE)
  102. #匹配平均时间
  103. waste_time = re.compile(u"平均 = (d+)ms",re.IGNORECASE)
  104. return lose_time, waste_time
  105. if __name__ == "__main__":
  106. #初始化正则表达式
  107. lose_time, waste_time = initpattern()
  108. #获取ip代理
  109. proxys_list = get_proxys(1)
  110. #如果平均时间超过200ms,则重新选取ip
  111. while True:
  112. #从100个ip中随机选取一个ip作为代理进行网络访问
  113. proxy = random.choice(proxys_list)
  114. split_proxy = proxy.split("#")
  115. #获取ip
  116. ip = split_proxy[1]
  117. #检查ip
  118. average_time = check_ip(ip, lose_time, waste_time)
  119. if average_time > 200:
  120. #去掉不能使用的ip
  121. proxys_list.remove(proxy)
  122. print("ip链接超时,重新获取中...")
  123. else:
  124. break
  125. proxys_list.remove(proxy)
  126. proxys_dict = {split_proxy[0]:split_proxy[1]
  127. + ":" + split_proxy[2]}
  128. print("使用代理:", proxys_dict)

今天的代码有点难以理解,但是要按照代码步骤及规范理解起来并不难,小伙伴们加油,我自己也加油!

文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。

转载请注明本文地址:https://www.ucloud.cn/yun/42021.html

相关文章

  • 【虫术】资深爬虫师带你爬取代理IP

    摘要:返回结果如下,接下来我们便开始爬取西刺代理,首先我们打开浏览器查看网页,并找到和端口元素的信息。爬取代理地址,代理的是西刺代理去掉可能重复的等待秒将要爬取页数的爬取好后存入数组,然后再对其中的逐一测试。 有时候在网站看小说,会莫名跳出来一个疑似机器恶意爬取,暂时无法访问这样类似的网站提示,需要刷新一下或者输入一个验证码才能重新进入,这样的情况偶有发生,相信大家都有遇到过。出现这个现象的...

    learning 评论0 收藏0
  • 【虫术】资深爬虫师带你爬取代理IP

    摘要:返回结果如下,接下来我们便开始爬取西刺代理,首先我们打开浏览器查看网页,并找到和端口元素的信息。爬取代理地址,代理的是西刺代理去掉可能重复的等待秒将要爬取页数的爬取好后存入数组,然后再对其中的逐一测试。 有时候在网站看小说,会莫名跳出来一个疑似机器恶意爬取,暂时无法访问这样类似的网站提示,需要刷新一下或者输入一个验证码才能重新进入,这样的情况偶有发生,相信大家都有遇到过。出现这个现象的...

    PiscesYE 评论0 收藏0
  • Python爬虫_爬取豆瓣阅读提供方列表并写入excel文件中

    摘要:爬取豆瓣阅读提供方代码中会有详细的注释关于也是在看教程和书以及视频学习,纯种小白哈士奇的那种用到的库爬虫库正则模块写模块时间模块库伪装浏览器的固定写法也可以再加加个代理,也可以不加直接使用自己的地址代理西刺代理通过正则获取内容菜鸟 爬取豆瓣阅读提供方 代码中会有详细的注释 关于python也是在看教程和书以及视频学习,纯种小白(哈士奇的那种) 用到的库 urllib     -> ...

    fish 评论0 收藏0
  • 知乎书籍排行网站——建站始末

    摘要:一时心血来潮,于是当时想,如果拿来分析知乎这个网站,会有什么效果呢。知乎并没有公开,只能采取爬虫手段。如此,大概率会触发知乎反爬虫系统,所以采取以下方法来回避这个问题代理池。但是,很多情况下知乎还是能通过你的请求得到你的真实。。 网站地址books.bigfacewo.com最近工作去了,感觉人也变懒了,一直想写一些关于这个网站东西分享出来。慢慢写吧。前情提要:对于大神来说,这个网站使...

    Tony 评论0 收藏0

发表评论

0条评论

fsmStudy

|高级讲师

TA的文章

阅读更多
最新活动
阅读需要支付1元查看
<