摘要:爬取分辨率超清唯美壁纸简介壁纸的选择其实很大程度上能看出电脑主人的内心世界,有的人喜欢风景,有的人喜欢星空,有的人喜欢美女,有的人喜欢动物。
@[toc]
爬取5K分辨率超清唯美壁纸 简介壁纸的选择其实很大程度上能看出电脑主人的内心世界,有的人喜欢风景,有的人喜欢星空,有的人喜欢美女,有的人喜欢动物。然而,终究有一天你已经产生审美疲劳了,但你下定决定要换壁纸的时候,又发现网上的壁纸要么分辨率低,要么带有水印。
这里有一款Mac下的小清新壁纸神器Pap.er,可能是Mac下最好的壁纸软件,自带5K超清分辨率壁纸,富有多种类型壁纸,当我们想在Windows或者Linux下使用的时候,就可以考虑将5K超清分辨率壁纸爬取下来。
编写思路为了方便快速开发,我们使用python中的wxpy模块完成微信的基本操作。
首先,打开Charles软件,进行抓包。打开Pap.er,开始抓包。(由于是Mac系统下的APP,所以非Mac系统的朋友可以直接看抓包结果)
抓包分析结果如下:
类型 | 地址 |
---|---|
最新 | https://service.paper.meiyuan... |
最热 | https://service.paper.meiyuan... |
女生 | https://service.paper.meiyuan... |
星空 | https://service.paper.meiyuan... |
参数page不用改动,per_page指的是每页提取的数量,也就是我们想要提取的图片数量。
抓完包之后,我们开始编写5K壁纸解析程序
# 爬取不同类型图片 def crawler_photo(type_id, photo_count): # 最新 1, 最热 2, 女生 3, 星空 4 if(type_id == 1): url = "https://service.paper.meiyuan.in/api/v2/columns/flow/5c68ffb9463b7fbfe72b0db0?page=1&per_page=" + str(photo_count) elif(type_id == 2): url = "https://service.paper.meiyuan.in/api/v2/columns/flow/5c69251c9b1c011c41bb97be?page=1&per_page=" + str(photo_count) elif(type_id == 3): url = "https://service.paper.meiyuan.in/api/v2/columns/flow/5c81087e6aee28c541eefc26?page=1&per_page=" + str(photo_count) elif(type_id == 4): url = "https://service.paper.meiyuan.in/api/v2/columns/flow/5c81f64c96fad8fe211f5367?page=1&per_page=" + str(photo_count) headers = {"User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36"} # 获取图片链接列表数据,json格式 respond = requests.get(url, headers=headers) # 对json格式转化为python对象 photo_data = json.loads(respond.content) # 已经下载的图片张数 now_photo_count = 1 # 所有图片张数 all_photo_count = len(photo_data) # 开始下载并保存5K分辨率壁纸 for photo in photo_data: # 创建一个文件夹存放我们下载的图片(若存在则不用重新创建) if not os.path.exists("./" + str(type_id)): os.makedirs("./" + str(type_id)) # 准备下载的图片链接,5K超清壁纸链接 file_url = photo["urls"]["raw"] # 准备下载的图片名称,不包含扩展名 file_name_only = file_url.split("/") file_name_only = file_name_only[len(file_name_only) -1] # 准备保存到本地的完整路径 file_full_name = "./" + str(type_id) + "/" + file_name_only # 开始下载图片 Down_load(file_url, file_full_name, now_photo_count, all_photo_count) # 已经下载的图片数量加1 now_photo_count = now_photo_count + 1
根据不同类型的壁纸,创建不同的文件夹编号进行分类。
上面的Down_load()函数是下载文件的意思,调用requests库,具体代码如下:
# 文件下载器 def Down_load(file_url, file_full_name, now_photo_count, all_photo_count): headers = {"User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36"} # 开始下载图片 with closing(requests.get(file_url, headers=headers, stream=True)) as response: chunk_size = 1024 # 单次请求最大值 content_size = int(response.headers["content-length"]) # 文件总大小 data_count = 0 # 当前已传输的大小 with open(file_full_name, "wb") as file: for data in response.iter_content(chunk_size=chunk_size): file.write(data) done_block = int((data_count / content_size) * 50) data_count = data_count + len(data) now_jd = (data_count / content_size) * 100 print(" %s:[%s%s] %d%% %d/%d" % (file_full_name, done_block * "█", " " * (50 - 1 - done_block), now_jd, now_photo_count, all_photo_count), end=" ") # 下载完图片后获取图片扩展名,并为其增加扩展名 file_type = filetype.guess(file_full_name) os.rename(file_full_name, file_full_name + "." + file_type.extension)
chunk_size指的是单次请求的最大值,content_size指的就是我们下载5K超清壁纸的大小,为了能够直观显示下载情况,所以添加了下载进度条的显示效果。核心代码为file.write(data)。
下载完毕后,为了方便我们查看文件,所以需要给图片添加对应的扩展名,比如jpg,png,gif,这里使用到filetype库对文件进行解析,判断其类型。
最后,开始在main中爬取5K高清壁纸:
if __name__ == "__main__": # 最新 1, 最热 2, 女生 3, 星空 4 # 爬取类型为3的图片(女生),一共准备爬取100张 print("程序已经开始运行,请稍等……") crawler_photo(1, 100) crawler_photo(2, 100) crawler_photo(3, 100) crawler_photo(4, 100)使用教程
确保以下库均已安装:
# 如果没有安装,请使用pip install module安装 import requests import filetype import os import json from contextlib import closing演示图片 完整源代码
项目源代码在GitHub仓库
项目持续更新,欢迎您star本项目
文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。
转载请注明本文地址:https://www.ucloud.cn/yun/43381.html
摘要:爱美之心人皆有之,正所谓窈窕淑女君子好逑,美好敲代码的一天从好看的桌面壁纸开始,好看的桌面壁纸从美女壁纸开始。 大家好,我是辣条,这是我爬虫系列的第26篇。 爱美之心人皆有之,正所谓窈窕淑女君子好逑,美好敲代码的一天从好看的桌面壁纸开始,好看的桌面壁纸从美女壁纸开始。今天给大家带来福利啦,爬...
摘要:前言之前初学的时候,有用爬虫爬过一些磁力链接详情见羞羞的爬虫但是没有并发,没有代理,那时也对异步不是很了解所以这次又写了个爬虫,爬取壁纸站的所有壁纸并且爬取开心代理的条,并将有用的存进文件中用到的模块控制并发解析库使用代理读写文件其中的具 前言 之前初学node的时候,有用爬虫爬过一些磁力链接详情见羞羞的node爬虫但是没有并发,没有代理,那时也对异步不是很了解所以这次又写了个爬虫,爬...
摘要:项目地址,另外知乎同名文章也是我发布的,大家可以多多关注首先观察控制台其次再看本地壁纸库现在进入正题,这个小项目用到了具体版本见,另外还用到了中的线程池阻塞队列生产消费者模式文件监听服务,所以至少要求版本为或者以上项目分为个类和一个方法入 项目地址,另外知乎同名文章也是我发布的,大家可以多多关注 首先观察控制台showImg(https://segmentfault.com/img/b...
摘要:前提最近我的的朋友浏览一些网站,看到好看的图片,问我有没有办法不用手动一张一张保存图片我说用丫保存壁纸太麻烦教你如何用快速获取网站图片项目 前提最近我的的朋友浏览一些网站,看到好看的图片,问我有没有办法不用手动一张一张保存图片!我说用Jsoup丫!打开开发者模式(F12),找到对应图片的链接,在互联网中,每一张图片就是一个...
阅读 2062·2021-11-24 09:39
阅读 2742·2021-07-29 13:49
阅读 2270·2019-08-29 14:15
阅读 2209·2019-08-29 12:40
阅读 3288·2019-08-26 13:42
阅读 578·2019-08-26 12:13
阅读 2033·2019-08-26 11:41
阅读 3319·2019-08-23 18:32