摘要:也就是说,我的篇文章的请求对应个实例,这些实例都请求完毕后,执行以下逻辑他的目的在于对每一个返回值这个返回值为单篇文章的内容,进行方法处理。
英国人Robert Pitt曾在Github上公布了他的爬虫脚本,导致任何人都可以容易地取得Google Plus的大量公开用户的ID信息。至今大概有2亿2千5百万用户ID遭曝光。
亮点在于,这是个nodejs脚本,非常短,包括注释只有71行。
毫无疑问,nodeJS改变了整个前端开发生态。本文一步步完成了一个基于promise的nodeJS爬虫程序,收集简书任意指定作者的文章信息。并最终把爬下来结果以邮件的形式,自动化发给目标对象。千万不要被nodeJS的外表吓到,既是你是初入前端的小菜鸟,或是刚接触nodeJS不久的新同学,都不妨碍对这篇文章的阅读和理解。
爬虫的所有代码可以在我的Github仓库找到,日后这个爬虫程序还会进行不断升级和更新,欢迎关注。
nodeJS VS Python实现爬虫我们先从爬虫说起。对比一下,讨论为什么nodeJS适合/不适合作为爬虫编写语言。
首先,总结一下:
NodeJS单线程、事件驱动的特性可以在单台机器上实现极大的吞吐量,非常适合写网络爬虫这种资源密集型的程序。
但是,对于一些复杂场景,需要更加全面的考虑。以下内容总结自知乎相关问题,感谢@知乎网友,对答案的贡献。
如果是定向爬取几个页面,做一些简单的页面解析,爬取效率不是核心要求,那么用什么语言差异不大。
如果是定向爬取,且主要目标是解析js动态生成的内容 :
此时,页面内容是由js/ajax动态生成的,用普通的请求页面+解析的方法就不管用了,需要借助一个类似firefox、chrome浏览器的js引擎来对页面的js代码做动态解析。
如果爬虫是涉及大规模网站爬取,效率、扩展性、可维护性等是必须考虑的因素时候:
大规模爬虫爬取涉及诸多问题:多线程并发、I/O机制、分布式爬取、消息通讯、判重机制、任务调度等等,此时候语言和所用框架的选取就具有极大意义了。具体来看:
PHP:对多线程、异步支持较差,不建议采用。
NodeJS:对一些垂直网站爬取倒可以。但由于分布式爬取、消息通讯等支持较弱,根据自己情况判断。
Python:建议,对以上问题都有较好支持。
当然,我们今天所实现的是一个简易爬虫,不会对目标网站带来任何压力,也不会对个人隐私造成不好影响。毕竟,他的目的只是熟悉nodeJS环境。适用于新人入门和练手。
当然,任何恶意的爬虫性质是恶劣的,我们应当全力避免影响,共同维护网络环境的健康。
爬虫实例今天要编写的爬虫目的是爬取简书作者:LucasHC(我本人)在简书平台上,发布过的所有文章信息,包括:每篇文章的:
发布日期;
文章字数;
评论数;
浏览数、赞赏数;
等等。
最终爬取结果的输出如下:
以下结果,我们需要通过脚本,自动地发送邮件到指定邮箱。收件内容如下:
以上结果只需要一键操作便可完成。
爬虫设计我们的程序一共依赖三个模块/类库:
const http = require("http"); const Promise = require("promise"); const cheerio = require("cheerio");发送请求
http是nodeJS的原生模块,自身就可以用来构建服务器,而且http模块是由C++实现的,性能可靠。
我们使用Get,来请求简书作者相关文章的对应页面:
http.get(url, function(res) { var html = ""; res.on("data", function(data) { html += data; }); res.on("end", function() { ... }); }).on("error", function(e) { reject(e); console.log("获取信息出错!"); });
因为我发现,简书中每一篇文章的链接形式如下:
完整形式:“http://www.jianshu.com/p/ab27...”,
即 “http://www.jianshu.com/p/” + “文章id”。
所以,上述代码中相关作者的每篇文章url:由baseUrl和相关文章id拼接组成:
articleIds.forEach(function(item) { url = baseUrl + item; });
articleIds自然是存储作者每篇文章id的数组。
最终,我们把每篇文章的html内容存储在html这个变量中。
异步promise封装由于作者可能存在多篇文章,所以对于每篇文章的获取和解析我们应该异步进行。这里我使用了promise封装上述代码:
function getPageAsync (url) { return new Promise(function(resolve, reject){ http.get(url, function(res) { ... }).on("error", function(e) { reject(e); console.log("获取信息出错!"); }); }); };
这样一来,比如我写过14篇原创文章。这样对每一片文章的请求和处理全都是一个promise对象。我们存储在预先定义好的数组当中:
const articlePromiseArray = [];
接下来,我使用了Promise.all方法进行处理。
Promise.all方法用于将多个Promise实例,包装成一个新的Promise实例。
该方法接受一个promise实例数组作为参数,实例数组中所有实例的状态都变成Resolved,Promise.all返回的实例才会变成Resolved,并将Promise实例数组的所有返回值组成一个数组,传递给回调函数。
也就是说,我的14篇文章的请求对应14个promise实例,这些实例都请求完毕后,执行以下逻辑:
Promise.all(articlePromiseArray).then(function onFulfilled (pages) { pages.forEach(function(html) { let info = filterArticles(html); printInfo(info); }); }, function onRejected (e) { console.log(e); });
他的目的在于:对每一个返回值(这个返回值为单篇文章的html内容),进行filterArticles方法处理。处理所得结果进行printInfo方法输出。
接下来,我们看看filterArticles方法做了什么。
其实很明显,如果您理解了上文的话。filterArticles方法就是对单篇文章的html内容进行有价值的信息提取。这里有价值的信息包括:
1)文章标题;
2)文章发表时间;
3)文章字数;
4)文章浏览量;
5)文章评论数;
6)文章赞赏数。
function filterArticles (html) { let $ = cheerio.load(html); let title = $(".article .title").text(); let publishTime = $(".publish-time").text(); let textNum = $(".wordage").text().split(" ")[1]; let views = $(".views-count").text().split("阅读")[1]; let commentsNum = $(".comments-count").text(); let likeNum = $(".likes-count").text(); let articleData = { title: title, publishTime: publishTime, textNum: textNum views: views, commentsNum: commentsNum, likeNum: likeNum }; return articleData; };
你也许会奇怪,为什么我能使用类似jQuery中的$对html信息进行操作。其实这归功于cheerio类库。
filterArticles方法返回了每篇文章我们感兴趣的内容。这些内容存储在articleData对象当中,最终由printInfo进行输出。
邮件自动发送到此,爬虫的设计与实现到了一段落。接下来,就是把我们爬取的内容以邮件方式进行发送。
这里我使用了nodemailer模块进行发送邮件。相关逻辑放在Promise.all当中:
Promise.all(articlePromiseArray).then(function onFulfilled (pages) { let mailContent = ""; var transporter = nodemailer.createTransport({ host : "smtp.sina.com", secureConnection: true, // 使用SSL方式(安全方式,防止被窃取信息) auth : { user : "**@sina.com", pass : *** }, }); var mailOptions = { // ... }; transporter.sendMail(mailOptions, function(error, info){ if (error) { console.log(error); } else { console.log("Message sent: " + info.response); } }); }, function onRejected (e) { console.log(e); });
邮件服务的相关配置内容我已经进行了适当隐藏。读者可以自行配置。
总结本文,我们一步一步实现了一个爬虫程序。涉及到的知识点主要有:nodeJS基本模块用法、promise概念等。如果拓展下去,我们还可以做nodeJS连接数据库,把爬取内容存在数据库当中。当然也可以使用node-schedule进行定时脚本控制。当然,目前这个爬虫目的在于入门,实现还相对简易,目标源并不是大型数据。
本文只涉及nodeJS的冰山一角,希望大家一起探索。如果你对完整代码感兴趣,请点击这里。
Happy Coding!
文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。
转载请注明本文地址:https://www.ucloud.cn/yun/82252.html
摘要:本文首发于个人博客项目源码,欢迎,说不定哪天脱单了就能用到了写在前面自从用邮箱注册了很多账号后,便会收到诸如以下类似的邮件刚开始还以为是一张图片,后来仔细一看不是图片呀,好像还是呀,于是好奇宝宝我一下,查阅多篇资料后总结出怎么用前端知识和做 本文首发于个人博客:VinceBlog 项目源码:NodeMail,欢迎star,说不定哪天脱单了就能用到了 写在前面 自从用邮箱注册了很多账号后...
摘要:支持一键部署项目到集群。添加邮箱帐号设置邮件工作时间和基本触发器,以下示例代表每隔小时或当某一任务完成时,并且当前时间是工作日的点,点和点,将会发送通知邮件。除了基本触发器,还提供了多种触发器用于处理不同类型的,包括和等。 showImg(https://segmentfault.com/img/remote/1460000018772067?w=1680&h=869); 安装和配置 ...
摘要:以上示例代表当发现条或条以上的级别的时,自动停止当前任务,如果当前时间在邮件工作时间内,则同时发送通知邮件。 showImg(https://segmentfault.com/img/remote/1460000018052810); 一、需求分析 初级用户: 只有一台开发主机 能够通过 Scrapyd-client 打包和部署 Scrapy 爬虫项目,以及通过 Scrapyd JS...
摘要:并利用提供的云引擎服务实现在周五给全员发送邮件提醒填写周报,周六周日分别再次对未填人员发送邮件进行填写提醒。虽然提供的免费云引擎,本身就支持服务,但是免费版是做测试用的,会自动休眠,不够稳定,经常挂掉。 This just is a README. showImg(https://segmentfault.com/img/remote/1460000013260535);showImg...
阅读 795·2019-08-30 15:54
阅读 438·2019-08-30 12:51
阅读 2021·2019-08-29 16:28
阅读 2841·2019-08-29 16:10
阅读 2330·2019-08-29 14:21
阅读 408·2019-08-29 14:09
阅读 2126·2019-08-23 16:13
阅读 1235·2019-08-23 13:59