资讯专栏INFORMATION COLUMN

nodejs爬虫项目实战

xcold / 3200人阅读

摘要:四爬虫功能制作是来使用的库,它的使用方法与差不多,我们通过它发起请求,在回调函数中输出结果。第一步得到一个的实例第二步定义监听事件的回调函数。

这篇文章主要介绍了NodeJS制作爬虫的全过程,包括项目建立,目标网站分析、使用superagent获取源数据、使用cheerio解析、使用eventproxy来并发抓取每个主题的内容等方面,有需要的小伙伴参考下吧。

一、 依赖 1. DOM操作 cheerio 2. 请求插件 request 3. http库 superagent 4. 代理 eventproxy 二、建立项目node-spider 1. 建立一个Koa2项目

npm install -g koa-generator

2. 生成一个koa2的项目

koa2 -e node-spider -e表示使用ejs模板,具体参照koa生成器,一键生成koa和koa2项目

三、目标网站分析

如图,这是CNode首页一部分div标签,我们就是通过这一系列的id、class来定位我们需要的信息。

四、爬虫功能制作 1. superagent

是ajax API来使用的Http库,它的使用方法与jQuery差不多,我们通过它发起get请求,在回调函数中输出结果。

  var koa = require("koa");
  var router = require("koa-router")
  var url = require("url"); //解析操作url
  var superagent = require("superagent"); //这三个外部依赖不要忘记npm install
  var cheerio = require("cheerio");
  var eventproxy = require("eventproxy");
  var targetUrl = "https://cnodejs.org/";
  superagent.get(targetUrl)
    .end(function (err, res) {
        console.log(res);
    });

它的res结果为一个包含目标url信息的对象,网站内容主要在其text(string)里。

2. 使用cheerio解析

cheerio充当服务器端的jQuery功能,我们先使用它的.load()来载入HTML,再通过CSS selector来筛选元素。

  var $ = cheerio.load(res.text);
  //通过CSS selector来筛选数据
  $("#topic_list .topic_title").each(function (idx, element) {
      console.log(element);
  });

其结果为一个个对象,调用 .each(function(index, element))函数来遍历每一个对象,返回的是HTML DOM Elements。

输出 console.log($element.attr("title"));的结果为
广州2014年12月06日 NodeParty 之 UC 场之类的标题
输出 console.log($element.attr("href"));的结果为
/topic/545c395becbcb78265856eb2之类的url
再用NodeJS1的url.resolve()函数来补全完整的url。

superagent.get(tUrl)
    .end(function (err, res) {
        if (err) {
            return console.error(err);
        }
        var topicUrls = [];
        var $ = cheerio.load(res.text);
        // 获取首页所有的链接
        $("#topic_list .topic_title").each(function (idx, element) {
            var $element = $(element);
            var href = url.resolve(tUrl, $element.attr("href"));
            console.log(href);
            //topicUrls.push(href);
        });
    });
3.使用eventproxy来并发抓取

教程上展示了深度嵌套(串行)方法和计数器方法的例子,eventproxy就是使用事件(并行)方法来解决这个问题。当所有的抓取完成后,eventproxy接收到事件消息自动帮你调用处理函数。

  //第一步:得到一个 eventproxy 的实例
  var ep = new eventproxy();
  //第二步:定义监听事件的回调函数。
  //after方法为重复监听
  //params: eventname(String) 事件名,times(Number) 监听次数, callback 回调函数
  ep.after("topic_html", topicUrls.length, function(topics){
      // topics 是个数组,包含了 40 次 ep.emit("topic_html", pair) 中的那 40 个 pair
      //.map
      topics = topics.map(function(topicPair){
          //use cheerio
          var topicUrl = topicPair[0];
          var topicHtml = topicPair[1];
          var $ = cheerio.load(topicHtml);
          return ({
              title: $(".topic_full_title").text().trim(),
              href: topicUrl,
              comment1: $(".reply_content").eq(0).text().trim()
          });
      });
      //outcome
      console.log("outcome:");
      console.log(topics);
  });
  //第三步:确定放出事件消息的
  topicUrls.forEach(function (topicUrl) {
      superagent.get(topicUrl)
          .end(function (err, res) {
              console.log("fetch " + topicUrl + " successful");
              ep.emit("topic_html", [topicUrl, res.text]);
          });
  });

结果如下

获取留言用户名和积分

在文章页面的源码找到评论的用户class名,classname为reply_author。console.log第一个元素 $(".reply_author").get(0)可以看到,我们需要获取东西都在这里头。

首先,我们先对一篇文章进行抓取,一次性把需要的都得到即可。

  var userHref = url.resolve(tUrl, $(".reply_author").get(0).attribs.href);
  console.log(userHref);
  console.log($(".reply_author").get(0).children[0].data);

我们可以通过https://cnodejs.org/user/username抓取积分信息

$(".reply_author").each(function (idx, element) {
var $element = $(element);
console.log($element.attr("href"));
});

在用户信息页面 $(".big").text().trim()即为积分信息。
使用cheerio的函数.get(0)为获取第一个元素。

var userHref = url.resolve(tUrl, $(".reply_author").get(0).attribs.href);
console.log(userHref);

文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。

转载请注明本文地址:https://www.ucloud.cn/yun/79689.html

相关文章

  • Nodejs爬虫实战项目之链家

    摘要:很基础,不喜勿喷转载注明出处爬虫实战项目之链家效果图思路爬虫究竟是怎么实现的通过访问要爬取的网站地址,获得该页面的文档内容,找到我们需要保存的数据,进一步查看数据所在的元素节点,他们在某方面一定是有规律的,遵循规律,操作,保存数据。 说明 作为一个前端界的小学生,一直想着自己做一些项目向全栈努力。愁人的是没有后台,搜罗之后且学会了nodejs和express写成本地的接口给前端页面调用...

    noONE 评论0 收藏0
  • Nodejs爬虫实战项目之链家

    摘要:很基础,不喜勿喷转载注明出处爬虫实战项目之链家效果图思路爬虫究竟是怎么实现的通过访问要爬取的网站地址,获得该页面的文档内容,找到我们需要保存的数据,进一步查看数据所在的元素节点,他们在某方面一定是有规律的,遵循规律,操作,保存数据。 说明 作为一个前端界的小学生,一直想着自己做一些项目向全栈努力。愁人的是没有后台,搜罗之后且学会了nodejs和express写成本地的接口给前端页面调用...

    MartinDai 评论0 收藏0
  • 爬虫nodejs爬斗鱼直播间数据实战

    摘要:前提本项目地址如果需要,可以到本地打开可直接查看爬虫数据目标爬取斗鱼正在直播的主播数据房间号,在线人数,房间标题,主播名称,直播分类等等依赖构建安装包的应用程序框架小型渐进式客户端请求库,和模块具有相同的,具有许多高级客户端功能可以 前提 本项目github地址:https://github.com/janyin/dou...如果需要,可以clone到本地 $ npm install ...

    KunMinX 评论0 收藏0
  • 不再羡慕python,nodejs爬虫撸起袖子就是干,爬取宅男女神网大姐姐的高清图片!

    摘要:年前无心工作,上班刷知乎发现一篇分享爬虫的文章。另外携带的数据是用来告诉服务器当前请求是从哪个页面请求过来的。 年前无心工作,上班刷知乎发现一篇分享python爬虫的文章。 感觉他爬取的网站里的妹子都好好看哦,超喜欢这里的,里面个个都是美女。 无小意丶:自我发掘爬虫实战1:宅男女神网妹子图片批量抓取,分类保存到本地和MongoDB数据库 无奈python虽然入门过但太久没用早已荒废,最...

    rubyshen 评论0 收藏0

发表评论

0条评论

最新活动
阅读需要支付1元查看
<