摘要:爬虫又一个爬虫实现原文简介小强当时不知道为啥选了这么个名字,又长又难记,导致编码的过程中因为单词的拼写问题耽误了好长时间。我是一个小强爬虫线程数健壮说到健壮,这里主要体现在以下几个方面应对封锁这里我们使用动态代理来解决这个问题。
cockroach 爬虫:又一个 java 爬虫实现
原文
简介cockroach[小强] 当时不知道为啥选了这么个名字,又长又难记,导致编码的过程中因为单词的拼写问题耽误了好长时间。
这个项目算是我的又一个坑吧,算起来挖的坑多了去了,多一个不多少一个不少。
一个小巧、灵活、健壮的爬虫框架,暂且叫做框架吧。
简单到什么程度呢,几句话就可以创建一个爬虫。
环境java8 程序中用到了一些 java8 的新特性
maven
com.github.zhangyingwei cockroach 1.0.5-Beta
如果哪天我忘了更新文档了,一定要记住使用最新的版本,最新的版本,新的版本,版本,本。
下面就逐点介绍一下:
小巧小巧主要体现在两个方面
体积小 (打包之后整个 jar 包只有 70k 多一点,所以完全担得起小巧两个字)
开发代码量小(基于本框架开发一个爬虫需要的工作量可以说是非常小。这个在下边的文档中会有体现)
实例在项目中新建一个测试类 App.java 并新建 main 方法。
public static void main(String[] args){ CockroachConfig config = new CockroachConfig() .setAppName("我是一个小强") .setThread(2); //爬虫线程数 CockroachContext context = new CockroachContext(config); TaskQueue queue = TaskQueue.of(); context.start(queue); // 以上就是一个完整的爬虫,下边的代码相当于一个生产者,往队列里边写任务,一旦写入任务,爬虫就会对任务进行爬取 new Thread(() -> { int i = 0; while(true){ i++; try { Thread.sleep(1000); String url = "http://www.xicidaili.com/wt/"+i; System.out.println(url); queue.push(new Task(url)); } catch (InterruptedException e) { e.printStackTrace(); } if (i > 1000) { break; } } }).start(); }灵活
那灵活又体现在什么方面呢
可以自定义 http 客户端(可选
,默认使用 okhttp3)
可以自定义结果的处理 (可选,默认使用打印处理器)
自定义 http 客户端首先我们尝试一下自定义客户端
public class SelfHttpClient implements HttpClient { public HttpClient setProxy(HttpProxy proxy){ //设置代理实现方法 } public TaskResponse doGet(Task task) throws Exception{ // get 请求实现方法 } public HttpClient proxy(){ // 应用代理到 http 客户端 方法 } public TaskResponse doPost(Task task) throws Exception{ // post 请求实现方法 } public HttpClient setCookie(String cookie){ // 设置 cookie 实现方法 } public HttpClient setHttpHeader(MaphttpHeader){ // 设置 header 实现方法 } }
应用自定义 http 客户端到爬虫
CockroachConfig config = new CockroachConfig() .setAppName("我是一个小强") .setThread(2) //爬虫线程数 .setHttpClient(SelfHttpClient.class)
PS:上边这一块目前处于待定状态
自定义结果处理类自定义结果处理类
public class SelfStore implements IStore { @Override public void store(TaskResponse response) { System.out.println(response.getContent()); } }
这里简单的将结果打印了出来,在实际应用中,我们可以保存到数据库或者保存到文件中等等。值得一说的是,如果结果是 html 网页文本的话,我们还提供了 select("css选择器") 来对结果文本进行处理。
应用自定义 store 客户端到爬虫
CockroachConfig config = new CockroachConfig() .setAppName("我是一个小强") .setThread(2) //爬虫线程数 .setHttpClient(SelfHttpClient.class) .setStore(SelfStore.class);自定义错误处理类
当 http 请求网页出现错误的时候会统一定位到错误处理类,如果没有自定义错误处理类,系统会默认使用 DefaultTaskErrorHandler ,此处理类会吧错误信息打印出来。具体实现代码如下。
public class DefaultTaskErrorHandler implements ITaskErrorHandler { private Logger logger = Logger.getLogger(DefaultTaskErrorHandler.class); @Override public void error(Task task,String message) { logger.info("task error: "+message); } }
如果需要自定义错误处理类,可以仿照以上代码,实现 ITaskErrorHandler 接口,在 error 方法中实现自己的处理逻辑。
在自定义错误处理类之后,我们需要把自定义类应用到爬虫。
CockroachConfig config = new CockroachConfig() .setAppName("我是一个小强") .setThread(2) //爬虫线程数 .setHttpClient(SelfHttpClient.class) .setStore(SelfStore.class) .setTaskErrorHandler(SelfTaskErrorHandler.class);健壮
说到健壮,这里主要体现在以下几个方面:
应对IP封锁
这里我们使用动态代理来解决这个问题。
动态代理的使用CockroachConfig config = new CockroachConfig() .setAppName("我是一个小强") .setThread(2) //爬虫线程数 .setHttpClient(SelfHttpClient.class) .setProxys("100.100.100.100:8888,101.101.101.101:8888")
如上所示,我们可以设置若干个代理 ip,最终将所有代理 ip 生成一个代理池,在爬虫请求之前,我们会从代理池中随机抽取一个 ip 做代理。
应对 http 请求中的 user-agent 问题
程序中实现了一个 user-agent 池,每次请求都会随机取出一个 user-agent 使用,目前在程序中集成了 17 种 user-agent,后续会考虑把这块开放出来到配置中,自定义配置(有没有意义呢?)。
程序中的异常处理问题
目前在异常处理这块,本身也不是非常擅长,已经尽力把异常控制在一个可控的范围内,程序中定义了很多自定义异常,这里没有什么发言权,就不细说了,各位要是有意见建议,欢迎拍砖。
所谓深度爬取程序中并没有现成的深度爬取实现,是因为一般情况下我并不觉得深度爬取有什么卵用,但是也不是没有为深度爬取留出来一席之地。我们可以自己提取出页面中的链接并加入到任务队列中。以达到深度爬取的效果。
public class DemoStore implements IStore { private String id = NameUtils.name(DemoStore.class); public DemoStore() throws IOException {} @Override public void store(TaskResponse response) throws IOException { List注解支持urls = response.select("a").stream().map(element -> element.attr("href")).collect(Collectors.toList()); try { response.getQueue().push(urls); } catch (Exception e) { e.printStackTrace(); } } }
最近忙里偷闲增加了注解支持,那么在使用注解之后,一个爬虫是什么样的呢?
@EnableAutoConfiguration @AppName("hello spider") @Store(PrintStore.class) @AutoClose(true) @ThreadConfig(num = 1) @CookieConfig("asdfasdfasdfasdfasfasdfa") @HttpHeaderConfig({ "key1=value1", "key2=value2" }) @ProxyConfig("1.1.1.1,2.2.2.2") public class CockroachApplicationTest { public static void main(String[] args) throws Exception { TaskQueue queue = TaskQueue.of(); queue.push(new Task("http://blog.zhangyingwei.com")); CockroachApplication.run(CockroachApplicationTest.class,queue); } }
如上就是基本上所有注解的演示,那么抛开演示的部分,如果真的只是做一个demo,需要怎么写呢?
@EnableAutoConfiguration public class CockroachApplicationTest { public static void main(String[] args) throws Exception { TaskQueue queue = TaskQueue.of(); queue.push(new Task("http://blog.zhangyingwei.com")); CockroachApplication.run(CockroachApplicationTest.class,queue); } }
没错,就是这么简单。这个爬虫就是爬取 http://blog.zhangyingwei.com 这个页面的内容并将结果打印出来。
在爬虫结果处理这个问题上,程序中默认使用 PringStore 这个类将所有结果打印出来。
最近做了一个工作职位的爬虫,在爬拉钩的时候遇到一个问题。需要登录才能爬取,这个当然配置 cookie 就能解决,但是拉钩的 cookie 里边做了防爬虫验证。cookie 里边有一个时间需要动态变化。所以就产生了这个功能。
这个功能使用起来如下:
Cookie 生成器@CookieConfig(cookieGenerator = CookieGeneratorTest.class)
/** * Created by zhangyw on 2017/12/19. */ public class CookieGeneratorTest implements StringGenerator { @Override public String get(Task task) { String cookie = "v="+ UUID.randomUUID().toString(); System.out.println(cookie); return cookie; } }
在每次发生 http 请求之前,程序都会调用 Generator 的 get 方法。获取到本次的 cookie 值,并附加到 http 请求头中。
Header 生成器由于程序中需要的 header 是 map 类型的数据,所以 header 生成器如下:
@HttpHeaderConfig(headerGenerator = HeaderGeneratorTest.class)
/** * Created by zhangyw on 2017/12/19. */ public class HeaderGeneratorTest implements MapGenerator { private Map headers = new HashMap(); @Override public Map get(Task task) { return headers; } }
以上就是目前所有的生成器,可以看到生成器中传入了 task 对象,这里是为了在爬虫应对不同的地址的时候使用不同的 cookie/header 。
算了还是举个栗子吧:
/** * Created by zhangyw on 2017/12/19. */ public class HeaderGeneratorTest implements MapGenerator { private Map headers = new HashMap(); @Override public Map get(Task task) { if ("jobs.lagou".equals(task.getGroup())) { header.put("key","value"); return headers; } else { return null; } } }
OK,到此为止,就啰嗦这么多了。
最后,各位大大如果觉得不讨厌的话,来个 start 呗。
https://github.com/zhangyingwei/cockroach
文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。
转载请注明本文地址:https://www.ucloud.cn/yun/70865.html
摘要:文章目录前言爬取分析视频教学成果展示福利入门到就业学习路线规划小白快速入门爬虫路线前言皮皮虾一个沙雕而又有趣的憨憨少年,和大多数小伙伴们一样喜欢听歌游戏,当然除此之外还有写作的兴趣,,日子还很长,让我们一起加油努力叭话 ...
摘要:以上是如果你想精通网络爬虫的学习研究路线,按照这些步骤学习下去,可以让你的爬虫技术得到非常大的提升。 作者:韦玮 转载请注明出处 随着大数据时代的到来,人们对数据资源的需求越来越多,而爬虫是一种很好的自动采集数据的手段。 那么,如何才能精通Python网络爬虫呢?学习Python网络爬虫的路线应该如何进行呢?在此为大家具体进行介绍。 1、选择一款合适的编程语言 事实上,Python、P...
摘要:以下这些项目,你拿来学习学习练练手。当你每个步骤都能做到很优秀的时候,你应该考虑如何组合这四个步骤,使你的爬虫达到效率最高,也就是所谓的爬虫策略问题,爬虫策略学习不是一朝一夕的事情,建议多看看一些比较优秀的爬虫的设计方案,比如说。 (一)如何学习Python 学习Python大致可以分为以下几个阶段: 1.刚上手的时候肯定是先过一遍Python最基本的知识,比如说:变量、数据结构、语法...
摘要:一时心血来潮,于是当时想,如果拿来分析知乎这个网站,会有什么效果呢。知乎并没有公开,只能采取爬虫手段。如此,大概率会触发知乎反爬虫系统,所以采取以下方法来回避这个问题代理池。但是,很多情况下知乎还是能通过你的请求得到你的真实。。 网站地址books.bigfacewo.com最近工作去了,感觉人也变懒了,一直想写一些关于这个网站东西分享出来。慢慢写吧。前情提要:对于大神来说,这个网站使...
摘要:一时心血来潮,于是当时想,如果拿来分析知乎这个网站,会有什么效果呢。知乎并没有公开,只能采取爬虫手段。如此,大概率会触发知乎反爬虫系统,所以采取以下方法来回避这个问题代理池。但是,很多情况下知乎还是能通过你的请求得到你的真实。。 网站地址books.bigfacewo.com最近工作去了,感觉人也变懒了,一直想写一些关于这个网站东西分享出来。慢慢写吧。前情提要:对于大神来说,这个网站使...
阅读 1918·2021-09-09 09:33
阅读 1075·2019-08-30 15:43
阅读 2610·2019-08-30 13:45
阅读 3264·2019-08-29 11:00
阅读 804·2019-08-26 14:01
阅读 3539·2019-08-26 13:24
阅读 454·2019-08-26 11:56
阅读 2668·2019-08-26 10:27