摘要:一前言因公司需要选用做全文检索,持久化存储选用的是,但是希望里面的数据发生改变可以实时同步到上,一开始主要使用的版本,可以搞定这个问题。或者修改中的某一条数据,也会实时同步到中。如何把的主文档和附件信息都同步到中利用的来实现。
一、前言
因公司需要选用elasticsearch做全文检索,持久化存储选用的是mongodb,但是希望mongodb里面的数据发生改变可以实时同步到elasticsearch上,一开始主要使用elasticsearch v1.7.2的版本,mongo-river可以搞定这个问题。随着elasticsearch的升级,发现elasticsearch已经放弃了mongo-river,咋整......Google之后发现一神器mongo-connector,国外大神用python写的工具而且MongoDB官网也极力推荐使用。But,我们需要把文档中的附件信息也同步到elasticsearch上,mongo-connector对附件同步支持的不是很好。能不能有个nodejs版本的数据同步?GitHub上发现一个大神写的node-elasticsearch-sync很好用,但是功能太简单了,不支持复杂的数据筛选,也不支持附件同步。活人不能被尿憋死,参考node-elasticsearch-sync自己写了一个同步工具node-mongodb-es-connector。
二、准备工作2.1 安装mongodb
安装mongodb可以去官网下载:
https://www.mongodb.com/
PS:关于如何搭建mongodb replica集群:
https://www.cnblogs.com/ljhdo...
2.2 安装elasticsearch
安装elasticsearch可以去官网下载:
https://www.elastic.co/cn/dow...
PS:关于elasticsearch-head、kibana、logstash等相关安装请自己google吧
2.3 安装nodejs
安装nodejs可以去官网下载:
http://nodejs.cn/
PS:别忘记安装npm,如何安装请自己google吧
以上是使用node-mongodb-es-connector的前提
2.4 node-mongodb-es-connector下载地址
github: https://github.com/zhr8521007...
npm: https://www.npmjs.com/package...
三、文件结构├── crawlerDataConfig 项目构建配置(这里添加你要同步数据的配置) │ ├── mycarts.json 一个index一个配置文件(唯一需要自己增加或者修改的配置文件,这个文件只是提供了一个例子,不用可以删除) │ └── …… ├── lib │ ├── pool │ │ ├── elasticsearchPool.js elasticsearch连接池 │ │ ├── mongoDBPool.js mongodb连接池 │ ├── promise │ │ ├── elasticsearchPromise.js elasticsearch方法类(增删改查) │ │ ├── mongoPromise.js mongodb方法类(增删改查) │ ├── util │ │ ├── fsWatcher.js 配置文件监控类(主要监控crawlerDataConfig目录里面的配置文件) │ │ ├── logger.js 日志类 │ │ ├── oplogFactory.js mongo-oplog触发事件之后的执行方法(增删改) │ │ ├── tail.js 监听mongodb数据是否发生变化 │ │ ├── util.js 工具类 │ ├── main.js 主方法(主要是第一次启动立刻同步mongodb里面的数据到elasticsearch) ├── logs │ ├── logger-2018-03-23.log 同步数据打印日志 │ └── …… ├── test │ ├── img │ │ ├── elasticsearch.jpg 图片不解释 │ │ ├── mongoDB.jpg 图片不解释 │ │ └── structure.jpg 图片不解释 │ └── test.js 测试类(啥也没写) ├── app.js 启动文件 ├── index.js 接口文件(只提供配置文件的增删改) ├── package-lock.json ├── package.json ├── ReadMe.md 英文文档(markdown) ├── README.zh-CN.md 中文文档(markdown) └── LICENSE
mycarts.json文件(这个文件只是提供了一个例子)
{ "mongodb": { "m_database": "myTest", "m_collectionname": "carts", "m_filterfilds": { "version" : "2.0" }, "m_returnfilds": { "cName": 1, "cPrice": 1, "cImgSrc": 1 }, "m_connection": { "m_servers": [ "localhost:29031", "localhost:29032", "localhost:29033" ], "m_authentication": { "username": "UserAdmin", "password": "pass1234", "authsource":"admin", "replicaset":"my_replica", "ssl":false } }, "m_documentsinbatch": 5000, "m_delaytime": 1000 }, "elasticsearch": { "e_index": "mycarts", "e_type": "carts", "e_connection": { "e_server": "http://localhost:9200", "e_httpauth": { "username": "EsAdmin", "password": "pass1234" } }, "e_pipeline": "mypipeline", "e_iscontainattachment": true } }
m_database - MongoDB里需要监听的数据库.
m_collectionname - MongoDB里需要监听的collection.
m_filterfilds - MongoDB里的查询条件,目前支持一些简单的查询条件.(默认值为null)
m_returnfilds - MongoDB需要返回的字段.(默认值为null)
m_connection
m_servers - MongoDB服务器的地址.(replica结构,数组格式)
m_authentication - 如果需要MongoDB的登录验证使用下面配置(默认值为null).
- username - MongoDB连接的用户名. - password - MongoDB连接的密码. - authsource - MongoDB用户认证,默认为admin. - replicaset - MongoDB的replica结构的名字. - ssl- MongoDB的ssl.(默认值为false).
m_documentsinbatch - 一次性从mongodb往Elasticsearch里传入数据的条数.
(你可以设置比较大的值,默认为1000.).
m_delaytime - 每次进elasticsearch数据的间隔时间(默认值为1000ms).
e_index - ElasticSearch里的index.
e_type - ElasticSearch里的type,这里的type主要为了使用bulk.
e_connection
e_server - ElasticSearch的连接字符串.
e_httpauth - 如果ElasticSearch需要登录验证使用下面配置(默认值为null).
username - ElasticSearch连接的用户名.
password - ElasticSearch连接的密码.
e_pipeline - ElasticSearch 中pipeline的名称.(没有pipeline就填null)
e_iscontainattachment - pipeline是否包含附件规则(默认值为false).
四、如何使用用户可以事先在/crawlerDataConfig目录下编辑好自己的配置文件,文件必须以json格式存放.
在文件根目录下,打开cmd命令窗口,输入以下信息:
node app.js
项目启动后,修改配置文件 (如:mycarts.json),数据也会实时同步。或者修改mongodb中的某一条数据,也会实时同步到elasticsearch中。
PS:如何把mongodb的主文档和附件信息都同步到elasticsearch中?
利用elasticsearch的pipeline来实现。
首先需要创建一个pipeline到elasticsearch中:
PUT _ingest/pipeline/mypipeline { "description" : "Extract attachment information from arrays", "processors" : [ { "foreach": { "field": "attachments", "processor": { "attachment": { "target_field": "_ingest._value.attachment", "field": "_ingest._value.data" } } } } ] }
然后在配置文件中(如:mycarts.json)修改节点数据即可
"e_pipeline": "mypipeline"五、结果展示
mongodb里面的数据
elasticsearch里面的数据
文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。
转载请注明本文地址:https://www.ucloud.cn/yun/19241.html
摘要:项目简介前端站点项目效果预览使用实现磁力链接爬虫磁力链接解析成种子信息,保存到数据库,利用实现中文检索。搭建磁力链接搜索引擎源码地址后端脚本磁力链接获取磁力链接解析入库定时同步源码地址此项目仅用学习交流技术使用不做商业用途。 项目简介 前端站点 项目效果预览 http://findcl.com 使用 nodejs 实现磁力链接爬虫 磁力链接解析成 torrent种子信息,保存到数据...
摘要:今天我们来介绍一下基于阿里云表格存储,以及相关的大数据产品来采集与分析数据的方案。我们尝试一种基于和阿里云其他大数据产品的新方案,我们先看架构图图中关键路径分析页等客户端先通过埋点系统收集数据,然后通过表格存储的将数据写入的原始数据表。 摘要: 摘要 在互联网高度发达的今天,ipad、手机等智能终端设备随处可见,运行在其中的APP、网站也非常多,如何采集终端数据进行分析,提升软件的品质...
阅读 1899·2021-09-07 10:24
阅读 2034·2019-08-30 15:55
阅读 1988·2019-08-30 15:43
阅读 640·2019-08-29 15:25
阅读 997·2019-08-29 12:19
阅读 1911·2019-08-23 18:32
阅读 1483·2019-08-23 17:59
阅读 931·2019-08-23 12:22