摘要:什么是简而言之,就是,不存在就插入,存在就更新。当然也有功能,和的类似。然而,命令不支持,这使一些增量的工作非常不方便。五把表清空上面过程确实很麻烦,如果使用的话,只需要简单的相关链接
什么是 Upsert
"UPSERT" is a DBMS feature that allows a DML statement"s author to atomically either insert a row, or on the basis of the row already existing, UPDATE that existing row instead, while safely giving little to no further thought to concurrency. One of those two outcomes must be guaranteed, regardless of concurrent activity, which has been called "the essential property of UPSERT".
简而言之,就是,不存在就插入,存在就更新。
单记录 UpsertMySQL有INSERT...ON DUPLICATE KEY UPDATE语法,可以实现Upsert:
INSERT INTO customers (id, first_name, last_name, email) VALUES (30797, "hooopo1", "wang", "hoooopo@gmail.com") ON DUPLICATE KEY UPDATE first_name = VALUES(first_name), last_name = VALUES(last_name);
PostgreSQL 从 9.5 也有了INSERT ... ON CONFLICT UPDATE语法,效果和 MySQL 类似:
INSERT INTO customers (id, first_name, last_name, email) VALUES (30797, "hooopo1", "wang", "hoooopo@gmail.com") ON CONFLICT(id) DO UPDATE SET first_name = EXCLUDED.first_name, last_name = EXCLUDED.last_name;批量 Upsert
之前研究 MySQL 里如何插入最快 ,里面提到 LOAD INFILE 方式批量插入,并且 MySQL 的 bulk insert 是支持 REPLACE 语意的,即批量插入的同时还可以 upsert。
LOAD DATA LOCAL INFILE "/Users/hooopo/data/out/product_sales_facts.txt" REPLACE INTO TABLE product_sale_facts FIELDS TERMINATED BY "," (`id`,`date_id`,`order_id`,`product_id`,`address_id`,`unit_price`,`purchase_price`,`gross_profit`,`quantity`,`channel_id`,`gift`)
当然 PostgreSQL 也有 Copy功能,和 MySQL 的 LOAD INFILE 类似。然而,copy 命令不支持 Upsert,这使一些增量 ETL 的工作非常不方便。
不过有一种利用 staging 表的方式实现 bulk upsert,大致步骤如下:
一. 目标表
二. 把增量数据批量插入中间表
CREATE TABLE IF NOT EXISTS staging LIKE customers INCLUDING DEFAULTS INCLUDING CONSTRAINTS INCLUDING INDEXES; COPY staging (id, email, first_name, last_name) FROM STDIN WITH DELIMITER "," NULL "N" CSV;
三. 把目标表中与 staging 表冲突部分删掉
DELETE FROM customers USING staging WHERE customers.id = staging.id
四. 把 staging 表批量插入到目标表,因为冲突部分已经删掉,所以这步不会有任何冲突。
INSERT INTO customers (SELECT * FROM staging);
五. 把 staging 表清空
TRUNCATE TABLE staging;
上面过程确实很麻烦,如果使用 kiba-plus 的话,只需要简单的 DSL:
destination Kiba::Plus::Destination::PgBulk2, { :connect_url => DEST_URL, :table_name => "customers", :truncate => false, :columns => [:id, :email, :first_name, :last_name], :incremental => true, :unique_by => :id }
相关链接:
https://wiki.postgresql.org/w...
http://www.silota.com/blog/am...
https://hashrocket.com/blog/p...
http://docs.aws.amazon.com/re...
http://stackoverflow.com/ques...
文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。
转载请注明本文地址:https://www.ucloud.cn/yun/39019.html
摘要:用例测试表继续用上述的创建测试文件,内容如下创建文件,内容如下根据文件加载数据检查数据是否转换成功初试主要是针对大数据量的且一般是批量装载的方式。 Trafodion 的数据加载主要包括两种方法,即 Trickle Load(持续加载) 和 Bulk Load(批量加载)。下表介绍了两种加载方法的区别: 类型 描述 方法/工具 Trickle Load 数据量较小,立即插入 ...
阅读 2774·2021-11-17 09:33
阅读 3108·2021-10-25 09:44
阅读 1215·2021-10-11 10:59
阅读 2408·2021-09-27 13:34
阅读 2916·2021-09-07 10:19
阅读 2145·2019-08-29 18:46
阅读 1540·2019-08-29 12:55
阅读 935·2019-08-23 17:11