资讯专栏INFORMATION COLUMN

PHP+Mysql高并发解决

wuyangchun / 1833人阅读

摘要:更多详情,请看原文章批量插入性能优化相关文章高并发简单解决方案队列缓存批量入库离线整合秒杀活动设计方案

在项目中,经常都会遇到高并发问题,如在某个时间点有100个人对同一数据进行更改,这样就会产生问题,最后导致的数据会不准确,通常的解决高并发的方法有读取数据时加缓存,写入数据时添加到队列,下面罗列一些处理高并发的常见方法供大家参考。

一、MySQL批量插入优化

对于一些数据量较大的系统,数据库面临的问题除了查询效率低下,还有就是数据入库时间长。特别像报表系统,每天花费在数据导入上的时间可能会长达几个小时或十几个小时之久。因此,优化数据库插入性能是很有意义的。
经过对MySQL innodb的一些性能测试,发现一些可以提高insert效率的方法,供大家参考参考。

一条SQL语句插入多条数据。
常用的插入语句如:

INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`) 
    VALUES ("0", "userid_0", "content_0", 0);
INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`) 
    VALUES ("1", "userid_1", "content_1", 1);

修改成:

INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`) 
    VALUES ("0", "userid_0", "content_0", 0), ("1", "userid_1", "content_1", 1);

修改后的插入操作能够提高程序的插入效率。这里第二种SQL执行效率高的主要原因是合并后日志量(MySQL的binlog和innodb的事务让日志)减少了,降低日志刷盘的数据量和频率,从而提高效率。通过合并SQL语句,同时也能减少SQL语句解析的次数,减少网络传输的IO。
这里提供一些测试对比数据,分别是进行单条数据的导入与转化成一条SQL语句进行导入,分别测试1百、1千、1万条数据记录。

还可以在事务中进行插入处理。
更多详情,请看原文章:MySQL批量SQL插入性能优化


相关文章:
【高并发简单解决方案】redis队列缓存 + mysql 批量入库 + php离线整合
秒杀活动设计方案

文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。

转载请注明本文地址:https://www.ucloud.cn/yun/22526.html

相关文章

  • 并发简单解决方案】redis队列缓存 + mysql 批量入库 + php离线整合

    摘要:获取消息队列中的脚本,拼接,批量入库。批量入库脚本天级统计脚本总结相对于其他复杂的方式处理高并发,这个解决方案简单有效通过缓存抗压,批量入库解决数据库瓶颈,离线计算解决统计数据,通过定期清理保证库的大小。 需求背景:有个调用统计日志存储和统计需求,要求存储到mysql中;存储数据高峰能达到日均千万,瓶颈在于直接入库并发太高,可能会把mysql干垮。 问题分析 思考:应用网站架构的衍化过...

    BigNerdCoding 评论0 收藏0

发表评论

0条评论

最新活动
阅读需要支付1元查看
<