查看原文
其他

昨晚,因为核酸系统崩溃,这家公司被骂上了热搜第一

芋道源码 2022-12-25

The following article is from 编程技术宇宙 Author 轩辕之风O

点击上方“芋道源码”,选择“设为星标

管她前浪,还是后浪?

能浪的浪,才是好浪!

每天 10:33 更新文章,每天掉亿点点头发...

源码精品专栏

 

昨天晚上,成都因为疫情又一次上了热搜,而这一次,热搜上的词条是一家软件公司的名字。

事情的起因是这样的:

从9月1号开始,成都市政府宣布了为期四天的全员核酸检测。昨天下午,我们小区物业通知了预计14:00-17:00会进行检测,告诉我们会挨个楼栋通知下去检测。

结果一直拖到晚上也没收到通知,我一直忙别的也没留意,结果上网一看,关于成都核酸系统崩溃的各种段子已经满天飞了。

是的,成都核酸检测系统,又崩溃了!

辛苦的大白们没有办法,都用上了这种古老的方式来寻找“信号”。

因为这个系统出了问题,导致核酸检测工作非常缓慢,大量的市民排队等待,平常排队半小时能完成的,昨晚都要排队好几个小时。

到晚上23点半,物业直接通知只给部分人做,其他人可以洗洗睡了。好家伙,不知道有多少人白排了几个小时队。

这好好的系统它咋就崩溃了呢?

有网友挖出了一个中标公告,说这套系统背后使用的是浪潮的服务器:

一千多万的项目,结果就这?

但随后,有疑似浪潮的人出来回复:

人家说的很清楚,上面中标的只是基础运维,这套软件系统的设计另有其人。

随后有人又开喷健康码,喷鹅厂。

但实际上,崩的不是健康码,而是大白使用的核酸采集录入系统,这是两套独立的系统。

再接着,有人爆出这套软件是东软公司做的。

于是一时间,所有人把怒火对准了东软,很快就把东软这个词条送上了微博热搜榜第一的位置。

关于崩溃的原因,也有各种说法在朋友圈、微信群里流传,一时难辨真假。

有说是这套系统背后使用的MySQL使用了超宽的大表:

有说是MySQL单表容量太大,造成性能下降:

还有的说是因为负载均衡不行,没法支撑高并发。

总结起来基本上就两个原因:

1、数据库的问题,数据量大后,查询检索效率低下。

成都全市人口超过2000万,每天一次核酸,那就是单日新增两千万条记录,最近几天一直在做,数据容量很快就是几亿的规模,如果后端用MySQL还不分表,那确实够呛。

2、高并发的问题,同一时间大量请求,服务器扛不住。

一般情况下,使用nginx负载均衡,单机能做到几万的并发量。但成都2000W+的人口规模,全面做核酸的情况下,几万的并发肯定是不够用的。

倘若这套系统背后真的就是一个nginx+mysql(不分表),那昨晚的情况也就不足为奇了。

好了,吃瓜归吃瓜,我们还是要来点干货,作为一个程序员,要在吃瓜中学会成长。

高并发之路

这篇文章,我们来回答一个问题:到底该怎么做高并发?

让我们从零开始。

1、单机时代

一开始的时候,用户量很少,一天就几百上千个请求,一台服务器就完全足够。

我们用Java、Python、PHP或者其他后端语言开发一个Web后端服务,再用一个MySQL来存储业务数据,它俩携手工作,运行在同一台服务器上,对外提供服务。

基于 Spring Boot + MyBatis Plus + Vue & Element 实现的后台管理系统 + 用户小程序,支持 RBAC 动态权限、多租户、数据权限、工作流、三方登录、支付、短信、商城等功能

  • 项目地址:https://gitee.com/zhijiantianya/ruoyi-vue-pro
  • 视频教程:https://doc.iocoder.cn/video/

2、应用与数据库分离

慢慢的,用户量开始多了起来,一台服务器有点够呛,把它们拆开成两台服务器,一台专门运行Web服务,一台专门用来运行数据库,这样它们就能独享服务器上的CPU和内存资源,不用互抢了。

3、缓存系统

后来,用户量进一步增加,每一次都要去数据库里查,有点费时间,引入一个缓存系统,可以有效缩短服务的响应时间。

基于 Spring Cloud Alibaba + Gateway + Nacos + RocketMQ + Vue & Element 实现的后台管理系统 + 用户小程序,支持 RBAC 动态权限、多租户、数据权限、工作流、三方登录、支付、短信、商城等功能

  • 项目地址:https://gitee.com/zhijiantianya/yudao-cloud
  • 视频教程:https://doc.iocoder.cn/video/

4、软件负载均衡

用户量还在增加,一个Web服务的吞吐量开始达到了上限,系统开始出现卡顿。这时候,可以复制多个Web服务出来,再用一个nginx来进行负载均衡,将请求分摊到所有Web服务器上,提高并发量。

5、数据读写分离

随着系统的运行和用户的增长,数据量越来越多,数据库的瓶颈开始显现,读写明显变慢。这时候,可以增加新的数据库服务器,将读写进行分离,二者做好数据同步,提高数据库服务的整体I/O性能。

6、数据库分库分表

系统中的数据越来越多,即便是读写分离了,但一张表中的记录越来越多,从几百万到几千万,甚至要过亿了。把它们全部塞在同一张表里,检索查询耗时费力,是时候进行分库分表,把数据拆分一下,提高数据查询效率。

7、硬件负载均衡

再后来,业务发展很不错,用户量激增,以至于强劲的Nginx也扛不住了。

一台不够,那就多整几台,再引入一个硬件负载均衡的服务器,比如F5,将网络流量分发到不同的Nginx服务器上,再一次提高性能。

8、DNS负载均衡

再再后来,用户量还在蹭蹭蹭的增长,强悍如F5这样的硬件负载均衡服务器也扛不住这样的高并发。

老办法,一个不够那就多整几个。这一次,咱们在域名解析上下功夫,不同地区的用户,在访问同一个域名时,解析到不同的IP地址,以此来将流量进一步拆分。

上面就是从最简单的单机到复杂集群的高并发演进之路。

高并发是一个很大的话题,它所涵盖的东西其实远远不止上面这些内容。除了这些之外,像是消息队列、数据库选型、CDN、编程语言中的协程等等技术都能为提高并发助力。

回到这次崩溃事件上,我想着经过一夜的折腾,今天总该好点了吧,结果下午一开始,又继续摆烂了:

在我写这篇文章的时候,当事公司已经发布了说明:

网络:你的意思是怪我咯?




欢迎加入我的知识星球,一起探讨架构,交流源码。加入方式,长按下方二维码噢

已在知识星球更新源码解析如下:

最近更新《芋道 SpringBoot 2.X 入门》系列,已经 101 余篇,覆盖了 MyBatis、Redis、MongoDB、ES、分库分表、读写分离、SpringMVC、Webflux、权限、WebSocket、Dubbo、RabbitMQ、RocketMQ、Kafka、性能测试等等内容。

提供近 3W 行代码的 SpringBoot 示例,以及超 4W 行代码的电商微服务项目。

获取方式:点“在看”,关注公众号并回复 666 领取,更多内容陆续奉上。

文章有帮助的话,在看,转发吧。

谢谢支持哟 (*^__^*)

事情的起因是这样的:

从9月1号开始,成都市政府宣布了为期四天的全员核酸检测。昨天下午,我们小区物业通知了预计14:00-17:00会进行检测,告诉我们会挨个楼栋通知下去检测。

结果一直拖到晚上也没收到通知,我一直忙别的也没留意,结果上网一看,关于成都核酸系统崩溃的各种段子已经满天飞了。

是的,成都核酸检测系统,又崩溃了!

辛苦的大白们没有办法,都用上了这种古老的方式来寻找“信号”。

因为这个系统出了问题,导致核酸检测工作非常缓慢,大量的市民排队等待,平常排队半小时能完成的,昨晚都要排队好几个小时。

到晚上23点半,物业直接通知只给部分人做,其他人可以洗洗睡了。好家伙,不知道有多少人白排了几个小时队。

这好好的系统它咋就崩溃了呢?

有网友挖出了一个中标公告,说这套系统背后使用的是浪潮的服务器:

一千多万的项目,结果就这?

但随后,有疑似浪潮的人出来回复:

人家说的很清楚,上面中标的只是基础运维,这套软件系统的设计另有其人。

随后有人又开喷健康码,喷鹅厂。

但实际上,崩的不是健康码,而是大白使用的核酸采集录入系统,这是两套独立的系统。

再接着,有人爆出这套软件是东软公司做的。

于是一时间,所有人把怒火对准了东软,很快就把东软这个词条送上了微博热搜榜第一的位置。

关于崩溃的原因,也有各种说法在朋友圈、微信群里流传,一时难辨真假。

有说是这套系统背后使用的MySQL使用了超宽的大表:

有说是MySQL单表容量太大,造成性能下降:

还有的说是因为负载均衡不行,没法支撑高并发。

总结起来基本上就两个原因:

1、数据库的问题,数据量大后,查询检索效率低下。

成都全市人口超过2000万,每天一次核酸,那就是单日新增两千万条记录,最近几天一直在做,数据容量很快就是几亿的规模,如果后端用MySQL还不分表,那确实够呛。

2、高并发的问题,同一时间大量请求,服务器扛不住。

一般情况下,使用nginx负载均衡,单机能做到几万的并发量。但成都2000W+的人口规模,全面做核酸的情况下,几万的并发肯定是不够用的。

倘若这套系统背后真的就是一个nginx+mysql(不分表),那昨晚的情况也就不足为奇了。

好了,吃瓜归吃瓜,我们还是要来点干货,作为一个程序员,要在吃瓜中学会成长。

高并发之路

这篇文章,我们来回答一个问题:到底该怎么做高并发?

让我们从零开始。

1、单机时代

一开始的时候,用户量很少,一天就几百上千个请求,一台服务器就完全足够。

我们用Java、Python、PHP或者其他后端语言开发一个Web后端服务,再用一个MySQL来存储业务数据,它俩携手工作,运行在同一台服务器上,对外提供服务。

2、应用与数据库分离

慢慢的,用户量开始多了起来,一台服务器有点够呛,把它们拆开成两台服务器,一台专门运行Web服务,一台专门用来运行数据库,这样它们就能独享服务器上的CPU和内存资源,不用互抢了。

3、缓存系统

后来,用户量进一步增加,每一次都要去数据库里查,有点费时间,引入一个缓存系统,可以有效缩短服务的响应时间。

4、软件负载均衡

用户量还在增加,一个Web服务的吞吐量开始达到了上限,系统开始出现卡顿。这时候,可以复制多个Web服务出来,再用一个nginx来进行负载均衡,将请求分摊到所有Web服务器上,提高并发量。

5、数据读写分离

随着系统的运行和用户的增长,数据量越来越多,数据库的瓶颈开始显现,读写明显变慢。这时候,可以增加新的数据库服务器,将读写进行分离,二者做好数据同步,提高数据库服务的整体I/O性能。

6、数据库分库分表

系统中的数据越来越多,即便是读写分离了,但一张表中的记录越来越多,从几百万到几千万,甚至要过亿了。把它们全部塞在同一张表里,检索查询耗时费力,是时候进行分库分表,把数据拆分一下,提高数据查询效率。

7、硬件负载均衡

再后来,业务发展很不错,用户量激增,以至于强劲的Nginx也扛不住了。

一台不够,那就多整几台,再引入一个硬件负载均衡的服务器,比如F5,将网络流量分发到不同的Nginx服务器上,再一次提高性能。

8、DNS负载均衡

再再后来,用户量还在蹭蹭蹭的增长,强悍如F5这样的硬件负载均衡服务器也扛不住这样的高并发。

老办法,一个不够那就多整几个。这一次,咱们在域名解析上下功夫,不同地区的用户,在访问同一个域名时,解析到不同的IP地址,以此来将流量进一步拆分。

上面就是从最简单的单机到复杂集群的高并发演进之路。

高并发是一个很大的话题,它所涵盖的东西其实远远不止上面这些内容。除了这些之外,像是消息队列、数据库选型、CDN、编程语言中的协程等等技术都能为提高并发助力。

回到这次崩溃事件上,我想着经过一夜的折腾,今天总该好点了吧,结果下午一开始,又继续摆烂了:

在我写这篇文章的时候,当事公司已经发布了说明:

网络:你的意思是怪我咯?

事情的起因是这样的:

从9月1号开始,成都市政府宣布了为期四天的全员核酸检测。昨天下午,我们小区物业通知了预计14:00-17:00会进行检测,告诉我们会挨个楼栋通知下去检测。

结果一直拖到晚上也没收到通知,我一直忙别的也没留意,结果上网一看,关于成都核酸系统崩溃的各种段子已经满天飞了。

是的,成都核酸检测系统,又崩溃了!

辛苦的大白们没有办法,都用上了这种古老的方式来寻找“信号”。

因为这个系统出了问题,导致核酸检测工作非常缓慢,大量的市民排队等待,平常排队半小时能完成的,昨晚都要排队好几个小时。

到晚上23点半,物业直接通知只给部分人做,其他人可以洗洗睡了。好家伙,不知道有多少人白排了几个小时队。

这好好的系统它咋就崩溃了呢?

有网友挖出了一个中标公告,说这套系统背后使用的是浪潮的服务器:

一千多万的项目,结果就这?

但随后,有疑似浪潮的人出来回复:

人家说的很清楚,上面中标的只是基础运维,这套软件系统的设计另有其人。

随后有人又开喷健康码,喷鹅厂。

但实际上,崩的不是健康码,而是大白使用的核酸采集录入系统,这是两套独立的系统。

再接着,有人爆出这套软件是东软公司做的。

于是一时间,所有人把怒火对准了东软,很快就把东软这个词条送上了微博热搜榜第一的位置。

关于崩溃的原因,也有各种说法在朋友圈、微信群里流传,一时难辨真假。

有说是这套系统背后使用的MySQL使用了超宽的大表:

有说是MySQL单表容量太大,造成性能下降:

还有的说是因为负载均衡不行,没法支撑高并发。

总结起来基本上就两个原因:

1、数据库的问题,数据量大后,查询检索效率低下。

成都全市人口超过2000万,每天一次核酸,那就是单日新增两千万条记录,最近几天一直在做,数据容量很快就是几亿的规模,如果后端用MySQL还不分表,那确实够呛。

2、高并发的问题,同一时间大量请求,服务器扛不住。

一般情况下,使用nginx负载均衡,单机能做到几万的并发量。但成都2000W+的人口规模,全面做核酸的情况下,几万的并发肯定是不够用的。

倘若这套系统背后真的就是一个nginx+mysql(不分表),那昨晚的情况也就不足为奇了。

好了,吃瓜归吃瓜,我们还是要来点干货,作为一个程序员,要在吃瓜中学会成长。

高并发之路

这篇文章,我们来回答一个问题:到底该怎么做高并发?

让我们从零开始。

1、单机时代

一开始的时候,用户量很少,一天就几百上千个请求,一台服务器就完全足够。

我们用Java、Python、PHP或者其他后端语言开发一个Web后端服务,再用一个MySQL来存储业务数据,它俩携手工作,运行在同一台服务器上,对外提供服务。

2、应用与数据库分离

慢慢的,用户量开始多了起来,一台服务器有点够呛,把它们拆开成两台服务器,一台专门运行Web服务,一台专门用来运行数据库,这样它们就能独享服务器上的CPU和内存资源,不用互抢了。

3、缓存系统

后来,用户量进一步增加,每一次都要去数据库里查,有点费时间,引入一个缓存系统,可以有效缩短服务的响应时间。

4、软件负载均衡

用户量还在增加,一个Web服务的吞吐量开始达到了上限,系统开始出现卡顿。这时候,可以复制多个Web服务出来,再用一个nginx来进行负载均衡,将请求分摊到所有Web服务器上,提高并发量。

5、数据读写分离

随着系统的运行和用户的增长,数据量越来越多,数据库的瓶颈开始显现,读写明显变慢。这时候,可以增加新的数据库服务器,将读写进行分离,二者做好数据同步,提高数据库服务的整体I/O性能。

6、数据库分库分表

系统中的数据越来越多,即便是读写分离了,但一张表中的记录越来越多,从几百万到几千万,甚至要过亿了。把它们全部塞在同一张表里,检索查询耗时费力,是时候进行分库分表,把数据拆分一下,提高数据查询效率。

7、硬件负载均衡

再后来,业务发展很不错,用户量激增,以至于强劲的Nginx也扛不住了。

一台不够,那就多整几台,再引入一个硬件负载均衡的服务器,比如F5,将网络流量分发到不同的Nginx服务器上,再一次提高性能。

8、DNS负载均衡

再再后来,用户量还在蹭蹭蹭的增长,强悍如F5这样的硬件负载均衡服务器也扛不住这样的高并发。

老办法,一个不够那就多整几个。这一次,咱们在域名解析上下功夫,不同地区的用户,在访问同一个域名时,解析到不同的IP地址,以此来将流量进一步拆分。

上面就是从最简单的单机到复杂集群的高并发演进之路。

高并发是一个很大的话题,它所涵盖的东西其实远远不止上面这些内容。除了这些之外,像是消息队列、数据库选型、CDN、编程语言中的协程等等技术都能为提高并发助力。

回到这次崩溃事件上,我想着经过一夜的折腾,今天总该好点了吧,结果下午一开始,又继续摆烂了:

在我写这篇文章的时候,当事公司已经发布了说明:

网络:你的意思是怪我咯?

我是轩辕,欢迎关注我,我们下次再见。

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存