文章目录
- 一、社区系统架构组件概览
- 1. 系统拆分
- 2. CDN、Nginx静态缓存、JVM本地缓存
- 3. Redis缓存
- 4. MQ
- 5. 分库分表
- 6. 读写分离
- 7. ElasticSearch
- 二、商城系统-亿级商品如何存储
- 三、对账系统-分布式事务一致性
- 四、统计系统-海量计数
- 六、系统设计 - 微软
- 1、需求收集
- 2、顶层设计
- 3、系统核心指标
- 4、数据存储
- 七、如何设计一个微博
一、社区系统架构组件概览
一个非常简易的系统架构大致如下:
接下来就以上图为例,剖析每个组件的作用。
1. 系统拆分
通过DDD
领域模型,对服务进行拆分,将一个系统拆分为多个子系统,做成微服务。微服务设计时要尽可能做到少扇出,多扇入,根据服务器的承载,进行客户端负载均衡,通过对核心服务的上游服务进行限流和降级改造。
一个服务的代码不要太多,1万行左右,两三万撑死了吧。
大部分的系统,是要进行多轮拆分的,第一次拆分,可能就是将以前的多个模块该拆分开来了,比如说将电商系统拆分成订单系统、商品系统、采购系统、仓储系统、用户系统等等吧。
但是后面可能每个系统又变得越来越复杂了,比如说采购系统里面又分成了供应商管理系统、采购单管理系统,订单系统又拆分成了购物车系统、价格系统、订单管理系统。
2. CDN、Nginx静态缓存、JVM本地缓存
利用Java
的模板thymeleaf
可以将页面和数据动态渲染好,然后通过Nginx
直接返回。动态数据可以从redis
中获取。其中redis
里的数据由一个缓存服务来进行消费指定的变更服务。
商品数据,每条数据是10kb
。100
条数据是1mb
,10
万条数据是1g
。常驻内存的是 200
万条商品数据,占用内存是20g
,仅仅不到总内存的50%
。目前高峰期每秒就是 3500qps
左右的请求量。
3. Redis缓存
Redis cluster
,10
台机器,5
主5
从,5
个节点对外提供读写服务,每个节点的读写高峰QPS
可能可以达到每秒5
万,5
台机器最多是25
万读写请求每秒。
注:一般一台Redis实例最大能承受的QPS在16万左右。
32G内存+ 8核CPU + 1T磁盘
,但是分配给Redis
进程的是10g
内存,一般线上生产环境,Redis
的内存尽量不要超过10g
,超过10g
可能会有问题。
因为每个主实例都挂了一个从实例,所以是高可用的,任何一个主实例宕机,都会自动故障迁移,Redis
从实例会自动变成主实例继续提供读写服务。
4. MQ
可以通过消息队列对微服务系统进行解耦,异步调用的更适合微服务的扩展。
同时可以应对秒杀活动中的高并发写请求,比如kafka在毫秒延迟基础上可以实现10w级吞吐量。
同时可以使用消息队列保证分布式系统最终一致性。
5. 分库分表
分库分表,可能到了最后数据库层面还是免不了抗高并发的要求,好吧,那么就 将一个数据库拆分为多个库,多个库来扛更高的并发;然后将一个表拆分为多个 表,每个表的数据量保持少一点,提高sql
跑的性能。在通讯录、订单和商城商品模块超过千万级别都应及时考虑分表分库。一般单表保存的数据尽量不要超过4千万,否则查询性能可能受损,数据过大时,及时考虑分表处理,实际在需求初期就应该调研量级,考虑分表方案。
6. 读写分离
读写分离,这个就是说大部分时候数据库可能也是读多写少,没必要所有请求都 集中在一个库上吧,可以搞个主从架构,主库写入,从库读取,搞一个读写分离。读流量太多的时候,还可以加更多的从库。比如统计监控类的微服务通过读写分离,只需访问从库就可以完成统计,例如使用ES
完成统计诉求,读从库即可。
7. ElasticSearch
Elasticsearch
,简称es
。es
是分布式的,分布式天然就可以支撑高并发,因为动不动就可以扩容加机器来扛更高的并发。那么一些比较简单的查询、统计类的操作,比如运营平台上的各地市的汇聚统计,还有一些全文搜索类的操作,比如通讯录和订单的查询,都很适合用es
存储。
二、商城系统-亿级商品如何存储
基于Hash取模
、一致性Hash
实现分库分表。
高并发读
可以通过多级缓存应对。
大促销热key
读的问题通过 redis集群+本地缓存+限流+key加随机值分布在多个实例中
。
高并发写
的问题通过基于Hash取模
、一致性Hash
实现分库分表均匀落盘。
业务分配不均导致的热key
读写问题,可以根据业务场景进行range
分片,将热点范围下的子key
打散。
具体实现: 预先设定主键的生成规则,根据规则进行数据的分片路由,但这种方式会侵入商品各条线主数据的业务规则,更好的方式是基于分片元数据服务器(即每次访问分片前先询问分片元服务器再路由到实际分片),不过会带来复杂性,比如如何保证元数据服务器的一致性和可用性。
三、对账系统-分布式事务一致性
尽量避免分布式事务,单进程用数据库事务,跨进程用消息队列。
主流实现分布式系统事务一致性的方案:
-
最终一致性:也就是基于
MQ
的可靠消息投递的机制, -
基于重试加确认的的最大努力通知方案。
理论上也可以使用(2PC
两阶段提交、3PC
三阶段提交、TCC
短事务、SAGA
长事务方案),但是这些方案工业上落地代价很大,不适合互联网的业界场景。针对金融支付等需要强一致性的场景可以通过前两种方案实现。
本地数据库事务原理:undo log(原子性) + redo log(持久性) + 数据库锁(原子性&隔离性) + MVCC(隔离性)
分布式事务原理:全局事务协调器(原子性) + 全局锁(隔离性) + DB本地事务(原子性、持久性)
MQ方式实现一致性应该保证以下两点
- 要求下游MQ消费方一定能成功消费消息。否则转人工介入处理。
- 千万记得实现幂等性。
四、统计系统-海量计数
中小规模的计数服务(万级)
中小规模量级,最常见的计数方案是采用缓存+DB
的存储方案。当计数变更时,先变更计数DB
,计数加 1
,然后再变更计数缓存,修改计数存储的Memcached
或Redis
。这种方案比较通用且成熟,但在高并发访问场景,支持不够友好。
在互联网社交系统中,有些业务的计数变更特别频繁,比如微博feed
的阅读数,计数的变更次数和访问次数相当,每秒十万到百万级以上的更新量,如果用DB
存储,会给DB
带来巨大的压力,D
B就会成为整个计数服务的瓶颈所在。即便采用聚合延迟更新DB
的方案,由于总量特别大,同时请求均衡分散在大量不同的业务端,巨大的写压力仍然是DB
的不可承受之重。
大型互联网场景(百万级)
百万及以上量级,建议直接把计数全部存储在Redis
中,通过 hash
分拆的方式,可以大幅提升计数服务在Redis
集群的写性能,通过主从复制,在master
后挂载多个从库,利用读写分离,可以大幅提升计数服务在Redis
集群的读性能。而且Redis
有持久化机制,不会丢数据。
但也不是万无一失的,要以下方面要考虑。
一方面Redis作为通用型存储来存储计数,内存存储效率低。以存储一个key
为long(8字节)
型id
、value
为4
字节的计数为例,Redis
至少需要65
个字节左右(以为要记录很多其他元信息),不同版本略有差异。但这个计数理论只需要占用12
个字节即可。内存有效负荷只有12/65=18.5%
。如果再考虑一个long
型id
需要存4
个不同类型的4
字节计数,内存有效负荷只有(8+16)/(65*4)= 9.2%
。
另一方面,Redis
所有数据均存在内存,单存储历史千亿级记录,单份数据拷贝需要10T
以上,要考虑核心业务上1
主3
从,需要40T
以上的内存,再考虑多IDC
部署,轻松占用上百T
内存。就按单机100G
内存来算,计数服务就要占用上千台大内存服务器。存储成本太高。
微博、微信、抖音(亿级)
亿级别数据,应该考虑通过以下方式存储
- 定制数据结构,共享
key
紧凑存储,提升计数有效负荷率; - 超过阈值后数据保存到
SSD
硬盘,内存里存索引; - 冷
key
从SSD
硬盘中读取后,放入到LRU
队列中; - 自定义主从复制的方式,海量冷数据异步多线程并发复制;
六、系统设计 - 微软
1、需求收集
- 确认使用的对象
ToC
:高并发ToB
:高可用
- 系统的服务场景
- 即时通信:低延迟
- 游戏:高性能
- 购物:秒杀-一致性
- 用户量级
- 万级:双机
- 百万:集群
- 亿级:弹性分布式、容器化编排架构
- 百万读:
3主6从
,每个节点的读写高峰QPS
可能可以达到每秒5
万,可以实现15
万,30
万读性能 - 亿级读: 通过
CDN
、静态缓存、JVM
缓存等多级缓存来提高读并发 - 百万写: 通过消息队列削峰填谷,通过
hash
分拆,水平扩展分布式缓存 - 亿级写:
redis
可以定制数据结构、SSD
+内存LRU
、冷数据异步多线程复制 - 持久化:
Mysql
承受量约为1K
的QPS
,读写分离提升读并发,分库分表提升写并发
2、顶层设计
核心功能包括什么:
-
写功能:发送微博
-
读功能:热点资讯
-
交互:点赞、关注
3、系统核心指标
-
系统性能和延迟
-
边缘计算 | 动静分离 | 缓存 | 多线程 |
-
可扩展性和吞吐量
-
负载均衡 | 水平扩展 | 垂直扩展 | 异步 | 批处理 | 读写分离
-
可用性和一致性
-
主从复制 | 哨兵模式 | 集群 | 分布式事务
4、数据存储
-
键值存储 :
Redis
( 热点资讯 ) -
文档存储 :
MongoDB
( 微博文档分类) -
分词倒排:
Elasticsearch
(搜索) -
列型存储:
Hbase
、BigTable
(大数据) -
图形存储:
Neo4j
(社交及推荐) -
多媒体:
FastDfs
(图文视频微博)
七、如何设计一个微博
实现哪些功能:
筛选出核心功能(Post a Tweet,Timeline,News Feed,Follow/Unfollow a user,Register/Login)
承担多大QPS:
- QPS = 100,那么用我的笔记本作Web服务器就好了
- QPS = 1K,一台好点的Web服务器也能应付,需要考虑单点故障;
- QPS = 1m,则需要建设一个1000台Web服务器的集群,考虑动态扩容、负载分担、故障转移
- 一台SQL Database (Mysql)承受量约为1K的QPS;
- 一台NoSQL Database (Redis) 约承受量是20k的QPS;
- 一台NoSQL Database (Memcache) 约承受量是200k的QPS;
微服务战略拆分
针对不同服务选择不同存储
设计数据表的结构
基本差不多就形成了一个解决方案,但是并不是完美的,仍然需要小步快跑的不断的针对消息队列、缓存、分布式事务、分表分库、大数据、监控、可伸缩
方面进行优化。