阿里双十一百亿级并发实战,原来是使用这些高并发、大流量系统

 

每年双11,天猫成交额都会一次一次地刷新世界纪录,阿里巴巴核心系统100%上云,撑住了双11的世界级流量洪峰。在这一流量战场上,阿里可谓是华山论剑的最大赢家。今天我把阿里针对淘宝双十一万亿级流量下的分布式缓存文档共享出来,全面解析阿里双11的武功秘籍。

阿里双十一的四种应用场景

MDB 典型应用场景

  1. 用于缓存,降低对后端数据库的访问压力。
  2. 临时数据存储,部分数据丢失不会对业务产生较大影响。
  3. 读多写少,读qps达到万级别以上。

FastDump 典型应用场景

  1. 周期性地将离线数据快速地导入到Tair集群中,快速使用到新的数据。
  2. 读取低延迟,不能有毛刺。

LDB 典型应用场景

  1. 通用kv存储,交易快照,安全风控等。
  2. 存储黑白单数据,读qps很高。
  3. 计数器功能,更新非常频繁,且数据不可丢失。

RDB 典型应用场景

  1. 复杂的数据结构的缓存与存储。
  2. 如播放列表,直播间等。

阿里双十一百亿级并发实战,原来是使用这些高并发、大流量系统

 

双十一技术挑战

  • 访问峰值增速:Tair峰值 > 交易峰值 > 总GMV
  • 多地域多单元
  • 体验与成本
  • 稳定性,高可用

阿里双十一百亿级并发实战,原来是使用这些高并发、大流量系统

 

性能与成本

内存数据结构

  1. cache meta
  2. slab_mabager
  3. hashmap
  4. pages

阿里双十一百亿级并发实战,原来是使用这些高并发、大流量系统

 

锁的影响

  • 细粒度锁(fine-grained locks)
  • 无锁数据结构(lock-free data structures)
  • CPU本地数据结构(per-CPU data structures)
  • 读拷贝更新(RCU)

阿里双十一百亿级并发实战,原来是使用这些高并发、大流量系统

 

用户态协议栈+内存合并

阿里双十一百亿级并发实战,原来是使用这些高并发、大流量系统

 

客户端优化

  • 网络框架替换,适配协程mina =netty吞吐量提升40%+
  • 序列化优化集成kryo和hessian吞吐量提升16%+

阿里双十一百亿级并发实战,原来是使用这些高并发、大流量系统

 

内存网格

  • 业务场景读写量超大大量本地计算提供高性能计算快速IO能 力
  • 特性数据本地性读穿透Write Through / Write Behind/merge多单元replication
  • 效果读取降至27.68%写入降至55.75%

阿里双十一百亿级并发实战,原来是使用这些高并发、大流量系统

 

缓存难题——热点

缓存击穿

  • 突发流量热门商品,店铺时事新闻各类压测
  • 缓存被击穿限流
  • 结局全系统崩溃
  • 根源访问热点

阿里双十一百亿级并发实战,原来是使用这些高并发、大流量系统

 

热点散列

  • 热点类型频率热点流量热点

阿里双十一百亿级并发实战,原来是使用这些高并发、大流量系统

 

热点散列效果

  • 热点QPS数
  • 热点流量
  • 热点集群散列效果对比

阿里双十一百亿级并发实战,原来是使用这些高并发、大流量系统

 

写热点

  • 热点合并实时识别合并写引擎

阿里双十一百亿级并发实战,原来是使用这些高并发、大流量系统

 

阿里巴巴的这个双十一万亿流量分布式缓存,完整呈现如何设计响应亿级请求。

教你如何构建高并发、大流量系统方能经受起亿级线上用户流量的真实考验。

由于头条发文图片质量可能会受到影响(图片会被压缩导致清晰度下降),完整版的阿里双十一万亿流量分布式缓存设计,我在这里做一个开源式的分享,用以帮助到更多想从大厂技术层面彻底提升自身硬实力的互联网从业者。

阿里双十一百亿级并发实战,原来是使用这些高并发、大流量系统

 

本文由 @陈怀志[Vip] 发布于 职涯宝 ,未经作者许可,禁止转载,欢迎您分享文章

发表评论

登录后才能评论
小程序
小程序
微信客服
微信客服
QQ客服 建站服务
分享本页
返回顶部