2.1 理解各类延迟

计算机硬件、网络(3G、4G到5G)、软件的发展很大程度都是为了解决各类延迟。

伯克利大学有个动态网页[1],可以查看每年计算机中各类操作耗时、延迟的变化,我抽出了2020年的数据,做成了下面的表格。了解这些数字有助于设计和比较不同的解决方案以及衡量服务质量的标准。

在延迟数据的观察上,比较硬盘寻址和同个数据中心往返的延迟,这就意味着使用数据库服务(数据库通常把热数据放在缓存中)要比本地磁盘存储更有效率。再深一步Kafka、Leveldb等存储引擎设计也是利用了顺序读写快过随机读写的特性,只做追加写操作来达到最佳性能,这些都是基于延迟来设计的优化方案。

秒(s)、毫秒(ms)、微秒 (μs)、纳秒(ns)之间关系为:

1 s = $$10^{3}$$ms = $$10^{6}$$μs = $$10^{9}$$ns

操作延迟
L1 缓存查询1 ns
分支预测错误(Branch mispredict)3 ns
L2 缓存查询4 ns
互斥锁/解锁17 ns
在 1Gbps 的网络上发送 2KB44 ns
主存访问100 ns
Zippy 压缩 1KB2,000 ns ≈ 2 μs
从内存顺序读取 1 MB3,000 ns ≈ 3 μs
SSD 随机读16,000 ns ≈ 16 μs
从 SSD 顺序读取 1 MB49,000 ns ≈ 49 μs
同一个数据中心往返500,000 ns ≈ 0.5 ms
从磁盘顺序读取 1 MB825,000 ns ≈ 0.8 ms
磁盘寻址2,000,000 ns ≈ 2 ms
从美国发送到欧洲的数据包150,000,000 ns ≈ 150 ms

  1. https://colin-scott.github.io/personal_website/research/interactive_latency.html ↩︎

Last Updated:
Contributors: isno