磁盘性能参考值
已于 2025年11月20日 13:23 修改
访问次数:0
下面给你整理一份 最实用、最常用、最符合运维实战的 IO 性能参考表。
涵盖:await、svctm、iops、throughput、%util、latency 等指标——清晰易用。
这份表适合你在:数据库、Kafka、Redis、Nginx、虚拟化、容器环境等场景快速判断 I/O 是否正常。
🏆 Linux IO 性能参考表(运维实战版)
1. await(整体 I/O 延迟,单位:毫秒 ms)
| await(ms) | 性能评价 | 说明 |
|---|---|---|
| < 1 ms | ⭐ 极佳 | NVMe SSD、优秀 SSD |
| 1–5 ms | 👍 正常 | 一般 SSD 正常情况 |
| 5–20 ms | ⚠️ 偏高 | I/O 压力较高,需关注 |
| 20–50 ms | ❗ 明显慢 | 数据库/Kafka 会受影响 |
| > 50 ms | 🚨 严重瓶颈 | 阻塞、卡顿,延迟高 |
| > 100 ms | 🔥 故障级 | 真实磁盘或 RAID 打爆 |
包含:r_await, w_await, await
2. svctm(服务时间)
| svctm(ms) | 含义 |
|---|---|
| < 1 ms | 磁盘本身性能很好 |
| 1–5 ms | 正常机械盘或中端 SSD |
| > 10 ms | 磁盘本身已慢(物理层问题) |
要点:
- 如果 await >> svctm → 排队时间长(队列堵塞)
- 如果 await ≈ svctm → 磁盘本身慢
3. %util(磁盘繁忙度)
| %util | 结论 |
|---|---|
| < 30% | 轻载 |
| 30–60% | 正常负载 |
| 60–80% | 偏高 |
| 80–99% | 较为繁忙 |
| = 100% | 磁盘被打爆 |
⚠ 注意:
- 对于 NVMe,util=100% 正常,但要看 await 是否升高
- 对于 dm-x 设备,要同时看物理盘的 busy 状态
4. IOPS(每秒 I/O 次数)
不同介质的常见 IOPS 范围:
| 设备类型 | 随机 4K IOPS(参考) |
|---|---|
| NVMe 高端 SSD | 300k–700k |
| 企业级 SATA SSD | 50k–100k |
| 普通消费级 SSD | 5k–30k |
| HDD 7200 rpm | 100–200 |
| RAID5(HDD) | 50–150 |
| loop 设备 / qcow2 | 较低,视底层文件系统而定 |
5. 吞吐量(MB/s)参考
| 设备类型 | 顺序读写吞吐(MB/s) |
|---|---|
| NVMe SSD | 2000–7000 MB/s |
| SATA SSD | 400–550 MB/s |
| HDD(7200rpm) | 80–180 MB/s |
| RAID0(SSD) | 800–1000 MB/s |
| RAID5(HDD) | 200–400 MB/s(写入更慢) |
6. 队列深度(avgqu-sz)
| avgqu-sz | 说明 |
|---|---|
| < 1 | 正常 |
| 1–5 | 中度排队 |
| > 5 | I/O 堵塞严重 |
| > 10 | 性能瓶颈已出现 |
| > 50 | 服务明显卡顿 |
7. 不同工作负载下的经验指标
✔ 数据库(MySQL / PostgreSQL)
- await < 5ms
- svctm < 2ms
- %util < 70%
✔ Kafka / MQ
- await < 10ms
- %util < 80%
✔ 虚拟化(KVM / Docker)
- await < 10–20ms
- avgqu-sz < 5
✔ 文件服务
- 吞吐量优先,await 可略高(20ms 以内)
🧭 总结一句话
await 看延迟
svctm 看磁盘自身
avgqu-sz 看排队
%util 看繁忙
IOPS / MB/s 看容量
用这些指标,你可以非常准确判断:
- 虚拟层瓶颈(dm-x)
- RAID 瓶颈
- 加密层瓶颈(dm-crypt)
- 文件系统瓶颈
- 物理磁盘性能吃满
如果你愿意,我还能给你:
- 虚拟磁盘(dm-x)与物理磁盘性能对比表
- 一键诊断 I/O 性能的脚本
- 你的服务器 I/O 性能分析(发 iostat -x)
评论(0)