ceph 测试
Opened this issue · 2 comments
heidsoft commented
dd 测试
dd if=/dev/zero of=test bs=64k count=4k oflag=dsync
4096+0 records in
4096+0 records out
268435456 bytes (268 MB) copied, 1.42931 s, 188 MB/s
heidsoft commented
FIO参数
随机读:
# fio -filename=/tmp/test_randread -direct=1 -iodepth 1 -thread -rw=randread -ioengine=psync -bs=16k -size=30G -numjobs=10 -runtime=60 -group_reporting -name=mytest
说明:
filename=/dev/sdb1 测试文件名称,通常选择需要测试的盘的data目录。
direct=1 测试过程绕过机器自带的buffer。使测试结果更真实。
rw=randwrite 测试随机写的I/O
rw=randrw 测试随机写和读的I/O
bs=16k 单次io的块文件大小为16k
bsrange=512-2048 同上,提定数据块的大小范围
size=5g 本次的测试文件大小为5g,以每次4k的io进行测试。
numjobs=30 本次的测试线程为30.
runtime=1000 测试时间为1000秒,如果不写则一直将5g文件分4k每次写完为止。
ioengine=psync io引擎使用pync方式
rwmixwrite=30 在混合读写的模式下,写占30%
group_reporting 关于显示结果的,汇总每个进程的信息。
此外
lockmem=1g 只使用1g内存进行测试。
zero_buffers 用0初始化系统buffer。
ceph 服务停止
[root@ceph-node1 ~]# systemctl stop ceph-mgr@ceph-node1.service
[root@ceph-node1 ~]# systemctl stop ceph-node1.service
Failed to stop ceph-node1.service: Unit ceph-node1.service not loaded.
[root@ceph-node1 ~]# systemctl stop ceph-mds@ceph-node1.service
[root@ceph-node1 ~]# systemctl stop ceph-mon@ceph-node1.service
[root@ceph-node1 ~]# systemctl stop ceph-osd@0.service
[root@ceph-node1 ~]# systemctl stop ceph-crash.service