heidsoft/cloud-bigdata-book

ceph 测试

Opened this issue · 2 comments

dd 测试

 dd if=/dev/zero of=test bs=64k count=4k oflag=dsync 
4096+0 records in
4096+0 records out
268435456 bytes (268 MB) copied, 1.42931 s, 188 MB/s

FIO参数

随机读:
# fio -filename=/tmp/test_randread -direct=1 -iodepth 1 -thread -rw=randread -ioengine=psync -bs=16k -size=30G -numjobs=10 -runtime=60 -group_reporting -name=mytest

说明:
filename=/dev/sdb1       测试文件名称,通常选择需要测试的盘的data目录。
direct=1                 测试过程绕过机器自带的buffer。使测试结果更真实。
rw=randwrite             测试随机写的I/O
rw=randrw                测试随机写和读的I/O
bs=16k                   单次io的块文件大小为16k
bsrange=512-2048         同上,提定数据块的大小范围
size=5g    本次的测试文件大小为5g,以每次4k的io进行测试。
numjobs=30               本次的测试线程为30.
runtime=1000             测试时间为1000秒,如果不写则一直将5g文件分4k每次写完为止。
ioengine=psync           io引擎使用pync方式
rwmixwrite=30            在混合读写的模式下,写占30%
group_reporting          关于显示结果的,汇总每个进程的信息。
 
此外
lockmem=1g               只使用1g内存进行测试。
zero_buffers             用0初始化系统buffer。

ceph 服务停止

[root@ceph-node1 ~]# systemctl stop ceph-mgr@ceph-node1.service
[root@ceph-node1 ~]# systemctl stop ceph-node1.service
Failed to stop ceph-node1.service: Unit ceph-node1.service not loaded.
[root@ceph-node1 ~]# systemctl stop   ceph-mds@ceph-node1.service
[root@ceph-node1 ~]# systemctl stop   ceph-mon@ceph-node1.service
[root@ceph-node1 ~]# systemctl stop    ceph-osd@0.service
[root@ceph-node1 ~]# systemctl stop    ceph-crash.service