「Rook/Ceph の OSD の数を増やすと、スループットや IOPS 性能が向上する」と一般に言われている件について、RBD に関しては別記事で計測しまとめました。

本稿では CephFS を対象にした計測結果を掲載します。

計測方法

過去に行った CephFS と NFS (Azure FileShares)とのパフォーマンス比較記事 と同条件で計測しました。よって、6 OSD 構成時点での CephFS および RBD に対し、既に得られているデータが比較対象です。

スループット

青色の縦棒が今回の計測データです。

throughput

全てのベンチマーク項目で、6 OSD 構成の CephFS はもちろん、RBD でも互角か超えるパフォーマンスを示しています。

metadata (IOPS)

おそらく CephFS 導入をご検討の方が最も気にする metadata 関連のベンチマークは下記のような結果になりました。

metadata

metadata 関連に関しては、ブロックデバイス(RWO)である RBD が圧倒的に強いため、縦軸は対数にしてあります。

いずれの指標でも 9 OSD 構成の CephFS は、6 OSD 構成のそれを上回るパフォーマンスを示しています。

まとめ

Rook/Ceph クラスタにおいて、OSD を増やした場合の CephFS へのパフォーマンス影響についてまとめました。結論としては「スループット・IOPS 共に向上する」で結論づけて問題無さそうです。世間一般の通説や、弊社の経験知とも合致しています。

しかしながら、別記事でご紹介したように、OSD を無計画に増やすことによるリスクやデメリットも存在します。

「ではどのように OSD をデプロイすると良いの?」とお悩みの方がいらっしゃいましたら、ぜひ弊社までお声掛けください。いくつかのチューニングポイントを踏まえていなかったゆえに、本来の性能を発揮できずにいた、お客様の Rook/Ceph クラスタに弊社は寄り添ってきました。 本稿では Azure を計測環境として使いましたが、AWS や GoogleCloud 等、各社クラウドにも対応可能です。