Rook Ceph: OSD 追加によるパフォーマンスへの影響(CephFS)
「Rook/Ceph の OSD の数を増やすと、スループットや IOPS 性能が向上する」と一般に言われている件について、RBD に関しては別記事で計測しまとめました。
本稿では CephFS を対象にした計測結果を掲載します。
計測方法
過去に行った CephFS と NFS (Azure FileShares)とのパフォーマンス比較記事 と同条件で計測しました。よって、6 OSD 構成時点での CephFS および RBD に対し、既に得られているデータが比較対象です。
スループット
青色の縦棒が今回の計測データです。
全てのベンチマーク項目で、6 OSD 構成の CephFS はもちろん、RBD でも互角か超えるパフォーマンスを示しています。
metadata (IOPS)
おそらく CephFS 導入をご検討の方が最も気にする metadata 関連のベンチマークは下記のような結果になりました。
metadata 関連に関しては、ブロックデバイス(RWO)である RBD が圧倒的に強いため、縦軸は対数にしてあります。
いずれの指標でも 9 OSD 構成の CephFS は、6 OSD 構成のそれを上回るパフォーマンスを示しています。
まとめ
Rook/Ceph クラスタにおいて、OSD を増やした場合の CephFS へのパフォーマンス影響についてまとめました。結論としては「スループット・IOPS 共に向上する」で結論づけて問題無さそうです。世間一般の通説や、弊社の経験知とも合致しています。
しかしながら、別記事でご紹介したように、OSD を無計画に増やすことによるリスクやデメリットも存在します。
「ではどのように OSD をデプロイすると良いの?」とお悩みの方がいらっしゃいましたら、ぜひ弊社までお声掛けください。いくつかのチューニングポイントを踏まえていなかったゆえに、本来の性能を発揮できずにいた、お客様の Rook/Ceph クラスタに弊社は寄り添ってきました。 本稿では Azure を計測環境として使いましたが、AWS や GoogleCloud 等、各社クラウドにも対応可能です。