Ceph langsamer Rebuild
Hi,
wir haben in der Firma einen neuen Proxmox-Cluster angelegt. Zuerst mit nur einem Knoten als Test. Als Hardware dient ein Server mit mit 64(128) EPYC Kernen, 512GB RAM, und für die Daten 2x 16GB HDDs und 8x SSDs.
Angelegt wurden die Platten über 2 verschiedene CRUSH-Rules. Eine für die HDDs und eine für die SSDs. So ähnlich haben wir das schon bei einem anderen Cluster gemacht wo wir gute Erfahrung gesammelt hatten.
Nach einer Weile bekamen wir bei Ceph folgende Warnungen:
- XX pgs not deep-scrubbed in time
- XX pgs not scrubbed in time
Alle diese PGs verweisen auf die HDDs. Natürlich läuft da ein Recovery/Rebuild, aber mit ca 1MB/sec wo da steht das es ca 10 Jahre dauert bis der fertig ist. Die Pools die darauf liegen (cephfs_data und cephfs_metadata) sind aber ausreichend schnell und die Benchmarks der Platten zeigen auch ca 500 iops. Wenn ich mich auf die Hosts einlogge sind weder die CPUs noch iotop am Anschlag und dümpeln nur so vor sich hin.
Inzwischen ist ein 2. Knoten in den Cluster mit rein gekommen und die Pools laufen jetzt statt mit 1/1 mit 2/1. Es hat sich aber nichts geändert. Replica/Recovery wird bei den HDDs mit 1MB/sec durchgeführt. Ich hatte auch schon an den Parametern osd_max_backfills, osd_recovery_max_active, osd_recovery_op_priority gedreht. Es ändert sich kein bisschen was.
Ich bin ratlos. Hat vielleicht jemand eine Idee?
wir haben in der Firma einen neuen Proxmox-Cluster angelegt. Zuerst mit nur einem Knoten als Test. Als Hardware dient ein Server mit mit 64(128) EPYC Kernen, 512GB RAM, und für die Daten 2x 16GB HDDs und 8x SSDs.
Angelegt wurden die Platten über 2 verschiedene CRUSH-Rules. Eine für die HDDs und eine für die SSDs. So ähnlich haben wir das schon bei einem anderen Cluster gemacht wo wir gute Erfahrung gesammelt hatten.
Nach einer Weile bekamen wir bei Ceph folgende Warnungen:
- XX pgs not deep-scrubbed in time
- XX pgs not scrubbed in time
Alle diese PGs verweisen auf die HDDs. Natürlich läuft da ein Recovery/Rebuild, aber mit ca 1MB/sec wo da steht das es ca 10 Jahre dauert bis der fertig ist. Die Pools die darauf liegen (cephfs_data und cephfs_metadata) sind aber ausreichend schnell und die Benchmarks der Platten zeigen auch ca 500 iops. Wenn ich mich auf die Hosts einlogge sind weder die CPUs noch iotop am Anschlag und dümpeln nur so vor sich hin.
Inzwischen ist ein 2. Knoten in den Cluster mit rein gekommen und die Pools laufen jetzt statt mit 1/1 mit 2/1. Es hat sich aber nichts geändert. Replica/Recovery wird bei den HDDs mit 1MB/sec durchgeführt. Ich hatte auch schon an den Parametern osd_max_backfills, osd_recovery_max_active, osd_recovery_op_priority gedreht. Es ändert sich kein bisschen was.
Ich bin ratlos. Hat vielleicht jemand eine Idee?
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 6434822791
Url: https://administrator.de/contentid/6434822791
Ausgedruckt am: 24.11.2024 um 00:11 Uhr
4 Kommentare
Neuester Kommentar
Infos wie zum Beispiel diverse PGs, Ceph Health Status, Ceph OSD Tree, Ceph Version, Rados Bench usw. Wie kann es deiner Meinung nach ein empfohlenes Minimum geben? Minimum ist Minimum und wird nicht umsonst angegeben.
Jeder weiss das ein 3/2 Cluster schon nicht performant ist, über HDDs brauchen wir gar nicht erst anfangen zu reden.
Wie sind deine HDDs genau angebunden, hast du das Bios und alles andere angepasst? HDD Cache an oder aus? Usw.. aber wie gesagt, keiner braucht sich über ein 1/1 oder 2/1 "Cluster" zu unterhalten. Frag im Proxmox Forum nach 1/1 oder 2/1, die werden dir was erzählen 😅
Ich meins nicht böse, aber kein Mensch, der Ceph nur ein wenig versteht (was wirklich nicht leicht ist), würde so ein Setup erstellen und Performance verlangen.
Jeder weiss das ein 3/2 Cluster schon nicht performant ist, über HDDs brauchen wir gar nicht erst anfangen zu reden.
Wie sind deine HDDs genau angebunden, hast du das Bios und alles andere angepasst? HDD Cache an oder aus? Usw.. aber wie gesagt, keiner braucht sich über ein 1/1 oder 2/1 "Cluster" zu unterhalten. Frag im Proxmox Forum nach 1/1 oder 2/1, die werden dir was erzählen 😅
Ich meins nicht böse, aber kein Mensch, der Ceph nur ein wenig versteht (was wirklich nicht leicht ist), würde so ein Setup erstellen und Performance verlangen.