solaris-ch
Goto Top

MySQL ERROR 2006 (HY000) Server has gone away

Thema: MySql Replikation via Dump File. Eine Binäre Replikation haut nicht so hin wie ich will. Deshalb versuche ich es nun via Dumpfile.

Hallo Freunde.

Ich habe auf MySQL Server A ein DUMP File von einer Datenbank erstellt. Das DUMP File ist (ungepackt) rund 5 GB gross. Das File lade ich nun auf dem Host B mittels

mysql -f -u root -pSECRET < all_dump.sql

in die Datenbank rein.

Leider scheint dies nicht sauber zu klappen. Der Host B meldet nach Zeile 2572 des Import Files folgenden Fehler:

ERROR 2013 (HY000) at line 2572: Lost connection to MySQL server during query
ERROR 2006 (HY000) at line 2573: MySQL server has gone away
ERROR 2006 (HY000) at line 2574: MySQL server has gone away
ERROR 2006 (HY000) at line 2575: MySQL server has gone away
ERROR 2006 (HY000) at line 2576: MySQL server has gone away
ERROR 2006 (HY000) at line 2577: MySQL server has gone away
ERROR 2006 (HY000) at line 2578: MySQL server has gone away
ERROR 2006 (HY000) at line 2579: MySQL server has gone away
ERROR 2006 (HY000) at line 2580: MySQL server has gone away
ERROR 2006 (HY000) at line 2581: MySQL server has gone away
ERROR 2006 (HY000) at line 2582: MySQL server has gone away
ERROR 2006 (HY000) at line 2583: MySQL server has gone away
ERROR 2006 (HY000) at line 2584: MySQL server has gone away


Das zieht sich dann bis zur letzten Zeile hin.
In der ersten Zeile wo der Fehler auftritt steht ein Statement welches an sich ok ist und nicht auf einen Fehler deuten lässt.

Performant sollte Host B auch sein. 16 Kern Xeon, 32 GB RAM, RHEL 5, Glasfaser SAN, etc

In der my.cnf habe ich die maximale Grösse eines Paketes bereits auf 10 GB hochgeschraubt (Auf Host A und Host B).
max_allowed_packet = 10000M

Weiss jemand Rat, dies meine bescheidene Frage... face-wink

Content-ID: 130003

Url: https://administrator.de/forum/mysql-error-2006-hy000-server-has-gone-away-130003.html

Ausgedruckt am: 22.12.2024 um 11:12 Uhr

Miyamoto
Miyamoto 23.11.2009 um 11:43:43 Uhr
Goto Top
Hi,
ich hatte auch mal das Problem, bei mir lag es an der anzahl der Zeilen.
Als ich den Dump in mehrere kleinere Dateien aufgeteilt habe ging es Problem los.

Ist zwar keine schöne Lösung aber es hat bei mir geholfen.
solaris-ch
solaris-ch 23.11.2009 um 11:47:37 Uhr
Goto Top
Ok, klingt schonmal gut face-wink. Und wie hast du das bewerkstelligt? Arbeite in einer automatisierten Welt und wüsste auf die Schnelle nicht, wie ich ein Dumpfile automatisch aufteilen soll ohne dass Querys mittendrinn auseinander geschnitten werden. Hast du mir einen Tip?

Beste Grüsse und danke!
Miyamoto
Miyamoto 23.11.2009, aktualisiert am 18.10.2012 um 18:40:03 Uhr
Goto Top
Ich habe alle 2000 Zeilen einen schnitt gemacht gehabt und die Dateien dann nach und nach importiert.

Zum zerlegen der Datei, schau mal bitte hier
Textdatei mit 300.000 Zeilen splitten
ich hoffe es hilft dir weiter
solaris-ch
solaris-ch 23.11.2009 um 13:38:19 Uhr
Goto Top
Hallo Miyamoto

hmm, ist nicht genau das was ich brauche. Also der Ansatz ist ok und auch auf linux adaptierbar. Aber dennoch sehe ich die Sache als ein wenig anfällig, weil ich das ganze automatisiert machen muss. Ich würde lieber dem eigentlichen Problem auf die Schliche kommen und einen Workaround eher als die "Worst Case" Variante ansehen möchte.

Weitere Ideen?
Miyamoto
Miyamoto 23.11.2009 um 14:10:15 Uhr
Goto Top
Ja ich weiß es ist nicht die Schönste Lösung.

Welche MySQL Version benutzt du den?
solaris-ch
solaris-ch 23.11.2009 um 14:17:35 Uhr
Goto Top
Auf beiden Maschinen zur Zeit 5.1.
Miyamoto
Miyamoto 24.11.2009 um 09:38:06 Uhr
Goto Top
Hi,
mir ist noch eine Möglichkeit eingefallen,
du Kopierst den ganzen "Data" Ordner einfach auf das zweite System, die Variante löst zwar auch nicht 100% dein Problem aber du hast den alle Datenbanken auf dem zweiten System.

Ohne das ein einlese Problem auftaucht.
solaris-ch
solaris-ch 24.11.2009 um 09:51:57 Uhr
Goto Top
Hi miyamoto

das ist genau das was ich nun gemacht habe face-wink wobei ja ein Ordner auch einer Datenbank entspricht, packe ich nur die zu Replizierenden Ordner in das tar.gz Paket.

Das klappt wunderbar. Besten Dank und Gruss!