MyLoc Rechenzentrum Stromausfall
Moin werte Forumskollegen und Kolleginnen.
Ich vermute das unter uns noch weitere Admins bei MyLoc Systeme hosten.
Website : https://www.myloc.de/
Wir tuen dies und waren doch etwas überrascht, als dort heute das Licht ausging.
Habt ihr irgendwelche Informationen?
Ich habe erfahren das der Stadtteil in Düsseldorf keinen Strom mehr hatte. Die Dieselaggregate haben nur einen Bruchteil der versprochenen Dauer gehalten.
Etlichen Systemen wurde adhoc der Strom genommen.
Das bringt eine Menge Arbeit bis das alle Systeme wieder laufen.
Welche Erfahrung habt ihr gemacht?
Grüße
Ben
Ich vermute das unter uns noch weitere Admins bei MyLoc Systeme hosten.
Website : https://www.myloc.de/
Wir tuen dies und waren doch etwas überrascht, als dort heute das Licht ausging.
Habt ihr irgendwelche Informationen?
Ich habe erfahren das der Stadtteil in Düsseldorf keinen Strom mehr hatte. Die Dieselaggregate haben nur einen Bruchteil der versprochenen Dauer gehalten.
Etlichen Systemen wurde adhoc der Strom genommen.
Das bringt eine Menge Arbeit bis das alle Systeme wieder laufen.
Welche Erfahrung habt ihr gemacht?
Grüße
Ben
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 3145962680
Url: https://administrator.de/contentid/3145962680
Ausgedruckt am: 21.11.2024 um 06:11 Uhr
18 Kommentare
Neuester Kommentar
Zitat von @Tezzla:
Moin,
wir waren vor Jahren Kunde bei Myloc. Reinste Katastrophe. Schlechte Performance, seltsamer Support.
Wegmigriert und glücklich damit
VG
Moin,
wir waren vor Jahren Kunde bei Myloc. Reinste Katastrophe. Schlechte Performance, seltsamer Support.
Wegmigriert und glücklich damit
VG
Die sind wirklich ###e.
Ich habe bereits zwei ASNs von MyLoc auf meiner E-Mail-Blacklist, weil die ihren Laden nicht aufräumen.
More to come.
Zitat von @Doskias:
Moin,
Ich will jetzt ja nicht gehässig klingen, aber macht mal jetzt ne Rechnung auf ob das Hosting nach der langen Ausfallzeit wirklich noch günstiger ist/war als eine On-Premiss-Umgebung ;)
Gruß
Doskias
Moin,
Ich will jetzt ja nicht gehässig klingen, aber macht mal jetzt ne Rechnung auf ob das Hosting nach der langen Ausfallzeit wirklich noch günstiger ist/war als eine On-Premiss-Umgebung ;)
Gruß
Doskias
Nun-dann muss deine Rechnung auch beinhalten wie denn dein "On-Premiss" bei nem längeren Stromausfall reagiert. Und da kenne ich schon recht wenige die überhaupt nen Diesel-Agg haben... Dazu dann die lokalen Wartungskosten z.B. für Ersatzteile... wenn ich selbst für meinen privaten Server beim RZ ne Mail schreibe das ne Festplatte kaputt ist fragen die nur wann die ersetzt werden darf und fertig, da is nix mit Kosten...
Von daher denke ich das man da die KOSTEN wohl mit eigenen Leuten eher nicht reinholt. Die Frage wäre wenn eher im generellen Bereich - zB weil die Daten eben nicht im Haus liegen, man das Risiko hat wenn die eigene Internet-Leitung wegknallt,... Aber wg. eines Stromausfalls sowas in Frage zu stellen dürfte dir jeder Budget-Planer lachend auseinander nehmen.
Es kommt drauf an was du als Kosten siehst. Wenn ich bei uns eine Stunde Serverausfall bei laufender Produktion sehe, dann entstehen da alleine Kosten von ca 25.000 € pro Stunde, weil die Produktionsmaschinen ebend weiterlaufen (Stoppen und starten würde jeweils 1 Stunden oder länger dauern), aber die Aufträge vom Server nicht abgerufen werden können.
Wenn ich also jetzt alleine durch den Serverausfall von 4 Stunden Kosten von 100.000 € habe, aber dafür keinen Umsatz generieren kann, dann muss ich das auch in die Summe mit einrechnen. Und die Kosten hätte ich bei einem lokalen Stromausfall nicht. Da hätte ich "nur" die Kosten die entstehen, wenn die Machinen nicht sauber angehalten werden können und aufwändig gereinigt werden müssen, aber das sind im groben "nur" Mitarbeiterkosten.
Klar, das gilt nur bei Produktionsbetrieben. Wenn ich jetzt "nur" eine Versicherung oder so bin, dann sind da andere Maßstäbe anzusetzen.
Aber du hast recht. Aus meinem obigen Posting konnte man das durchaus nicht erkennen. Und wenn ich jetzt ein handwerksbetrieb mit 2 PCs bin, hast du natürlich auch recht. Da bräuchte es nicht mal ein Budget Planer.
Wenn ich also jetzt alleine durch den Serverausfall von 4 Stunden Kosten von 100.000 € habe, aber dafür keinen Umsatz generieren kann, dann muss ich das auch in die Summe mit einrechnen. Und die Kosten hätte ich bei einem lokalen Stromausfall nicht. Da hätte ich "nur" die Kosten die entstehen, wenn die Machinen nicht sauber angehalten werden können und aufwändig gereinigt werden müssen, aber das sind im groben "nur" Mitarbeiterkosten.
Klar, das gilt nur bei Produktionsbetrieben. Wenn ich jetzt "nur" eine Versicherung oder so bin, dann sind da andere Maßstäbe anzusetzen.
Aber du hast recht. Aus meinem obigen Posting konnte man das durchaus nicht erkennen. Und wenn ich jetzt ein handwerksbetrieb mit 2 PCs bin, hast du natürlich auch recht. Da bräuchte es nicht mal ein Budget Planer.
Naja-die Rechnung muss ja anders lauten: Dein Server steht im RZ, dort nen Stromausfall, server schmiert ab. Dein Betrieb steht - 4h, ok, 100.000 Euro Schaden. Aber dagegen müsstest du ja eben den Vergleich setzen: Bei euch nen Stromausfall. Ihr habt vermutlich eben auch keinen Not-Diesel. Server schmiert ab. Dann musst du den ja auch wieder zum Laufen bekommen... Wenn das also da auch 4h dauert ist der Ausfall ja identisch.
Was man aber eben auch überlegen muss: Grad wenns KRITISCHE Systeme sind würde ich eben auch nicht zwingend zum billigsten Anbieter gehen. Denn wenn ich für meinen privaten Server 30e/monat zahle dann muss mir einfach klar sein das der Anbieter ja auch Geld verdienen will. IRGENDWO wird der also sparen müssen. Da ist dann z.B. klar das bei mir nen Ausfall behandelt wird wenn grad mal jemand Zeit hat. Wenn das also nen grösserer Ausfall wäre und vor mir 100 Geschäftskunden sind dann is mein Server halt nen paar Stunden offline. Für mich privat kein Problem - is dann so. Für nen Geschäftskunden wäre DA z.B. natürlich schon ne Rechnung zu machen. Wenn du eben bei euch das Pech hättest und der Support eben zu deinem Server überhaupt erst nach 6-12h oder noch später geht um den überhaupt mal wieder einzuschalten ist natürlich die On-Premise sicher günstiger... Hier rächt sich dann eben die gerne genutzte "Geiz ist Geil" Mentalität - inkl. des rumheulens danach wie schlecht der Support doch ist. Wenn man schon nix zahlt müssen die doch umso schneller sein - immerhin sparen die ja Zeit beim Geld zählen :D
Was man aber eben auch überlegen muss: Grad wenns KRITISCHE Systeme sind würde ich eben auch nicht zwingend zum billigsten Anbieter gehen. Denn wenn ich für meinen privaten Server 30e/monat zahle dann muss mir einfach klar sein das der Anbieter ja auch Geld verdienen will. IRGENDWO wird der also sparen müssen. Da ist dann z.B. klar das bei mir nen Ausfall behandelt wird wenn grad mal jemand Zeit hat. Wenn das also nen grösserer Ausfall wäre und vor mir 100 Geschäftskunden sind dann is mein Server halt nen paar Stunden offline. Für mich privat kein Problem - is dann so. Für nen Geschäftskunden wäre DA z.B. natürlich schon ne Rechnung zu machen. Wenn du eben bei euch das Pech hättest und der Support eben zu deinem Server überhaupt erst nach 6-12h oder noch später geht um den überhaupt mal wieder einzuschalten ist natürlich die On-Premise sicher günstiger... Hier rächt sich dann eben die gerne genutzte "Geiz ist Geil" Mentalität - inkl. des rumheulens danach wie schlecht der Support doch ist. Wenn man schon nix zahlt müssen die doch umso schneller sein - immerhin sparen die ja Zeit beim Geld zählen :D
Zitat von @maretz:
Naja-die Rechnung muss ja anders lauten: Dein Server steht im RZ, dort nen Stromausfall, server schmiert ab. Dein Betrieb steht - 4h, ok, 100.000 Euro Schaden. Aber dagegen müsstest du ja eben den Vergleich setzen: Bei euch nen Stromausfall. Ihr habt vermutlich eben auch keinen Not-Diesel. Server schmiert ab. Dann musst du den ja auch wieder zum Laufen bekommen... Wenn das also da auch 4h dauert ist der Ausfall ja identisch.
Naja-die Rechnung muss ja anders lauten: Dein Server steht im RZ, dort nen Stromausfall, server schmiert ab. Dein Betrieb steht - 4h, ok, 100.000 Euro Schaden. Aber dagegen müsstest du ja eben den Vergleich setzen: Bei euch nen Stromausfall. Ihr habt vermutlich eben auch keinen Not-Diesel. Server schmiert ab. Dann musst du den ja auch wieder zum Laufen bekommen... Wenn das also da auch 4h dauert ist der Ausfall ja identisch.
Nee nicht ganz. Wenn wir einen lokalen Stromausfall haben, dann stoppen die Machinen aprupt. Da habe ich dann keine Stromkosten und auch kein durchlaufendes Material. Dafür hab ich 2 Stunden Reinigungskosten, aber da muss ich nur die Mitarbeiter bezuahlen. anschließend 1 Stunde hochfahren der System und erst danach läuft Material. Der Produktionsausfall ist identisch, aber durch den lokalen Stromausfall stoppt wie gesagt die ganze Produktion auch sofort. Und ja wir haben kein Notstrom-Diesel für die Produktion. Dafür verbrauchen die Machinen zu viel Strom. Nur Unmengen an USV für die Produktionscomputer um die wenigstens kontrolliert runter zu fahren.
Bradler & Krantz (Providerdienste) sitzt scheinbar ebenfalls im gleichen RZ und hat seine Kunden immerhin informiert.
https://status.providerdienste.de/
https://status.providerdienste.de/
Myloc hat auch einen Status dafür
https://www.myloc-status.de/de/
"gut" finde ich "Nachdem das Notstromaggregate uebernommen hat, hat es leider Feuer gefangen und musste gegen 16:10 Uhr deaktiviert werden.".
Kann aber die Großen treffen.
2011 ist ein Blitz in ein RZ von AWS in Irland in die Stromversorgung eingeschlagen und hat verschiedene Komponenten zerstört. Und was was das Licht und die Server.
Quelle: https://www.tecchannel.de/a/blitzschlag-nimmt-cloud-rechenzentren-von-am ...
https://www.myloc-status.de/de/
"gut" finde ich "Nachdem das Notstromaggregate uebernommen hat, hat es leider Feuer gefangen und musste gegen 16:10 Uhr deaktiviert werden.".
Kann aber die Großen treffen.
2011 ist ein Blitz in ein RZ von AWS in Irland in die Stromversorgung eingeschlagen und hat verschiedene Komponenten zerstört. Und was was das Licht und die Server.
Quelle: https://www.tecchannel.de/a/blitzschlag-nimmt-cloud-rechenzentren-von-am ...
Das makabere ist eher, dass insgesamt 3 Rechenzentren von denen (DUS1, DUS3, DUS6) komplett ausgefallen sind. 3 und 6 konnte man binnen 2 Stunden reparieren, DUS1 (das Größte) ging bis 23:30 Uhr und damit 8! Stunden nicht vollständig. Verzweifelte ITler standen vor den Türen (es war im Übrigen das gesamte Gebäude offen inkl. Cages) und haben gewartet, während ein komplett verkorkstes Notfallmanagement mit Kaffee und Pizza versucht hat die Meute zu beruhigen.
Ein Stadtwerkemitarbeiter meinte im Vorbeigehen nur so „tja ohne Wartung kein Notstrom, wir fixen jetzt die kaputte Leitung sonst geht hier nichts mehr, alleine kriegen die (MyLoc) das nicht mehr online.
Für uns war es der letzte Tag und nur ein weiterer Punkt auf der Liste dort dringend wegzugehen. Neben RFID-Schlössern und 2 Wochen Antwortzeit auf Tickets.
Ein Stadtwerkemitarbeiter meinte im Vorbeigehen nur so „tja ohne Wartung kein Notstrom, wir fixen jetzt die kaputte Leitung sonst geht hier nichts mehr, alleine kriegen die (MyLoc) das nicht mehr online.
Für uns war es der letzte Tag und nur ein weiterer Punkt auf der Liste dort dringend wegzugehen. Neben RFID-Schlössern und 2 Wochen Antwortzeit auf Tickets.
Hallo zusammen,
wir sind aktuell noch dabei die verschiedensten Ereignisse einzuordnen und werden auf die betroffenen Kunden zugehen. Für die Bereiche Colocation und Managed Hosting stehen unsere Account Manager ebenfalls zur Verfügung.
Kurz Anmerken darf ich, dass unsere Anlagen immer nach Herstellerangaben gewartet werden und unser Team vor Ort genau wusste was es tat um schnellstmöglich die Systeme wieder online zu bringen. Daher sind hier einige Aussagen bezüglich angeblicher Stadtwerkemitarbeiter-Kommentare und „Verzweifelter ITler“ schlichtweg falsch.
Bei weiteren Fragen stehen wir euch gerne auch unter Angabe eurer Kundennummer unter crm@myloc.de zur Verfügung.
Viele Grüße
Andre Klang
Marketing Manager
wir sind aktuell noch dabei die verschiedensten Ereignisse einzuordnen und werden auf die betroffenen Kunden zugehen. Für die Bereiche Colocation und Managed Hosting stehen unsere Account Manager ebenfalls zur Verfügung.
Kurz Anmerken darf ich, dass unsere Anlagen immer nach Herstellerangaben gewartet werden und unser Team vor Ort genau wusste was es tat um schnellstmöglich die Systeme wieder online zu bringen. Daher sind hier einige Aussagen bezüglich angeblicher Stadtwerkemitarbeiter-Kommentare und „Verzweifelter ITler“ schlichtweg falsch.
Bei weiteren Fragen stehen wir euch gerne auch unter Angabe eurer Kundennummer unter crm@myloc.de zur Verfügung.
Viele Grüße
Andre Klang
Marketing Manager
Zitat von @myLoc-Marketing:
Hallo zusammen,
wir sind aktuell noch dabei die verschiedensten Ereignisse einzuordnen und werden auf die betroffenen Kunden zugehen. Für die Bereiche Colocation und Managed Hosting stehen unsere Account Manager ebenfalls zur Verfügung.
Kurz Anmerken darf ich, dass unsere Anlagen immer nach Herstellerangaben gewartet werden und unser Team vor Ort genau wusste was es tat um schnellstmöglich die Systeme wieder online zu bringen. Daher sind hier einige Aussagen bezüglich angeblicher Stadtwerkemitarbeiter-Kommentare und „Verzweifelter ITler“ schlichtweg falsch.
Bei weiteren Fragen stehen wir euch gerne auch unter Angabe eurer Kundennummer unter crm@myloc.de zur Verfügung.
Viele Grüße
Andre Klang
Marketing Manager
Hallo zusammen,
wir sind aktuell noch dabei die verschiedensten Ereignisse einzuordnen und werden auf die betroffenen Kunden zugehen. Für die Bereiche Colocation und Managed Hosting stehen unsere Account Manager ebenfalls zur Verfügung.
Kurz Anmerken darf ich, dass unsere Anlagen immer nach Herstellerangaben gewartet werden und unser Team vor Ort genau wusste was es tat um schnellstmöglich die Systeme wieder online zu bringen. Daher sind hier einige Aussagen bezüglich angeblicher Stadtwerkemitarbeiter-Kommentare und „Verzweifelter ITler“ schlichtweg falsch.
Bei weiteren Fragen stehen wir euch gerne auch unter Angabe eurer Kundennummer unter crm@myloc.de zur Verfügung.
Viele Grüße
Andre Klang
Marketing Manager
Allerliebst!
Überzeugt mal auch dadurch, indem Ihr die Spammer in Euren ASNs abstellt oder klärt Eure Kunden dann auf, warum E-Mails von deren Servern eventuell nicht mehr entgegen genommen werden! Wenn Ihr schon einen abuse contact einrichtet und dann auf Meldungen ###t, dann blockt man Euch als Provider am besten weg und in ein von Euch betriebenes RZ geht man dann am besten auch nicht!
REPUTATION ZÄHLT EBEN DOCH, ANDRE. Denkt mal drüber nach!
Zitat von @myLoc-Marketing:
Hallo zusammen,
wir sind aktuell noch dabei die verschiedensten Ereignisse einzuordnen und werden auf die betroffenen Kunden zugehen. Für die Bereiche Colocation und Managed Hosting stehen unsere Account Manager ebenfalls zur Verfügung.
Kurz Anmerken darf ich, dass unsere Anlagen immer nach Herstellerangaben gewartet werden und unser Team vor Ort genau wusste was es tat um schnellstmöglich die Systeme wieder online zu bringen. Daher sind hier einige Aussagen bezüglich angeblicher Stadtwerkemitarbeiter-Kommentare und „Verzweifelter ITler“ schlichtweg falsch.
Bei weiteren Fragen stehen wir euch gerne auch unter Angabe eurer Kundennummer unter crm@myloc.de zur Verfügung.
Viele Grüße
Andre Klang
Marketing Manager
Hallo zusammen,
wir sind aktuell noch dabei die verschiedensten Ereignisse einzuordnen und werden auf die betroffenen Kunden zugehen. Für die Bereiche Colocation und Managed Hosting stehen unsere Account Manager ebenfalls zur Verfügung.
Kurz Anmerken darf ich, dass unsere Anlagen immer nach Herstellerangaben gewartet werden und unser Team vor Ort genau wusste was es tat um schnellstmöglich die Systeme wieder online zu bringen. Daher sind hier einige Aussagen bezüglich angeblicher Stadtwerkemitarbeiter-Kommentare und „Verzweifelter ITler“ schlichtweg falsch.
Bei weiteren Fragen stehen wir euch gerne auch unter Angabe eurer Kundennummer unter crm@myloc.de zur Verfügung.
Viele Grüße
Andre Klang
Marketing Manager
Diese Art der Kommunikation ist wirklich schwach. Der Ausfall ist mittlerweile von eurer Statusseite gelöscht worden, man verschweigt nach außen den Riesenausfall und Kunden haben keine Möglichkeit ihren Kunden wiederum ein offizielles Statement von euch vorzulegen. Gesamt Sipgate habt ihr mit eurem Ausfall heruntergerissen, wenigstens können die Leute dort vernünftige Krisenkommunikation und übernehmen eure Aufgaben: https://www.sipgate.de/blog/infos-zur-stoerung-der-sipgate-telefonie
Über 3 Tage nach der Ereignis kein Statement, kein öffentlicher Artikel, nichts. Totgeschwiegen wird es, doch eure Reputation sinkt immer weiter, egal wen man fragt spätestens seit Mittwoch seid ihr allenfalls ein Backup-Standort.
Achja: Hat eigentlich irgendjemand den Kunden kommuniziert, dass ihr aktuell wieder auf Messers Schneide lauft, da keinerlei Dieselaggregate für DUS1 zur Verfügung stehen und das defekte erst repariert werden musste? Eine Störung im Stromnetz und ihr seid wieder down.
Also man darf ja echt erwarten dass das ganze aufbereitet wird und die Kommunikation Seitens der MyLoc ist dürftig bis jetzt. Aber hier wird doch etwas übers Ziel hinaus geschossen. Wer sich allen ernstes nur auf ein Datenzentrum verlässt lädt geradezu dazu ein offline zu gehen und die Rechenzentren in der Stehle waren doch Online während des Vorfalls.
Die Frage die sich stellt ist: Hat die MyLoc aus dem Vorfall was lernen können, wenn ja soll das bitte kommuniziert werden um Vertrauen zu schaffen. Aber die Kommentare hier gehen schon in eine seltsame Richtung. Bei der Interxion und co. ist es auch nicht besser. Uns fehlen hier auch Infos versteht uns nicht falsch, zufrieden sind wir auch erst wenn wir Klärung haben und da warten wir drauf und sind nur durch googlen schließlich auf diesen Beitrag gestoßen. Ein wenig Zeit muss man der anderen Partei im übrigen auch einräumen um selber alles zu 100% zu analysieren, das war bei AWS auch nicht anders letztes Jahr, dort dauerte es auch bis final aufgearbeitet war was jetzt eigentlich das Problem für die massiven Serienausfälle war.
Anders als die Kollegen hier waren wir aber nicht komplett offline, deswegen vermutlich auch etwas entspannter, und müssen sagen insb. in DUS1 gab es in den letzten 2 Jahren eigentlich gar keinen Ausfall. Also ein kleiner Apell, lasst der MyLoc doch zumindest noch ein paar Tage Zeit bevor Sie wenn dort gar nichts mehr kommt dann doch zurecht gelüncht werden.
P.S.: Wir hatten auch techniker vor Ort, falls doch irgendwas komplett abgeraucht wäre zum schnellen ersetzen, die Anekdoten die hier erzählt wurden können wir nicht bestätigen bis auf das dem DUS1 leider teilweise, ja der war nicht ganz weg, der Strom fehlte und es viel Geduld brauchte.
Die Frage die sich stellt ist: Hat die MyLoc aus dem Vorfall was lernen können, wenn ja soll das bitte kommuniziert werden um Vertrauen zu schaffen. Aber die Kommentare hier gehen schon in eine seltsame Richtung. Bei der Interxion und co. ist es auch nicht besser. Uns fehlen hier auch Infos versteht uns nicht falsch, zufrieden sind wir auch erst wenn wir Klärung haben und da warten wir drauf und sind nur durch googlen schließlich auf diesen Beitrag gestoßen. Ein wenig Zeit muss man der anderen Partei im übrigen auch einräumen um selber alles zu 100% zu analysieren, das war bei AWS auch nicht anders letztes Jahr, dort dauerte es auch bis final aufgearbeitet war was jetzt eigentlich das Problem für die massiven Serienausfälle war.
Anders als die Kollegen hier waren wir aber nicht komplett offline, deswegen vermutlich auch etwas entspannter, und müssen sagen insb. in DUS1 gab es in den letzten 2 Jahren eigentlich gar keinen Ausfall. Also ein kleiner Apell, lasst der MyLoc doch zumindest noch ein paar Tage Zeit bevor Sie wenn dort gar nichts mehr kommt dann doch zurecht gelüncht werden.
P.S.: Wir hatten auch techniker vor Ort, falls doch irgendwas komplett abgeraucht wäre zum schnellen ersetzen, die Anekdoten die hier erzählt wurden können wir nicht bestätigen bis auf das dem DUS1 leider teilweise, ja der war nicht ganz weg, der Strom fehlte und es viel Geduld brauchte.