Möller-Maersk Installiert nach Ramsonware Attacke in Rekordzeit 4.000 Server und 45.000 Pcs
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 362645
Url: https://administrator.de/contentid/362645
Ausgedruckt am: 21.11.2024 um 12:11 Uhr
19 Kommentare
Neuester Kommentar
Moin,
Respekt - die organisatorische Leistung, sowas in der Größenordnung und in dem Zeitraum zu stemmen ist schon gewaltig. Mich würde mal interessieren, wie viel "ITler-Fußvolk" daran beteiligt war und wie die Kommunikation bei so einem Desaster abläuft...
Scheinbar war hier eine gute Backup-Strategie am Werk
lG MOS
Respekt - die organisatorische Leistung, sowas in der Größenordnung und in dem Zeitraum zu stemmen ist schon gewaltig. Mich würde mal interessieren, wie viel "ITler-Fußvolk" daran beteiligt war und wie die Kommunikation bei so einem Desaster abläuft...
Scheinbar war hier eine gute Backup-Strategie am Werk
lG MOS
Ich bin nicht sicher, ob da etwas durcheinander gekommen ist. So wie ich es verstanden habe, mussten das ganze Unternehmen 10 Tage lang nur mit Stift und Papier arbeiten. Das heißt aber nicht, das nach 10 Tagen ALLE Systeme wieder einsatzbereit waren. Vielleicht war ja nur ein Teil wieder hergestellt?
Zitat von @MOS6581:
Nun, der Artikel spricht von "In den zehn Tagen, in denen Maersk seine komplette IT-Infrastruktur erneuerte, musste das Unternehmen sich auf manuelle Arbeitsabläufe beschränken. ..."
Ob da natürlich einiges wegrationalisiert wurde, steht auf einem anderen Blatt
lG MOS
Nun, der Artikel spricht von "In den zehn Tagen, in denen Maersk seine komplette IT-Infrastruktur erneuerte, musste das Unternehmen sich auf manuelle Arbeitsabläufe beschränken. ..."
Ob da natürlich einiges wegrationalisiert wurde, steht auf einem anderen Blatt
lG MOS
Man könnte es natürlich auch als chance sehen und ein über 30-40 Jahre gewachsenes System "neu zu denken".
Immerhin war der Ausfall bereits Anfang des letzten Jahres - ich schätze die pure Migrationsphase waren 10 Tage. Aber da ist ZDnet natürlich leider wieder ziemlich oberflächlich. Aber auch da muss man sagen Hut ab, innerhalb von einem Jahr so ein System neu zu denken und es umzusetzen. Lag aber wohl nur daran, dass das Messer an der Kehle saß. ...
Zitat von @Kryolyt:
Genau der Gedanke kam mir auch. Ich kann mir nicht vorstellen, dass in 10 Tagen jetzt auch ein Sicherheitskonzept entwickelt und umgesetzt wurde.
Genau der Gedanke kam mir auch. Ich kann mir nicht vorstellen, dass in 10 Tagen jetzt auch ein Sicherheitskonzept entwickelt und umgesetzt wurde.
Leute, Ihr arbeitet doch mit der IT, also nutzt diese, um euch zu informieren.
https://www.handelszeitung.ch/unternehmen/cyberattacke-bei-moeller-maers ...
Der Angriff (war imho sogar der zweite auf MM) fand bereits vor mittlerweile fast einem halben Jahr statt. Klar, eine Planungszeit von 5 Monaten für diese Menge an Systemen und Anwendungen ist immernoch knackig, aber 5 Monate dürften eine gute Basis für einen ordentlichen Grundstein sein.
Tja und Kopf-Ap für die Mitarbeiter die das Security-Konzept zu verantworten haben!?
Ich sehe das daher deutlich anders. Hätte die IT vorher Ihren Job richtig gemacht, wären die Auswirkungen nicht so katastrophal gewesen. Sich dann nachher auf die Schulter zu klopfen und sich zu feiern bzw. feiern zu lassen ist da schon ganz schön frech!
Ich sag es dann mal so: Zumindest das Backup/Restore-Konzept scheint gut funktioniert zu haben . Das Security-Konzept hat aber auf der ganzen Linie versagt.
Gibt ja reichlich Firmen, die keine Probleme mit Wannacry/Petya gehabt haben! Offenbar hat dort das Sicherheitskonzept besser gepasst (oder Einfach nur Glück gehabt ).
PS: Beiersdorf (u.a. Nivea, Tesa) in Hamburg hatte es auch voll erwischt.
Ich sehe das daher deutlich anders. Hätte die IT vorher Ihren Job richtig gemacht, wären die Auswirkungen nicht so katastrophal gewesen. Sich dann nachher auf die Schulter zu klopfen und sich zu feiern bzw. feiern zu lassen ist da schon ganz schön frech!
Ich sag es dann mal so: Zumindest das Backup/Restore-Konzept scheint gut funktioniert zu haben . Das Security-Konzept hat aber auf der ganzen Linie versagt.
Gibt ja reichlich Firmen, die keine Probleme mit Wannacry/Petya gehabt haben! Offenbar hat dort das Sicherheitskonzept besser gepasst (oder Einfach nur Glück gehabt ).
PS: Beiersdorf (u.a. Nivea, Tesa) in Hamburg hatte es auch voll erwischt.
Zitat von @monstermania:
Tja und Kopf-Ap für die Mitarbeiter die das Security-Konzept zu verantworten haben!?
Tja und Kopf-Ap für die Mitarbeiter die das Security-Konzept zu verantworten haben!?
Ich glaube, dass es da kein Konzernübergreifendes gab. Man muss ja kosten sparen ;)
Gibt ja reichlich Firmen, die keine Probleme mit Wannacry/Petya gehabt haben! Offenbar hat dort das Sicherheitskonzept besser gepasst (oder Einfach nur Glück gehabt ).
Logisch, Petya kam auch vorallem durch in der Ukraine tätige Firmen rein. Damit schloss es schonmal eine aus. (Hoffe, du hast dich mit der Ausbreitungsgeschichte befasst?)
PS: Beiersdorf (u.a. Nivea, Tesa) in Hamburg hatte es auch voll erwischt.
dito, Tochterfirma in der Ukraine, Nutzung der SW me-doc.com.ua, selbes Spiel. Da hilft auch die beste Sicherheitsstruktur kaum was, wenn dir dein Softwarehersteller den Cyberangriff im Netz platziert.
Die schnelle Ausbreitung macht allerdings sorgen. Aber wer kennt die Kunden nicht, "hier funktioniert wegen der Sch... Firewall das Programm XY nicht...".
certified.net schrieb:
Da hilft auch die beste Sicherheitsstruktur kaum was, wenn dir dein Softwarehersteller den Cyberangriff im Netz platziert.
Da hilft auch die beste Sicherheitsstruktur kaum was, wenn dir dein Softwarehersteller den Cyberangriff im Netz platziert.
Eben, gibt halt Angriffsvektoren, gegen die man sich nicht rein intern verteidigen kann.
Werden doch auch ständig Master und Backdoor Logindaten zu allen möglichen Cloudsystemen und Apps in Github Repos mithochgeladen. Wenn Du dann zu denen gehörst, die die Software verwenden (müssen - aus welchen Gründen auch immer), kannst Dich nachher auch nur um Schadensbegrenzung und dann -Ersatz kümmern. Wenn Du einen Recovery Plan hast mit entsprechender Zeitvorgabe und die einhalten kannst, hast Du Deinen Job gut gemacht.
Zum Topic, ungeachtet der Vorbereitungszeit sind 10 Tage für die Umsetzung schon vorzeigbar.
Nach 10 Tagen waren die wichtigsten Systeme wiederhergestellt, bis alle Systeme wieder da waren hat es länger gedauert. Konnte man zumindest für die Kundenrelevanten Systeme (z.B. EDI) auf Twitter mitverfolgen, Maersk war da ja sehr offen in der Kommunikation.
HI,
mit den 4.00 Servern kann ich mir gut vorstellen. Unter Citrix wird der erste erstellt und dann einfach kopiert ( mit neuer SID) und dann geht ratz fatz. Auch habe ich so ein Lehrgang schon mitgemacht, wie schnell man eine Serverfarm hoch ziehen kann mit den entsprechenden Tools.
Das steckt viel KnowHow dahinter.
Bei den PC -können auch vielen Thinclients dahinter stecken. Das geht mit den neuen "Dell Wyse 3040" auch sehr schnell.
Gruß
Holli
mit den 4.00 Servern kann ich mir gut vorstellen. Unter Citrix wird der erste erstellt und dann einfach kopiert ( mit neuer SID) und dann geht ratz fatz. Auch habe ich so ein Lehrgang schon mitgemacht, wie schnell man eine Serverfarm hoch ziehen kann mit den entsprechenden Tools.
Das steckt viel KnowHow dahinter.
Bei den PC -können auch vielen Thinclients dahinter stecken. Das geht mit den neuen "Dell Wyse 3040" auch sehr schnell.
Gruß
Holli
Der SID Mythos stirbt auch nie aus.
Mit MCS oder PVS erledigt Citrix das vervielfältigen ja auch selbst, spannender ist da die Infrastruktur. Aber mit gutem DR Plan ist das auch kurzfristig erledigt.
/Thomas
Zitat von @certifiedit.net:
So wie ich das lese gab es da nichts, was danach auch nur im entferntesten aussah.
So wie ich das lese gab es da nichts, was danach auch nur im entferntesten aussah.
Dann hast du falsch gelesen, wie schon damals geschrieben konnte man das Geschehen quasi "live" auf Twitter mit verfolgen und es gab Updatevideos aus dem "War Room". Dafür das das gesamte Netz neu gemacht werden musste waren die für Kunden relevanten Systeme in kurzer Zeit wieder online.
/Thomas
Zitat von @Th0mKa:
Dann hast du falsch gelesen, wie schon damals geschrieben konnte man das Geschehen quasi "live" auf Twitter mit verfolgen und es gab Updatevideos aus dem "War Room". Dafür das das gesamte Netz neu gemacht werden musste waren die für Kunden relevanten Systeme in kurzer Zeit wieder online.
/Thomas
Zitat von @certifiedit.net:
So wie ich das lese gab es da nichts, was danach auch nur im entferntesten aussah.
So wie ich das lese gab es da nichts, was danach auch nur im entferntesten aussah.
Dann hast du falsch gelesen, wie schon damals geschrieben konnte man das Geschehen quasi "live" auf Twitter mit verfolgen und es gab Updatevideos aus dem "War Room". Dafür das das gesamte Netz neu gemacht werden musste waren die für Kunden relevanten Systeme in kurzer Zeit wieder online.
/Thomas
Also aus Berichten wie "key lesson learned" + "data recovery plan is urgent" lese ich, dass das davor "SO" nicht bestand. Die hatten wohl keine ganz Miese Doku, aber aus dem damaligem Umfeld meine ich mich zu erinnern, das die Spezialisten wie sonst was in kürzester Zeit aktivieren konnten. (Kann man natürlich auch so als DR Plan verstehen).
Hier nochmals spezifiziert: In dem Umfeld/Größe gab es eben keinen DR Plan, nur eine sch.. glücklich verlaufender Ausbruchsversuch mit einem haufen (fremd) angeheuerter Spezialisten. Der War Room war nur das "danach". Aber klar, hat am meisten Eindruck gemacht.
Not surprisingly, there was no specific strategy in place at Maersk to deal with a cyber-attack on this scale. “There was no plan B,” explains
Banks, “as the recovery plans didn’t account for the global destruction of everything — a common line of thought in asset-centric businesses.”
Banks, “as the recovery plans didn’t account for the global destruction of everything — a common line of thought in asset-centric businesses.”