Top-Themen

Aktuelle Themen (A bis Z)

Administrator.de FeedbackApache ServerAppleAssemblerAudioAusbildungAuslandBackupBasicBatch & ShellBenchmarksBibliotheken & ToolkitsBlogsCloud-DiensteClusterCMSCPU, RAM, MainboardsCSSC und C++DatenbankenDatenschutzDebianDigitiales FernsehenDNSDrucker und ScannerDSL, VDSLE-BooksE-BusinessE-MailEntwicklungErkennung und -AbwehrExchange ServerFestplatten, SSD, RaidFirewallFlatratesGoogle AndroidGrafikGrafikkarten & MonitoreGroupwareHardwareHosting & HousingHTMLHumor (lol)Hyper-VIconsIDE & EditorenInformationsdiensteInstallationInstant MessagingInternetInternet DomäneniOSISDN & AnaloganschlüsseiTunesJavaJavaScriptKiXtartKVMLAN, WAN, WirelessLinuxLinux DesktopLinux NetzwerkLinux ToolsLinux UserverwaltungLizenzierungMac OS XMicrosoftMicrosoft OfficeMikroTik RouterOSMonitoringMultimediaMultimedia & ZubehörNetzwerkeNetzwerkgrundlagenNetzwerkmanagementNetzwerkprotokolleNotebook & ZubehörNovell NetwareOff TopicOpenOffice, LibreOfficeOutlook & MailPapierkorbPascal und DelphiPeripheriegerätePerlPHPPythonRechtliche FragenRedHat, CentOS, FedoraRouter & RoutingSambaSAN, NAS, DASSchriftartenSchulung & TrainingSEOServerServer-HardwareSicherheitSicherheits-ToolsSicherheitsgrundlagenSolarisSonstige SystemeSoziale NetzwerkeSpeicherkartenStudentenjobs & PraktikumSuche ProjektpartnerSuseSwitche und HubsTipps & TricksTK-Netze & GeräteUbuntuUMTS, EDGE & GPRSUtilitiesVB for ApplicationsVerschlüsselung & ZertifikateVideo & StreamingViren und TrojanerVirtualisierungVisual StudioVmwareVoice over IPWünsch Dir wasWebbrowserWebentwicklungWeiterbildungWindows 7Windows 8Windows 10Windows InstallationWindows MobileWindows NetzwerkWindows ServerWindows SystemdateienWindows ToolsWindows UpdateWindows UserverwaltungWindows VistaWindows XPXenserverXMLZusammenarbeit

gelöst Sicherung bei großen VMs mit Veeam

Mitglied: TIM589

TIM589 (Level 1) - Jetzt verbinden

22.05.2020, aktualisiert 07:54 Uhr, 729 Aufrufe, 18 Kommentare

Moin zusammen,

ich hatte letztens bei einem Kunden das Problem, dass eine schnelle File Rücksicherung nicht mehr möglich war, da die VM des Fileservers so groß war, dass es alleine um den Sicherungsjob zu öffnen schon ca. 1 Std gebraucht hat. Jetzt Frage ich mich, wie ich hier am Besten vorgehe bei der Sicherung, um auch mal schnell eine Datei wieder zurücksichern zu können, falls Ihr da eine Möglichkeit kennt.

Umfeld:
- VMware
- VM mit 6 Platten die zusammen ca. 20 TB haben
- Sicherung mit Veeam Backup & Replication -> inkrementelle Sicherung (Die Sicherungsdatei hat ca. 16 TB + die inkrementellen Sicherungen)

Kenn Ihr da eine Methode? Das dauert alles so ewig, weil Veeam hier ja die Sicherung von 16TB erst mal reinladen muss in den FLR. Dazu musste ich sogar in die Registry eingreifen und den InactiveFLRSessionTimeout hochstellen, da sonst einfach irgendwann der Prozess wieder abgebrochen wurde :D

Oder ist hier die generell gängigste Methode auch einfach mal über einen zweiten Fileserver sich Gedanken zu machen?
Mitglied: jsysde
LÖSUNG 22.05.2020 um 08:31 Uhr
Moin.

Zitat von TIM589:
[...]Jetzt Frage ich mich, wie ich hier am Besten vorgehe bei der Sicherung, um auch mal schnell eine Datei wieder zurücksichern zu können[...]
Previous Versions?
https://www.windowspro.de/andreas-wienhusen/schattenkopien-vorgaengerver ...

Keine Ahnung, ob Veeam da beim Backup ein Problem mit hat. Beim DPM muss VSS auf dem gleichen Volume konfiguriert werden, auf dem auch die Files selbst liegen, sonst knallt's beim Backup. Aber prinzipiell geht das Wiederherstellen einzelner Dateien mit Previous Versions verdammt schnell. Und du könntest das sogar die User selbst machen lassen (klappte in der Vergangenheit nach kurzer Schulung recht gut).

Das Aufsplitten auf zwei Fileserver will gut überlegt sein, vor allem, wenn sich dadurch die Anzahl der Netzlaufwerke/die Laufwerksbuchstaben bei den Usern ändern. So banal das klingen mag, ein solches Vorgehen hat schon mehrfach zu Diskussionen geführt, es wurde zum Politikum: "Die doofe IT ändert etwas an _meinem!_ System, das geht ja mal gar nicht". Technisch gesehen wäre es sicherlich sinnvoll.

Cheers,
jsysde
Bitte warten ..
Mitglied: TIM589
22.05.2020 um 10:12 Uhr
Das stimmt, die Schattenkopie war auch so ein Gedanke von mir noch, kann man ja vom Speicher her auch festlegen, wie viel verbraucht wird.
Falls jmd noch eine andere Möglichkeit sieht, gerne her damit, sonst werde ich wohl bei der Firma mal fragen, ob was dagegen spricht das zu aktivieren.

Mei bei mehreren Fileservern würde ja prinzipiell DFS wieder sehr sinnvoll sein, dann kann man alles beim Pfad lassen und wild umher administrieren :D Das alles per GPO verteilt, dann merkt eh keiner mehr was davon, wenn man aufpasst.

Vielen Dank für deine Hilfe
Bitte warten ..
Mitglied: StefanKittel
22.05.2020 um 10:50 Uhr
Hallo,

Schattenkopie hilft nicht immer und nicht überall.

Ich verwende es bei allen Kunden und schaue auch zuerst ob man nicht da eine Datei oder Verzeichnis herbekommt.
In der Regel so mit 10% der Gesamtkapazität.

Aber (oder zumindest mein Aber):
Ein Cryptotrojaner verschlüsselt z.B. alle Deine Dateien weil er das ganze Wochenende dazu Zeit hatte.
Dann muss der Speicherplatz für die Schattenkopien auch mindestens 20TB groß sein. Er schmeist sonst ältere Dateien raus wenn er neue (verschlüsselte) hinzufügt.


Zu Veeam

Wiederherstellen einer ganzen VM
Ich habe noch keine VM wiederhergestellt mit 20TB, aber zumindest ein paar TB sind kein Problem.
Mit dem Instant-Recovery kann man die VM auch direkt aus dem Backup starten.

Wiederherstellen einer Datei
Ja, das kann ich mir vorstellen. Das Problem dürfte aber weniger die Größe von 20TB sein, sondern dass es vermutlich 2.000.000.000 Dateien sind. Das Starten der VM aus dem Backup könnte hier schneller sein.
Bitte warten ..
Mitglied: FA-jka
22.05.2020 um 10:50 Uhr
Hallo,

wenn Du agentenbasiert sicherst, könnte man die Freigabeordner auf mehrere Jobs aufteilen.

Gruß,
Jörg
Bitte warten ..
Mitglied: beidermachtvongreyscull
22.05.2020 um 11:27 Uhr
Moin,

mich würde mal interessieren, wie lange die Sicherung läuft.

Das Tempo beim Mounten Deiner Sicherungskette hängt nicht nur von den Kettengliedern ab, sondern auch vom Medium auf dem gespeichert wird und auf dem gemountet werden soll.

Wenn Du auf Band sicherst, wundere ich mich nicht, dass der Krempel erst mal vollständig rübergeschaufelt werden muss.
Bitte warten ..
Mitglied: TIM589
22.05.2020, aktualisiert um 11:46 Uhr
Jap Thema Schattenkopie wäre auch nur ergänzend eine Idee Ist glaube ich sogar fast die Beste jetzt in dem Fall hier, so wie ich das jetzt anhand eurer Kommentaren auch raus lese.

Das Instant-Recovery ist eine gute Idee. Mensch daran hab ich nicht mal gedacht :D Das teste ich auf jeden Fall mal.

Die Medium sowie Netzwerkgeschwindigkeit wird nicht das Problem sein das ist alles auf Gbit und auf eine NAS. Außerdem ist ja eh nur ein Vollbackup da und dann nur noch kleine inkrementelle Backups, damit ist der Job innerhalb kürzester Zeit durch.
Bitte warten ..
Mitglied: jsysde
22.05.2020 um 12:18 Uhr
Mahlzeit.

Zitat von TIM589:
[...]alles auf Gbit und auf eine NAS.[...]
Fürs Protokoll: Meine Erfahrungen besagen, dass genau diese Kombi meist die Hauptursache für Performance-Probleme ist. Ohne Details zu kennen ist das natürlich hier nicht belastbar; bitte nur als allgemeinen Gedanken verstehen...

Cheers,
jsysde
Bitte warten ..
Mitglied: TIM589
22.05.2020 um 12:29 Uhr
Nur aus Interesse, welche Kombi bevorzugst du dann?
Bitte warten ..
Mitglied: wuebra
22.05.2020, aktualisiert um 14:20 Uhr
Zitat von TIM589:
Die Medium sowie Netzwerkgeschwindigkeit wird nicht das Problem sein das ist alles auf Gbit und auf eine NAS. Außerdem ist ja eh nur ein Vollbackup da und dann nur noch kleine inkrementelle Backups, damit ist der Job innerhalb kürzester Zeit durch.

Gigabit ist bei der Größe nicht wirklich schnell. Ich bevorzuge Direct Access an SAN und Sicherung per 10 Gigabit. Denn das Gigabit ist da schon der Flaschenhals.... und wenn du dann noch ein langsames NAS hast hört es auf
Bitte warten ..
Mitglied: jsysde
22.05.2020 um 17:09 Uhr
Servus.

Zitat von TIM589:
Nur aus Interesse, welche Kombi bevorzugst du dann?
Naja, prinzipiell muss ein NAS nix schlechtes sein - wenn man nicht so ein 2-Bay-Teil aus der Krabbelkiste beim Discounter nimmt.
10G-Anbindung, ggf. iSCSI, brauchbare CPU und ausreichend RAM sowie entsprechende Plattenkapazität kosten halt meist mehr, als Kunden landläufig mit dem Begriff "NAS" assoziieren. Wenn kein 10G möglich ist, dann zumindest ein Trunk aus mind. 2x1G, um hier keinen Flaschenhals zu haben - bei Datenbeständen in TB-Größen ist 1G am Ende des Tages genau das.

Cheers,
jsysde
Bitte warten ..
Mitglied: TIM589
25.05.2020 um 11:47 Uhr
Genau das habe ich auch im Einsatz. Firmensysteme halt
Bitte warten ..
Mitglied: MysticFoxDE
30.05.2020 um 07:25 Uhr
Moin FA-jka,

wenn Du agentenbasiert sicherst, könnte man die Freigabeordner auf mehrere Jobs aufteilen.

hast du schon jemals einen 16TB+ Dateibestand agentenbasiert gesichert?

Das ist alles andere als eine Gute Idee, da die Backupzeiten dadurch explodieren würden, alleine schon dadurch, weil agentenbasiert z.B. kein CBT verfügbar ist. 😉

Grüsse aus BaWü

Alex
Bitte warten ..
Mitglied: MysticFoxDE
30.05.2020 um 08:42 Uhr
Moin TIM589,

16+ TB an Daten ist jetzt nicht so erschreckend, aber auf einer Maschine ist das schon ein riesen Brocken und auch der Hauptgrund für dein Problem.
Aber du bist nicht der Einzige, der mit solchen Fällen zu kämpfen hat, das kann ich dir auf jeden Fall bestätigen.

Eine sehr gute Lösung um auf grösseren Dateiservern eine (Einzel)Dateiwiederherstellung schnell zu gewährleisten, sind wie schon vorgeschlagen die Schattenkopien. Helfen nicht immer, aber sehr sehr häufig.

Wenn ich viele Einzeldateien wiederherstellen muss, dann verwende ich öfters auch den Trick, dass ich die Gesamte VHD oder VHDX an einen anderen Ort wiederherstelle und diese dann zusätzlich an den bestehenden Server als neue Platte hinzufüge und dann per Hand die Daten zurückschaufle. Kann in der einen oder anderen Konstellation viel schneller laufen, als über den Filelevelrestore, setzt aber genügend freien Platz voraus.

Theoretisch könntest du durch die Indexierung der Backupdaten die Wiederherstellung im Filelevelrestore-Modus deutlich verbessern, aber das würde ich dir bei dieser Dattengrössen nicht mal ansatzweise empfehlen. Zum einen verlängert sich durch die Indexierung der zur sichernden Daten, die Backupzeit in Summe gewaltig. Zum anderen belegen die Daten die bei der Indexierung erzeugt werden extrem viel Platz in der SQL DB von Veeam. Wenn du Veeam auf SQL Express (Standard bei Veeam) aufgesetzt hast, dann ist deine Veeam-DB bei deinen Datenbeständen bereits nach der ersten Sicherung beim 10GB Limit angekommen.

Ich denke kaum, dass sich dein Problem nur durch einen Trick lösen lässt, aber es ist generell machbar. Als erstes würde ich dir vorschlagen die Schattenkopien zu aktivieren, dies ist mit einem sehr überschaubaren Aufwand realisiert und bring schon Mal wirklich sehr viel.
Als nächstes solltest du dir überlegen ob du die Daten nicht auf mehrere Server verteilen kannst.
Kleinere VMs lassen sich viel schneller sichern und auch wiederherstellen.
Dieser Schritt ist aber nicht ganz ohne. Ich unterstütze gerade selbst bei einer Fileserverumstellung von einem ähnlich grossen Datenbestand, der bei dem Kunden über die letzten +- 20 Jahre historisch gewachsen ist. Es ist schon mitunter lustig zu sehen wie die Daten gewachsen sind, aber spassig ist diese ganze Angelegenheit dennoch nicht. Im Gegenteil, es ist im Nachgang nicht immer ganz einfach alles Nachzuvollziehen, vor allem wenn die Mitarbeiter, die sich die vorherige Struktur ausgedacht haben nicht mehr im Unternehmen tätig sind und du bei jedem zweiten Ordner nur zu hören bekommst „das war vor meiner Zeit, da kenne ich mich nicht aus“. 😭

So hart das Ganze auch ist, es muss am Ende des Tages gemacht werden.
Ich habe noch kein Unternehmen erlebt, das aktuell weniger Daten generiert wie in der Vergangenheit. Im Gegenteil der Bedarf an Speicherplatz wächst meinem Gefühl nach nicht mal linear, sondern exponentiell. Wenn du nicht rechtzeitig handelst, dann kommst du später vielleicht in die Bredouille, dass sich der Fileserver in einer annehmbaren Zeit, sich gar nicht mehr sichern lässt oder dass in einem Notfall die Wiederherstellung inakzeptabel lange dauert. Habe beides schon miterleben dürfen, ist alles andere als schön, vor allem wenn die Hütte gerade brennt.

Grüsse aus BaWü

Alex
Bitte warten ..
Mitglied: nachgefragt
30.05.2020, aktualisiert um 10:01 Uhr
Zitat von TIM589:
Kenn Ihr da eine Methode?
Guten Morgen,

wir hatten ähnliche Fälle, daher mal grundsätzlich die Frage in die Runde. Kann man generell davon ausgehen das Schattenkopien und auch Datenduplizierung für einen Fileserver die richtigen Features sind, letzteres hatte in meinem Fall knapp über 20% Speicherplatz gebracht.
Bitte warten ..
Mitglied: StefanKittel
30.05.2020 um 12:32 Uhr
Hallo,

wegen Schattenkopien hatte ich oben schon beschrieben.
Für einen Verschlüsselungstrojaner benötigt man 100% der Kapazität.

Und was Deduplizierung bringt hängt vom System ab.
Zwischen 0% und 50%.

Stefan
Bitte warten ..
Mitglied: FA-jka
30.05.2020, aktualisiert um 13:33 Uhr
Hallo,

Zitat von MysticFoxDE:

Moin FA-jka,

wenn Du agentenbasiert sicherst, könnte man die Freigabeordner auf mehrere Jobs aufteilen.

hast du schon jemals einen 16TB+ Dateibestand agentenbasiert gesichert?

Das ist alles andere als eine Gute Idee, da die Backupzeiten dadurch explodieren würden, alleine schon dadurch, weil agentenbasiert z.B. kein CBT verfügbar ist. 😉

Im Gegenteil - agentenbasierte Sicherungen lassen sich nicht nur wesentlich granularer steuern, sondern profitieren natürlich auch von inkrementellen und differentiellen Sicherungen. Weiterhin gibt es gerade bei derartig großen Freigaben häufig statische Bereiche, die nicht zeitkritisch wiederhergestellt werden (müssen) und via einmaliger Sicherung und zusätzlicher Archivierung abgefrühstückt werden können.

Mit anderen Worten: Mein Beitrag ist eine Anregung - was letztendlich "eine gute Idee" ist, lässt sich ohne Kenntnis der Daten und der damit verbundenen technischen und organisatorischen Prozesse nicht beantworten. Dem Verfasser des Beitrages ging es übrigens genau darum, derartige Anregungen zu sammeln.

Gruß,
Jörg
Bitte warten ..
Mitglied: MysticFoxDE
30.05.2020, aktualisiert um 21:32 Uhr
Moin,

wir hatten ähnliche Fälle, daher mal grundsätzlich die Frage in die Runde. Kann man generell davon ausgehen das Schattenkopien und auch Datenduplizierung für einen Fileserver die richtigen Features sind, letzteres hatte in meinem Fall knapp über 20% Speicherplatz gebracht.

Nur für den Fileserver betrachtet können beide Features sehr nützlich sein.
Jedoch sollte man bei DeDub aufpassen, dass es auch nur auf dem Fileserver läuft und nicht schon auf dem SAN/Storage aktiviert ist auf dem sich z.B. auch Datenbank- und oder Applikationsserver befinden. Dann geht der Schuss schnell nach hinten los, da durch DeDub die Performance je nach System gravierend beeinflusst werden kann. Steht beim Dateiserver die Performance im Vordergrund, so würde ich auf DeDub auf jeden Fall verzichten.

Grüsse aus BaWü

Alex
Bitte warten ..
Mitglied: MysticFoxDE
31.05.2020, aktualisiert um 08:00 Uhr
Moin Stefan,

wegen Schattenkopien hatte ich oben schon beschrieben.
Für einen Verschlüsselungstrojaner benötigt man 100% der Kapazität.

ich glaube nicht, dass hier jemand vor hat sein gesamten Backupkonzept nur auf Schattenkopien aufzubauen, das wäre auch meiner Ansicht nach nicht besonders Klug.
Schattenkopien eignen sich jedoch hervoragend um die alltäglichen Rücksicherungsanfragen der Anwender zu bedienen.
Wenn Schattenkopien richtig eingerichtet, reglementiert und die Anwender bez. der Nutzung auch geschult sind, dann sinkt bei vielen alltäglichen Wiederherstellungsanfragen
der Anwender, der Aufwand für den Admin auf 0, weil die Anwender die Daten schlichtweg selber zurückhollen können ohne den Admin hierfür zu belästigen. 😀

Aber vorsicht, nach dem Aktivieren der Schattenkopien können alle User über das Kontextmenü "Vorherige Versionen" des Dateiexplorers ältere Dateien wiederherstellen. Nicht jeder Administrator ist glücklich darüber, wenn die User "Backups" selbst zurückspielen können. Manchmal ist diese Sorge unberechtigt und manchmal gibt es tatsächlich User die diese Macht nicht haben dürfen. Sei es zu ihrem eigenen Schutz oder zum Schutz Anderer. 🙃

Die Einschränkungen können sehr einfach über die folgenden GPOs definiert werden.
gpo_shadow_copy_user - Klicke auf das Bild, um es zu vergrößern

Gegen Verschlüsselungstrojaner und sonstiges Mistvieh helfen die Schattenkopien nur sehr bedingt bis gar nicht.
Wenn sich der "Schädling" mit einem Adminaccount bis zu dem Fileserver durchfrisst, dann deaktiviert dieser sehr wahrscheinlich vor der Verschlüsselung eh die Schattenkopien. Falls die Backupdaten nicht ausreichend geschützt sind, dann löscht er vorher auch noch kurz das Backup und dann wird es richtig lustig. Wegen genau so einem Mist durfte ich schon vor über drei Jahren das erste Mal ausrücken. 🤢🤮

Das Unternehmen hat es zum Glück mit leichten Schrammen überstanden, weil wir bei diesem genau ein Monat vor der Attacke Veeam Backup implementiert haben. Sowohl die Hyperv-Cluster-Verwaltungsumgebung als auch der Veeam Server und auch die Backups selbst wurden von uns, in eigene abgeschottete Netze implementiert, welche vom produktiven Netz des Kunden vollständig getrennt waren und dank dessen nicht kompromittiert werden konnten. 48 Stunden später waren >100 VMs mit einer Kapazität von mehr als 50TB, dank Veeam und einigen Überstunden wieder vollständig funktionsfähig. 😀

Somit würde ich das folgende Sonntagssprüchle reissen.

Schattenkopie ist gut,
Veeam Backup ist besser,
am Ende des Tages,
ist beides gemeinsam,
meistens jedoch am besten. 😎


Grüsse aus BaWü

Alex
Bitte warten ..
Ähnliche Inhalte
Backup
Sicherung des Veeam BR Hosts
Frage von lexa-lexaBackup14 Kommentare

Hi Veeam Kenner, wie sichert ihr den Hostserver, auf dem B&R (v9.5, Community Ed.) läuft. Eigentlich ging ich davon ...

Backup

Veeam Backup Replication - mehrere Jobs - identische VMs

Frage von GerberBackup8 Kommentare

Guten Morgen zusammen, ich habe da mal eine Frage bezüglich Veeam Backup & Replication. Es handelt sich um eine ...

Backup

Backup Software mit ReFS Unterstützung für VMs (kein Veeam)

Frage von STITDKBackup11 Kommentare

Guten Tag, ich habe eine Backup Software Frage für VMs. Was für Backup Software setzt ihr ein die ReFS ...

Backup

Sicherung mit VEEAM + full active für außer Haus

gelöst Frage von Leo-leBackup4 Kommentare

Hallo zusammen, wir sichern seit einiger Zeit mit Veeam, was auch bestens funktioniert. Nun möchte ich aber,bis eine TapeLibrary ...

Neue Wissensbeiträge
Datenschutz
Datenschutzproblem?
Information von Penny.Cilin vor 1 TagDatenschutz5 Kommentare

Hallo, gerade im Heise Newsticker gefunden: Frage: Warum wurden die Akten nicht ordnungsgemäß gesichert bzw. aufbewahrt? Patientenakten sind 30 ...

Windows Netzwerk

SCOM ( System Center Operations Manager ) um eine E-Mailschnittstelle erweitern

Anleitung von Juanito vor 2 TagenWindows Netzwerk

Einleitung System Center Operations Manager (SCOM) ist Microsoft's Lösung zum Überwachen von Servern. Dazu zählt die generelle Erreichbarkeit, Festplattenspeicher, ...

Humor (lol)
BioShield gegen 5G
Information von magicteddy vor 3 TagenHumor (lol)3 Kommentare

Moin wer sich gegen die hochgefährlichen 5G schützen möchte wird hier fündig: 5GBioShield "gegen 5G-Strahlung" Ich glaube, ich sollte ...

Windows Server

ScheduledTasks mit einem Group-Managed-Service-Account (GMSA) ausführen

Anleitung von ToniHo vor 3 TagenWindows Server

Hallo zusammen, wer schonmal versucht hat ein Group-Managed-Service-Account (GMSA) auf einem bestehenden ScheduledTask einzutragen, ist an der GUI vermutlich ...

Heiß diskutierte Inhalte
Microsoft
Zugriffsprobleme Festplatte
Frage von MiMa89Microsoft40 Kommentare

Hallo Zusammen, ich hoffe Ihr könnt mir bei folgendem Problem helfen. Ich habe eine externe Festplatte die nicht mehr ...

Microsoft
100 Prozent CPU Last gleich Volllast, Pustekuchen, nicht bei Microsoft!!! VOL 2
Frage von MysticFoxDEMicrosoft28 Kommentare

Liebe Freunde der Präzision und der Norm, ich möchte in diesem Beitrag konstruktiv an den folgenden Vorgängerbeitrag anschliessen, der ...

SAN, NAS, DAS
Entscheidungshilfe Storage für Netzwerkupgrade
Frage von m-jelinskiSAN, NAS, DAS14 Kommentare

Hallo zusammen, unsere Server und Storage-Systeme sind nun 6 Jahre alt und überfällig ausgetauscht zu werden. Daher haben wir ...

Microsoft
USB-Ports sperren mit Software
Frage von trabajadorMicrosoft10 Kommentare

Hallo, gesucht wird eine Software, welche alle USB-Ports sperrt bis auf für Maus, Tastatur und einem Admin-USB-Stick. Verwendet wird ...