Docker für IT-Administratoren
Hallo liebe Gemeinde,
in der letzten Zeit habe ich (privat) mich mit Docker auseinander gesetzt.
Die Software/Technologie fasziniert mich. Aber bis jetzt habe keine so großen Vorteile für IT-Administratoren gesehen.
bei Entwicklern ist die Lage klarer. Schnelle schlanke Umgebung erschaffen.
Bei der Administration sieht es ein wenig anders aus.
Für mich ist übersichtlicher und einfacher zu verwalten wenn ich die einzelnen Bausteine granularer habe.
Z.B. ein Webserver mit all seinen Komponenten Apache, MariaDB, PHP7 usw.
Da weiß ich genau, wo was fehlt.
Bei Docker kann ich die Lage nicht genau einschätzen.
Alles was ich bis jetzt mit Docker gemacht habe, hat Spaß gemacht.
Die Schlankheit, und die Einfachheit mehrere Instanzen miteinander zu verbinden.
Die nächste Stufe wäre Docker-Swarm für das Clustering.
Aber wenn ich es z.b. in einem Unternehmen einsetzen würde, hätte ich gerne wie vorher erwähnt die einzelnen Bausteine komplett.
Das hilft mir vor allem bei der Fehlerdiagnose.
Ich glaube Docker hat da mehr Potenzial, nur weiß ich nicht wie es in größeren/komplexeren Umgebungen aussieht.
Deswegen würde ich mich es interessieren, ob es hier Administratoren gibt, die Docker in in größerer Dimension im Einsatz haben.
LG
Ergi
in der letzten Zeit habe ich (privat) mich mit Docker auseinander gesetzt.
Die Software/Technologie fasziniert mich. Aber bis jetzt habe keine so großen Vorteile für IT-Administratoren gesehen.
bei Entwicklern ist die Lage klarer. Schnelle schlanke Umgebung erschaffen.
Bei der Administration sieht es ein wenig anders aus.
Für mich ist übersichtlicher und einfacher zu verwalten wenn ich die einzelnen Bausteine granularer habe.
Z.B. ein Webserver mit all seinen Komponenten Apache, MariaDB, PHP7 usw.
Da weiß ich genau, wo was fehlt.
Bei Docker kann ich die Lage nicht genau einschätzen.
Alles was ich bis jetzt mit Docker gemacht habe, hat Spaß gemacht.
Die Schlankheit, und die Einfachheit mehrere Instanzen miteinander zu verbinden.
Die nächste Stufe wäre Docker-Swarm für das Clustering.
Aber wenn ich es z.b. in einem Unternehmen einsetzen würde, hätte ich gerne wie vorher erwähnt die einzelnen Bausteine komplett.
Das hilft mir vor allem bei der Fehlerdiagnose.
Ich glaube Docker hat da mehr Potenzial, nur weiß ich nicht wie es in größeren/komplexeren Umgebungen aussieht.
Deswegen würde ich mich es interessieren, ob es hier Administratoren gibt, die Docker in in größerer Dimension im Einsatz haben.
LG
Ergi
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 430139
Url: https://administrator.de/contentid/430139
Ausgedruckt am: 23.11.2024 um 07:11 Uhr
6 Kommentare
Neuester Kommentar
Zitat von @Ergenekon:
Aber wenn ich es z.b. in einem Unternehmen einsetzen würde, hätte ich gerne wie vorher erwähnt die einzelnen Bausteine komplett.
Das hilft mir vor allem bei der Fehlerdiagnose.
Aber wenn ich es z.b. in einem Unternehmen einsetzen würde, hätte ich gerne wie vorher erwähnt die einzelnen Bausteine komplett.
Das hilft mir vor allem bei der Fehlerdiagnose.
Und vor allem das ganz Ding sicher zu halten. Man hat unte rDocker u.U. zig verschiende libraries in den verschiedensten releases und hat uahc nciht imme rim Blick welches veralteten versionen der Entwickler gerade eingesetzt hat.
Aus Security-Sicht eher ein Alptraum und Sisyphus-Arbeit wenn man statt einem Hostsystem jetzt dutzende Modules prüfen muß.
obwohl: Man köntne es auch als Arbeitsbeschaffungs- und -sicherungngsmaßnahme für seinen Arbeitsplatz sehen.
lks
Ich setz Docker vor allem für Tests ein, kurz ein paar DB Server in verschiedene Netze klemmen, schauen obs so sinn macht etc.
Bei den Produktivsystemen konfiguriere ich es lieber per Hand, da weiß ich wenigstens wo wie was zusammenläuft. Vor allem die Entwickler wollen eh immer extras - bis man da ein Docker Image für erstellt hat, kann man es gleich auch from-scratch machen. Irgendwo in den Docker Docs ist das Prinzip so beschrieben: Container sind "cattle" - also "nutztiere" die man aufzieht, und dann aber auch recht schnell wieder schlachtet - während individuelle Serverdienste "pets" sind, also Haustiere mit denen man Jahrelang zusammenlebt und sie pflegt.
Denke Container sind fürs agile deployment interessant, das man automatisiert fertige Images raushaut bei denen alle abhängigkeiten so sind wie es der Entwickler haben will bzw. wie die Umgebung aussehen soll auf der die Software laufen soll. Und wenns schiefläuft, nimmt man halt das Vorgängerimage (viel besser als so ein hardcore paketquellenkonflikt). Ich persönlich bin aber seit ein paar Jahren aus der Branche raus.
Schlussendlich ist es eine weitere Abstaktionebene nach oben, hat man gestern noch die bits per Hand auf der Partition gezählt, orchestriert man nun "Infrastructure as Code". Was mich dabei beunruhigt ist das man eben immer mehr Abstraktionsebenen "vertrauen" muss und immer weniger versteht. So machen nur noch die wenigsten Assembler (ich kanns auch nicht) - daher ist der ganze Spectre/Meltdown kram so spät aufgefallen - weil alle annahmen die ganzen hardwarenahen Sachen werden schon schnell, sicher und zuverlässig sein, also klicke ich mir paar ebenen drüber was zusammen und alles ist gut... not.
MFG
N-Dude
Bei den Produktivsystemen konfiguriere ich es lieber per Hand, da weiß ich wenigstens wo wie was zusammenläuft. Vor allem die Entwickler wollen eh immer extras - bis man da ein Docker Image für erstellt hat, kann man es gleich auch from-scratch machen. Irgendwo in den Docker Docs ist das Prinzip so beschrieben: Container sind "cattle" - also "nutztiere" die man aufzieht, und dann aber auch recht schnell wieder schlachtet - während individuelle Serverdienste "pets" sind, also Haustiere mit denen man Jahrelang zusammenlebt und sie pflegt.
Denke Container sind fürs agile deployment interessant, das man automatisiert fertige Images raushaut bei denen alle abhängigkeiten so sind wie es der Entwickler haben will bzw. wie die Umgebung aussehen soll auf der die Software laufen soll. Und wenns schiefläuft, nimmt man halt das Vorgängerimage (viel besser als so ein hardcore paketquellenkonflikt). Ich persönlich bin aber seit ein paar Jahren aus der Branche raus.
Schlussendlich ist es eine weitere Abstaktionebene nach oben, hat man gestern noch die bits per Hand auf der Partition gezählt, orchestriert man nun "Infrastructure as Code". Was mich dabei beunruhigt ist das man eben immer mehr Abstraktionsebenen "vertrauen" muss und immer weniger versteht. So machen nur noch die wenigsten Assembler (ich kanns auch nicht) - daher ist der ganze Spectre/Meltdown kram so spät aufgefallen - weil alle annahmen die ganzen hardwarenahen Sachen werden schon schnell, sicher und zuverlässig sein, also klicke ich mir paar ebenen drüber was zusammen und alles ist gut... not.
MFG
N-Dude
Hallo,
wir setzen hier Docker in mehreren Kubernetes Clustern ein.
Wir habe unsere Server Welt in zwei Welten gesplittet einmal die kritische Seite mit Diensten wie AD, Mail, DHCP, DNS, Persistente Datenspeicherung (Fileserver, Datenbanken, S3) und die agile Seite in der Dienste laufen die nur Dinge "anzeigen" oder verarbeiten (Webserver, etc.).
Die kritischen Dienste laufen klassisch und die agile Seite läuft komplett in den Clustern.
Das schöne daran ist ich kann einen kompletten LAMP-Stack in unter einer Minute deployen, dieser Besteht dann aus einer Datenbank, S3 Speicher, Nginx, PHP-FPM. Diesen kann ich auch bei Problemen oder Updates in der gleichen Zeit neu deployen ohne Datenverlust, da alle persistenten Daten außerhalb des Clusters liegen.
Gruß
Phill93
wir setzen hier Docker in mehreren Kubernetes Clustern ein.
Wir habe unsere Server Welt in zwei Welten gesplittet einmal die kritische Seite mit Diensten wie AD, Mail, DHCP, DNS, Persistente Datenspeicherung (Fileserver, Datenbanken, S3) und die agile Seite in der Dienste laufen die nur Dinge "anzeigen" oder verarbeiten (Webserver, etc.).
Die kritischen Dienste laufen klassisch und die agile Seite läuft komplett in den Clustern.
Das schöne daran ist ich kann einen kompletten LAMP-Stack in unter einer Minute deployen, dieser Besteht dann aus einer Datenbank, S3 Speicher, Nginx, PHP-FPM. Diesen kann ich auch bei Problemen oder Updates in der gleichen Zeit neu deployen ohne Datenverlust, da alle persistenten Daten außerhalb des Clusters liegen.
Gruß
Phill93
Hey,
ich hatte das Thema damals als IHK-Projekt.
Hat bei bei uns in der Firma aber nicht durchgesetzt.
Gab immer mal wieder Probleme und bei uns hat sich sowas wie Dev-Ops noch nicht durchgesetzt
Für den Heimgebrauch ist Docker aber echt oft sehr interessant ala ich packe meine Anwendungen in einen Container und lass den auf irgendeiner Hardware laufen.
Der Typ hier beschreibt so einige Probleme mit Docker. Ist das Lesen wert. Link
ich hatte das Thema damals als IHK-Projekt.
Hat bei bei uns in der Firma aber nicht durchgesetzt.
Gab immer mal wieder Probleme und bei uns hat sich sowas wie Dev-Ops noch nicht durchgesetzt
Für den Heimgebrauch ist Docker aber echt oft sehr interessant ala ich packe meine Anwendungen in einen Container und lass den auf irgendeiner Hardware laufen.
Der Typ hier beschreibt so einige Probleme mit Docker. Ist das Lesen wert. Link