ergenekon
Goto Top

Docker für IT-Administratoren

Hallo liebe Gemeinde,

in der letzten Zeit habe ich (privat) mich mit Docker auseinander gesetzt.
Die Software/Technologie fasziniert mich. Aber bis jetzt habe keine so großen Vorteile für IT-Administratoren gesehen.
bei Entwicklern ist die Lage klarer. Schnelle schlanke Umgebung erschaffen.

Bei der Administration sieht es ein wenig anders aus.
Für mich ist übersichtlicher und einfacher zu verwalten wenn ich die einzelnen Bausteine granularer habe.
Z.B. ein Webserver mit all seinen Komponenten Apache, MariaDB, PHP7 usw.
Da weiß ich genau, wo was fehlt.
Bei Docker kann ich die Lage nicht genau einschätzen.
Alles was ich bis jetzt mit Docker gemacht habe, hat Spaß gemacht.
Die Schlankheit, und die Einfachheit mehrere Instanzen miteinander zu verbinden.
Die nächste Stufe wäre Docker-Swarm für das Clustering.

Aber wenn ich es z.b. in einem Unternehmen einsetzen würde, hätte ich gerne wie vorher erwähnt die einzelnen Bausteine komplett.
Das hilft mir vor allem bei der Fehlerdiagnose.

Ich glaube Docker hat da mehr Potenzial, nur weiß ich nicht wie es in größeren/komplexeren Umgebungen aussieht.

Deswegen würde ich mich es interessieren, ob es hier Administratoren gibt, die Docker in in größerer Dimension im Einsatz haben.

LG
Ergi

Content-ID: 430139

Url: https://administrator.de/contentid/430139

Ausgedruckt am: 23.11.2024 um 07:11 Uhr

Lochkartenstanzer
Lochkartenstanzer 19.03.2019 aktualisiert um 09:40:10 Uhr
Goto Top
Zitat von @Ergenekon:

Aber wenn ich es z.b. in einem Unternehmen einsetzen würde, hätte ich gerne wie vorher erwähnt die einzelnen Bausteine komplett.
Das hilft mir vor allem bei der Fehlerdiagnose.

Und vor allem das ganz Ding sicher zu halten. Man hat unte rDocker u.U. zig verschiende libraries in den verschiedensten releases und hat uahc nciht imme rim Blick welches veralteten versionen der Entwickler gerade eingesetzt hat.

Aus Security-Sicht eher ein Alptraum und Sisyphus-Arbeit wenn man statt einem Hostsystem jetzt dutzende Modules prüfen muß.


obwohl: Man köntne es auch als Arbeitsbeschaffungs- und -sicherungngsmaßnahme für seinen Arbeitsplatz sehen.

lks
NetzwerkDude
NetzwerkDude 19.03.2019 um 10:24:35 Uhr
Goto Top
Ich setz Docker vor allem für Tests ein, kurz ein paar DB Server in verschiedene Netze klemmen, schauen obs so sinn macht etc.

Bei den Produktivsystemen konfiguriere ich es lieber per Hand, da weiß ich wenigstens wo wie was zusammenläuft. Vor allem die Entwickler wollen eh immer extras - bis man da ein Docker Image für erstellt hat, kann man es gleich auch from-scratch machen. Irgendwo in den Docker Docs ist das Prinzip so beschrieben: Container sind "cattle" - also "nutztiere" die man aufzieht, und dann aber auch recht schnell wieder schlachtet - während individuelle Serverdienste "pets" sind, also Haustiere mit denen man Jahrelang zusammenlebt und sie pflegt.

Denke Container sind fürs agile deployment interessant, das man automatisiert fertige Images raushaut bei denen alle abhängigkeiten so sind wie es der Entwickler haben will bzw. wie die Umgebung aussehen soll auf der die Software laufen soll. Und wenns schiefläuft, nimmt man halt das Vorgängerimage (viel besser als so ein hardcore paketquellenkonflikt). Ich persönlich bin aber seit ein paar Jahren aus der Branche raus.

Schlussendlich ist es eine weitere Abstaktionebene nach oben, hat man gestern noch die bits per Hand auf der Partition gezählt, orchestriert man nun "Infrastructure as Code". Was mich dabei beunruhigt ist das man eben immer mehr Abstraktionsebenen "vertrauen" muss und immer weniger versteht. So machen nur noch die wenigsten Assembler (ich kanns auch nicht) - daher ist der ganze Spectre/Meltdown kram so spät aufgefallen - weil alle annahmen die ganzen hardwarenahen Sachen werden schon schnell, sicher und zuverlässig sein, also klicke ich mir paar ebenen drüber was zusammen und alles ist gut... not.

MFG
N-Dude
Ergenekon
Ergenekon 19.03.2019 um 10:27:43 Uhr
Goto Top
Hallo lks,

Und vor allem das ganz Ding sicher zu halten. Man hat unte rDocker u.U. zig verschiende libraries in den verschiedensten releases und hat uahc nciht imme rim Blick welches veralteten versionen der Entwickler gerade eingesetzt hat.

Aus Security-Sicht eher ein Alptraum und Sisyphus-Arbeit wenn man statt einem Hostsystem jetzt dutzende Modules prüfen muß.

genau das meine ich face-smile

mich würde interessieren, wo es großflächig verwendet.
In englischsprachigen Foren & Blogs werden Paypal, Netflix, Spotify usw. angegeben.
Das sind aber für mich Entwickler, die ihre Dienste genau programmieren und darauf optimieren können bzw. nehme ich an dass große Konzerne von Docker Inc beraten werden.

LG
Ergi
Ergenekon
Ergenekon 19.03.2019 um 10:32:51 Uhr
Goto Top
Schlussendlich ist es eine weitere Abstaktionebene nach oben, hat man gestern noch die bits per Hand auf der Partition gezählt, orchestriert man nun "Infrastructure as Code". Was mich dabei beunruhigt ist das man eben immer mehr Abstraktionsebenen "vertrauen" muss und immer weniger versteht. So machen nur noch die wenigsten Assembler (ich kanns auch nicht) - daher ist der ganze Spectre/Meltdown kram so spät aufgefallen - weil alle annahmen die ganzen hardwarenahen Sachen werden schon schnell, sicher und zuverlässig sein, also klicke ich mir paar ebenen drüber was zusammen und alles ist gut... not.


Diese Problematik steigert in sich allgemein.
Lösungen werden einfacher dargestellt und im Hintergrund aber viel komplexer, so dass der Überblick auch kleiner wird.
Phill93
Phill93 19.03.2019 um 10:42:34 Uhr
Goto Top
Hallo,

wir setzen hier Docker in mehreren Kubernetes Clustern ein.

Wir habe unsere Server Welt in zwei Welten gesplittet einmal die kritische Seite mit Diensten wie AD, Mail, DHCP, DNS, Persistente Datenspeicherung (Fileserver, Datenbanken, S3) und die agile Seite in der Dienste laufen die nur Dinge "anzeigen" oder verarbeiten (Webserver, etc.).

Die kritischen Dienste laufen klassisch und die agile Seite läuft komplett in den Clustern.

Das schöne daran ist ich kann einen kompletten LAMP-Stack in unter einer Minute deployen, dieser Besteht dann aus einer Datenbank, S3 Speicher, Nginx, PHP-FPM. Diesen kann ich auch bei Problemen oder Updates in der gleichen Zeit neu deployen ohne Datenverlust, da alle persistenten Daten außerhalb des Clusters liegen.

Gruß

Phill93
J-N-S.K-N-R
J-N-S.K-N-R 19.03.2019 um 11:32:37 Uhr
Goto Top
Hey,

ich hatte das Thema damals als IHK-Projekt.
Hat bei bei uns in der Firma aber nicht durchgesetzt.
Gab immer mal wieder Probleme und bei uns hat sich sowas wie Dev-Ops noch nicht durchgesetzt


Für den Heimgebrauch ist Docker aber echt oft sehr interessant ala ich packe meine Anwendungen in einen Container und lass den auf irgendeiner Hardware laufen.

Der Typ hier beschreibt so einige Probleme mit Docker. Ist das Lesen wert. Link