Filehosting via HTTP(S) - Docker
Hallo Kollegen,
ich bin seit einiger Zeit dabei regelmäßig Linux-Server zu installieren. Darauf läuft teilweise proprietäre Software, welche ich aktuell händisch via WinSCP (oder scp) auf die entsprechenden Server kopiere um diese darauf zu installieren.
Ich dachte es wäre am einfachsten, einen HTTP(S) Server aufzusetzen, den ich mit meiner Domäne (z.B. files.madgeeks.de) anbieten kann und damit dann die Softwarepakete einfach via wget oder curl herunterladen kann.
Im ersten Schritt wäre das natürlich einfach direkt über einen apache2 Webserver umsetzbar, aber ich dachte mir, da gibts doch bestimmt schon die ein oder andere Softwarelösung, mit der ich auch ein Webfrontend für die Daten bekommen.
Habe nun mal etwas google befragt, habe aber nur uralte, java-basierte Lösungen gefunden aber nichts was ich freiwillig benutzen würde.
Grundsätzliche könnte ich genau der mit Gitlab umsetzen, jedoch ist das schon ein riesiger Software-Stack nur für die eine gewünschte Funktion.
Nun zur Preisfrage... Kennt jemand eine Software, die auf Linux läuft, in der ich mit einer simplen Web-UI paar Daten hochladen kann um diese dann via wget/curl herunterladen kann? Super schön wäre dann noch ein prilivege system, bei den ich einzelne Daten/Ordner nur mit entsprechenden Login laden kann.
Falls jemand der Meinung ist, ich bin einfach nur zu faul einen Webserver aufzusetzen und zu konfigurieren. Jap, da habt Ihr recht
Danke schonmal!
VG
ich bin seit einiger Zeit dabei regelmäßig Linux-Server zu installieren. Darauf läuft teilweise proprietäre Software, welche ich aktuell händisch via WinSCP (oder scp) auf die entsprechenden Server kopiere um diese darauf zu installieren.
Ich dachte es wäre am einfachsten, einen HTTP(S) Server aufzusetzen, den ich mit meiner Domäne (z.B. files.madgeeks.de) anbieten kann und damit dann die Softwarepakete einfach via wget oder curl herunterladen kann.
Im ersten Schritt wäre das natürlich einfach direkt über einen apache2 Webserver umsetzbar, aber ich dachte mir, da gibts doch bestimmt schon die ein oder andere Softwarelösung, mit der ich auch ein Webfrontend für die Daten bekommen.
Habe nun mal etwas google befragt, habe aber nur uralte, java-basierte Lösungen gefunden aber nichts was ich freiwillig benutzen würde.
Grundsätzliche könnte ich genau der mit Gitlab umsetzen, jedoch ist das schon ein riesiger Software-Stack nur für die eine gewünschte Funktion.
Nun zur Preisfrage... Kennt jemand eine Software, die auf Linux läuft, in der ich mit einer simplen Web-UI paar Daten hochladen kann um diese dann via wget/curl herunterladen kann? Super schön wäre dann noch ein prilivege system, bei den ich einzelne Daten/Ordner nur mit entsprechenden Login laden kann.
Falls jemand der Meinung ist, ich bin einfach nur zu faul einen Webserver aufzusetzen und zu konfigurieren. Jap, da habt Ihr recht
Danke schonmal!
VG
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 61197731415
Url: https://administrator.de/contentid/61197731415
Ausgedruckt am: 21.11.2024 um 16:11 Uhr
9 Kommentare
Neuester Kommentar
Hi,
Ich nutze dafür File Browser als docker container.
https://filebrowser.org/installation
Das web Frontend ist wirklich gut und Ordner oder Dateien kannst du per Share Link einfach freigeben und dann per curl nutzen.
Grüße
Ich nutze dafür File Browser als docker container.
https://filebrowser.org/installation
Das web Frontend ist wirklich gut und Ordner oder Dateien kannst du per Share Link einfach freigeben und dann per curl nutzen.
Grüße
Moin,
ich mag den MC ala MidnightComander, Verbindung via Shell, FTP, SFTP mit Login.
Vorteil für mich: Ich kann auch mehrere Dateien auswählen und rauf- / herunterladen. Du hast damit die Wahl, auf dem Server arbeiten und auf die Clients hochladen oder auf den Clients arbeiten und die Daten herunterladen.
Vielleicht ja ein anderer Ansatz?
-teddy
ich mag den MC ala MidnightComander, Verbindung via Shell, FTP, SFTP mit Login.
Vorteil für mich: Ich kann auch mehrere Dateien auswählen und rauf- / herunterladen. Du hast damit die Wahl, auf dem Server arbeiten und auf die Clients hochladen oder auf den Clients arbeiten und die Daten herunterladen.
Vielleicht ja ein anderer Ansatz?
-teddy
Weil Git nicht primär für Binärdateien gedacht ist, sondern für Quellcode. Entweder lädt er sich unnötig alles runter, oder er müsste das verbiegen, alles nicht wirklich im Sinne der Sache.
Ein Webserver mit ggf aktiviertem Verzeichnisindex ist da schon die deutlich sinnvollere Lösung. Oder halt was darauf aufbauendes wie NC oder bereits genannte, wenn er mehr Funktionen möchte.