Sehr große Dateien über das Internet versenden
Hallo,
ich muss immer wieder große Daten über das Internet übertragen - da werden viele am WeTransfer & Co. denken aber mit den winzigen Datenkontigent komme ich niemals aus. Meine Datenmengen schwanken zwischen 100GB und 12TB / Übertragung.
Cloud wäre eine Lösung aber da kommt es mir billiger wenn ich die Daten per UPS Express auf einer Platte versende.
Derzeit nutze ich FromSmash und das klappt so einigermaßen aber wenn es Richtung 1TB geht wird es zum Problem. Außerdem vergeht viel Zeit beim Upload zu einem Server und daher habe ich mir diverse P2P Dienste angesehen:
ShareDrop sieht gut aus aber geschäftlich will ich meinen Kunden nicht als "Happy Hippo" oder "Clever Monkey" oder sonst einen mist entgegentreten. Etwas mehr Seriösität und etwas weniger Kindergarten wäre toll! BeamIt sieht gut aus aber 10 Min. bis zum Timeout geht gar nicht - keiner sitzt auf Abruf bereit um dann sofort auf den Link zu klicken.
Ich suche mal weiter aber hat jemand von euch eine Idee? Ich bräuchte mind. 48h bevor ein Link ungültig. Ob nun eine Webseite oder ein Programm zum Einsatz kommen ist mir egal und ich zahle auch gern ein paar EUR im Monat wenn es sein muss aber keine 15 USD / TB oder sowas. Da kann ich dem Kunden eine 12TB Platte zuschicken und die nach 1 Woche wieder von UPS abholen lassen :D
Außerdem mache ich mir zB bei WebRTC sorgen ob die Dateien wirklich verlässlich übertragen werden wenn UDP zum Einsatz kommt - UDP sehe ich eher bei einem Video-Chat aber nicht bei der Datenübertragung größerer Dateien. Daher wäre ein entsprechendes P2P-Tool als Programm ideal das zB TCP nutzt um auch sicherzustellen, dass die Daten komplett ankommen. Oder sehe ich UDP zu kritisch?
Den Kunden sollte der Dienst oder Client natürlich nichts kosten.
Eigenen Server betreiben will ich wegen dem Aufwand nicht wirklich (da nicht alle Kunden statischen IP-Adressen haben müsste der öffentlich sein und das wäre doch mit einigem Wartungsaufwand verbunden).
Eventuell hat einer von euch schon eine Lösung für ein derartiges Problem gefunden.
Danke im Voraus.
ich muss immer wieder große Daten über das Internet übertragen - da werden viele am WeTransfer & Co. denken aber mit den winzigen Datenkontigent komme ich niemals aus. Meine Datenmengen schwanken zwischen 100GB und 12TB / Übertragung.
Cloud wäre eine Lösung aber da kommt es mir billiger wenn ich die Daten per UPS Express auf einer Platte versende.
Derzeit nutze ich FromSmash und das klappt so einigermaßen aber wenn es Richtung 1TB geht wird es zum Problem. Außerdem vergeht viel Zeit beim Upload zu einem Server und daher habe ich mir diverse P2P Dienste angesehen:
ShareDrop sieht gut aus aber geschäftlich will ich meinen Kunden nicht als "Happy Hippo" oder "Clever Monkey" oder sonst einen mist entgegentreten. Etwas mehr Seriösität und etwas weniger Kindergarten wäre toll! BeamIt sieht gut aus aber 10 Min. bis zum Timeout geht gar nicht - keiner sitzt auf Abruf bereit um dann sofort auf den Link zu klicken.
Ich suche mal weiter aber hat jemand von euch eine Idee? Ich bräuchte mind. 48h bevor ein Link ungültig. Ob nun eine Webseite oder ein Programm zum Einsatz kommen ist mir egal und ich zahle auch gern ein paar EUR im Monat wenn es sein muss aber keine 15 USD / TB oder sowas. Da kann ich dem Kunden eine 12TB Platte zuschicken und die nach 1 Woche wieder von UPS abholen lassen :D
Außerdem mache ich mir zB bei WebRTC sorgen ob die Dateien wirklich verlässlich übertragen werden wenn UDP zum Einsatz kommt - UDP sehe ich eher bei einem Video-Chat aber nicht bei der Datenübertragung größerer Dateien. Daher wäre ein entsprechendes P2P-Tool als Programm ideal das zB TCP nutzt um auch sicherzustellen, dass die Daten komplett ankommen. Oder sehe ich UDP zu kritisch?
Den Kunden sollte der Dienst oder Client natürlich nichts kosten.
Eigenen Server betreiben will ich wegen dem Aufwand nicht wirklich (da nicht alle Kunden statischen IP-Adressen haben müsste der öffentlich sein und das wäre doch mit einigem Wartungsaufwand verbunden).
Eventuell hat einer von euch schon eine Lösung für ein derartiges Problem gefunden.
Danke im Voraus.
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 667552
Url: https://administrator.de/forum/sehr-grosse-dateien-ueber-das-internet-versenden-667552.html
Ausgedruckt am: 22.12.2024 um 11:12 Uhr
136 Kommentare
Neuester Kommentar
Moin,
ich würde tatsächlich vorschlagen einen eigenen Server zu betreiben.
Die Anbindung realisierst du dann über VPN und gewährst dem Kunden so Zugang zu den Daten. Die VPN Thematik würde ich über eine vernünftige Firewall machen.
Den Server wirst du ja schon haben. Dort dann ein Rechtemanagement einrichten.
Als FW kannst du eine PfSense nutzen. Als VPN würde ich IPsec vorschlagen. Alternative dann OpenVPN.
Gruß
Spirit
ich würde tatsächlich vorschlagen einen eigenen Server zu betreiben.
Die Anbindung realisierst du dann über VPN und gewährst dem Kunden so Zugang zu den Daten. Die VPN Thematik würde ich über eine vernünftige Firewall machen.
Den Server wirst du ja schon haben. Dort dann ein Rechtemanagement einrichten.
Als FW kannst du eine PfSense nutzen. Als VPN würde ich IPsec vorschlagen. Alternative dann OpenVPN.
Gruß
Spirit
Ist vielleicht etwas wie Resilio Sync bzw. Syncthing geeignet?
Das arbeitet nach dem Bittorrent-Modell und ist Peer-to-Peer.
Resilio Sync habe ich selbst im Einsatz - da kannst du dann einfach einen Ordner mit den Dateien erstellen und diesen über einen Schlüssel freigeben. Der Schlüssel kann als reiner Readonly-Schlüssel vergeben werden, alternativ kann man dem Kunden auch Schreibrechte einräumen, wenn man will.
Der Vorteil für beide Seiten ist auch, dass bei Unterbrechungen da weitergemacht wird, wo aufgehört wurde.
Das arbeitet nach dem Bittorrent-Modell und ist Peer-to-Peer.
Resilio Sync habe ich selbst im Einsatz - da kannst du dann einfach einen Ordner mit den Dateien erstellen und diesen über einen Schlüssel freigeben. Der Schlüssel kann als reiner Readonly-Schlüssel vergeben werden, alternativ kann man dem Kunden auch Schreibrechte einräumen, wenn man will.
Der Vorteil für beide Seiten ist auch, dass bei Unterbrechungen da weitergemacht wird, wo aufgehört wurde.
Moin,
darf man fragen, was das für Daten sind - 12 TB sind schon ein Haufen Holz und da stellt sich mir die Frage, ob man vielleicht am grundsätzlichen Konzept etwas verändern könnte?
Die (Upload-)Dauer ist natürlich wesentlich abhängig von Deiner Upload-Bandbreite und der Datenmenge, also im Wesentlichen unveränderlich - egal wo Du das hochlädst, dazu kommen natürlich noch Schwankungen in der Verbindung zum Server.
Kostelos wirst Du 12TB Speicher nirgends bekommen, auch nicht für "ein paar" Euronen/Monat, insbesondere wenn Du eine gewisse Vorhaltezeit benötigst.
Bei so großen Datenmenge und der unvermeidlichen Uploaddauer muss sich der Upload bei kurzen Unterbrechungen auch automatisch neu starten, das unterstützen auch nicht alle.
In Summe geht IMHO nichts an einem eigenen Server bei einem Hoster vorbei, um die volle Kontrolle zu haben. Notfalls sogar lokal, dann bspw. als SFTP-Server, dann braucht der Kunde keine statische IP, er belastet dann aber Deine Leitung und es dauert eben genau so lang, wie Dein Upload bei einem Sharehoster.
Außer das Konzept lässt sich noch irgendwie überarbeiten.
Gruß
cykes
darf man fragen, was das für Daten sind - 12 TB sind schon ein Haufen Holz und da stellt sich mir die Frage, ob man vielleicht am grundsätzlichen Konzept etwas verändern könnte?
Die (Upload-)Dauer ist natürlich wesentlich abhängig von Deiner Upload-Bandbreite und der Datenmenge, also im Wesentlichen unveränderlich - egal wo Du das hochlädst, dazu kommen natürlich noch Schwankungen in der Verbindung zum Server.
Kostelos wirst Du 12TB Speicher nirgends bekommen, auch nicht für "ein paar" Euronen/Monat, insbesondere wenn Du eine gewisse Vorhaltezeit benötigst.
Bei so großen Datenmenge und der unvermeidlichen Uploaddauer muss sich der Upload bei kurzen Unterbrechungen auch automatisch neu starten, das unterstützen auch nicht alle.
In Summe geht IMHO nichts an einem eigenen Server bei einem Hoster vorbei, um die volle Kontrolle zu haben. Notfalls sogar lokal, dann bspw. als SFTP-Server, dann braucht der Kunde keine statische IP, er belastet dann aber Deine Leitung und es dauert eben genau so lang, wie Dein Upload bei einem Sharehoster.
Außer das Konzept lässt sich noch irgendwie überarbeiten.
Gruß
cykes
MOin,
Miete Dir einen root-Server (zur Not tut es auch ein vserver) mit genügend Platz.
Ob Du den nun nur als zwischenablage oder als relay zum weiterleiten an Dich nutzt, müßte im einzelfall geklärt werden.
Um die korrekte Übertragung zu prüfen, kannst Du einfach Prüfsummen einsetzen.
Du könntest natürlich auch einfach bittorrent o.ä. einsetzen, um die Dateien zu übertragen. Müßtest nur einen eigenen Tracker aufsetzen und den Zugriff darauf auf Deine Kunden beschränken.
lks
Miete Dir einen root-Server (zur Not tut es auch ein vserver) mit genügend Platz.
Ob Du den nun nur als zwischenablage oder als relay zum weiterleiten an Dich nutzt, müßte im einzelfall geklärt werden.
Um die korrekte Übertragung zu prüfen, kannst Du einfach Prüfsummen einsetzen.
Du könntest natürlich auch einfach bittorrent o.ä. einsetzen, um die Dateien zu übertragen. Müßtest nur einen eigenen Tracker aufsetzen und den Zugriff darauf auf Deine Kunden beschränken.
lks
Zitat von @pd.edv:
Daher wäre am sinnvollten P2P und nicht irgendwelche Daten irgendwo hochladen und dann lädt die weider einer herunter. Das dauert ja sonst doppelt so lange! Vorhaltezeit wäre egal - die Kunden warten auf die Daten also wird das Zeitnahe runtergeladen.
Daher wäre am sinnvollten P2P und nicht irgendwelche Daten irgendwo hochladen und dann lädt die weider einer herunter. Das dauert ja sonst doppelt so lange! Vorhaltezeit wäre egal - die Kunden warten auf die Daten also wird das Zeitnahe runtergeladen.
Genau habe ich Dir ja Personal BitTorrent vorgeschlagen. Du setzt einen eigenen Teacker auf, auf den nur deine Kunden können. Und setzt das Bit das nur dieser Tracker benutzt werden darf.
lks
PS: wenn deine Leitung schnell genug ist, warum läßt Du dann bei Dir nicht einfach einen Server laufen über den die Kunden das direkt ziehen können?
Am einfachsten wäre einfach nen Server bei dir mit FTP bzw. sFTP (wobei FTP halt selbst im Browser klappt). Nur: Wie lang der Upload bei 12 TB dauern soll ist der nächste Punkt - und was passiert wenn 3-x Kunden gleichzeitig laden? Aber DAS sind Probleme die sind vom Protokoll unabhängig...
Bei FTP (und sFTP z.B. mittels WinSCP) hast du halt auch (je nach Einstellung) nen Resume... Alternativ halt OwnCloud zuhause betreiben.. Ehrlich gesagt befürchte ich aber bei den Datenmengen das die USB-Platte wirklich die schnellste Variante ist.
Bei FTP (und sFTP z.B. mittels WinSCP) hast du halt auch (je nach Einstellung) nen Resume... Alternativ halt OwnCloud zuhause betreiben.. Ehrlich gesagt befürchte ich aber bei den Datenmengen das die USB-Platte wirklich die schnellste Variante ist.
Zitat von @pd.edv:
Weil ich 10 Dateien an 10 Kunden schicken will die alle nur Ihr zeig sehen sollen von verschiedensten VLANs aus, etc.
Und ich brauche eine Lösung die so einfach ist wie eine USB-HDD da viele Kunden keinen Plan von IT haben.
Zitat von @Lochkartenstanzer:
PS: wenn deine Leitung schnell genug ist, warum läßt Du dann bei Dir nicht einfach einen Server laufen über den die Kunden das direkt ziehen können?
PS: wenn deine Leitung schnell genug ist, warum läßt Du dann bei Dir nicht einfach einen Server laufen über den die Kunden das direkt ziehen können?
Weil ich 10 Dateien an 10 Kunden schicken will die alle nur Ihr zeig sehen sollen von verschiedensten VLANs aus, etc.
Und ich brauche eine Lösung die so einfach ist wie eine USB-HDD da viele Kunden keinen Plan von IT haben.
Ich fürchte eher, dass dir die Materie fremd ist.
Wenn du selbst einen Server betreibst, kannst du doch all deine Anforderungen erschlagen. Technisch limitiert nur deine Internet Leitung.
Moin,
Setz einen Nextcloud-Server in DEINE DMZ. Den sicherst du mit Zugangsdaten der einzelnen Kunden sowie einem validen Zertifikat ab.
Ergänzt werden kann das noch mit einem ReverseProxy bzw. PreAuth-System und dann mit einem zusätzlichen Zertifikat, was deine Kunden erhalten.
Danach schiebst du die Daten aus dem LAN ins die DMZ auf den Nextcloud-Server.
Fertig
Da liegen dann auch keine Daten besonders schätzenswerten Daten bei irgendwelchen Fremdanbietern.
Während du die Daten dann rüber schiebst, legst du eben den User am NC-Server an und bist fertig. Den User hast du schneller angelegt, als dass die Daten da sind.
Setz einen Nextcloud-Server in DEINE DMZ. Den sicherst du mit Zugangsdaten der einzelnen Kunden sowie einem validen Zertifikat ab.
Ergänzt werden kann das noch mit einem ReverseProxy bzw. PreAuth-System und dann mit einem zusätzlichen Zertifikat, was deine Kunden erhalten.
Danach schiebst du die Daten aus dem LAN ins die DMZ auf den Nextcloud-Server.
Fertig
Da liegen dann auch keine Daten besonders schätzenswerten Daten bei irgendwelchen Fremdanbietern.
Während du die Daten dann rüber schiebst, legst du eben den User am NC-Server an und bist fertig. Den User hast du schneller angelegt, als dass die Daten da sind.
Ganz ehrlich - wenn es um so vertrauliche Daten geht und du eben die sinnvollen Lösungen nicht umsetzen kannst/willst dann ist das senden der USB-Platte idR die beste Lösung. DA kannst du ne Verschlüsselung drauf packen und dem Kunden das PW per Telefon mitteilen so das auch keiner an die Daten kommt wenn die Platte verschwindet...
Du kannst die Daten auch natürlich per Skype oder sonstwas senden, aber das wird weder schnell noch sinnvoll sein....
Du kannst die Daten auch natürlich per Skype oder sonstwas senden, aber das wird weder schnell noch sinnvoll sein....
Und Tante Emma hat eine 100Mbit-Leitung und kann die 12 Terra in wenigen Minuten herunterladen?
Wie willst du die Datei denn übertragen, wenn Tante Emmas PC noch aus oder bei dir ist?
Schaue dir mal die Fa. FTAPI oder auch CloudPlan an, da sieht man auch, wann sich ein User die Datei heruntergeladen hat. Zudem kannst du die Links mit einem Zeitlimits versehen. Dann können die den Link anklicken, sich mit einem per Telefon mitgeteilten Passwort anmelden und herunterladen. Ist der Download erfolgt, siehst du das.
Ansonsten bist du scheinbar nach einer Wasch mich, aber mach mich nicht nass Lösung
Dann Kauf halt eine 14TB Platte (um Platz für deine 12TB Daten zu haben), versende die per Post und stelle die dem Kunden in Rechnung oder fordere die innerhalb von 14 Tagen ein.
Wie willst du die Datei denn übertragen, wenn Tante Emmas PC noch aus oder bei dir ist?
Schaue dir mal die Fa. FTAPI oder auch CloudPlan an, da sieht man auch, wann sich ein User die Datei heruntergeladen hat. Zudem kannst du die Links mit einem Zeitlimits versehen. Dann können die den Link anklicken, sich mit einem per Telefon mitgeteilten Passwort anmelden und herunterladen. Ist der Download erfolgt, siehst du das.
Ansonsten bist du scheinbar nach einer Wasch mich, aber mach mich nicht nass Lösung
Dann Kauf halt eine 14TB Platte (um Platz für deine 12TB Daten zu haben), versende die per Post und stelle die dem Kunden in Rechnung oder fordere die innerhalb von 14 Tagen ein.
Stimmt, Firmen mit ner IT-Abteilung haben da kein Problem, genauso wie privatpersonen die sich mit sowas auskennen - weil die einfach nen Server hinstellen und gut... Ganz ehrlich, sowas würde ich über meinen Server in Minuten abfackeln (ok - ausser das ich mehr HDD bräuchte, aber das is auch alles) und dann mit jedem Mittel was ich will: FTP, HTTP,...
Nun, du kannst dir natürlich was eigenes programmieren - auch das ist kein Problem. Ich habe zB. meine Software die mir Files mit mehreren GB zwischen Servern abgleicht die nicht alle immer permanent online sind und selbst wenn dann sind die nicht immer gleich schnell angebunden (und manchmal auch ohne Flat)... Nur: Am Ende ist das vermutlich komplizierter für "Kunden" zu bedienen ... Und auch bei ner eigenen Software musst du halt schauen was die Sicherheit usw. angeht... In der Zeit hab ich nen FTP-Server 3x aufgesetzt -mit Linux kein Ding... Einfach jeden User in sein "Home" einsperren und den Link verschicken wie ftp://user:pass(at)deinserver.xyz. Der Anwender klickt drauf, läd runter... wenn dir das noch zu komplex is bleibt halt nur die Platte zu versenden...
Nun, du kannst dir natürlich was eigenes programmieren - auch das ist kein Problem. Ich habe zB. meine Software die mir Files mit mehreren GB zwischen Servern abgleicht die nicht alle immer permanent online sind und selbst wenn dann sind die nicht immer gleich schnell angebunden (und manchmal auch ohne Flat)... Nur: Am Ende ist das vermutlich komplizierter für "Kunden" zu bedienen ... Und auch bei ner eigenen Software musst du halt schauen was die Sicherheit usw. angeht... In der Zeit hab ich nen FTP-Server 3x aufgesetzt -mit Linux kein Ding... Einfach jeden User in sein "Home" einsperren und den Link verschicken wie ftp://user:pass(at)deinserver.xyz. Der Anwender klickt drauf, läd runter... wenn dir das noch zu komplex is bleibt halt nur die Platte zu versenden...
Verstehe.
Aber wenn du denen die Daten schicken willst, müssen die erstmal an der Firewall nen Sport öffnen, damit du rein kommst. Das ist Mist.
Erstelle EINMALIG eine exe, welche mit einer zusätzlichen Parameter-Datei per FTP die einzelnen Files herunter lädt.
Die Exe + individuell erstellte Config-File sendest du als selbst entpackendws Archiv per Link zu, laden die Leute herunter, starten es und das Skript läuft los.
Wenn alles fertig ist, erhältst du ne Mail und nimmst die Files Offline.
Ganz ohne Arbeit wirst du das nicht machen können. Eine Lösung alà „ich hab die Files gerettet und ab da läuft alles wie von Zauberhand selbst“ geht nicht. Punkt. Irgendwie musst du noch Hand anlegen
Edit:
Und das erstellen eines gesicherten (S)FTP-Servers musst du ja nur einmalig machen. Einmal Zeit investiert und es läuft.
Und deinen Restore kannst du ja direkt auf das Volume des FTP-Servers in der DMZ laufen lassen.
Das ist - wie gesagt - ein einmaliger Aufwand in der Einrichtung. Und da du scheinbar selbstständig bist, arbeitest du ja ohnehin selbst und ständig
Und User kann man auch schnell per Skript anlegen lassen:
Text-File mit Username anlegen, ein Job prüft ein Verzeichnis auf das Vorhandensein einer neuen Datei, der legt einen User an, sendet DIR den Usernamen und das selbsterstellte Kennwort zu und du leitest es dem Kunden weiter. Aus die Maus.
Aber wenn du denen die Daten schicken willst, müssen die erstmal an der Firewall nen Sport öffnen, damit du rein kommst. Das ist Mist.
Erstelle EINMALIG eine exe, welche mit einer zusätzlichen Parameter-Datei per FTP die einzelnen Files herunter lädt.
Die Exe + individuell erstellte Config-File sendest du als selbst entpackendws Archiv per Link zu, laden die Leute herunter, starten es und das Skript läuft los.
Wenn alles fertig ist, erhältst du ne Mail und nimmst die Files Offline.
Ganz ohne Arbeit wirst du das nicht machen können. Eine Lösung alà „ich hab die Files gerettet und ab da läuft alles wie von Zauberhand selbst“ geht nicht. Punkt. Irgendwie musst du noch Hand anlegen
Edit:
Und das erstellen eines gesicherten (S)FTP-Servers musst du ja nur einmalig machen. Einmal Zeit investiert und es läuft.
Und deinen Restore kannst du ja direkt auf das Volume des FTP-Servers in der DMZ laufen lassen.
Das ist - wie gesagt - ein einmaliger Aufwand in der Einrichtung. Und da du scheinbar selbstständig bist, arbeitest du ja ohnehin selbst und ständig
Und User kann man auch schnell per Skript anlegen lassen:
Text-File mit Username anlegen, ein Job prüft ein Verzeichnis auf das Vorhandensein einer neuen Datei, der legt einen User an, sendet DIR den Usernamen und das selbsterstellte Kennwort zu und du leitest es dem Kunden weiter. Aus die Maus.
Zitat von @pd.edv:
Ist mir doch egal wie lange das läuft. Meist hat Tanke Erna auch keine 12TB Platte sondern eher 1-4TB. Reicht aber auch wenn die Voll war.
Zitat von @em-pie:
Und Tante Emma hat eine 100Mbit-Leitung und kann die 12 Terra in wenigen Minuten herunterladen?
Und Tante Emma hat eine 100Mbit-Leitung und kann die 12 Terra in wenigen Minuten herunterladen?
Ist mir doch egal wie lange das läuft. Meist hat Tanke Erna auch keine 12TB Platte sondern eher 1-4TB. Reicht aber auch wenn die Voll war.
Also 4TB brauch bei optimalen Bedingungen am 100-Anschluß T tage. Tante emma ist aber meist mit einem 16-er oder 25-Anschluß unterwegs. Selbst die 100-er bieten keine Dauertansferrate von 10MB/s da kannst Du von Downloads in "Wochen" rechnen.
Dein Vorhaben ist imho unsinnig, solange die Bandbreite am "Endkunden" in keiner Relation zu den Datenmengen stehen.
Die Wurde schon praktikable Methoden genannt:
- Datenträger verschicken. Imho das sinnvollste und jemand der die 50-300€ für eine HDD nicht hinlegen kann - die kann man anschließend für Backups nutzen! - dem sind vermutlich Deine Kosten auch zuviel. Oder arbeitest Du für ein Taschengeld ?
- P2P -Bittorrent. ist recht einfach aufzusetzen und zu betreiben. Du mußt nicht einmal die Daten vorher umkopieren. Du mußt nur Deine Infrastruktur richtig einrichten, daß sich der Torrentserver sich die Daten per nfs oder cifs direkt von Deiner "Ablage" holt. Bittorrent sorgt auch dafür, daß die Daten korrekt ankommen.
- FTP-Server. Auch hier kannst Du Deine Infrastruktur anpassen, daß Du die Daten nciht zuerst draufkopieren mußt. Du kannst den Link gleich mit user/paßwort verschicken, daß die Kunden das nciht einmal eintippen müssen.
- Inhouse Cloudserver (ob owncload oder was anderes sein dahingestellt). geht auch ohne vorher Daten draufzuschieben.
Was erwartest Du denn von uns?
lks
Kennst du das magische Dreieck? Billig, sicher, seriös könnte man da anführen...oder schnell.
Wenn du es ordentlich haben willst, wirst du etwas mehr Geld in die Hand nehmen müssen (wo das steht, andere Frage). Wenn nicht, von bis.
Auf FTP würde ich aber nicht setzen.
Aber bzgl. dessen Wie würdet ihr eine Datenrettung machen?
Sieht es sowieso eher wie heiße Luft aus, Da diese Frage, hier, dass es 120Tage dauert zu retten...
Wenn du es ordentlich haben willst, wirst du etwas mehr Geld in die Hand nehmen müssen (wo das steht, andere Frage). Wenn nicht, von bis.
Auf FTP würde ich aber nicht setzen.
Aber bzgl. dessen Wie würdet ihr eine Datenrettung machen?
Sieht es sowieso eher wie heiße Luft aus, Da diese Frage, hier, dass es 120Tage dauert zu retten...
Ich habe mir jetzt alles durchgelesen. Nach zig Beiträgen erschließt sich mir immer noch nicht wo das Problem sein soll.
Bei beiden Möglichkeiten (und bei vielen anderen auch) hast du den Benutzer mit Passwort der die Daten herunterladen darf binnen Sekunden erstellt. Bei Nextcloud und Synology bin ich mir nicht sicher - bei Seafile könntest du sogar angeben wie oft die Daten heruntergeladen werden dürfen.
Deine Einwände bezüglich Datenschutz lasse ich so nicht gelten. Warum? Weil du abseits einer eigene Installation so wie ich es verstehe auf irgendwelche Sharing-Plattformen zurückgreifst. Das ist mit Sicherheit deutlich unsicherer als eine eigene Instanz. Wahrscheinlich gibt es mit denen noch nicht einmal einen Vertrag zur Auftragsverarbeitung.
Wenn dir das alles zu unsicher ist bleibt dir in der Tat nur Festplatten zu verschicken und in Rechnung zu stellen wenn sie nicht wieder zurück kommen.
Aber auch da wird Tante Erna Probleme haben, da du die Platte entweder verschlüsseln musst oder du verschickst sie in einem Tresor.
Es war schon immer so und wird sich nie ändern: Zusätzliche Sicherheit schränkt den Komfort ein. Da führt einfach kein Weg dran vorbei. Du kannst bspw bei dir zu Hause grundsätzlich immer alle Eingangs- und Zimmertüren hinter dir abschließen und auch alle Fenster um die Sicherheit zu erhöhen. Ob das dann noch komfortabel ist bezweifele ich aber.
Manuel
- Warum nicht einfach ein Nextcloud installieren und von außen erreichbar machen? Gut, du willst dich nicht mit Updates beschäftigen müssen.
- Warum dann nicht eine Synology mit ausreichend Platz und darüber veröffentlichen? Dafür gibt es zwar auch regelmäßig Updates aber die lassen sich unkompliziert einspielen.
Bei beiden Möglichkeiten (und bei vielen anderen auch) hast du den Benutzer mit Passwort der die Daten herunterladen darf binnen Sekunden erstellt. Bei Nextcloud und Synology bin ich mir nicht sicher - bei Seafile könntest du sogar angeben wie oft die Daten heruntergeladen werden dürfen.
Deine Einwände bezüglich Datenschutz lasse ich so nicht gelten. Warum? Weil du abseits einer eigene Installation so wie ich es verstehe auf irgendwelche Sharing-Plattformen zurückgreifst. Das ist mit Sicherheit deutlich unsicherer als eine eigene Instanz. Wahrscheinlich gibt es mit denen noch nicht einmal einen Vertrag zur Auftragsverarbeitung.
Wenn dir das alles zu unsicher ist bleibt dir in der Tat nur Festplatten zu verschicken und in Rechnung zu stellen wenn sie nicht wieder zurück kommen.
Aber auch da wird Tante Erna Probleme haben, da du die Platte entweder verschlüsseln musst oder du verschickst sie in einem Tresor.
Es war schon immer so und wird sich nie ändern: Zusätzliche Sicherheit schränkt den Komfort ein. Da führt einfach kein Weg dran vorbei. Du kannst bspw bei dir zu Hause grundsätzlich immer alle Eingangs- und Zimmertüren hinter dir abschließen und auch alle Fenster um die Sicherheit zu erhöhen. Ob das dann noch komfortabel ist bezweifele ich aber.
Manuel
Zitat von @pd.edv:
Hatte auf eine Lösung gehofft aber sieht derzeit nicht so aus - ich finde eure Lösungen nicht schlecht aber nicht passend für meinen Zweck.
Hatte auf eine Lösung gehofft aber sieht derzeit nicht so aus - ich finde eure Lösungen nicht schlecht aber nicht passend für meinen Zweck.
Wenn Du eine maßgeschneiderte Lösung willst, mußt Du Geld ausgeben. Hier gibt es nur Denkanstöße. Das Umsetzen mußt Du selbst machen.
lks
Zitat von @pd.edv:
Ich arbeite alleine - also darf ich nie wieder in Urlaub fahren oder zu eine Konferenz oder sonst wo hin denn es ist ja keiner da der den Server überwacht und auf Angriffe reagiert.
Ich arbeite alleine - also darf ich nie wieder in Urlaub fahren oder zu eine Konferenz oder sonst wo hin denn es ist ja keiner da der den Server überwacht und auf Angriffe reagiert.
Ich bin auch Einzelselbständiger. Da muß man dann halt Vorkehrungen treffen und Monitoring machen - oder auf Urlaub verzichten.
lks
Ich arbeite alleine - also darf ich nie wieder in Urlaub fahren oder zu eine Konferenz oder sonst wo hin denn es ist ja keiner da der den Server überwacht und auf Angriffe reagiert.
Dann könntest du einfach die entsprechende Firewallregel deaktivieren -> Server offline.
Wenn du nicht arbeitest gibt's für die Kunden ja auch nichts herunterzuladen.
so ein Ding ist ein verlockendes Ziel und irgendwann kommt schon der richtige Bot mit dem passenden Exploit vorbei
Das macht der auch bei allen Sharing-Plattformen die du heute so nutzt. Und dafür das da regelmäßig Admins ein waches Auge drauf haben wollen die nunmal Geld sehen. In aller Regel dürfte ein direkter Zusammenhang bestehen zwischen dem was du bezahlen muss pro TB und dem Servicelevel der dahinter steht. Je weiter der Geldbetrag in Richtung Null geht desto geringer der Service. Da stehen dann so Dinge in den AGB wie 95% Verfügbarkeit oder kein Anspruch auf Ausfallsicherheit und ähnliches.
Nimm zB BeamIt - das verstehe ich unter Simpel - zeugs in den Browser ziehen und link schicken. Kunde klickt es an, PC fragt wo die Daten hin sollen und schon geht es los.
Kein VPN, kein Server, P2P.
Bin gerade dabei mich in diese Technik einzuarbeiten - wenn ich da quasi on the fly die MD5 Summe errechnen und abgleichen kann und dann die Datei als fertig markieren dann wär das perfekt.
Ein Server und geringer Aufwand.
Oma Ilse klickt auf nen link und muss ggf. Noch ein Passwort rein tackern. Fertig.
Nochmal - ich denke eher in die Richtung ID am Webserver anlegen, Link senden, Daten austauschen mit der ID und P2P Verbindung zum Kunden aufbauen über die dann die Daten verschlüsselt übertragen werden. Dann sitzen wir beide halbwegs sicher hinter der Firewall und von außen ist alles schön dicht, ich kann einen bestimmten Ordner von jeder Maschine aus senden und muss nichts zippen oder im LAN herumkopieren.
Dann betreibt davor einen reverse proxy welcher in irgend einer Form nur traffic vom Kunden selbst zu lässt. Ist allerdings wieder unpraktischer.
Zitat von @manuel-r:
Dann könntest du einfach die entsprechende Firewallregel deaktivieren -> Server offline.
Wenn du nicht arbeitest gibt's für die Kunden ja auch nichts herunterzuladen.
Dann könntest du einfach die entsprechende Firewallregel deaktivieren -> Server offline.
Wenn du nicht arbeitest gibt's für die Kunden ja auch nichts herunterzuladen.
Naja, bei den Datenmengen (=mehrere Tage bis Wochen Downloadzeit) dürfte er kaum in den Urlaub, wenn er warten muß, bis der Kunde seinen Download beendet.
lks
Zitat von @pd.edv:
Ja aber dann hab ich immer noch die Tür ins Netzwerk offen und da steht alles drin was Gott verboten hat. Oder ich Trenn den Server wieder in ein eigenes Netz nur dann wird es nichts mit dem Share mounten.
Zitat von @Spirit-of-Eli:
Ich verstehe dein Problem immer noch nicht. Mit Nextcloud geht das doch alles. Und die Dateien brauchst du nicht mal direkt auf dem Server hochladen. Du kannst einfach einen externen storage mounten und dann simpel über das rechte management freigeben.
Ein Server und geringer Aufwand.
Oma Ilse klickt auf nen link und muss ggf. Noch ein Passwort rein tackern. Fertig.
Ich verstehe dein Problem immer noch nicht. Mit Nextcloud geht das doch alles. Und die Dateien brauchst du nicht mal direkt auf dem Server hochladen. Du kannst einfach einen externen storage mounten und dann simpel über das rechte management freigeben.
Ein Server und geringer Aufwand.
Oma Ilse klickt auf nen link und muss ggf. Noch ein Passwort rein tackern. Fertig.
Ja aber dann hab ich immer noch die Tür ins Netzwerk offen und da steht alles drin was Gott verboten hat. Oder ich Trenn den Server wieder in ein eigenes Netz nur dann wird es nichts mit dem Share mounten.
Was denn nu? hü oder hott? Eine Kröte mußt Du schlucken.
Wie weiter oben schon gesagt: Sicherheit ist unbequem. Alternativ syncst Du alles auf Deinen ownclowdserver mit eigenem Storage. Mit einem 10G-Netzwerk ist das innerhalb weniger Stunden selbst bei 12TB erledigt.
lks
PS. Interessant, wieviel Leute um die Zeit hier noch rumhängen.
Wenn ich einen Lieferwagen brauche könnt ihr noch 10 Jahre auf mich einreden und versuchen mich von einem Cabrio oder einem Stadtflitzer zu überzeugen. Ich brauche einen Lieferwagen.
Dir wurden reichlich Lieferwagen angeboten.
Dein Problem ist aber, dass du einen Lieferwagen suchst der mit Klasse B gefahren werden darf und der gleichzeitig 10 t Zuladung hat. Außerdem soll er nur 3 Liter verbrauchen, steuerbefreit sein und bei der Versicherung fast nichts kosten. Den gibt es nicht!
Manuel
Ganz ehrlich - ich glaube es wird da keine Lösung geben... Du hast doch eine Firma - da musst du halt auch mal Arbeitsmaterial bestellen... Also bestellst du dir einfach ne Handvoll x TB-Platten (ggf. auch gleich welche mit nem PIN-Code drauf, das macht das für den Kunden leichter weil der nur ne Nummer eingeben muss statt irgendwas zu entschlüsseln). Die Platte verschickst du - ist die nach 4 Wochen wieder da, alles gut, der Kunde braucht auch nix für die Platte Zahlen (oder - je nach Wunsch ne kleine Leihgebühr) und du nimmst die für den nächsten wieder... Schickt der die nich zurück wirds in Rechnung gestellt - fertig. Alternativ kannst du ja sogar anbieten wenn der das nicht will liefert der dir eine Platte fürs Restore mit - und die wird genutzt (ohne Haftung falls die auch kaputt geht).
Bei allen anderen Lösungen wirst du halt nichts werden mit dem Ansatz "der Kunde soll nix machen, für dich und den Kunden solls sicher sein, du willst keinen Aufwand,....". Klar kannst du jetzt sowas wie Bittorrent o.ä. nutzen - und darauf warten das der erste Kunde es falsch einstellt und seine Platte plötzlich im Netz steht (oder der es "versehentlich" falsch einstellt, nen Film runterläd und du plötzlich Post bekommst weil er dich reinzieht - als Dienstleister hast du ihm das ja empfohlen und er dachte das wäre jetzt alles legal...).
Oder du musst wirklich selbst programmieren - das ist auch kein Problem DA hast du natürlich alle Freiheiten... Nur: Auch da fließt Aufwand rein - und der sollte nicht unterschätzt werden... Machbar ist das natürlich - und wenn du es richtig machst auch mit Rückmeldung welche Datei bereits kopiert wurde, welche aktiv kopiert wird und was offen ist... Das ist - wenn man es richtig macht - ne einfache Verbindung zwischen rsync + einer beliebigen Programmiersprache (und dann musst du trotzdem auf deiner Seite noch z.B. einen ssh-Server haben...). Das ganze schön in eine exe/jar/... verpackt und go... Jetzt musst du es nur noch programmieren...
Bei allen anderen Lösungen wirst du halt nichts werden mit dem Ansatz "der Kunde soll nix machen, für dich und den Kunden solls sicher sein, du willst keinen Aufwand,....". Klar kannst du jetzt sowas wie Bittorrent o.ä. nutzen - und darauf warten das der erste Kunde es falsch einstellt und seine Platte plötzlich im Netz steht (oder der es "versehentlich" falsch einstellt, nen Film runterläd und du plötzlich Post bekommst weil er dich reinzieht - als Dienstleister hast du ihm das ja empfohlen und er dachte das wäre jetzt alles legal...).
Oder du musst wirklich selbst programmieren - das ist auch kein Problem DA hast du natürlich alle Freiheiten... Nur: Auch da fließt Aufwand rein - und der sollte nicht unterschätzt werden... Machbar ist das natürlich - und wenn du es richtig machst auch mit Rückmeldung welche Datei bereits kopiert wurde, welche aktiv kopiert wird und was offen ist... Das ist - wenn man es richtig macht - ne einfache Verbindung zwischen rsync + einer beliebigen Programmiersprache (und dann musst du trotzdem auf deiner Seite noch z.B. einen ssh-Server haben...). Das ganze schön in eine exe/jar/... verpackt und go... Jetzt musst du es nur noch programmieren...
Nicht, wenn Du direkt auf das Snology-NAS wiederherstellst?
Bei Nextcloud gibt es passwortgeschützte Einmal-Links ohne Bedarf für einen extra User, einfacher geht es schon nicht mehr. Und mit Carsten Riegers Scripten in 15 Minuten gebrauchsfertig und sicher aufgesetzt. Nur mal so.
Das Problem is ja - er will nix pflegen... auch OwnCloud/NextCloud/... muss natürlich gewartet werden (wie JEDER Service der am Internet hängt). Und schon sind wir wieder am Anfang... Es soll keinen Server geben, es soll einfach sein, der Kunde soll nix tun müssen, die Daten sollen auch noch einzeln übertragbar sein, .... Nun - ich arbeite ja selbst viel mit Schiffen... ich bin auch der Meinung wenn die ein Problem haben sollen die gefälligst zu mir kommen, leider musste ich da recht schnell die Realität erkennen das die das teils sogar gerne tun würden aber es da ein paar Probleme gibt die existieren (z.B. das bei mir kein Fluss/Meer übern Parkplatz verläuft - was für Schiffe scheinbar essenziell ist um sich zu bewegen...). Somit bleibt nur die schlechtere Lösung -> ich muss zu den Schiffen hin :D. Irgendwann wird der TO halt merken das es viele Lösungen gibt aber eben keine die ALLES erfüllt... (zumindest nicht solange es nicht die CPU-Instruction "do-what-i-want" gibt...)
Zitat von @140742:
Nicht, wenn Du direkt auf das Snology-NAS wiederherstellst?
Bei Nextcloud gibt es passwortgeschützte Einmal-Links ohne Bedarf für einen extra User, einfacher geht es schon nicht mehr. Und mit Carsten Riegers Scripten in 15 Minuten gebrauchsfertig und sicher aufgesetzt. Nur mal so.
Nicht, wenn Du direkt auf das Snology-NAS wiederherstellst?
Bei Nextcloud gibt es passwortgeschützte Einmal-Links ohne Bedarf für einen extra User, einfacher geht es schon nicht mehr. Und mit Carsten Riegers Scripten in 15 Minuten gebrauchsfertig und sicher aufgesetzt. Nur mal so.
Moin, sein Problem ist ja hierbei - und das kann ich absolut verstehen und nachvollziehen - die Geschichte, dass er dann z.B. 300GB in der Nextcloud bereitgestellt hat, bestehend aus 394.827 Dateien. Die müssten die Kunden dann ja einzeln herunterladen. Man kann die zwar auch am Stück herunterladen, aber dann sind die gezipped und müssen vor Ort wieder entpackt werden.
Daher bleibt meines Erachtens nach nur ein (S)FTP-Server mit einem Skript.
Bei dem Ansatz von oben
Nimm zB BeamIt - das verstehe ich unter Simpel - zeugs in den Browser ziehen und link schicken. Kunde klickt es an, PC fragt wo die Daten hin sollen und schon geht es los.
Kein VPN, kein Server, P2P.
Sehe ich ein Problem (zugegeben, habe mir BeamIt nicht angeschaut):Kein VPN, kein Server, P2P.
Werden die Daten DIREKT und VERSCHLÜSSELT an den Kunden übertragen oder werden die unverschlüsselt auf dem BeamIt-Server zwischengelagert?
Und hier rennst du ja auch dem Kunden hinterher: du musst ja einen Termin abstimmen, wann dein Kunde Zeit hat und du mit dem Restore gefertigt bist, sodass ihr zur selben Zeit und für die nächste 72h online seid, oder?
Ich bleibe bei (S)FTP-Server in der DMZ + großes Share, welches über Rechte reglementiert ist. Und User lassen sind binnen 2Minuten komplett anlegen. Dann ist halt mal ein Kaffee weniger drin. Und es klingt jetzt auch nicht so, dass du 300 Kunden am Tag hast, eher 2-5 die Woche (geschätzt)
Oder du musst wirklich selbst programmieren - das ist auch kein Problem DA hast du natürlich alle Freiheiten... Nur: Auch da fließt Aufwand rein - und der sollte nicht unterschätzt werden...
... und vor allem auch Wartungsaufwand. Wir kennen seine Programmierkenntnisse nicht und als Kontrollinstanz hat er nur sich selbst.Man stelle sich nur mal vor, ein Kunde schaut sich seine Software mal genauer an und findet einen Bug oder im Firmennetzwerk wird der Traffic als verdächtig eingestuft, daraus folgt wieder Wartungs- und Erklärungsaufwand, den er ja vermeiden will. Von eventuellen datenschutzrechtlichen Folgen mal ganz zu schweigen.
Die Frage wäre, ob man nicht viel früher ansetzen sollte, nämlich beim Angebot, das eine Ersatzfestplatte gleich beinhalten sollte.
Die vielfach erwähnte Sekretärin bei Firmenkunden hat ja hoffentlich nichts mit der Weiderherstellung zu tun, mit der kommuniziert man vielleicht, aber die Daten fasst Sie hoffentlich nicht an.
Gruß
cykes
Zitat von @pd.edv:
Ja aber dann hab ich immer noch die Tür ins Netzwerk offen und da steht alles drin was Gott verboten hat. Oder ich Trenn den Server wieder in ein eigenes Netz nur dann wird es nichts mit dem Share mounten.
Zitat von @Spirit-of-Eli:
Ich verstehe dein Problem immer noch nicht. Mit Nextcloud geht das doch alles. Und die Dateien brauchst du nicht mal direkt auf dem Server hochladen. Du kannst einfach einen externen storage mounten und dann simpel über das rechte management freigeben.
Ein Server und geringer Aufwand.
Oma Ilse klickt auf nen link und muss ggf. Noch ein Passwort rein tackern. Fertig.
Ich verstehe dein Problem immer noch nicht. Mit Nextcloud geht das doch alles. Und die Dateien brauchst du nicht mal direkt auf dem Server hochladen. Du kannst einfach einen externen storage mounten und dann simpel über das rechte management freigeben.
Ein Server und geringer Aufwand.
Oma Ilse klickt auf nen link und muss ggf. Noch ein Passwort rein tackern. Fertig.
Ja aber dann hab ich immer noch die Tür ins Netzwerk offen und da steht alles drin was Gott verboten hat. Oder ich Trenn den Server wieder in ein eigenes Netz nur dann wird es nichts mit dem Share mounten.
Das ist doch einfach Quatsch. Natürlich lässt sich dies sauber realisieren.
Einfach eine vernünftige Firewall als Dreh- und Angelpunkt nutzen.
Den Server steckst du in eine DMZ. Meinetwegen kann der Storage ja auch in einem eigenen Segment liegen. Den Zugriff steuerst du über die Firewall. Fertig.
Zitat von @maretz:
Bei allen anderen Lösungen wirst du halt nichts werden mit dem Ansatz "der Kunde soll nix machen, für dich und den Kunden solls sicher sein, du willst keinen Aufwand,....". Klar kannst du jetzt sowas wie Bittorrent o.ä. nutzen - und darauf warten das der erste Kunde es falsch einstellt und seine Platte plötzlich im Netz steht (oder der es "versehentlich" falsch einstellt, nen Film runterläd und du plötzlich Post bekommst weil er dich reinzieht - als Dienstleister hast du ihm das ja empfohlen und er dachte das wäre jetzt alles legal...).
Bei allen anderen Lösungen wirst du halt nichts werden mit dem Ansatz "der Kunde soll nix machen, für dich und den Kunden solls sicher sein, du willst keinen Aufwand,....". Klar kannst du jetzt sowas wie Bittorrent o.ä. nutzen - und darauf warten das der erste Kunde es falsch einstellt und seine Platte plötzlich im Netz steht (oder der es "versehentlich" falsch einstellt, nen Film runterläd und du plötzlich Post bekommst weil er dich reinzieht - als Dienstleister hast du ihm das ja empfohlen und er dachte das wäre jetzt alles legal...).
Ich weiß nicht waum alle meine, bittorrent wäre nur für illegales zu nutzen.
Wenn man den tracker passen konfiguriert und dem Kunde eine batchdatei mit dem passenden komandozeilenclient und der torrentdatei zukommen läßt, die er nur noch auf der Platte plazieren muß, auf die die Daten sollen und dann die batchdatei startet, bestht da überhaupt keine Gefahr, daß der User andere Sachen lädt oder ein andere an die Sachen drankommt.
lks
Wäre rsync.net was für dich?
Das ist ein Cloud-Hoster, der sich auf Backups spezialisiert hat. Der ist es gewohnt, rasch große Datenmengen zu verarbeiten. Und du zahlst keine Transfergebühren, sondern nur den tatsächlich genutzten Speicherplatz. 10 TB kosten bspw. 200 EUR pro Monat. Und wenn du mal technische Probleme hast, sprichst oder schreibst du mit einem echten Techniker, und keinen Callcenter-Agenten, die nach dem 08/15-Schema verfahren.
Das Nette dabei ist, es wird das robuste rsync-Protokoll unterstützt. rsync hat mal grundsätzlich mit diesem Anbieter nichts zu tun, sondern ist ein Open-Source-Tool, das seit Jahrzehnten in unzähligen Installationen weltweit eingesetzt wird. Es ist wie gemacht für den Transfer vieler und/oder großer Dateien. Alles schick mit Resume (abgebrochene Übertragungen können nahtlos fortgesetzt werden), Transportkomprimierung, hoher Transportverschlüsselung usw.
rsync als leichtgewichtiges Tool gibts für alle Betriebssysteme und ist bei einigen schon von Haus aus dabei (Linux, MacOS).
Also, ein möglicher Workflow für dich:
1. Kunde installiert sich rsync (nur auf Windows nötig; woanders gehört das zu den Boardmitteln)
2. Kunde führt rsync mit deinen Einstellungen aus, die du ihm via Telefon oder E-Mail mitteilst (Benutzername, Passwort, Serveradresse, rsync-Optionen). Das ist ein Einzeiler auf der Kommandozeile.
3. Daten werden in die Cloud synchronisiert
4. Noch während der Kunde hoch synchronisiert, kannst du, wenn du möchtest, die Daten schonmal von der Cloud zu dir runter synchronisieren
5. Hast du die Daten zu dir synchronisiert, löschst du die Daten auf dem Server. Das müsste entweder über die Web-Oberfläche des Anbieters gehen, oder - einfacher und schneller - über ein einziges Kommando auf deiner Kommandozeile.
Jeder Kunde ist dabei mit seinen Daten sauber von anderen Kunden abgeschottet.
Und falls du irgendwann mal keine Lust mehr auf einen Cloud-Anbieter hast, kannst du rsync auch auf deinem eigenen Server betreiben (ich weiß, ich weiß, ...). Ist sicherer als FTP und vermutlich auch sicherer als SFTP. Die Installation ist viel leichtgewichtiger als irgendwas mit NextCloud, und die möglichen Einfallstore/Angriffsvektoren sind recht überschaubar und dadurch recht gut absicherbar.
Das ist ein Cloud-Hoster, der sich auf Backups spezialisiert hat. Der ist es gewohnt, rasch große Datenmengen zu verarbeiten. Und du zahlst keine Transfergebühren, sondern nur den tatsächlich genutzten Speicherplatz. 10 TB kosten bspw. 200 EUR pro Monat. Und wenn du mal technische Probleme hast, sprichst oder schreibst du mit einem echten Techniker, und keinen Callcenter-Agenten, die nach dem 08/15-Schema verfahren.
Das Nette dabei ist, es wird das robuste rsync-Protokoll unterstützt. rsync hat mal grundsätzlich mit diesem Anbieter nichts zu tun, sondern ist ein Open-Source-Tool, das seit Jahrzehnten in unzähligen Installationen weltweit eingesetzt wird. Es ist wie gemacht für den Transfer vieler und/oder großer Dateien. Alles schick mit Resume (abgebrochene Übertragungen können nahtlos fortgesetzt werden), Transportkomprimierung, hoher Transportverschlüsselung usw.
rsync als leichtgewichtiges Tool gibts für alle Betriebssysteme und ist bei einigen schon von Haus aus dabei (Linux, MacOS).
Also, ein möglicher Workflow für dich:
1. Kunde installiert sich rsync (nur auf Windows nötig; woanders gehört das zu den Boardmitteln)
2. Kunde führt rsync mit deinen Einstellungen aus, die du ihm via Telefon oder E-Mail mitteilst (Benutzername, Passwort, Serveradresse, rsync-Optionen). Das ist ein Einzeiler auf der Kommandozeile.
3. Daten werden in die Cloud synchronisiert
4. Noch während der Kunde hoch synchronisiert, kannst du, wenn du möchtest, die Daten schonmal von der Cloud zu dir runter synchronisieren
5. Hast du die Daten zu dir synchronisiert, löschst du die Daten auf dem Server. Das müsste entweder über die Web-Oberfläche des Anbieters gehen, oder - einfacher und schneller - über ein einziges Kommando auf deiner Kommandozeile.
Jeder Kunde ist dabei mit seinen Daten sauber von anderen Kunden abgeschottet.
Und falls du irgendwann mal keine Lust mehr auf einen Cloud-Anbieter hast, kannst du rsync auch auf deinem eigenen Server betreiben (ich weiß, ich weiß, ...). Ist sicherer als FTP und vermutlich auch sicherer als SFTP. Die Installation ist viel leichtgewichtiger als irgendwas mit NextCloud, und die möglichen Einfallstore/Angriffsvektoren sind recht überschaubar und dadurch recht gut absicherbar.
Zitat von @pd.edv:
Offener Server im Netz ist wie bereits 22 mal gesagt nichts was ich machen will - den habe ich aus verschiedensten Gründen verworfen - zB weil ich offene Daten am öffentlichen Server für nicht ausreichend Sicher halte.
Offener Server im Netz ist wie bereits 22 mal gesagt nichts was ich machen will - den habe ich aus verschiedensten Gründen verworfen - zB weil ich offene Daten am öffentlichen Server für nicht ausreichend Sicher halte.
Dir wurde schonmehrmals gesagt, daß die Server nicht offen da rumstehen, sondern in einer DMZ und nur mit Zugangsberchtigungen. Wenn man den Server ordentlich einrichtet, können die Kunden auch nur auf Ihre Daten zugreifen.
Wenn das für Dich ein Problem ist, mußt die Datenübertragung über die Paketdienste machen.
lks
Genau sowas kannst Du mit wenig Aufwand auch bei Dir selbst hinstellen, wie ich oben schon sagte.
lks
lol. rotfl. "ich will eine P2P Lösung" und dann Sicherheitsbedenken mit einer DMZ Lösung. Nimm Kurierversand, GO oder sowas, die kommen zwar nur zu gewerblichen Kunden, aber der Empfänger hat für 99 Euro Netto am nächsten Tag die Daten in der Hand. Machen wir auch so, jedenfalls mit Kunden in der EU.
Eins muß aber mal klar sein - in der Cloud kostet jedes Gigabyte etwas Geld, aber auch bei einem Upload der 100 Mbit bis zu einem Gigabit hat. Hat man Traffic im 1000 TB Bereich dann kostet das, egal wie.... wer gewerblich solche Datenmengen verschicken muß der kalkuliert das mit ein. Oder nimmt wiederum den Kurierversand mit Overnight-Kapazitäten.
Eins muß aber mal klar sein - in der Cloud kostet jedes Gigabyte etwas Geld, aber auch bei einem Upload der 100 Mbit bis zu einem Gigabit hat. Hat man Traffic im 1000 TB Bereich dann kostet das, egal wie.... wer gewerblich solche Datenmengen verschicken muß der kalkuliert das mit ein. Oder nimmt wiederum den Kurierversand mit Overnight-Kapazitäten.
Zitat von @pd.edv:
Offener Server soll heißen das der Internet steht und der Zugriff eben nicht per VPN oder IP-Freigabe limitiert ist. Sprich jeder Bot kann da mal anklopfen.
Offener Server soll heißen das der Internet steht und der Zugriff eben nicht per VPN oder IP-Freigabe limitiert ist. Sprich jeder Bot kann da mal anklopfen.
Und was ist das Problem, wenn die Tür abgeschlossen ist?
Das ich den in die DMZ stellen kann ändert ja nichts daran, dass ich am Ende heikle Daten offen ins Internet stelle und das einzige was einen Angreifer von denen trennt ist ein Exploit oder anderer Angriff.
Damit hast Du ein Problem aber nicht damit, daß Du die Daten irgendeinem Cloudanbiete in den Rachen wirfst, der sie ungeschützt einsehen und weiterverkaufen kann? Deine Logik muß man verstehen.
Die DMZ schränkt den Zuriff ja nicht auf nur einen Host im Internet ein. Dazu muss ich das mal 3 machen sonst muss ich von 2 der 3 Netze wieder über das Internet drauf zugreifen.
Ich verstehe Deine Logik nicht. Wenn Du eine ordentliche Firewall hast, merken Deine 3 Netze nichts voneinander.
Der Dienst ist unbrauchbar aber geht in die Richtung die ich suche und wie gesagt falls nichts besseres zu finden ist, werde ich etwas in diese Richtung selber schreiben.
Dann schreib Dir das selbst zusamen, auch mit der Gefahr, daß Du Deine Scheunentore viel offener machst als notwendig.
Ich bechränke mich ab jetzt auf Popcorn und Bier in diesem Thread.
lks
Ich glaube, da gibt es ein Verständnisproblem.
Nicht jeder Dienst, der vom Internet aus erreichbar ist, muss "offen wie ein Scheinentor" sein.
Aus der Sicherheitsperspektive gesehen geht es primär darum, Angriffsvektoren zu minimieren. Je kleiner und einfacher/übersichtlicher ein Dienst ist, desto sicherer ist er.
Nehmen wir mal als Beispiel NextCloud: Ja, da sollte der Admin auf Zack sein und Sicherheitsupdates regelmäßig einspielen und auch sonst ein Auge auf sein System haben, wenn ihm seine Daten lieb sind. Denn da haben wir einen Apache als fetten Webserver, darauf PHP als Middleware, und darauf setzt noch NextCloud als umfangreiches und komplexes All-in-one-Tool. Alle drei Schichten wollen abgesichert betrieben werden. Also alles in allem eine recht komplexe Umgebung.
Sowas würde ich dir auch nicht empfehlen.
Auf der anderen Seite gibt es aber auch kleine spezialisierte Dienste wie z.B. SSH (oder rsync, was transporttechnisch auf SSH aufsetzt). Das macht genau eine Sache - und die macht es gut. SSH und rsync sind seit Jahrzehnten im Einsatz und robust und sicher wie ein Panzer. Nein, SSH ist nicht unbesiegbar, aber wenn du regelmäßig Sicherheitsupdates einspielst und ein paar einfache Best Practice-Regeln befolgst (google mal nach "hardening SSH"), dann ist das schon *sehr* sicher. Mal zum Vergleich: der Großteil der Nicht-Windows-Server im Netz wird darüber administriert.
Und in der Abwägung: fragwürdiger Datenschutz bei Cloud-Diensten auf der einen Seite und ein sicheres System on-premise bei dir auf der anderen Seite wird vermutlich letzteres gewinnen. Ich würde jedenfalls keine Kundendaten irgendeinem Cloud-Dienst im Internet anvertrauen (und darf es laut DSGVO auch nicht einfach so, ohne Vorkehrungen zu treffen!).
Nicht jeder Dienst, der vom Internet aus erreichbar ist, muss "offen wie ein Scheinentor" sein.
Aus der Sicherheitsperspektive gesehen geht es primär darum, Angriffsvektoren zu minimieren. Je kleiner und einfacher/übersichtlicher ein Dienst ist, desto sicherer ist er.
Nehmen wir mal als Beispiel NextCloud: Ja, da sollte der Admin auf Zack sein und Sicherheitsupdates regelmäßig einspielen und auch sonst ein Auge auf sein System haben, wenn ihm seine Daten lieb sind. Denn da haben wir einen Apache als fetten Webserver, darauf PHP als Middleware, und darauf setzt noch NextCloud als umfangreiches und komplexes All-in-one-Tool. Alle drei Schichten wollen abgesichert betrieben werden. Also alles in allem eine recht komplexe Umgebung.
Sowas würde ich dir auch nicht empfehlen.
Auf der anderen Seite gibt es aber auch kleine spezialisierte Dienste wie z.B. SSH (oder rsync, was transporttechnisch auf SSH aufsetzt). Das macht genau eine Sache - und die macht es gut. SSH und rsync sind seit Jahrzehnten im Einsatz und robust und sicher wie ein Panzer. Nein, SSH ist nicht unbesiegbar, aber wenn du regelmäßig Sicherheitsupdates einspielst und ein paar einfache Best Practice-Regeln befolgst (google mal nach "hardening SSH"), dann ist das schon *sehr* sicher. Mal zum Vergleich: der Großteil der Nicht-Windows-Server im Netz wird darüber administriert.
Und in der Abwägung: fragwürdiger Datenschutz bei Cloud-Diensten auf der einen Seite und ein sicheres System on-premise bei dir auf der anderen Seite wird vermutlich letzteres gewinnen. Ich würde jedenfalls keine Kundendaten irgendeinem Cloud-Dienst im Internet anvertrauen (und darf es laut DSGVO auch nicht einfach so, ohne Vorkehrungen zu treffen!).
Zitat von @wuestenfuchs:
Und in der Abwägung: fragwürdiger Datenschutz bei Cloud-Diensten auf der einen Seite und ein sicheres System on-premise bei dir auf der anderen Seite wird vermutlich letzteres gewinnen. Ich würde jedenfalls keine Kundendaten irgendeinem Cloud-Dienst im Internet anvertrauen (und darf es laut DSGVO auch nicht einfach so, ohne Vorkehrungen zu treffen!).
Und in der Abwägung: fragwürdiger Datenschutz bei Cloud-Diensten auf der einen Seite und ein sicheres System on-premise bei dir auf der anderen Seite wird vermutlich letzteres gewinnen. Ich würde jedenfalls keine Kundendaten irgendeinem Cloud-Dienst im Internet anvertrauen (und darf es laut DSGVO auch nicht einfach so, ohne Vorkehrungen zu treffen!).
Der TO will aber nix bei sich zuhause stehen haben - aus Sicherheitsgründen.
lks
PS: Noch jemand Popcorn?
Hi,
Wir setzen bei uns Acronis Files Advanced ein. Das hat (fast) alles.
1. Liegen die Daten bei uns. Ich krieg ne mail wenn die Daten runtergeladen sind.
2. Der User muss ich einmal anmelden (also sich ein Passwort ausdenken) (das ist einfach also sich ein GMX-Email postfach zu erstellen) Und damit kam noch jeder Landwirt(mit dem ich mich so beschäftigen darf) klar.
3. Nur die Verteilung der Daten auf unterschiedliche Uploadleitungen wäre jetzt noch ein "Problem" das zu klären wäre.
Somit hast du:
- P2P
- Eine easy Weboberfläche für den Kunden
- Alle Info's in einem E-Mail Postfach (siehst also auch wenn sich jemand die Daten runtergeladen hat)
- Und kannst den Zugang zeitlich beschränken (z.B. 14 Tage)
JustMy2Cent
Kosten -> Ca. 20€/Monat + Einmalig Speicherplatz
Wir setzen bei uns Acronis Files Advanced ein. Das hat (fast) alles.
1. Liegen die Daten bei uns. Ich krieg ne mail wenn die Daten runtergeladen sind.
2. Der User muss ich einmal anmelden (also sich ein Passwort ausdenken) (das ist einfach also sich ein GMX-Email postfach zu erstellen) Und damit kam noch jeder Landwirt(mit dem ich mich so beschäftigen darf) klar.
3. Nur die Verteilung der Daten auf unterschiedliche Uploadleitungen wäre jetzt noch ein "Problem" das zu klären wäre.
Somit hast du:
- P2P
- Eine easy Weboberfläche für den Kunden
- Alle Info's in einem E-Mail Postfach (siehst also auch wenn sich jemand die Daten runtergeladen hat)
- Und kannst den Zugang zeitlich beschränken (z.B. 14 Tage)
JustMy2Cent
Kosten -> Ca. 20€/Monat + Einmalig Speicherplatz
Lks, ist das Popcorn mit Zucker oder Salz?
Aber ja, es ist für mich noch immer fraglich, was er da vor hat. Nutzer von Hand anlegen. Vlans erstellen pro Nutzer. Ein valides Berechtigungskonzept sehe ich auch nicht. Rechnungen kommen sicher aus einer Word-Datei die als PDF bearbeitet wird.
Gruß
C.C.
Aber ja, es ist für mich noch immer fraglich, was er da vor hat. Nutzer von Hand anlegen. Vlans erstellen pro Nutzer. Ein valides Berechtigungskonzept sehe ich auch nicht. Rechnungen kommen sicher aus einer Word-Datei die als PDF bearbeitet wird.
Gruß
C.C.
hold my beer
Du scheinst schwer zu verstehen. Ein torrenttracker notfalls auf einen 1-Euro-V-Server oder einem 5-€ Pi installieren und dort einen private Torrent einrichten. Dieser muß natürlich per Internet oder VPN erreichbar sein.
Dann kannst Du Die Daten direkt von Deinen PCs ohne die untereinander zu verbinden die Dateien "anbieten". Und den Kunden schickst Du einfach die Torrentdatei (wenige kb) einen Kommandozeilen-client für bittorrent und eine Batchdatei. Die müssen das dann nur noch dort, wo Platz ist ablegen und die Batchdatei anklicken. Alles andere macht das bitttorrent. Und Die Kunde nmüssen keine Angst haben, daß Sie Ihre dateien freigeben, denn Du hast das ja alles korrekt beim Client und der Torrent-Datei richtig konfiguriert, den Die Du dem Kunden schickst.
wieder Bierglas nehm und einen kräftigen Schluck draus trink.
lks
Deine Arbeitsweise hast du mehrfach dargelegt. Jedoch ist es genau diese Arbeitsweise, die ich nicht verstehe.
Für mich steckt dort keine Struktur drin. Ja, die Tasks müssen abgearbeitet werden. Aber doch nicht so. Ich kenne dieses "Doing" nur als Headless-Chicken-Workaround. Sorry, für die direkten Worte.
Erfolg besteht aus 99% Inspiration und 1% Transpiration. Nicht andersherum.
Danke LKS. Passt gut zur böhmischen Braukunst
Für mich steckt dort keine Struktur drin. Ja, die Tasks müssen abgearbeitet werden. Aber doch nicht so. Ich kenne dieses "Doing" nur als Headless-Chicken-Workaround. Sorry, für die direkten Worte.
Erfolg besteht aus 99% Inspiration und 1% Transpiration. Nicht andersherum.
Danke LKS. Passt gut zur böhmischen Braukunst
Ich muß auf Chips umsteigen. Popcorn ist alle.
lks
@uwe: So gemein waren die Kommentare doch gar nicht.
Zitat von @148656:
Lks, ist das Popcorn mit Zucker oder Salz?
Vermutlich hat er beides da stehen.Lks, ist das Popcorn mit Zucker oder Salz?
Ich hätte noch Cola im Portfolio - wahlweise auch mit einer Beigabe im zweistelligen Prozentbereich.
Wobei ja gerade schon das kühle blonde im Umlauf ist
@pd.edv
ich kann deinen Grundgedanken nachvollziehen - alles so einfach und so sicher wie möglich halten.
Jetzt fasse ich aber einmal zusammen (Nummerierung hat keine gewichtete/ sortierende Funktion):
- Du suchst einen Dienst/ ein Tool, mit dem du eine 1:1 Verbindung zum Kunden aufbauen kannst, um auf iese Weise von dir aus gesteuert Daten zu übertragen, ohne diese vorher zu zippen.
- Du kannst und willst keinen Einfluss auf die FW beim Kunden nehmen, um dort eingehenden Verkehr zu erlauben.
- Der Dienst darf nicht in der Cloud liegen (Daten teilweise zu sensibel)
- Du möchtest keine eigene Infrastruktur vorhalten, da du keine Zeit hast, die Umgebung zu betreiben/ betreuen
- Du möchtest keine dedizierten User pflegen.
- Vom Prinzip her wünscht du dir etwas, wie TeamViewer und Konsorten: beide starten ein Tool, es wird eine 1:1-Verbindung aufgebaut und "los gehts"
- DU bist nicht völlig doof, unsere Vorschläge entsprechen nur nicht ganz deinen Vorstellungen (wertneutral formuliert)
Zu 1, 2 + 6: Ohne einen öffentlich zugänglichen Dienst "in der Mitte" geht es hier auch Nicht. Bei TeamViewer & Co. suchen beide Seiten die Server des HErstellers auf, erhalten eine (bekannte) ID und bauen dann eine Verbindung auf. Folglich weiss der Hesterller, welche Partner sich verbinden und welche Datenmenge drüber geht. ob jeglicher Traffic dabei immer über dessen Server geschoben wird, muss im EInzelfall geprüft werden. In jedem Fall musst du einen AVV (Stichwort DSGVO) mit denen abschließen, da immerhin IP-Adresse gelogged werden (können).
Zu 3: Du kommst also um einen eigenen Dienst nicht herum
Zu 4: Klappt nur, wenn du in die Cloud gehst, Siehe Punkt 3
Zu 5: Hängt vom eingesetzten Dienst ab, ganz ohne wird es aber nicht gehen.
Also du suchst etwas wie BeamIT (hast du ja selbst genannt) nur ohne irgendwelche Limits.
Die geben dort ganz unten ja selbst an, dass die Daten direkt transferiert werden, "getunnelt" über deren Dienst, ohne dass Daten selbst gespeichert werden.
De Frage(n) hierbei: was passiert, wenn eine der beiden Seiten plötzlich einen Verbindungsabbruch hat, nach die Daten schon 12h übertragen wurden? Ohne ein Puffern der Daten auf Zwischensysteme wird das nichts. Und dann bist du wieder bei den Punkt 3 + 4
Es wird also nicht anders gehen, außer, du stellst eigene Dienste bereit.
Ggf. kannst du mehrere, kleinere SFTP-Services starten, wenn eine Übertragung ansteht:
Dienst mit bestimmten Port starten (der in deiner FW freigegeben ist), Kunde lädt alles herunter (via Script) und ist die Übertragung durch, beendet sich das Tool. Z.B. mit soetwas: https://www.heise.de/download/product/core-ftp-server-sftp-server-54166
Edit: Wobei, zugegegen, der individuelle Port natürlich auch im Kunden-Netz erlaubt sein muss.
Genau das meine ich ja Ich vermute, du gehst in manchen Dingen schlichtweg von falschen Voraussetzungen aus. Zum Beispiel mit dem, was du geschrieben hast:
@problem 1: Updates kannst du automatisch einspielen lassen. Nimm eine Distri wie Ubuntu, die macht das von Haus aus. Wenn dir das standardmäßige Update-Intervall zu lange ist, erstelle einen Cron-Job, der dir alle 30 Minuten die neueste Software draufspielt.
@problem 2: Nicht immer ist ein zeitnaher Neustart des gesamten Systems nötig. Wenn in SSH oder rsync eine Lücke auftaucht, ist normalerweise überhaupt kein Neustart nötig. Aktualisierte Software drauf, Dienst neu starten (passiert beim Update automatisch), fertig. Kernel-Lücken hingegen, die einen Neustart erfordern, sind (1) eher selten und (2) häufig für Remote-Zugriffe nicht relevant. Da werden meistens Dinge abgedichtet, die dann eine Rolle spielen, wenn man direkt vor der Maschine sitzt. Aber auch da gibt es Lösungen - Ubuntu bietet dir für eine begrenzte Anzahl an Maschinen eine kostenlose Subskription von Kernel Live-Patching an, d.h. du musst selbst bei Kernel-Updates die Maschine nicht neu starten.
@problem 3: Nimm für den SSH-Zugriff ein starkes Passwort oder ein Zertifikat und unterbinde massenhafte Anmeldeversuche mit Software wie Fail2Ban. Die blockt dann wiederholte Angriffsversuche für eine bestimmte Zeit.
@problem 4 (DSGVO): wenn du alles selbst hostest, ist es IMO viel leichter, die DSGVO einzuhalten, als wenn du dir eine Auftragsdatenverarbeitung mit dem ganzen Ratten###, was das nach sich zieht, an Bord holst.
Egal, für welche Lösung du dich entscheidest, du wirst dich wohl oder übel mit dem "Ding" (ob das jetzt ein Serverdienst bei dir on-premise ist, ein Serverdienst woanders oder einfach eine Client-Software, die bei dir läuft) befassen müssen. Alles, auch Acronis, wird so eingerichtet werden müssen, dass Lücken ausgeschlossen sind. Und alles, auch Acronis, wird gewartet werden müssen.
Wenn du dir diese Arbeit nicht antun möchtest oder kannst, wunderbar, dann gehe zu einem kleinen, aber feinen Dienstleister in deiner Nähe und bezahle ihn dafür, dass er die Einrichtung und Wartung für dich übernimmt.
Das gilt für irgendwelche Eigenbau-Lösungen gleichermaßen wie für kommerzielle Lösungen wie Acronis oder andere.
@problem 1: Updates kannst du automatisch einspielen lassen. Nimm eine Distri wie Ubuntu, die macht das von Haus aus. Wenn dir das standardmäßige Update-Intervall zu lange ist, erstelle einen Cron-Job, der dir alle 30 Minuten die neueste Software draufspielt.
@problem 2: Nicht immer ist ein zeitnaher Neustart des gesamten Systems nötig. Wenn in SSH oder rsync eine Lücke auftaucht, ist normalerweise überhaupt kein Neustart nötig. Aktualisierte Software drauf, Dienst neu starten (passiert beim Update automatisch), fertig. Kernel-Lücken hingegen, die einen Neustart erfordern, sind (1) eher selten und (2) häufig für Remote-Zugriffe nicht relevant. Da werden meistens Dinge abgedichtet, die dann eine Rolle spielen, wenn man direkt vor der Maschine sitzt. Aber auch da gibt es Lösungen - Ubuntu bietet dir für eine begrenzte Anzahl an Maschinen eine kostenlose Subskription von Kernel Live-Patching an, d.h. du musst selbst bei Kernel-Updates die Maschine nicht neu starten.
@problem 3: Nimm für den SSH-Zugriff ein starkes Passwort oder ein Zertifikat und unterbinde massenhafte Anmeldeversuche mit Software wie Fail2Ban. Die blockt dann wiederholte Angriffsversuche für eine bestimmte Zeit.
@problem 4 (DSGVO): wenn du alles selbst hostest, ist es IMO viel leichter, die DSGVO einzuhalten, als wenn du dir eine Auftragsdatenverarbeitung mit dem ganzen Ratten###, was das nach sich zieht, an Bord holst.
Egal, für welche Lösung du dich entscheidest, du wirst dich wohl oder übel mit dem "Ding" (ob das jetzt ein Serverdienst bei dir on-premise ist, ein Serverdienst woanders oder einfach eine Client-Software, die bei dir läuft) befassen müssen. Alles, auch Acronis, wird so eingerichtet werden müssen, dass Lücken ausgeschlossen sind. Und alles, auch Acronis, wird gewartet werden müssen.
Wenn du dir diese Arbeit nicht antun möchtest oder kannst, wunderbar, dann gehe zu einem kleinen, aber feinen Dienstleister in deiner Nähe und bezahle ihn dafür, dass er die Einrichtung und Wartung für dich übernimmt.
Das gilt für irgendwelche Eigenbau-Lösungen gleichermaßen wie für kommerzielle Lösungen wie Acronis oder andere.
Zitat von @em-pie:
Edit: Wobei, zugegegen, der individuelle Port natürlich auch im Kunden-Netz erlaubt sein muss.
Edit: Wobei, zugegegen, der individuelle Port natürlich auch im Kunden-Netz erlaubt sein muss.
Ich will jetzt nicht auf der rsync-Lösung rumreiten, aber das erscheint mir deine Anforderungen ganz gut zu erfüllen. Das Aufwands-Gewinn-Profil ist jedenfalls recht günstig: minimaler Einrichtungs- und Pflegeaufwand bei großem Nutzen. Dort hast du nämlich den Vorteil, dass du wählen kannst:
1. Du kannst die Daten sowohl von dir zum Kunden "pushen", dann ist beim Kunden irgendeine Art von Portweiterleitung o.ä. nötig - das ist ja genau das, was bei dir keinen Sinn macht oder
2. Der Kunde kann sich die Daten "pullen", dann muss die Portweiterleitung nur auf deiner Seite vorhanden sein und im Kundennetz braucht es keine Änderungen. Und falls im Kundennetz Port 22 aus irgendeinem Grund von der Firewall blockiert sein sollte, lege SSH bei dir auf Port 443, dann geht auch das.
Zitat von @pd.edv:
Das ist es was ich mit "so in der Art wie" meinte! Einfach, Austausch der Daten per Browser und dann direkte Verbindung. Wenn das nun auch noch mit einzelnen Dateien und Ordnerstrukturen ginge dann wär das perfekt denn dann wär es mir egal wenn da von den 1,8TB die 4,2GB große Videodatei die abgebrochen ist nochmal neu übertragen wird. Beim 18MB großen Foto ja erst recht.
Hätte ich mit JustBeamIt schon die ultimative Lösung gefunden, müsste ich ja nicht fragen und würde einfach die verwenden!
Wissen wir. Aber hast du die Zeit, den gefundenen Anbieter en Details zu prüfen, sodass zu zu 99% sicher sein kannst, dass er zu keinem Zeitpunkt Kenntnis über deine Daten erlangt?Das ist es was ich mit "so in der Art wie" meinte! Einfach, Austausch der Daten per Browser und dann direkte Verbindung. Wenn das nun auch noch mit einzelnen Dateien und Ordnerstrukturen ginge dann wär das perfekt denn dann wär es mir egal wenn da von den 1,8TB die 4,2GB große Videodatei die abgebrochen ist nochmal neu übertragen wird. Beim 18MB großen Foto ja erst recht.
Hätte ich mit JustBeamIt schon die ultimative Lösung gefunden, müsste ich ja nicht fragen und würde einfach die verwenden!
Und du bist ja der Vertragspartner deines Kunden, wenn er einen Datenmissbrauch feststellt (und auch meldet), bist du erst einmal in der Verantwortung. Und du musst dann nachweisen, dass du dich ggü. deinem Anbieter vertraglich abgesichert hast. Anschließend fänsgt du mit ihm an, in die Verhandlung zu gehen.
Zitat von @em-pie:
Edit: Wobei, zugegegen, der individuelle Port natürlich auch im Kunden-Netz erlaubt sein muss.
Edit: Wobei, zugegegen, der individuelle Port natürlich auch im Kunden-Netz erlaubt sein muss.
... und schon haben wir wieder den Pferdefuß wie bei Torrent oder diversen anderen Lösungen.
- Wird SFTP1.yourCompa.ny aufgeufen, wird die Verbindung zu deiner Internen Maschine recoverXP.internal.lan aufgebaut - Port 22
- Wird SFTP2.yourCompa.ny aufgerufen, wird die Verbindung zu deiner Internen Maschine recover2000.internal.lan aufgebaut - Port 22
- Wird SFTP3.yourCompa.ny aufgerufen, wird die Verbindung zu deiner Internen Maschine recover2016.internal.lan aufgebaut - Port 22
Du kannst das auch auf 443 umbiegen, nicht schön und Regelkonform, aber wäre machbar.
Nochmal - wäre das Problem so trivial oder meine Anforderungen nicht so spezifisch hätte ich schon längst eine Lösung am laufen!
Ich wäre für eine leckere Frucht-Bowle.
Vitamine sind wichtig
@uwe: So gemein waren die Kommentare doch gar nicht.
Jeder ließt, was er lesen will.
Er wird sich schon etwas dabei gedacht haben.
Vitamine sind wichtig
lks
C.C.@uwe: So gemein waren die Kommentare doch gar nicht.
Er wird sich schon etwas dabei gedacht haben.
Okay, das geht jetzt echt ins Detail. Und du schließt diese Lösung ja für dich selbst schon aus, daher nur kurz und knapp:
Das ist lösbar.
Das ist lösbar.
Weiß ich auch und der Kunde fliegt dann raus und/oder der Download bricht ab - toll wenn der dann nach zig Wochen daher kommt und Daten vermisst wo ich schon nach 14 Tagen alle Datenträger wieder gewiped habe!
Finde ich dann super!
Ist lösbar, siehe oben.
Das sollten andere Distros auch ohne können.
Nimm die Distri, die dir am meisten zusagt und bei der du dich am wohlsten fühlst. Kernel Live-Patching, wenn man das denn unbedingt braucht, gibt es nur bei einer Handvoll Distris, und meist nur in Verbindung mit einer kommerziellen Subskription.
Ist mir alles bekannt! Hilft aber bei einem Exploit nichts.
Exploits werden durch Software-Updates geschlossen. Siehe oben.
Weiß ich auch aber ich brauche keinen Raten### sondern nur ein passendes Tool und damit einen Vertag mit dessen Betreiber.
Lustig, dass das Forum das Wort "Ratten s c h w a n z" automatisch zensiert. Ist mir gar nicht aufgefallen. Aber egal, ich meinte das oben geschriebene anders: bei einem Cloud-Dienst wird es herausfordernd und juristisch lustig, das mit einer Auftragsdatenverarbeitung wasserdicht hinzubekommen. Bei Verträgen mit innerdeutschen Anbietern wird das schon leichter sein. Am einfachsten ist IMO aber noch immer, das selbst anzubieten, dann musst du dich gar nicht mit Auftragsdatenverarbeitung von Drittanbietern befassen.
Das kannst so nicht vergleichen.
Doch, kann ich Denn wie Kollege @em-pie schon geschrieben hat, gibt es nur zwei Möglichkeiten, wenn nicht in das Netz des Kunden eingegriffen werden soll: 1. selbst hosten - dann kannst du bei so überschaubaren Anforderungen wie den deinen die DSGVO recht einfach erfüllen - oder 2. irgendeinen Cloud-Dienst als Mittelsmann nutzen. Und sobald du einen Dienst oder Teile davon über einen Dritten abwickelst, schlägt die DSGVO (zu recht!) mit voller Wucht zu. In beiden Fällen liegt die Verantwortung gegenüber dem Kunden bei dir und bei Haftungsfragen bist du der erste Ansprechpartner.
Zitat von @pd.edv:
Klar geht das nur nutzt das nichts ohne neustart zumindest des Dienstes und der soll ja nicht neu starten wenn der Kunde gerade lädt und damit den Transfer unterbrechen.
Zitat von @wuestenfuchs:
@problem 1: Updates kannst du automatisch einspielen lassen. Nimm eine Distri wie Ubuntu, die macht das von Haus aus. Wenn dir das standardmäßige Update-Intervall zu lange ist, erstelle einen Cron-Job, der dir alle 30 Minuten die neueste Software draufspielt.
@problem 1: Updates kannst du automatisch einspielen lassen. Nimm eine Distri wie Ubuntu, die macht das von Haus aus. Wenn dir das standardmäßige Update-Intervall zu lange ist, erstelle einen Cron-Job, der dir alle 30 Minuten die neueste Software draufspielt.
Klar geht das nur nutzt das nichts ohne neustart zumindest des Dienstes und der soll ja nicht neu starten wenn der Kunde gerade lädt und damit den Transfer unterbrechen.
Das ist lösbar.
Abgesehen davon das bei den Ubuntu-Updates 100 Fragen aufkommen allein schon mit den angepassten Configs und die sind werde alle mit Ja noch alle mit Nein zu beantworten - also wie automatisiert du das?
Das ist lösbar.
Zitat von @em-pie:
@problem 2: Nicht immer ist ein zeitnaher Neustart des gesamten Systems nötig. Wenn in SSH oder rsync eine Lücke auftaucht, ist normalerweise überhaupt kein Neustart nötig. Aktualisierte Software drauf, Dienst neu starten (passiert beim Update automatisch), fertig.
@problem 2: Nicht immer ist ein zeitnaher Neustart des gesamten Systems nötig. Wenn in SSH oder rsync eine Lücke auftaucht, ist normalerweise überhaupt kein Neustart nötig. Aktualisierte Software drauf, Dienst neu starten (passiert beim Update automatisch), fertig.
Weiß ich auch und der Kunde fliegt dann raus und/oder der Download bricht ab - toll wenn der dann nach zig Wochen daher kommt und Daten vermisst wo ich schon nach 14 Tagen alle Datenträger wieder gewiped habe!
Finde ich dann super!
Ist lösbar, siehe oben.
Zitat von @em-pie:
Kernel-Lücken hingegen, die einen Neustart erfordern, sind (1) eher selten und (2) häufig für Remote-Zugriffe nicht relevant. Da werden meistens Dinge abgedichtet, die dann eine Rolle spielen, wenn man direkt vor der Maschine sitzt. Aber auch da gibt es Lösungen - Ubuntu bietet dir für eine begrenzte Anzahl an Maschinen eine kostenlose Subskription von Kernel Live-Patching an, d.h. du musst selbst bei Kernel-Updates die Maschine nicht neu starten.
Kernel-Lücken hingegen, die einen Neustart erfordern, sind (1) eher selten und (2) häufig für Remote-Zugriffe nicht relevant. Da werden meistens Dinge abgedichtet, die dann eine Rolle spielen, wenn man direkt vor der Maschine sitzt. Aber auch da gibt es Lösungen - Ubuntu bietet dir für eine begrenzte Anzahl an Maschinen eine kostenlose Subskription von Kernel Live-Patching an, d.h. du musst selbst bei Kernel-Updates die Maschine nicht neu starten.
Das sollten andere Distros auch ohne können.
Nimm die Distri, die dir am meisten zusagt und bei der du dich am wohlsten fühlst. Kernel Live-Patching, wenn man das denn unbedingt braucht, gibt es nur bei einer Handvoll Distris, und meist nur in Verbindung mit einer kommerziellen Subskription.
Zitat von @em-pie:
@problem 3: Nimm für den SSH-Zugriff ein starkes Passwort oder ein Zertifikat und unterbinde massenhafte Anmeldeversuche mit Software wie Fail2Ban. Die blockt dann wiederholte Angriffsversuche für eine bestimmte Zeit.
@problem 3: Nimm für den SSH-Zugriff ein starkes Passwort oder ein Zertifikat und unterbinde massenhafte Anmeldeversuche mit Software wie Fail2Ban. Die blockt dann wiederholte Angriffsversuche für eine bestimmte Zeit.
Ist mir alles bekannt! Hilft aber bei einem Exploit nichts.
Exploits werden durch Software-Updates geschlossen. Siehe oben.
Zitat von @em-pie:
@problem 4 (DSGVO): wenn du alles selbst hostest, ist es IMO viel leichter, die DSGVO einzuhalten, als wenn du dir eine Auftragsdatenverarbeitung mit dem ganzen Ratten###, was das nach sich zieht, an Bord holst.
@problem 4 (DSGVO): wenn du alles selbst hostest, ist es IMO viel leichter, die DSGVO einzuhalten, als wenn du dir eine Auftragsdatenverarbeitung mit dem ganzen Ratten###, was das nach sich zieht, an Bord holst.
Weiß ich auch aber ich brauche keinen Raten### sondern nur ein passendes Tool und damit einen Vertag mit dessen Betreiber.
Lustig, dass das Forum das Wort "Ratten s c h w a n z" automatisch zensiert. Ist mir gar nicht aufgefallen. Aber egal, ich meinte das oben geschriebene anders: bei einem Cloud-Dienst wird es herausfordernd und juristisch lustig, das mit einer Auftragsdatenverarbeitung wasserdicht hinzubekommen. Bei Verträgen mit innerdeutschen Anbietern wird das schon leichter sein. Am einfachsten ist IMO aber noch immer, das selbst anzubieten, dann musst du dich gar nicht mit Auftragsdatenverarbeitung von Drittanbietern befassen.
Zitat von @em-pie:
Egal, für welche Lösung du dich entscheidest, du wirst dich wohl oder übel mit dem "Ding" (ob das jetzt ein Serverdienst bei dir on-premise ist, ein Serverdienst woanders oder einfach eine Client-Software, die bei dir läuft) befassen müssen. Alles, auch Acronis, wird so eingerichtet werden müssen, dass Lücken ausgeschlossen sind. Und alles, auch Acronis, wird gewartet werden müssen.
Egal, für welche Lösung du dich entscheidest, du wirst dich wohl oder übel mit dem "Ding" (ob das jetzt ein Serverdienst bei dir on-premise ist, ein Serverdienst woanders oder einfach eine Client-Software, die bei dir läuft) befassen müssen. Alles, auch Acronis, wird so eingerichtet werden müssen, dass Lücken ausgeschlossen sind. Und alles, auch Acronis, wird gewartet werden müssen.
Das kannst so nicht vergleichen.
Doch, kann ich Denn wie Kollege @em-pie schon geschrieben hat, gibt es nur zwei Möglichkeiten, wenn nicht in das Netz des Kunden eingegriffen werden soll: 1. selbst hosten - dann kannst du bei so überschaubaren Anforderungen wie den deinen die DSGVO recht einfach erfüllen - oder 2. irgendeinen Cloud-Dienst als Mittelsmann nutzen. Und sobald du einen Dienst oder Teile davon über einen Dritten abwickelst, schlägt die DSGVO (zu recht!) mit voller Wucht zu. In beiden Fällen liegt die Verantwortung gegenüber dem Kunden bei dir und bei Haftungsfragen bist du der erste Ansprechpartner.
Netzwerksicherheit kann man auf ganz vielen Wegen erreichen.
Nur weil sich Rechner im selben Netz befinden, müssen sie sich nicht zwangsläufig sehen oder dürfen miteinander kommunizieren.
Und Daten würde ich niemals unkomprimiert zum Download bereit stellen. Was bringt dir eine Gigabit-Leitung wenn du 200GB an kleinen 1Kbit Files hast? Da bringen dich 10G-Netzwerkkarten auch nicht schneller ans Ziel.
Nur weil sich Rechner im selben Netz befinden, müssen sie sich nicht zwangsläufig sehen oder dürfen miteinander kommunizieren.
Und Daten würde ich niemals unkomprimiert zum Download bereit stellen. Was bringt dir eine Gigabit-Leitung wenn du 200GB an kleinen 1Kbit Files hast? Da bringen dich 10G-Netzwerkkarten auch nicht schneller ans Ziel.
Zitat von @pd.edv:
Und es ist dann besser wenn ich 2 Wochen lang kein Update einspiele und dann dafür verantwortlich bin, dass 12k Patientenakten geleakt werden?!
Und es ist dann besser wenn ich 2 Wochen lang kein Update einspiele und dann dafür verantwortlich bin, dass 12k Patientenakten geleakt werden?!
Warte mal... wir reden hier von Patientendaten? Das sind besonders schützenswerte Daten. Dann spielen wir aber in einer ganz anderen Liga als das, von dem du bisher so erzählt hast.
Ganz ehrlich - und wirklich nicht böse gemeint: von dem, was ich von dir hier lese und mitbekomme, glaube ich nicht, dass du der Sache gewachsen bist.
Du redest von Torrents und dass du notfalls die nötige Software selbst stricken willst. Suchst eine All-Inklusive-Lösung, die keinen Aufwand und keine Verantwortung mit sich bringen darf, gleichzeitig wenig bis nichts kosten soll. Und das bei Patientendaten??
Patientendaten gehören nicht über irgendwelche obskuren Internetdienste rund um die Welt geschickt.
Da gibt es Gesetze, Richtlinien und normative Anforderungen dafür. Und du selbst als Auftragsdatenverarbeiter solltest ebenfalls zertifiziert sein. Was du offensichtlich nicht bist.
Bisher wars ja noch irgendwie nett mit Oma Ilse, aber hier steige ich mal lieber aus, denn das wird mir nämlich ordentlich zu heiß.
Zitat von @wuestenfuchs:
Warte mal... wir reden hier von Patientendaten? Das sind besonders schützenswerte Daten. Dann spielen wir aber in einer ganz anderen Liga als das, von dem du bisher so erzählt hast.
Zitat von @pd.edv:
Und es ist dann besser wenn ich 2 Wochen lang kein Update einspiele und dann dafür verantwortlich bin, dass 12k Patientenakten geleakt werden?!
Und es ist dann besser wenn ich 2 Wochen lang kein Update einspiele und dann dafür verantwortlich bin, dass 12k Patientenakten geleakt werden?!
Warte mal... wir reden hier von Patientendaten? Das sind besonders schützenswerte Daten. Dann spielen wir aber in einer ganz anderen Liga als das, von dem du bisher so erzählt hast.
Ärzte und Krankenhäuser sind sehr knausrig bei Ihren Ausgaben. Da wird jeder Cent gespart, manchmal sogar wenn es mehr kostet.
lks
PS: 101
Mal völlig einfach und ohne technische Tools genannt, wäre nicht folgendes möglich (erst lesen, dann "meckern" )?
Nachteil: DU müsstest hinterherrennen und fragen "Haben Sie alles kopiert?" Ggf. kann aber systemseitig noch eine Mail-Versand werden, alá "Denken Sie dran, Ihre Daten abzuholen!"
Und ja, ich habe begriffen, dass du keine Pflegeaufwand haben willst, aber wie schreibst du denen denn eine Rechnung? Da musst du ja auch Kontaktdaten pflegen
Wenn dir das vom Funktionsumfang ausreicht, kann man sich an die Umsetzung und Suche nach geeigneten Tools/ Anwendungen machen, das zu lösen.
- Du stellt deine Daten in einer DMZ bereit
- Du versendest ein kleines Tool, welches per "Doppelklick" einen Mikro-VPN-Tunnel aufbaut.
- Nachdem der Tunnel aufgebaut wurde, öffnet sich der Windows-Explorer und die Leute können selbst Copy&Paste betreiben
- nach 10 Tagen verliert der Tunnel seine Gültigkeit, sprich, es kann keine Verbindung mehr aufgebaut werden. AUßer, du sendest einen neuen Zugang.
Nachteil: DU müsstest hinterherrennen und fragen "Haben Sie alles kopiert?" Ggf. kann aber systemseitig noch eine Mail-Versand werden, alá "Denken Sie dran, Ihre Daten abzuholen!"
Und ja, ich habe begriffen, dass du keine Pflegeaufwand haben willst, aber wie schreibst du denen denn eine Rechnung? Da musst du ja auch Kontaktdaten pflegen
Wenn dir das vom Funktionsumfang ausreicht, kann man sich an die Umsetzung und Suche nach geeigneten Tools/ Anwendungen machen, das zu lösen.
Zitat von @pd.edv:
Ist mir bewusst - nur wo liegt dann der Vorteil darin wenn die sich nicht sehen und nicht mit einander kommunizieren?! Wie sollen dann die Daten von dem einen auf den anderen rüber?!
Oha, also für ein "Redesign des Netzwerkes" brauch ich dich also nicht anheuern.Zitat von @148656:
Netzwerksicherheit kann man auf ganz vielen Wegen erreichen.
Nur weil sich Rechner im selben Netz befinden, müssen sie sich nicht zwangsläufig sehen oder dürfen miteinander kommunizieren.
Netzwerksicherheit kann man auf ganz vielen Wegen erreichen.
Nur weil sich Rechner im selben Netz befinden, müssen sie sich nicht zwangsläufig sehen oder dürfen miteinander kommunizieren.
Ist mir bewusst - nur wo liegt dann der Vorteil darin wenn die sich nicht sehen und nicht mit einander kommunizieren?! Wie sollen dann die Daten von dem einen auf den anderen rüber?!
Die Frage ist gelöst, also sind alle Klarheiten beseitigt.
Viel Erfolg
C.C.
Komm laß gut sein. alles Wesentliche ist geschwätzt, draußen ist Biergartenwetter und Du schaust jetzt einfach mal was Du von den Tipps verwerten kannst.
Ansonsten läuft das hier aus dem Ruder und das muß nicht sein.
mich schon auf den Biergarten und und das belegte italienische Fladenbrot aus dem Holzofen freu
lks
Nanana, sei mal nicht so hart zu dir. Du bist überarbeitet, unausgeschlafen und unterhopft.
Die Kollegen haben dir mehr als genug Informationen zur Lösung deiner Probleme gegeben. Was du daraus machst, ist dir überlassen. Aber wenn jemand deine Probleme lösen soll, ist das ein anderes Thema.
Viel Erfolg
C.C.
P.S.
Ja, ich habe einen Pferdeschwanz. Aber was hat meine Haarpracht mit IT zu tun?
Die Kollegen haben dir mehr als genug Informationen zur Lösung deiner Probleme gegeben. Was du daraus machst, ist dir überlassen. Aber wenn jemand deine Probleme lösen soll, ist das ein anderes Thema.
Viel Erfolg
C.C.
P.S.
Ja, ich habe einen Pferdeschwanz. Aber was hat meine Haarpracht mit IT zu tun?
Zitat von @pd.edv:
Trinkt eins für mich mit - ich hab noch 4-5h Arbeit vor mir...
@lks - ich spiel mich gerade mit einem torrent aber bei 1.8TB stürzt mit der Client beim erstellen ab.
Trinkt eins für mich mit - ich hab noch 4-5h Arbeit vor mir...
@lks - ich spiel mich gerade mit einem torrent aber bei 1.8TB stürzt mit der Client beim erstellen ab.
Am Stück oder viele einzelne Dateien?
ggf. mehrere Torrentdateien daraus machen.
lks
moin...
ich persönlich finde, das ein UPS/DPD/DHL versand am besten und am schnellsten geht... und ja, du hast recht, mit deiner 1 Mann klitsche wäre eine serverlösung vom aufwand zu viel, entweder du stellst da jemanden ein, oder du lässt es besser!
allerdings denke ich auch, das deine torrent lösung oder was auch immer für ein 1 click billig hoster lösung nicht der geeigneter Ort
für wichtige kunde daten sind. egal ob Oma Erna, oder KMU, wenn du mir als kunde mit sowas kommen würdest, würde ich von deiner Dienstleistung abstand nehmen. es mag ja 100 euro oder mehr kosten, die datenträger zu transportieren, dein job wird wohl teurer werden, und wenn die daten nicht wichtig wären, würde sich keiner bei dir melden!
du machst bestimmt ein prima job, das möchte ich dir nicht absprechen, aber mit solchen aktionen wertest du deine arbeit nur ab..
Frank
ich persönlich finde, das ein UPS/DPD/DHL versand am besten und am schnellsten geht... und ja, du hast recht, mit deiner 1 Mann klitsche wäre eine serverlösung vom aufwand zu viel, entweder du stellst da jemanden ein, oder du lässt es besser!
allerdings denke ich auch, das deine torrent lösung oder was auch immer für ein 1 click billig hoster lösung nicht der geeigneter Ort
für wichtige kunde daten sind. egal ob Oma Erna, oder KMU, wenn du mir als kunde mit sowas kommen würdest, würde ich von deiner Dienstleistung abstand nehmen. es mag ja 100 euro oder mehr kosten, die datenträger zu transportieren, dein job wird wohl teurer werden, und wenn die daten nicht wichtig wären, würde sich keiner bei dir melden!
du machst bestimmt ein prima job, das möchte ich dir nicht absprechen, aber mit solchen aktionen wertest du deine arbeit nur ab..
Frank
moin...
auf der einen seite machst du dir sorgen um datensicherheit dann widerum parkst du deine daten irgendwo im web!
Frank
Zitat von @pd.edv:
Schau der Kunde hat die Wahl zwischen eigener Platte mitschicken, Platte kaufen oder zurückschicken und Download. Viele wählen den Download also warum nicht - ich muss nur eine entsprechend passende Lösung finden...
Wieso sollte ich also mit etwas aufhören was scheinbar viele wollen.
weil du nicht mal selber genau weißt wo die Daten liegen!Schau der Kunde hat die Wahl zwischen eigener Platte mitschicken, Platte kaufen oder zurückschicken und Download. Viele wählen den Download also warum nicht - ich muss nur eine entsprechend passende Lösung finden...
Wieso sollte ich also mit etwas aufhören was scheinbar viele wollen.
auf der einen seite machst du dir sorgen um datensicherheit dann widerum parkst du deine daten irgendwo im web!
Frank
Zitat von @pd.edv:
Preislich human aber was meinst du mit dem Speicherplatz? Dachte die Daten liegen bei mir?
Preislich human aber was meinst du mit dem Speicherplatz? Dachte die Daten liegen bei mir?
Hi, ja die Daten liegen bei dir. Allerdings packt Acronis sie in eine Datenbank. D.h. Du kopierst sie erst lokal nach Acronis und dann kann der User sich die Daten runterladen.
moin...
Daher muss ich in beiden Fällen die Daten zusätzlich sichern damit die eben keiner öffnen kann außer dem Empfänger. Oder glaubt Ihr ich bin wirklich völlig Hirn- und Verantwortungslos?!
das sagt ja keiner... ich sage nur meine meinung dazu!
ist es deine sache, was du da machst!
Frank
Zitat von @pd.edv:
Das weiß ich beim Paketversand auch nicht - da werden Pakete die vom Datenrettungslabot kommen auch vor die Türe der Arzpraxis gelegt. Oder es gehen Platten mal verloren...
also solche pakete werden nicht vor Türen gelegt, sondern nur gegen unterschrift ausgehändigt..Das weiß ich beim Paketversand auch nicht - da werden Pakete die vom Datenrettungslabot kommen auch vor die Türe der Arzpraxis gelegt. Oder es gehen Platten mal verloren...
Daher muss ich in beiden Fällen die Daten zusätzlich sichern damit die eben keiner öffnen kann außer dem Empfänger. Oder glaubt Ihr ich bin wirklich völlig Hirn- und Verantwortungslos?!
ist es deine sache, was du da machst!
Frank
Ich habe eben mal mit dem Beaker Browser experimentiert.
https://beakerbrowser.com/
Man kann dort ein sogenanntes Hyperdrive erstellen und mit seinen lokalen Dateien verknüpfen.
Der Empfänger muss auch diesen Browser installiert haben.
Den Link zum Hyperdrive (hyper://73e9u....) z.B. per Mail an den Empfänger schicken.
Wenn der ihn im Beaker Browser öffnet, kann er die freigegebenen Dateien sehen und "exportieren" (nennt sich so),
d.h. praktisch herunterladen.
Die Browser "unterhalten" sich P2P.
Ich finde, das ist ein interessanter Ansatz!
https://beakerbrowser.com/
Man kann dort ein sogenanntes Hyperdrive erstellen und mit seinen lokalen Dateien verknüpfen.
Der Empfänger muss auch diesen Browser installiert haben.
Den Link zum Hyperdrive (hyper://73e9u....) z.B. per Mail an den Empfänger schicken.
Wenn der ihn im Beaker Browser öffnet, kann er die freigegebenen Dateien sehen und "exportieren" (nennt sich so),
d.h. praktisch herunterladen.
Die Browser "unterhalten" sich P2P.
Ich finde, das ist ein interessanter Ansatz!
moin...
das muss aber von die extra beauftragt werden, und klappt immer zu 100%
Ich bekomme täglich Pakete und wenn ich bei jedem 2. oder 3. nach einer Unterschrift gefragt werde ist das viel. Dabei ist es völlig egal ob UPS, DHL, DPD oder die Post selber zustellt.
Standardversand eben...
Manche Pakete gehen durch 3 Länder mit 3 versch. Kooperationspartnern und sind dann unter 3 versch. Sendungsnummern geführt.
tja.. es kommt auf den versand an...
Das da nicht mehr schief geht ist quasi ein Wunder! Und ich kann ein Lied davon singen denn ich bekomme 98% meiner Arbeit durch Paketdienste denn in den kleinen Ort in dem ich sitze hab ich max. 2-3 Kunden / Jahr und von denen könnte ich nicht leben :D
Interessant - danke für den Tip.
Frank
Zitat von @pd.edv:
Leider nein - das ist keine Theorie sondern eine bewiesene Tatsache vor allem in Zeiten von Corona. Ich könnte 30-50% meiner Pakete reklamieren weil es keine Unterschŕiften gibt. Dabei ist es egal ob die nach DE, AT, HU, NL, IT oder FR gehen...
nö... wir versenden auch viele Pakete Täglich, klar, wenn du Standardversand nutzt, legen die das Paket vor die Tür, wenn du eine unterschrift, oder den nachweis haben willst, muss der empfänger das mit seinem Perso Quittieren!Zitat von @Vision2015:
also solche pakete werden nicht vor Türen gelegt, sondern nur gegen unterschrift ausgehändigt..
also solche pakete werden nicht vor Türen gelegt, sondern nur gegen unterschrift ausgehändigt..
Leider nein - das ist keine Theorie sondern eine bewiesene Tatsache vor allem in Zeiten von Corona. Ich könnte 30-50% meiner Pakete reklamieren weil es keine Unterschŕiften gibt. Dabei ist es egal ob die nach DE, AT, HU, NL, IT oder FR gehen...
das muss aber von die extra beauftragt werden, und klappt immer zu 100%
Ich bekomme täglich Pakete und wenn ich bei jedem 2. oder 3. nach einer Unterschrift gefragt werde ist das viel. Dabei ist es völlig egal ob UPS, DHL, DPD oder die Post selber zustellt.
Manche Pakete gehen durch 3 Länder mit 3 versch. Kooperationspartnern und sind dann unter 3 versch. Sendungsnummern geführt.
Das da nicht mehr schief geht ist quasi ein Wunder! Und ich kann ein Lied davon singen denn ich bekomme 98% meiner Arbeit durch Paketdienste denn in den kleinen Ort in dem ich sitze hab ich max. 2-3 Kunden / Jahr und von denen könnte ich nicht leben :D
Interessant - danke für den Tip.
Zitat von @pd.edv:
Bei den Paket-Shops das gleiche Desaster - da muss ich mal unterschreiben und den Ausweis zeigen und mal nicht. Wie die lustig sind. Geht ja zu 99% eh gut und Menschen sind faul.
Bei den Paket-Shops das gleiche Desaster - da muss ich mal unterschreiben und den Ausweis zeigen und mal nicht. Wie die lustig sind. Geht ja zu 99% eh gut und Menschen sind faul.
Dann nimm Kurierdienste. Die müssen das persönlich zustellen.
lks
Zitat von @pd.edv:
Klar Ihr lebt seit 10 Jahren hier und kennt euch aus - lassen wir das das eskaliert wieder. Ich bin halt zu blöd für alles.
Klar Ihr lebt seit 10 Jahren hier und kennt euch aus - lassen wir das das eskaliert wieder. Ich bin halt zu blöd für alles.
Kroll-Ontrack stellt auf Wunsch per Kurier zu. Funktioniert wunderbar.
lks
Zitat von @Lochkartenstanzer:
Kroll-Ontrack stellt auf Wunsch per Kurier zu. Funktioniert wunderbar.
jo...Zitat von @pd.edv:
Klar Ihr lebt seit 10 Jahren hier und kennt euch aus - lassen wir das das eskaliert wieder. Ich bin halt zu blöd für alles.
Klar Ihr lebt seit 10 Jahren hier und kennt euch aus - lassen wir das das eskaliert wieder. Ich bin halt zu blöd für alles.
Kroll-Ontrack stellt auf Wunsch per Kurier zu. Funktioniert wunderbar.
und wenn ich ein paket versende, und will eine Unterschrift und altersnachweis mit Perso (FSK18) bekomme ich das auch!
sogar im Osten!
lks
Frank
moin...
genau... und sogar in Portugall, kann ich bestätigenund machen wir öfter so!
Wenn doch jeder alles richtig macht und alles immer so toll klappt warum brauchen wir dann Sachverständige, Pentester, Gerichte, Anwälte, usw.
wiso jeder? du brauchst doch nur das richtige bei UPS und Co beauftragen, wo ist das problem?
Ich ärgern solche platten Aussagen dermaßen das ich schon richtig Schmerzen in der Brust habe. nicht ärgern
das ist nicht gut für deine Gesundheit, ich rate dir zu einem Arzt!
Ich mach seit 5,5 Jahren nichts anderes als den Mist von Anderen auszubessern, aufzudecken und zu bewerten. Mein ganzes Leben dreht sich nur um die Blödheiten und Fehler der anderen und ich hab teilweise so viel zu tun, dass ich es gar nicht mehr schaffe und an andere Kollegen Arbeit weiterreichen muss.
fein... aber was genau haben UPS und Co. dammit zu tun? nix...
einfach nur den richtigen versand auswählen, Zustellbestätigung und Unterschrift eines Erwachsenen erforderlich- und alles ist gut!
Aber klar - ist ja immer alles schick und klappt ja immer alles zumindest bis es dem schlecht bezahlen Typen der kaum deutsch kann irgendwann mal egal ist wie und wo der ein Paket abliefert oder der Elekrogroßmarkt-Verkäufer ein RAID als ausfallssicheres automatisches Backup verkauft und dabei Übersieht, dass die Marketing-Abteilung lieber 4TB als 2TB auf die Packung schreiben will und daher das Ding als RAID0 vorkonfiguriert ist oder oder oder.
das hat nix mit der richtigen versandart zu tun....
Ich hatte schon unverschlüsselte Kreditkartendaten in einer Access-DB mit ein paar Makros die dann als Programm verkauft wurde am Tisch und was weiß ich nicht noch für Mist.
das auch nicht....
Frage mich auch warum ich von 20% der IT-Techniker Platten bekomme die mit Recuva & Co. zu tode analysiert wurden oder warum da Platten über Nacht mal eben unbeaufsichtigt laufen und dann die Magnetscheiben völlig im A... sind.
hm... das wissen die Leute von UPS auch nicht...
Und ich frage mich warum ich für 50 Cent bis 1 EUR / Stück bei zig Firmen alte Platten in Bausch und Bogen kaufen konnte und bei ca. 1/3 davon noch Kundendaten drauf sind. Und da spreche ich nicht von vor 10 Jahren sondern zB von der Lieferung die letzten Freitag kam und die ich über das Wochenende gewiped habe.
ja.. was soll ich sagen... hat auch nix mit der versandart zu tun...
98% davon geht einfach gut und die restlichen 2% sorgen dann mal für Ärger. Stichwort: Dunkelziffer.
oha..
Bisschen über den Tellerrand schauen und mal darüber und nicht von sich selber auf den Rest der Welt schließen denn meiner Erfahrung nach sind ein Großteil der Leute nicht wirklich zuverlässig, motiviert, interessiert oder haben Ahnung von dem was die tun.
müssen die Leute ja auch nicht, es ging ja nur um den Versand....
Frank
genau... und sogar in Portugall, kann ich bestätigenund machen wir öfter so!
Wenn doch jeder alles richtig macht und alles immer so toll klappt warum brauchen wir dann Sachverständige, Pentester, Gerichte, Anwälte, usw.
Ich ärgern solche platten Aussagen dermaßen das ich schon richtig Schmerzen in der Brust habe. nicht ärgern
Ich mach seit 5,5 Jahren nichts anderes als den Mist von Anderen auszubessern, aufzudecken und zu bewerten. Mein ganzes Leben dreht sich nur um die Blödheiten und Fehler der anderen und ich hab teilweise so viel zu tun, dass ich es gar nicht mehr schaffe und an andere Kollegen Arbeit weiterreichen muss.
einfach nur den richtigen versand auswählen, Zustellbestätigung und Unterschrift eines Erwachsenen erforderlich- und alles ist gut!
Aber klar - ist ja immer alles schick und klappt ja immer alles zumindest bis es dem schlecht bezahlen Typen der kaum deutsch kann irgendwann mal egal ist wie und wo der ein Paket abliefert oder der Elekrogroßmarkt-Verkäufer ein RAID als ausfallssicheres automatisches Backup verkauft und dabei Übersieht, dass die Marketing-Abteilung lieber 4TB als 2TB auf die Packung schreiben will und daher das Ding als RAID0 vorkonfiguriert ist oder oder oder.
Ich hatte schon unverschlüsselte Kreditkartendaten in einer Access-DB mit ein paar Makros die dann als Programm verkauft wurde am Tisch und was weiß ich nicht noch für Mist.
Frage mich auch warum ich von 20% der IT-Techniker Platten bekomme die mit Recuva & Co. zu tode analysiert wurden oder warum da Platten über Nacht mal eben unbeaufsichtigt laufen und dann die Magnetscheiben völlig im A... sind.
Und ich frage mich warum ich für 50 Cent bis 1 EUR / Stück bei zig Firmen alte Platten in Bausch und Bogen kaufen konnte und bei ca. 1/3 davon noch Kundendaten drauf sind. Und da spreche ich nicht von vor 10 Jahren sondern zB von der Lieferung die letzten Freitag kam und die ich über das Wochenende gewiped habe.
98% davon geht einfach gut und die restlichen 2% sorgen dann mal für Ärger. Stichwort: Dunkelziffer.
Bisschen über den Tellerrand schauen und mal darüber und nicht von sich selber auf den Rest der Welt schließen denn meiner Erfahrung nach sind ein Großteil der Leute nicht wirklich zuverlässig, motiviert, interessiert oder haben Ahnung von dem was die tun.
Frank
Hallo zusammen, aufgrund der Länge des Beitrages habe ich nicht alles gelesen. Kann also sein, dass mein Vorschlag schon mal kam.
Wir haben ein ähnliches Problem und betreiben für diesen Zweck ein Synology NAS.
Mit "Synology Drive" bekommt man eigentlich alles, was man dafür braucht, Du musst die Zugriffe entsprechend absichern - kann die Synology von Hause aus - und die Nutzer mit entsprechenden Zugangsdaten explizit einrichten.
Diese können dann komfortabel via Synology Drive APP (ja, auch für Windows, Android und Apple) Daten laden oder ganz einfach per Browser.
Timeouts sind kein Problem und der maximale Platz nur durch die NAS-Größe und Anzahl/Größe der Festplatten begrenzt.
Kleiner vorteil am Rande : Die Daten sind lokal und nicht bei irgendwelchen Dienstleistern im Netz.
Grüße
miscmike
Wir haben ein ähnliches Problem und betreiben für diesen Zweck ein Synology NAS.
Mit "Synology Drive" bekommt man eigentlich alles, was man dafür braucht, Du musst die Zugriffe entsprechend absichern - kann die Synology von Hause aus - und die Nutzer mit entsprechenden Zugangsdaten explizit einrichten.
Diese können dann komfortabel via Synology Drive APP (ja, auch für Windows, Android und Apple) Daten laden oder ganz einfach per Browser.
Timeouts sind kein Problem und der maximale Platz nur durch die NAS-Größe und Anzahl/Größe der Festplatten begrenzt.
Kleiner vorteil am Rande : Die Daten sind lokal und nicht bei irgendwelchen Dienstleistern im Netz.
Grüße
miscmike
Zitat von @miscmike:
Hallo zusammen, aufgrund der Länge des Beitrages habe ich nicht alles gelesen. Kann also sein, dass mein Vorschlag schon mal kam.
Wir haben ein ähnliches Problem und betreiben für diesen Zweck ein Synology NAS.
Hallo zusammen, aufgrund der Länge des Beitrages habe ich nicht alles gelesen. Kann also sein, dass mein Vorschlag schon mal kam.
Wir haben ein ähnliches Problem und betreiben für diesen Zweck ein Synology NAS.
Das wurde bereits als Lösung verworfen.
Ich kann den Wunsch verstehen und bin gespannt ob es eine P2P Lösung gibt. Vermutlich ist das hier für diesen speziellen Fall nicht das richtige Forum.
Bietet dies vielleicht etwas? Preislich kann ich keine Einschätzung geben
https://www.ibm.com/de-de/products/aspera
https://www.ibm.com/de-de/cloud/aspera/pricing
https://www.ibm.com/de-de/products/aspera
https://www.ibm.com/de-de/cloud/aspera/pricing
@Chris22 Ich galube nach der letzten Anmerkung des TE braucht man hier keine Vorschläge mehr zu machen, offenbar ist die für ihn in allen Punkten passende Lösung noch nicht erfunden. Vielleicht kann man den Thread auch einfach schließen.
Schau Dir mal das an, bin darauf gestossen, aber selbst nicht gestetstet.
www.oo-software.com/en/filedirect
www.oo-software.com/en/filedirect