pd.edv
Goto Top

Sehr große Dateien über das Internet versenden

Hallo,

ich muss immer wieder große Daten über das Internet übertragen - da werden viele am WeTransfer & Co. denken aber mit den winzigen Datenkontigent komme ich niemals aus. Meine Datenmengen schwanken zwischen 100GB und 12TB / Übertragung.

Cloud wäre eine Lösung aber da kommt es mir billiger wenn ich die Daten per UPS Express auf einer Platte versende.

Derzeit nutze ich FromSmash und das klappt so einigermaßen aber wenn es Richtung 1TB geht wird es zum Problem. Außerdem vergeht viel Zeit beim Upload zu einem Server und daher habe ich mir diverse P2P Dienste angesehen:

ShareDrop sieht gut aus aber geschäftlich will ich meinen Kunden nicht als "Happy Hippo" oder "Clever Monkey" oder sonst einen mist entgegentreten. Etwas mehr Seriösität und etwas weniger Kindergarten wäre toll! BeamIt sieht gut aus aber 10 Min. bis zum Timeout geht gar nicht - keiner sitzt auf Abruf bereit um dann sofort auf den Link zu klicken.

Ich suche mal weiter aber hat jemand von euch eine Idee? Ich bräuchte mind. 48h bevor ein Link ungültig. Ob nun eine Webseite oder ein Programm zum Einsatz kommen ist mir egal und ich zahle auch gern ein paar EUR im Monat wenn es sein muss aber keine 15 USD / TB oder sowas. Da kann ich dem Kunden eine 12TB Platte zuschicken und die nach 1 Woche wieder von UPS abholen lassen :D

Außerdem mache ich mir zB bei WebRTC sorgen ob die Dateien wirklich verlässlich übertragen werden wenn UDP zum Einsatz kommt - UDP sehe ich eher bei einem Video-Chat aber nicht bei der Datenübertragung größerer Dateien. Daher wäre ein entsprechendes P2P-Tool als Programm ideal das zB TCP nutzt um auch sicherzustellen, dass die Daten komplett ankommen. Oder sehe ich UDP zu kritisch?

Den Kunden sollte der Dienst oder Client natürlich nichts kosten.

Eigenen Server betreiben will ich wegen dem Aufwand nicht wirklich (da nicht alle Kunden statischen IP-Adressen haben müsste der öffentlich sein und das wäre doch mit einigem Wartungsaufwand verbunden).

Eventuell hat einer von euch schon eine Lösung für ein derartiges Problem gefunden.

Danke im Voraus.

Content-ID: 667552

Url: https://administrator.de/forum/sehr-grosse-dateien-ueber-das-internet-versenden-667552.html

Ausgedruckt am: 22.12.2024 um 11:12 Uhr

Spirit-of-Eli
Spirit-of-Eli 13.06.2021 um 14:34:40 Uhr
Goto Top
Moin,

ich würde tatsächlich vorschlagen einen eigenen Server zu betreiben.
Die Anbindung realisierst du dann über VPN und gewährst dem Kunden so Zugang zu den Daten. Die VPN Thematik würde ich über eine vernünftige Firewall machen.

Den Server wirst du ja schon haben. Dort dann ein Rechtemanagement einrichten.
Als FW kannst du eine PfSense nutzen. Als VPN würde ich IPsec vorschlagen. Alternative dann OpenVPN.

Gruß
Spirit
LordGurke
LordGurke 13.06.2021 aktualisiert um 14:50:44 Uhr
Goto Top
Ist vielleicht etwas wie Resilio Sync bzw. Syncthing geeignet?
Das arbeitet nach dem Bittorrent-Modell und ist Peer-to-Peer.
Resilio Sync habe ich selbst im Einsatz - da kannst du dann einfach einen Ordner mit den Dateien erstellen und diesen über einen Schlüssel freigeben. Der Schlüssel kann als reiner Readonly-Schlüssel vergeben werden, alternativ kann man dem Kunden auch Schreibrechte einräumen, wenn man will.
Der Vorteil für beide Seiten ist auch, dass bei Unterbrechungen da weitergemacht wird, wo aufgehört wurde.
cykes
cykes 13.06.2021 um 14:47:04 Uhr
Goto Top
Moin,

darf man fragen, was das für Daten sind - 12 TB sind schon ein Haufen Holz und da stellt sich mir die Frage, ob man vielleicht am grundsätzlichen Konzept etwas verändern könnte?

Die (Upload-)Dauer ist natürlich wesentlich abhängig von Deiner Upload-Bandbreite und der Datenmenge, also im Wesentlichen unveränderlich - egal wo Du das hochlädst, dazu kommen natürlich noch Schwankungen in der Verbindung zum Server.

Kostelos wirst Du 12TB Speicher nirgends bekommen, auch nicht für "ein paar" Euronen/Monat, insbesondere wenn Du eine gewisse Vorhaltezeit benötigst.

Bei so großen Datenmenge und der unvermeidlichen Uploaddauer muss sich der Upload bei kurzen Unterbrechungen auch automatisch neu starten, das unterstützen auch nicht alle.

In Summe geht IMHO nichts an einem eigenen Server bei einem Hoster vorbei, um die volle Kontrolle zu haben. Notfalls sogar lokal, dann bspw. als SFTP-Server, dann braucht der Kunde keine statische IP, er belastet dann aber Deine Leitung und es dauert eben genau so lang, wie Dein Upload bei einem Sharehoster.
Außer das Konzept lässt sich noch irgendwie überarbeiten.

Gruß

cykes
Lochkartenstanzer
Lochkartenstanzer 13.06.2021 aktualisiert um 14:48:47 Uhr
Goto Top
MOin,

Miete Dir einen root-Server (zur Not tut es auch ein vserver) mit genügend Platz.

Ob Du den nun nur als zwischenablage oder als relay zum weiterleiten an Dich nutzt, müßte im einzelfall geklärt werden.

Um die korrekte Übertragung zu prüfen, kannst Du einfach Prüfsummen einsetzen.


Du könntest natürlich auch einfach bittorrent o.ä. einsetzen, um die Dateien zu übertragen. Müßtest nur einen eigenen Tracker aufsetzen und den Zugriff darauf auf Deine Kunden beschränken.

lks
pd.edv
pd.edv 13.06.2021 aktualisiert um 16:14:46 Uhr
Goto Top
ich würde tatsächlich vorschlagen einen eigenen Server zu betreiben.

Theoretisch ja - praktisch bekommen das 80% der Kunden nicht hin oder haben nicht mal die Rechte am System so etwas einzurichten.

Die Methode kommt leider nicht in Frage. Außerdem wäre es aufwändig immer wieder alles zu verwalten denn ich brauche so gut wie niemals etwas zweimal. Weder Daten noch Kunden.
pd.edv
pd.edv 13.06.2021 um 16:25:23 Uhr
Goto Top
Zitat von @cykes:
darf man fragen, was das für Daten sind - 12 TB sind schon ein Haufen Holz und da stellt sich mir die Frage, ob man vielleicht am grundsätzlichen Konzept etwas verändern könnte?

Nein.

Zitat von @cykes:
Kostelos wirst Du 12TB Speicher nirgends bekommen, auch nicht für "ein paar" Euronen/Monat, insbesondere wenn Du eine gewisse Vorhaltezeit benötigst.

Daher wäre am sinnvollten P2P und nicht irgendwelche Daten irgendwo hochladen und dann lädt die weider einer herunter. Das dauert ja sonst doppelt so lange! Vorhaltezeit wäre egal - die Kunden warten auf die Daten also wird das Zeitnahe runtergeladen.

Zitat von @cykes:
Bei so großen Datenmenge und der unvermeidlichen Uploaddauer muss sich der Upload bei kurzen Unterbrechungen auch automatisch neu starten, das unterstützen auch nicht alle.

Wäre ideal.

Zitat von @cykes:
In Summe geht IMHO nichts an einem eigenen Server bei einem Hoster vorbei, um die volle Kontrolle zu haben. Notfalls sogar lokal, dann bspw. als SFTP-Server, dann braucht der Kunde keine statische IP, er belastet dann aber Deine Leitung und es dauert eben genau so lang, wie Dein Upload bei einem Sharehoster.

Dafür habe ich eine eigene Leitung die ausreichend schnell ist aber offener Server wäre ein Albtraum allein schon wegen dem Aufwand und den Daten. Außerdem muss ich dann permanent wieder User anlegen, neue Verzeichnisse Freigeben, alte wieder löschen. usw.

Alles was ich mache sind einmalige Dinge. Keine Datei und auch kein Kunde sollten nochmals benötigt werden.

Zitat von @cykes:
Außer das Konzept lässt sich noch irgendwie überarbeiten.

Klar alternative wäre dann HDD per UPS Express.
Lochkartenstanzer
Lochkartenstanzer 13.06.2021 aktualisiert um 16:37:08 Uhr
Goto Top
Zitat von @pd.edv:

Daher wäre am sinnvollten P2P und nicht irgendwelche Daten irgendwo hochladen und dann lädt die weider einer herunter. Das dauert ja sonst doppelt so lange! Vorhaltezeit wäre egal - die Kunden warten auf die Daten also wird das Zeitnahe runtergeladen.



Genau habe ich Dir ja Personal BitTorrent vorgeschlagen. Du setzt einen eigenen Teacker auf, auf den nur deine Kunden können. Und setzt das Bit das nur dieser Tracker benutzt werden darf.

lks

PS: wenn deine Leitung schnell genug ist, warum läßt Du dann bei Dir nicht einfach einen Server laufen über den die Kunden das direkt ziehen können?
pd.edv
pd.edv 13.06.2021 um 16:41:01 Uhr
Goto Top
Zitat von @Lochkartenstanzer:
Miete Dir einen root-Server (zur Not tut es auch ein vserver) mit genügend Platz.

Ist bei den Daten die da drauf sollen ein kleines Problem und als One-Man-Show fehlt mir die Zeit mich um eine ordentliche Wartung zu kümmern. Da ist das nur eine Frage der Zeit bis mich Datenschützer oder Anwälte ans Kreuz nageln!

Zitat von @Lochkartenstanzer:
Ob Du den nun nur als zwischenablage oder als relay zum weiterleiten an Dich nutzt, müßte im einzelfall geklärt werden.

Zwischenablage hat ja wenig Sinn wenn ich 36h Daten hochlade und der Kunde dann wieder 24h Daten runterlädt.

Zitat von @Lochkartenstanzer:
Um die korrekte Übertragung zu prüfen, kannst Du einfach Prüfsummen einsetzen.

Klar aber das hilft mir ja nichts und wie soll ich den Kunden das erklären?! Ich brauche eine praktikable Lösung mit der eine 56-jährige Sekretärin klarkommt die nicht mal Admin-Rechte auf der Kiste hat.

Zitat von @Lochkartenstanzer:
Du könntest natürlich auch einfach bittorrent o.ä. einsetzen, um die Dateien zu übertragen. Müßtest nur einen eigenen Tracker aufsetzen und den Zugriff darauf auf Deine Kunden beschränken.

Das ist viel Aufwand für mich für Dinge die ich nur einmalig brauche und absolut keine gute Lösung. Ich suche eher etwas wie Datenübertragung bei Teamviewer oder einen einfachen Client der sich entweder Daten zieht oder einen Link über den man die Daten erhält.
lks
pd.edv
pd.edv 13.06.2021 aktualisiert um 16:43:44 Uhr
Goto Top
Zitat von @Lochkartenstanzer:
PS: wenn deine Leitung schnell genug ist, warum läßt Du dann bei Dir nicht einfach einen Server laufen über den die Kunden das direkt ziehen können?

Weil ich 10 Dateien an 10 Kunden schicken will die alle nur Ihr zeig sehen sollen von verschiedensten VLANs aus, etc.

Und ich brauche eine Lösung die so einfach ist wie eine USB-HDD da viele Kunden keinen Plan von IT haben.
maretz
maretz 13.06.2021 um 17:25:21 Uhr
Goto Top
Am einfachsten wäre einfach nen Server bei dir mit FTP bzw. sFTP (wobei FTP halt selbst im Browser klappt). Nur: Wie lang der Upload bei 12 TB dauern soll ist der nächste Punkt - und was passiert wenn 3-x Kunden gleichzeitig laden? Aber DAS sind Probleme die sind vom Protokoll unabhängig...

Bei FTP (und sFTP z.B. mittels WinSCP) hast du halt auch (je nach Einstellung) nen Resume... Alternativ halt OwnCloud zuhause betreiben.. Ehrlich gesagt befürchte ich aber bei den Datenmengen das die USB-Platte wirklich die schnellste Variante ist.
pd.edv
pd.edv 13.06.2021 um 17:58:44 Uhr
Goto Top
Zitat von @maretz:
Am einfachsten wäre einfach nen Server bei dir mit FTP bzw. sFTP (wobei FTP halt selbst im Browser klappt). Nur: Wie lang der Upload bei 12 TB dauern soll ist der nächste Punkt - und was passiert wenn 3-x Kunden gleichzeitig laden? Aber DAS sind Probleme die sind vom Protokoll unabhängig...

Upload ist kein Problem. Ich habe mehrere Anschlüsse und getrennte Netze. Also bräuchte ich auch versch. Server, etc. Ich muss Chroots für Kunden anlegen und entsprechende User, usw.

Es kann keine 3 Kunden gleichzeitig geben denn diese sind in der Regel auf die einzelnen Maschinen und Netze getrennt!

Zitat von @maretz:
Bei FTP (und sFTP z.B. mittels WinSCP) hast du halt auch (je nach Einstellung) nen Resume... Alternativ halt OwnCloud zuhause betreiben.. Ehrlich gesagt befürchte ich aber bei den Datenmengen das die USB-Platte wirklich die schnellste Variante ist.

Weiß ich aber dann muss ich das wieder alles den Kunden erklären, einzelne Zugänge einrichten und auf bestimmte Verzeichnisse sperren, usw.

Außerdem steht dann wieder alles offen im Netz was ich nicht will.

Das ist alles für mich nicht praktikabel. Ich brauche wirklich eine Lösung mit der ich Daten einfach von einem PC auf einen anderen senden kann die eben einfach ist und sich für einmaligen Einsatz eignet.

FTP wäre eine Option und das habe ich bereits bedacht aber ich kann und will die Kosten von mir nicht offen ins Netz stellen und den Zugriff auf bestimmte IP-Adressen einzuschränken ginge ja nicht. Server kommt auf keinen Fall in Frage.
Spirit-of-Eli
Spirit-of-Eli 13.06.2021 um 18:14:11 Uhr
Goto Top
Du sollst den Server bei dir betreiben und den Kunden nur noch einen link schicken.
Spirit-of-Eli
Spirit-of-Eli 13.06.2021 um 18:53:16 Uhr
Goto Top
Zitat von @pd.edv:

Zitat von @Lochkartenstanzer:
PS: wenn deine Leitung schnell genug ist, warum läßt Du dann bei Dir nicht einfach einen Server laufen über den die Kunden das direkt ziehen können?

Weil ich 10 Dateien an 10 Kunden schicken will die alle nur Ihr zeig sehen sollen von verschiedensten VLANs aus, etc.

Und ich brauche eine Lösung die so einfach ist wie eine USB-HDD da viele Kunden keinen Plan von IT haben.

Ich fürchte eher, dass dir die Materie fremd ist.
Wenn du selbst einen Server betreibst, kannst du doch all deine Anforderungen erschlagen. Technisch limitiert nur deine Internet Leitung.
pd.edv
pd.edv 13.06.2021 aktualisiert um 19:08:02 Uhr
Goto Top
Zitat von @Spirit-of-Eli:
Du sollst den Server bei dir betreiben und den Kunden nur noch einen link schicken.

Auch das ist keine Option. Wenn der Server offen im Netz stehen muss dann bringt mir das wenig. Ich kann auf meinen Kisten weder mit AV-Schutz noch mit diversen zeitnahe eingespielten Patches dienen.

Die sind alle "unsicher hoch 10". Sowas stelle ich keinesfalls ins Netz!

Ich beschäftige mich mit IT-Forensik und Datenrettung und kann nicht mal eben ein Update machen und den Rechner neu starten wenn ich gerade eine Platte Image und das kann auch mal 120 Tage dauern. Also heißt das auch 120 Tage keine Sicherheitsupdates. Beim PW-knacken sieht es nicht besser aus.

Ein großer Teil meiner Tools wird als Schadware erkannt - ist ja auch kein wunder wenn damit Telefone mit Exploits angegriffen oder Passwörter geknackt werden oder dergleichen.

Getrennte Anschlüsse und Netze darum weil ich schlecht im gleichen Netz eine Schadware analysieren kann in dem auch auf einem anderen Rechner Patientendaten oder unverschlüsselte Kreditkartendaten liegen.

Wenn ein Kunde von mir noch 3 funktionierende graue Zellen hat dann wird der nachdem ich seine Daten gerettet habe kein zweites mal eine Labordatenrettung brauchen.

Diverse Systeme haben nur dann Zugang zum Internet wenn ich Daten versenden oder laden müsste und sind 95% der Zeit physisch vom Internet und allen anderen Systemen getrennt.

Also nein. Keine dieser Kisten hängt dauerhaft im Internet und schon gar nicht offen für Gott und die Welt. Getrennt sind die ebenfalls auf verschiedene Netze weil ich keine Ahnung habe was für Schadware mich bei einer Untersuchung / Datenrettung erwartet.

Ich kann jetzt zu jeder Kiste wieder einen Server stellen der dann trotzdem einen Haufen Aufwand verursacht damit Kunde A nicht die Daten von Kunde B bekommt und muss permanent User anlegen, löschen, Verzeichnisse freigeben, usw. Dazu muss ich dann Daten erst wieder über das LAN kopieren damit die auf den Server kommen.

Das alles habe ich bereits bedacht und verworfen aus unterschiedlichsten Gründen.

Eine der Kisten ist XP weil bestimmte Tools nicht mehr auf neueren Systemen laufen. Ich habe DOS, OS X, Linux, Win 7 und Win 10 am laufen und auch das hat wieder seine Gründe und kann ich geändert werden. Im Regal habe ich diverse Platten mit unterschiedlichsten Systemen von Win95 bis zu Solaris, BSD oder sonstwas und sogar alte G-Mac's mit OS9 für den Fall das ich die noch brauche! Auch sowas hängt mal in einem der LAN's und wird benutzt.

Also nochmal. Kein Server. Nicht mal ein kleiner. Nein gar kein Server. Ich brauche bitte eine andere Lösung und wenn ich sie mir selber schreiben müsste - dann bitte wenigstens eine Idee! WebRTC sieht mal vielversprechend aus aber TCP wäre mir lieber. Bin aber für alle möglichen Technologien offen aber P2P ist das vernünftigste damit ich Daten nicht über Umwege übertrage sondern direkt zum Kunden / Partnerunternehmen / etc.
Spirit-of-Eli
Spirit-of-Eli 13.06.2021 um 19:24:21 Uhr
Goto Top
Dann lies meinen ersten Post erneut. Von offen ins Netz stellen habe ich nicht geredet.
Und wenn du mit der Software Forensische Tätigkeiten ausführst, werden deine Kunden wohl in der Lage sein einen VPN Client zu bedienen.

Alles ziemlich schleierhaft.
em-pie
em-pie 13.06.2021 um 19:56:41 Uhr
Goto Top
Moin,

Setz einen Nextcloud-Server in DEINE DMZ. Den sicherst du mit Zugangsdaten der einzelnen Kunden sowie einem validen Zertifikat ab.
Ergänzt werden kann das noch mit einem ReverseProxy bzw. PreAuth-System und dann mit einem zusätzlichen Zertifikat, was deine Kunden erhalten.

Danach schiebst du die Daten aus dem LAN ins die DMZ auf den Nextcloud-Server.
Fertig

Da liegen dann auch keine Daten besonders schätzenswerten Daten bei irgendwelchen Fremdanbietern.

Während du die Daten dann rüber schiebst, legst du eben den User am NC-Server an und bist fertig. Den User hast du schneller angelegt, als dass die Daten da sind.
pd.edv
pd.edv 13.06.2021 aktualisiert um 20:14:58 Uhr
Goto Top
Zitat von @Spirit-of-Eli:
Und wenn du mit der Software Forensische Tätigkeiten ausführst, werden deine Kunden wohl in der Lage sein einen VPN Client zu bedienen.

Nein! Ich muss jetzt schon manchen durch den Download und das entpacken der Daten mit dem PW lotsen.

Zitat von @Spirit-of-Eli:
Alles ziemlich schleierhaft.

Wieso? Und häng dich nicht an der Forensik auf - was ist mit Tante Erna's Daten die ich von Ihrer 3TB USB Platte rette?!

Was ist mit den 6TB von dem NAS von Fam. Müller die nicht mal wusste was RAID ist - die haben nur einen 800 EUR vorkonfigurierten Speicher beim Elektronikmarkt gekauft weil der "Berater" meinte das ist Redundant da kann man keine Daten verlieren?

Wenn ich Daten an einen anderen Forensiker schicke dann gut - der wird mir selber einen Server zur Verfügung stellen oder manche Tools erlauben sogar den Fall-Transfer oder das Aquirieren von Speicher oder RAM über das Netz. Damit hab ich kein Problem. Nur sind das 20% meiner Transfers.

80% ist Datenrettung und da ist alles dabei von Tante Erni bis zu Firmen.
pd.edv
pd.edv 13.06.2021 aktualisiert um 20:25:53 Uhr
Goto Top
Zitat von @em-pie:
Ergänzt werden kann das noch mit einem ReverseProxy bzw. PreAuth-System und dann mit einem zusätzlichen Zertifikat, was deine Kunden erhalten.

Klar, und das erkläre ich Tante Erna am Telefon oder einer Sekretärin die glaubt ein Zertifikat sei ein Stück Papier, dass man an die Wand hängt oder Fr. Dr. die sich einen Mac kauft weil das Design schicker ist und nicht mal weiß, dass das ein anderes OS ist als Windows.

Zitat von @em-pie:
Danach schiebst du die Daten aus dem LAN ins die DMZ auf den Nextcloud-Server.
Fertig

Und dann telefoniere ich jedem wieder hinterher ob der die Daten schon hat und ob ich die wieder löschen kann.

Zitat von @em-pie:
Da liegen dann auch keine Daten besonders schätzenswerten Daten bei irgendwelchen Fremdanbietern.
Während du die Daten dann rüber schiebst, legst du eben den User am NC-Server an und bist fertig. Den User hast du schneller angelegt, als dass die Daten da sind.

Klar und das mache ich dann 30x / Woche und schmeiß die dann auch wieder nach 3 Tagen raus nachdem ich den Leuten hinterhertelefoniert habe.
maretz
maretz 13.06.2021 um 20:17:53 Uhr
Goto Top
Ganz ehrlich - wenn es um so vertrauliche Daten geht und du eben die sinnvollen Lösungen nicht umsetzen kannst/willst dann ist das senden der USB-Platte idR die beste Lösung. DA kannst du ne Verschlüsselung drauf packen und dem Kunden das PW per Telefon mitteilen so das auch keiner an die Daten kommt wenn die Platte verschwindet...

Du kannst die Daten auch natürlich per Skype oder sonstwas senden, aber das wird weder schnell noch sinnvoll sein....
em-pie
em-pie 13.06.2021 um 20:38:26 Uhr
Goto Top
Und Tante Emma hat eine 100Mbit-Leitung und kann die 12 Terra in wenigen Minuten herunterladen?

Wie willst du die Datei denn übertragen, wenn Tante Emmas PC noch aus oder bei dir ist?

Schaue dir mal die Fa. FTAPI oder auch CloudPlan an, da sieht man auch, wann sich ein User die Datei heruntergeladen hat. Zudem kannst du die Links mit einem Zeitlimits versehen. Dann können die den Link anklicken, sich mit einem per Telefon mitgeteilten Passwort anmelden und herunterladen. Ist der Download erfolgt, siehst du das.


Ansonsten bist du scheinbar nach einer Wasch mich, aber mach mich nicht nass Lösung
Dann Kauf halt eine 14TB Platte (um Platz für deine 12TB Daten zu haben), versende die per Post und stelle die dem Kunden in Rechnung oder fordere die innerhalb von 14 Tagen ein.
pd.edv
pd.edv 13.06.2021 um 20:52:17 Uhr
Goto Top
Zitat von @maretz:
Du kannst die Daten auch natürlich per Skype oder sonstwas senden, aber das wird weder schnell noch sinnvoll sein....

Das kann ich über einen entsprechenden Dienst wie FromSmash auch. Da sind wir ja gerade. Noch schneller wäre eben direkt P2P.

Viele haben kein Problem mit den Platten - andere wollen keine 4TB Platte kaufen da sie in den letzten Wochen ja Ihren PC weiter benutzen wollten und die alte defekte 4TB HDD mit einer neuen 6TB HDD ersetzen ließen.

Also habe ich derzeit 2 Varianten - Leih-HDD die dann wieder bei einem Paketshop abgegeben wird oder Download. Download wäre aber deutlich einfacher wenn ich wirklich P2P arbeiten könnte.

Ich glaube Ihr versteht das Problem nicht - ich will weniger Arbeit und nicht mehr Arbeit haben und die technisch sinnvolle Lösung ist bei anderen IT-Firmen oder Firmen mit eigener IT-Abteilung kein Problem. Erstere haben regelmäßig Fälle und da arbeite ich ohnehin mit Leihplatten. Letztere bekommen sowas zum laufen.

Bleiben also Tante Erni, Familie Müller und diverse kleine Firmen bei denen keiner Ahnung von IT hat weil das alles ein externen Dienstleister macht. Und die wollen auch oft 40-120 EUR für eine "unnütze" weitere HDD sparen denn sie zahlen ja schon "so viel" für die Datenrettung.

Für die anderen ist es völlig egal - die kommen mit allem klar was ich machen könnte.

Also sind wir wieder am Anfang - nichts was komplizierter ist als einen Link anzuklicken oder einen Code einzugeben. Ich teste mit dem nächsten definitiv mal WebRTC. Langsam überlege ich mir ob es nicht einfacher wäre wenn ich mir selber eine Lösung sticke...
pd.edv
pd.edv 13.06.2021 um 21:18:45 Uhr
Goto Top
Zitat von @em-pie:
Und Tante Emma hat eine 100Mbit-Leitung und kann die 12 Terra in wenigen Minuten herunterladen?

Ist mir doch egal wie lange das läuft. Meist hat Tanke Erna auch keine 12TB Platte sondern eher 1-4TB. Reicht aber auch wenn die Voll war.

Ich will aber trotzdem keine 5 verschiedenen Lösungen sondern eine für alle.

Zitat von @em-pie:
Wie willst du die Datei denn übertragen, wenn Tante Emmas PC noch aus oder bei dir ist?

Klar - die schickt mir den ganzen PC. Wenn der nicht mehr angeht läuft Tante Erna zum PC Doc vor Ort und wenn der die Platte nicht mehr erkennt verkaut der Ihr ne neue und schickt die zum prof. Datenretter wenn der selber keine Kooperation mit einem hat oder der hat eine aber die ist Tante Erna zu teuer.

Zitat von @em-pie:
Schaue dir mal die Fa. FTAPI oder auch CloudPlan an, da sieht man auch, wann sich ein User die Datei heruntergeladen hat. Zudem kannst du die Links mit einem Zeitlimits versehen. Dann können die den Link anklicken, sich mit einem per Telefon mitgeteilten Passwort anmelden und herunterladen. Ist der Download erfolgt, siehst du das.

Schau ich mir gerne an. Wobei ich da wahrscheinlich die Daten wieder zippen darf und mit einem PW versehen für viele Dinge.

Zitat von @em-pie:
Ansonsten bist du scheinbar nach einer Wasch mich, aber mach mich nicht nass Lösung

Nein ich suche nach einer Lösung um die Daten ungezipp direkt zu Tante Ernas PC zu schieben weil das am schnellten ginge für mich und ich dann nicht wieder Leute habe die sich 800GB schicken lassen, die runterladen und dann zu wenig Speicherplatz haben um die zu entpacken weil die wieder ein 1TB HDD gekauft haben...

Das ich 12TB versende kommt nicht so oft vor und dem letzten der sowas brauchte hab ich die per SCP rüber geschoben nachdem er mir auf seinem Server einen temp. User angelegt hatte.

Mein größtes Problem sind Tante Ernis 200-300 EUR Datenrettungen bei denen ich einen steckenden Kopf von der Platte hole, dann mit zig defekten Sektoren und langwieriger logischer Datenrettung (teilweise sogar 2 oder 3-fach mit anschließendem mergen der Datenstände) kämpfe oder mit Firmwareproblemen, einem instabilen Kopf, etc.

Nachdem ich da schon genug mit zu tun hatte will ich nicht 2h Telefonsupport anbieten damit die irgendwas am PC eingerichtet bekommt. Da brauche ich einen DAU-Lösung am besten um die Daten offen und ungezippt direkt auf den Rechner zu schieben. Dann heben wir auch nicht mehr das Theater mit dem Speicherplatz der dann zu klein ist zum entpacken.

Dummerweise filmen heute die Hobby-Filmer auch schon in 4k und auch da hatte ich schon 4-8TB Familienvideos.

Eine anderer IT-ler wird mit Zertifikaten und dergleichen kein Problem haben aber Tante Erni schon. Also brauche ich den kleinsten gemeinsamen Nenner - also etwas wirklich einfaches was mir auch keine Arbeit mehr macht und vor allem keinen Supportaufwand verursacht.
maretz
maretz 13.06.2021 um 21:18:54 Uhr
Goto Top
Stimmt, Firmen mit ner IT-Abteilung haben da kein Problem, genauso wie privatpersonen die sich mit sowas auskennen - weil die einfach nen Server hinstellen und gut... Ganz ehrlich, sowas würde ich über meinen Server in Minuten abfackeln (ok - ausser das ich mehr HDD bräuchte, aber das is auch alles) und dann mit jedem Mittel was ich will: FTP, HTTP,...

Nun, du kannst dir natürlich was eigenes programmieren - auch das ist kein Problem. Ich habe zB. meine Software die mir Files mit mehreren GB zwischen Servern abgleicht die nicht alle immer permanent online sind und selbst wenn dann sind die nicht immer gleich schnell angebunden (und manchmal auch ohne Flat)... Nur: Am Ende ist das vermutlich komplizierter für "Kunden" zu bedienen ... Und auch bei ner eigenen Software musst du halt schauen was die Sicherheit usw. angeht... In der Zeit hab ich nen FTP-Server 3x aufgesetzt -mit Linux kein Ding... Einfach jeden User in sein "Home" einsperren und den Link verschicken wie ftp://user:pass(at)deinserver.xyz. Der Anwender klickt drauf, läd runter... wenn dir das noch zu komplex is bleibt halt nur die Platte zu versenden...
pd.edv
pd.edv 13.06.2021 um 21:37:29 Uhr
Goto Top
Zitat von @maretz:
Einfach jeden User in sein "Home" einsperren und den Link verschicken wie ftp://user:pass(at)deinserver.xyz. Der Anwender klickt drauf, läd runter... wenn dir das noch zu komplex is bleibt halt nur die Platte zu versenden...

Nur das ich dann alle Daten auf den Server auf den kopieren muss, den User anlegen und dann darf der Kunde 287.326 Dateien runterladen. Über den Browser geht das nicht gut.

Also dann doch wieder 1,8 TB zippen. Nur wie bekommt der das dann auf der neuen 2TB Platte entpackt wenn die schon zu 90% mit der Zip-Datei voll ist.

Finde FTP ja schon gut - aber wenn dann sollte ich alle Daten rüber schieben können ohne die zu packen und das ganze Deppeneinfach.

Also quasi Teamviewer Quicksupport nur mit Datenübertragung in schneller!
pd.edv
pd.edv 13.06.2021 um 22:11:44 Uhr
Goto Top
Sorry - hab ich mich völlig verrannt in eine Lösung die mir gefällt und sehe ich wirklich nicht wie einfach eure Lösungen sind?

Zitat von @maretz:
ftp://user:pass(at)deinserver.xyz

Schön aber wie kommt der dann in mein VPN? Du gastest ja ich muss den nicht offen ins netz stellen? Und ich nutze FTP nicht im Browser - wie kann der alle Daten und Ordner rekursiv runterladen?!

Ich sehe hier nur einen offenen Server im Netz auf den ich permanent User anlegen und wieder löschen muss, auf den ich Daten kopieren muss nachdem ich die über Stunden gezippt habe, die der Kunde wieder entpacken muss.

Nächster Punkt zu VPN - da brauche ich ja wieder ein eingenes VLAN oder LAN denn in meinen Netzwerk will ich keine Kunden haben die dann eventuell auf die Idee kommen mal nmap anzuwerfen oder sonst was. Ist ja nicht jeder völlig IT-fremd.

Also ist die Lösung die, dass ich über Stunden Daten zippe, User verwalte für die einmalige Nutzung und dann zig TB herumkopiere was wieder Zeit kostet dann Kunden Links sende und nachtelefoniere ob der Transfer geklappt hat und durch ist, etc.

Was ich suche ist etwas womit ich einen Ordner direkt Freigebe und dem Kunden einen Link oder sonst was sende womit er dann alle Dateien und Ordner rekursiv ziehen kann. Oder das der Kunde etwas öffnet und ich ihm die Daten rüberschieben kann.
em-pie
em-pie 13.06.2021 aktualisiert um 22:38:59 Uhr
Goto Top
Verstehe.

Aber wenn du denen die Daten schicken willst, müssen die erstmal an der Firewall nen Sport öffnen, damit du rein kommst. Das ist Mist.

Erstelle EINMALIG eine exe, welche mit einer zusätzlichen Parameter-Datei per FTP die einzelnen Files herunter lädt.
Die Exe + individuell erstellte Config-File sendest du als selbst entpackendws Archiv per Link zu, laden die Leute herunter, starten es und das Skript läuft los.
Wenn alles fertig ist, erhältst du ne Mail und nimmst die Files Offline.


Ganz ohne Arbeit wirst du das nicht machen können. Eine Lösung alà „ich hab die Files gerettet und ab da läuft alles wie von Zauberhand selbst“ geht nicht. Punkt. Irgendwie musst du noch Hand anlegen


Edit:
Und das erstellen eines gesicherten (S)FTP-Servers musst du ja nur einmalig machen. Einmal Zeit investiert und es läuft.
Und deinen Restore kannst du ja direkt auf das Volume des FTP-Servers in der DMZ laufen lassen.
Das ist - wie gesagt - ein einmaliger Aufwand in der Einrichtung. Und da du scheinbar selbstständig bist, arbeitest du ja ohnehin selbst und ständig face-wink

Und User kann man auch schnell per Skript anlegen lassen:
Text-File mit Username anlegen, ein Job prüft ein Verzeichnis auf das Vorhandensein einer neuen Datei, der legt einen User an, sendet DIR den Usernamen und das selbsterstellte Kennwort zu und du leitest es dem Kunden weiter. Aus die Maus.
Lochkartenstanzer
Lochkartenstanzer 13.06.2021 um 22:26:06 Uhr
Goto Top
Zitat von @pd.edv:

Zitat von @em-pie:
Und Tante Emma hat eine 100Mbit-Leitung und kann die 12 Terra in wenigen Minuten herunterladen?

Ist mir doch egal wie lange das läuft. Meist hat Tanke Erna auch keine 12TB Platte sondern eher 1-4TB. Reicht aber auch wenn die Voll war.

Also 4TB brauch bei optimalen Bedingungen am 100-Anschluß T tage. Tante emma ist aber meist mit einem 16-er oder 25-Anschluß unterwegs. Selbst die 100-er bieten keine Dauertansferrate von 10MB/s da kannst Du von Downloads in "Wochen" rechnen.

Dein Vorhaben ist imho unsinnig, solange die Bandbreite am "Endkunden" in keiner Relation zu den Datenmengen stehen.


Die Wurde schon praktikable Methoden genannt:

  • Datenträger verschicken. Imho das sinnvollste und jemand der die 50-300€ für eine HDD nicht hinlegen kann - die kann man anschließend für Backups nutzen! - dem sind vermutlich Deine Kosten auch zuviel. Oder arbeitest Du für ein Taschengeld ?

  • P2P -Bittorrent. ist recht einfach aufzusetzen und zu betreiben. Du mußt nicht einmal die Daten vorher umkopieren. Du mußt nur Deine Infrastruktur richtig einrichten, daß sich der Torrentserver sich die Daten per nfs oder cifs direkt von Deiner "Ablage" holt. Bittorrent sorgt auch dafür, daß die Daten korrekt ankommen.

  • FTP-Server. Auch hier kannst Du Deine Infrastruktur anpassen, daß Du die Daten nciht zuerst draufkopieren mußt. Du kannst den Link gleich mit user/paßwort verschicken, daß die Kunden das nciht einmal eintippen müssen.

  • Inhouse Cloudserver (ob owncload oder was anderes sein dahingestellt). geht auch ohne vorher Daten draufzuschieben.

Was erwartest Du denn von uns?

lks
Mystery-at-min
Mystery-at-min 13.06.2021 aktualisiert um 22:47:32 Uhr
Goto Top
Kennst du das magische Dreieck? Billig, sicher, seriös könnte man da anführen...oder schnell.

Wenn du es ordentlich haben willst, wirst du etwas mehr Geld in die Hand nehmen müssen (wo das steht, andere Frage). Wenn nicht, von bis.


Auf FTP würde ich aber nicht setzen.

Aber bzgl. dessen Wie würdet ihr eine Datenrettung machen?

Sieht es sowieso eher wie heiße Luft aus, Da diese Frage, hier, dass es 120Tage dauert zu retten...
manuel-r
manuel-r 13.06.2021 um 22:50:59 Uhr
Goto Top
Ich habe mir jetzt alles durchgelesen. Nach zig Beiträgen erschließt sich mir immer noch nicht wo das Problem sein soll.

  • Warum nicht einfach ein Nextcloud installieren und von außen erreichbar machen? Gut, du willst dich nicht mit Updates beschäftigen müssen.
  • Warum dann nicht eine Synology mit ausreichend Platz und darüber veröffentlichen? Dafür gibt es zwar auch regelmäßig Updates aber die lassen sich unkompliziert einspielen.

Bei beiden Möglichkeiten (und bei vielen anderen auch) hast du den Benutzer mit Passwort der die Daten herunterladen darf binnen Sekunden erstellt. Bei Nextcloud und Synology bin ich mir nicht sicher - bei Seafile könntest du sogar angeben wie oft die Daten heruntergeladen werden dürfen.

Deine Einwände bezüglich Datenschutz lasse ich so nicht gelten. Warum? Weil du abseits einer eigene Installation so wie ich es verstehe auf irgendwelche Sharing-Plattformen zurückgreifst. Das ist mit Sicherheit deutlich unsicherer als eine eigene Instanz. Wahrscheinlich gibt es mit denen noch nicht einmal einen Vertrag zur Auftragsverarbeitung.

Wenn dir das alles zu unsicher ist bleibt dir in der Tat nur Festplatten zu verschicken und in Rechnung zu stellen wenn sie nicht wieder zurück kommen.
Aber auch da wird Tante Erna Probleme haben, da du die Platte entweder verschlüsseln musst oder du verschickst sie in einem Tresor.

Es war schon immer so und wird sich nie ändern: Zusätzliche Sicherheit schränkt den Komfort ein. Da führt einfach kein Weg dran vorbei. Du kannst bspw bei dir zu Hause grundsätzlich immer alle Eingangs- und Zimmertüren hinter dir abschließen und auch alle Fenster um die Sicherheit zu erhöhen. Ob das dann noch komfortabel ist bezweifele ich aber.

Manuel
pd.edv
pd.edv 13.06.2021 um 22:51:25 Uhr
Goto Top
Zitat von @em-pie:
Aber wenn du denen die Daten schicken willst, müssen die erstmal an der Firewall nen Sport öffnen, damit du rein kommst. Das ist Mist.

Naja müssen Sie aber bei Teamviewer auch nicht.

Zitat von @em-pie:
Erstelle EINMALIG eine exe, welche mit einer zusätzlichen Parameter-Datei per FTP die einzelnen Files herunter lädt.
Die Exe + individuell erstellte Config-File sendest du als selbst entpackendws Archiv per Link zu, laden die Leute herunter, starten es und das Skript läuft los.
Wenn alles fertig ist, erhältst du ne Mail und nimmst die Files Offline.

Ja an sowas in der Art hatte ich schon gedacht.

Zitat von @em-pie:
Ganz ohne Arbeit wirst du das nicht machen können. Eine Lösung alà „ich hab die Files gerettet und ab da läuft alles wie von Zauberhand selbst“ geht nicht. Punkt. Irgendwie musst du noch Hand anlegen

Es geht nicht darum ob ich Hand anlegen muss - es geht darum, dass ich eine Lösung erstelle (egal wie viel das jetzt Arbeit macht) die mich später viel Arbeite und vor allem Supportzeit spart.

Ich kann Datenrettungen nur relativ günstig anbieten wenn ich auch den Aufwand und die Arbeit / Kunde entsprechend senken kann.

Zitat von @em-pie:
Und das erstellen eines gesicherten (S)FTP-Servers musst du ja nur einmalig machen. Einmal Zeit investiert und es läuft.
Und deinen Restore kannst du ja direkt auf das Volume des FTP-Servers in der DMZ laufen lassen.

Nope - es gibt oft 2 oder 3 Restores die ich dann erst mergen muss.

Das ist - wie gesagt - ein einmaliger Aufwand in der Einrichtung. Und da du scheinbar selbstständig bist, arbeitest du ja ohnehin selbst und ständig face-wink

Was glaubst du mache ich Sonntag um 22:49 in der Firma face-wink

Zitat von @em-pie:
Und User kann man auch schnell per Skript anlegen lassen:
Text-File mit Username anlegen, ein Job prüft ein Verzeichnis auf das Vorhandensein einer neuen Datei, der legt einen User an, sendet DIR den Usernamen und das selbsterstellte Kennwort zu und du leitest es dem Kunden weiter. Aus die Maus.

Das ganze seht in die richtige Richtung aber FTP, Server offen im Netz, etc. gefällt mir noch nicht. Ich schau gerade was ich für Alternativen hätte.
pd.edv
pd.edv 13.06.2021 um 23:02:33 Uhr
Goto Top
Zitat von @Lochkartenstanzer:
Also 4TB brauch bei optimalen Bedingungen am 100-Anschluß T tage. Tante emma ist aber meist mit einem 16-er oder 25-Anschluß unterwegs. Selbst die 100-er bieten keine Dauertansferrate von 10MB/s da kannst Du von Downloads in "Wochen" rechnen.
Dein Vorhaben ist imho unsinnig, solange die Bandbreite am "Endkunden" in keiner Relation zu den Datenmengen stehen.

So schlimm sieht es auch nicht überall aus.

Zitat von @Lochkartenstanzer:
  • Datenträger verschicken. Imho das sinnvollste und jemand der die 50-300€ für eine HDD nicht hinlegen kann - die kann man anschließend für Backups nutzen! - dem sind vermutlich Deine Kosten auch zuviel. Oder arbeitest Du für ein Taschengeld ?

Alles eine Kostenfrage - wenn Sie schon 200 - 300 für eine Datenrettung zahlt dann kommen schnell mal 100 EUR mit Rückversand oben drauf.

Zitat von @Lochkartenstanzer:
  • P2P -Bittorrent. ist recht einfach aufzusetzen und zu betreiben. Du mußt nicht einmal die Daten vorher umkopieren. Du mußt nur Deine Infrastruktur richtig einrichten, daß sich der Torrentserver sich die Daten per nfs oder cifs direkt von Deiner "Ablage" holt. Bittorrent sorgt auch dafür, daß die Daten korrekt ankommen.

Ist mir klar aber dann brauche ich immer noch einen Client der quasi per Doppelklick zu starten ist und los läuft.

Ist definitiv eine Überlegung wert - derzeit denke ich eher an WebRTC + Checksummen.

Zitat von @Lochkartenstanzer:
  • FTP-Server. Auch hier kannst Du Deine Infrastruktur anpassen, daß Du die Daten nciht zuerst draufkopieren mußt. Du kannst den Link gleich mit user/paßwort verschicken, daß die Kunden das nciht einmal eintippen müssen.

Klar aber da kann der im Browser nicht alle Daten rekursiv auf einmal laden und den Server müsste ich auch ins Netz stellen oder den User per VPN ins Netzwerk holen - beides keine gute Option.

Zitat von @Lochkartenstanzer:
  • Inhouse Cloudserver (ob owncload oder was anderes sein dahingestellt). geht auch ohne vorher Daten draufzuschieben.

Ja, gleiches Problem wie bei FTP!

Zitat von @Lochkartenstanzer:
Was erwartest Du denn von uns?

Hatte auf eine Lösung gehofft aber sieht derzeit nicht so aus - ich finde eure Lösungen nicht schlecht aber nicht passend für meinen Zweck.

Derzeit überlege ich eher in die Richtung das der Webserver vermittelt und dann über WebRTC eine Datei nach der anderen zum Kunden übertragen wird. Bastel gerade an einem kleinen POC-Script.
Lochkartenstanzer
Lochkartenstanzer 13.06.2021 um 23:09:43 Uhr
Goto Top
Zitat von @pd.edv:

Das ganze seht in die richtige Richtung aber FTP, Server offen im Netz, etc. gefällt mir noch nicht. Ich schau gerade was ich für Alternativen hätte.


Genau deswegen solltest Du sftp o.ä. nehmen und den ssh-zugang auf sftp einschränken.

lks
Lochkartenstanzer
Lochkartenstanzer 13.06.2021 um 23:12:05 Uhr
Goto Top
Zitat von @pd.edv:

Hatte auf eine Lösung gehofft aber sieht derzeit nicht so aus - ich finde eure Lösungen nicht schlecht aber nicht passend für meinen Zweck.

Wenn Du eine maßgeschneiderte Lösung willst, mußt Du Geld ausgeben. Hier gibt es nur Denkanstöße. Das Umsetzen mußt Du selbst machen.

lks
pd.edv
pd.edv 13.06.2021 um 23:18:15 Uhr
Goto Top
Zitat von @manuel-r:
Ich habe mir jetzt alles durchgelesen. Nach zig Beiträgen erschließt sich mir immer noch nicht wo das Problem sein soll.

Das Problem ist, dass ein dessierter Affe die Daten annehmen können soll. Also muss es einfach sein für den Kunden.

Das zweite Problem ist, dass ich keine Lust habe Daten den ganzen Tag zu kopieren und auf einen öffentlich zugänglichen Server aufzupassen oder mich um diverse Dinge wie die Sicherheit diese Servers zu kümmern. Abgesehen davon will ich bestimmte Daten nicht offen auf eine Server legen und dauernd Daten in Archive packen frisst Zeit.

Zitat von @manuel-r:
  • Warum nicht einfach ein Nextcloud installieren und von außen erreichbar machen? Gut, du willst dich nicht mit Updates beschäftigen müssen.

Nein - ich will Daten ohne zippen, verschieben, kopieren oder sonstwas übertragen.

Zitat von @manuel-r:
  • Warum dann nicht eine Synology mit ausreichend Platz und darüber veröffentlichen? Dafür gibt es zwar auch regelmäßig Updates aber die lassen sich unkompliziert einspielen.

Gleiches Problem - ich bin nur am Daten herumschieben.

Zitat von @manuel-r:
Bei beiden Möglichkeiten (und bei vielen anderen auch) hast du den Benutzer mit Passwort der die Daten herunterladen darf binnen Sekunden erstellt. Bei Nextcloud und Synology bin ich mir nicht sicher - bei Seafile könntest du sogar angeben wie oft die Daten heruntergeladen werden dürfen.

Ja und das 20x im Monat und dann muss ich die wieder löschen, aufpassen das keiner die öffentlich zugängliche Kiste hackt, Daten aus verschiedensten LANs kopieren, usw. Oder ich stell mir gleich 3 von denen hin.

Zitat von @manuel-r:
Deine Einwände bezüglich Datenschutz lasse ich so nicht gelten. Warum? Weil du abseits einer eigene Installation so wie ich es verstehe auf irgendwelche Sharing-Plattformen zurückgreifst. Das ist mit Sicherheit deutlich unsicherer als eine eigene Instanz. Wahrscheinlich gibt es mit denen noch nicht einmal einen Vertrag zur Auftragsverarbeitung.

Das mit dem Datenschutz habe ich im Griff und das verursacht wieder Zusatzaufwand. Also nächtes Problem das es nicht gäbe wenn ich die Daten verschlüsselt einfach direkt zum Kunden schicke.

Zitat von @manuel-r:
Wenn dir das alles zu unsicher ist bleibt dir in der Tat nur Festplatten zu verschicken und in Rechnung zu stellen wenn sie nicht wieder zurück kommen.
Aber auch da wird Tante Erna Probleme haben, da du die Platte entweder verschlüsseln musst oder du verschickst sie in einem Tresor.

Genau. Und auch das ist wieder Aufwand den Dingern nachzulaufen. Und jedes Rückversandetikett kostet Geld.

Zitat von @manuel-r:
Es war schon immer so und wird sich nie ändern: Zusätzliche Sicherheit schränkt den Komfort ein. Da führt einfach kein Weg dran vorbei. Du kannst bspw bei dir zu Hause grundsätzlich immer alle Eingangs- und Zimmertüren hinter dir abschließen und auch alle Fenster um die Sicherheit zu erhöhen. Ob das dann noch komfortabel ist bezweifele ich aber.

Im Hintergrund kann es komplex sein - aber nicht für den Kunden.

Nimm zB BeamIt - das verstehe ich unter Simpel - zeugs in den Browser ziehen und link schicken. Kunde klickt es an, PC fragt wo die Daten hin sollen und schon geht es los.

Kein VPN, kein Server, P2P.

Bin gerade dabei mich in diese Technik einzuarbeiten - wenn ich da quasi on the fly die MD5 Summe errechnen und abgleichen kann und dann die Datei als fertig markieren dann wär das perfekt.

Sofern es keine derartige fertige Lösung gibt bastel ich mal weiter. Falls einer etwas in dieser Art kennt dann bitte nur her mit dem Tip.
pd.edv
pd.edv 13.06.2021 aktualisiert um 23:36:32 Uhr
Goto Top
Zitat von @Lochkartenstanzer:
Genau deswegen solltest Du sftp o.ä. nehmen und den ssh-zugang auf sftp einschränken.

Ist mir klar verdammt aber das löst mein Problem nicht!!!

Ich arbeite alleine - also darf ich nie wieder in Urlaub fahren oder zu eine Konferenz oder sonst wo hin denn es ist ja keiner da der den Server überwacht und auf Angriffe reagiert.

Oder ich hol mir Kunden per VPN in eines der LANs nur dann habe ich ein Haftungsproblem!

Ich kann keine Daten einfach offen auf einen öffentlichen Server stellen und ich kann keine Kunden einfach in die Netzwerke lassen und hoffen das keine irgendwas versucht. Entsprechende Userkonten und VPN-Zugänge müsste ich dann auch laufend bearbeiten und neue anlegen und alte löschen.

Also kann ich das ganze dann doch wieder völlig abtrennen und dann gleich wieder alles Zippen damit bei einem Einbruch das ganze wieder sicher wäre.

Oder ist es plötzlich wieder ###egal wenn ich private Nacktfotos, Patientendaten oder Gehaltsabrechnungen von Mitarbeitern offen auf einen öffentlich zugänglichen Server stelle? Egal ob der ein PW für den Zugang verlangt - so ein Ding ist ein verlockendes Ziel und irgendwann kommt schon der richtige Bot mit dem passenden Exploit vorbei vor allem wenn ich dien Dienst nicht neu starten kann, weil gerade Kunden Daten laden...

Da kann ich gleich beim File-Transfer Anbieter bleiben und ich gewinne nichts!

Da sehe ich nur Probleme, Arbeit und Sorgen auf mich zukommen.

Den Ansatz habe ich schon mehrfach durchdacht mit verschiedensten Diensten und wieder verworfen weil ich damit nichts gewinne außer das Uploads zur Cloud nicht 36h sondern nur 8h dauern. Dafür hab ich 10x mehr Sorgen.

Nochmal - ich denke eher in die Richtung ID am Webserver anlegen, Link senden, Daten austauschen mit der ID und P2P Verbindung zum Kunden aufbauen über die dann die Daten verschlüsselt übertragen werden. Dann sitzen wir beide halbwegs sicher hinter der Firewall und von außen ist alles schön dicht, ich kann einen bestimmten Ordner von jeder Maschine aus senden und muss nichts zippen oder im LAN herumkopieren.
Lochkartenstanzer
Lochkartenstanzer 13.06.2021 um 23:38:10 Uhr
Goto Top
Zitat von @pd.edv:

Ich arbeite alleine - also darf ich nie wieder in Urlaub fahren oder zu eine Konferenz oder sonst wo hin denn es ist ja keiner da der den Server überwacht und auf Angriffe reagiert.


Ich bin auch Einzelselbständiger. Da muß man dann halt Vorkehrungen treffen und Monitoring machen - oder auf Urlaub verzichten.

lks
pd.edv
pd.edv 14.06.2021 aktualisiert um 00:16:01 Uhr
Goto Top
Zitat von @Lochkartenstanzer:
Ich bin auch Einzelselbständiger. Da muß man dann halt Vorkehrungen treffen und Monitoring machen - oder auf Urlaub verzichten.

Und auf Geschäftsreisen und dergleichen dann auch oder wie?

Klar geht das aber ich suche eine bessere Lösung. Ich will ja nur mit diesen etwas überspitzten Aussagen deutlich klar machen, dass dies keine optimale Lösung ist für mich.

Da nehme ich lieber mehr Geld in die Hand und habe eine Lösung wie ich sie mir Vorstelle.

Aber was Ihr mir vorschlagt ist nicht besser als meine derzeitige Krücke - nur deutlich aufwendiger und teuer. Also macht das wenig Sinn für mich.

Wenn es nichts fertiges gibt, muss ich mir überlegen etwas zu basteln - dann wird das halt ein Projekt und bis dahin habe ich meine Krücke. Aber Morgen ist Montag und eventuell ist dann der ein- oder andere online der eine frische Idee hat oder eine Lösung kennt.
pd.edv
pd.edv 14.06.2021 um 00:31:48 Uhr
Goto Top
Zitat von @LordGurke:
Resilio Sync habe ich selbst im Einsatz - da kannst du dann einfach einen Ordner mit den Dateien erstellen und diesen über einen Schlüssel freigeben. Der Schlüssel kann als reiner Readonly-Schlüssel vergeben werden, alternativ kann man dem Kunden auch Schreibrechte einräumen, wenn man will.

Interessantes Tool aber bei 100-120 Kunden / Jahr zahle ich mich dumm und dämlich außer ich könnte einige wenige User wiederverwenden.

Das Tool geht in die richtige Richtung aber nicht das Bezahlmodell.

Sorry für die späte Antwort - hatte es vorhin überblättert.

Zitat von @LordGurke:
Syncthing

Da bekomme ich Kopfschmerzen wenn ich an den Aufwand denke das manchen per Telefon zu erklären.
manuel-r
manuel-r 14.06.2021 um 00:40:03 Uhr
Goto Top
Ich arbeite alleine - also darf ich nie wieder in Urlaub fahren oder zu eine Konferenz oder sonst wo hin denn es ist ja keiner da der den Server überwacht und auf Angriffe reagiert.

Dann könntest du einfach die entsprechende Firewallregel deaktivieren -> Server offline.
Wenn du nicht arbeitest gibt's für die Kunden ja auch nichts herunterzuladen.

so ein Ding ist ein verlockendes Ziel und irgendwann kommt schon der richtige Bot mit dem passenden Exploit vorbei

Das macht der auch bei allen Sharing-Plattformen die du heute so nutzt. Und dafür das da regelmäßig Admins ein waches Auge drauf haben wollen die nunmal Geld sehen. In aller Regel dürfte ein direkter Zusammenhang bestehen zwischen dem was du bezahlen muss pro TB und dem Servicelevel der dahinter steht. Je weiter der Geldbetrag in Richtung Null geht desto geringer der Service. Da stehen dann so Dinge in den AGB wie 95% Verfügbarkeit oder kein Anspruch auf Ausfallsicherheit und ähnliches.
Spirit-of-Eli
Spirit-of-Eli 14.06.2021 um 00:52:53 Uhr
Goto Top

Nimm zB BeamIt - das verstehe ich unter Simpel - zeugs in den Browser ziehen und link schicken. Kunde klickt es an, PC fragt wo die Daten hin sollen und schon geht es los.

Kein VPN, kein Server, P2P.

Bin gerade dabei mich in diese Technik einzuarbeiten - wenn ich da quasi on the fly die MD5 Summe errechnen und abgleichen kann und dann die Datei als fertig markieren dann wär das perfekt.

Ich verstehe dein Problem immer noch nicht. Mit Nextcloud geht das doch alles. Und die Dateien brauchst du nicht mal direkt auf dem Server hochladen. Du kannst einfach einen externen storage mounten und dann simpel über das rechte management freigeben.

Ein Server und geringer Aufwand.
Oma Ilse klickt auf nen link und muss ggf. Noch ein Passwort rein tackern. Fertig.
Spirit-of-Eli
Spirit-of-Eli 14.06.2021 um 00:55:58 Uhr
Goto Top

Nochmal - ich denke eher in die Richtung ID am Webserver anlegen, Link senden, Daten austauschen mit der ID und P2P Verbindung zum Kunden aufbauen über die dann die Daten verschlüsselt übertragen werden. Dann sitzen wir beide halbwegs sicher hinter der Firewall und von außen ist alles schön dicht, ich kann einen bestimmten Ordner von jeder Maschine aus senden und muss nichts zippen oder im LAN herumkopieren.

Dann betreibt davor einen reverse proxy welcher in irgend einer Form nur traffic vom Kunden selbst zu lässt. Ist allerdings wieder unpraktischer.
pd.edv
pd.edv 14.06.2021 um 00:57:57 Uhr
Goto Top
Zitat von @manuel-r:
Dann könntest du einfach die entsprechende Firewallregel deaktivieren -> Server offline.
Wenn du nicht arbeitest gibt's für die Kunden ja auch nichts herunterzuladen.

Die Aussage ist lächerlich - also muss ich schon 2 Wochen vor dem Urlaub aufhören Aufträge anzunehmen damit ich alles fertig habe 1 Woche bevor ich un Urlaub fahre und die Kunden dann eine Woche Zeit haben Daten zu ziehen. Macht ja wirklich Sinn!

Zitat von @manuel-r:
so ein Ding ist ein verlockendes Ziel und irgendwann kommt schon der richtige Bot mit dem passenden Exploit vorbei
Das macht der auch bei allen Sharing-Plattformen die du heute so nutzt. Und dafür das da regelmäßig Admins ein waches Auge drauf haben wollen die nunmal Geld sehen. In aller Regel dürfte ein direkter Zusammenhang bestehen zwischen dem was du bezahlen muss pro TB und dem Servicelevel der dahinter steht. Je weiter der Geldbetrag in Richtung Null geht desto geringer der Service. Da stehen dann so Dinge in den AGB wie 95% Verfügbarkeit oder kein Anspruch auf Ausfallsicherheit und ähnliches.

Was ja völlig egal ist weil ich da die Daten ohnehin mit einem entsprechenden PW gesichert habe - also ist es mir völlig egal ob die gehackt werden.

Ich will aber keine 18 Stunden zum packen der Daten warten und dann sind die um 2:00 früh fertig und ich nicht mehr im Büro und dann muss ich am nächsten Tag dran denken die zu senden, usw.

Alles Mist - damit habe ich wieder Arbeit und ich muss permanent an das Zeug denken zu prüfen wann was fertig ist und wenn der nächste Schritt ausgeführt werden muss.

Übertrage ich die Daten direkt an den Kunden Ordner für Ordner, Datei für Datei dann kann ich diese sofort freigeben und muss auf nichts warten. Ich hab nicht mal das Problem, dass eine 800GB Datei die bei 99% Abbricht neu gesendet werden muss und ich habe keine Sorgen mit einem Server denn es gibt keinen Server.

Also gehen meine Überlegungen in Richtung WebRTC + Electron App als Client. Ordner aussuchen wo die Daten hin sollen, OTP eingeben und Daten kommen.

Außer es gibt noch eine bessere Idee. Aber Server und VPN sind definitiv keine Lösungen mit denen ich mich rumschlagen will.
Lochkartenstanzer
Lochkartenstanzer 14.06.2021 um 00:58:34 Uhr
Goto Top
Zitat von @manuel-r:

Dann könntest du einfach die entsprechende Firewallregel deaktivieren -> Server offline.
Wenn du nicht arbeitest gibt's für die Kunden ja auch nichts herunterzuladen.

Naja, bei den Datenmengen (=mehrere Tage bis Wochen Downloadzeit) dürfte er kaum in den Urlaub, wenn er warten muß, bis der Kunde seinen Download beendet.

lks
pd.edv
pd.edv 14.06.2021 um 01:00:45 Uhr
Goto Top
Zitat von @Spirit-of-Eli:
Ich verstehe dein Problem immer noch nicht. Mit Nextcloud geht das doch alles. Und die Dateien brauchst du nicht mal direkt auf dem Server hochladen. Du kannst einfach einen externen storage mounten und dann simpel über das rechte management freigeben.
Ein Server und geringer Aufwand.
Oma Ilse klickt auf nen link und muss ggf. Noch ein Passwort rein tackern. Fertig.

Ja aber dann hab ich immer noch die Tür ins Netzwerk offen und da steht alles drin was Gott verboten hat. Oder ich Trenn den Server wieder in ein eigenes Netz nur dann wird es nichts mit dem Share mounten.
Lochkartenstanzer
Lochkartenstanzer 14.06.2021 aktualisiert um 01:06:40 Uhr
Goto Top
Zitat von @pd.edv:

Zitat von @Spirit-of-Eli:
Ich verstehe dein Problem immer noch nicht. Mit Nextcloud geht das doch alles. Und die Dateien brauchst du nicht mal direkt auf dem Server hochladen. Du kannst einfach einen externen storage mounten und dann simpel über das rechte management freigeben.
Ein Server und geringer Aufwand.
Oma Ilse klickt auf nen link und muss ggf. Noch ein Passwort rein tackern. Fertig.

Ja aber dann hab ich immer noch die Tür ins Netzwerk offen und da steht alles drin was Gott verboten hat. Oder ich Trenn den Server wieder in ein eigenes Netz nur dann wird es nichts mit dem Share mounten.

Was denn nu? hü oder hott? Eine Kröte mußt Du schlucken.

Wie weiter oben schon gesagt: Sicherheit ist unbequem. Alternativ syncst Du alles auf Deinen ownclowdserver mit eigenem Storage. Mit einem 10G-Netzwerk ist das innerhalb weniger Stunden selbst bei 12TB erledigt.

lks

PS. Interessant, wieviel Leute um die Zeit hier noch rumhängen. face-smile
pd.edv
pd.edv 14.06.2021 um 01:15:11 Uhr
Goto Top
Zitat von @Lochkartenstanzer:
Was denn nu? hü oder hott? Eine Kröte mußt Du schlucken.
Wie weiter oben schon gesagt: Sicherheit ist unbequem. Alternativ syncst Du alles auf Deinen ownclowdserver mit eigenem Storage. Mit einem 10G-Netzwerk ist das innerhalb weniger Stunden selbst bei 12TB erledigt.

Nochmal - kein Server, keine Owncloud, kein NAS.
Keine Freigabe, kein VPN.

Ich suche eine P2P Lösung.

Wenn ich einen Lieferwagen brauche könnt ihr noch 10 Jahre auf mich einreden und versuchen mich von einem Cabrio oder einem Stadtflitzer zu überzeugen. Ich brauche einen Lieferwagen.

Variante 1 mit den offenen Daten am Server kommt nicht in Frage und Variante 2 habe ich bereits für 60 EUR / Jahr also warum soll ich dafür zig Server und teure Platten anschaffen?

Dazu kommt, dass ich 3 Anschlüsse habe. Getrenntes Internet, versch. Anbieter, getrenntes LAN. Und auch das hat einen Grund. Also müsste ich über das Internet von 2 der 3 die Daten auf die Cloud laden und mache mir dann gleich 2 der 3 Leitungen dicht statt nur 1 oder ich stelle 3 Server auf.

Da gewinne ich gar nichts mit!

Ich brauche eine P2P Lösung alles andere hilft mir nichts denn es verbessert meine Situation nicht ein Stück und macht nur Arbeit.
manuel-r
manuel-r 14.06.2021 um 06:39:50 Uhr
Goto Top
Wenn ich einen Lieferwagen brauche könnt ihr noch 10 Jahre auf mich einreden und versuchen mich von einem Cabrio oder einem Stadtflitzer zu überzeugen. Ich brauche einen Lieferwagen.

Dir wurden reichlich Lieferwagen angeboten.
Dein Problem ist aber, dass du einen Lieferwagen suchst der mit Klasse B gefahren werden darf und der gleichzeitig 10 t Zuladung hat. Außerdem soll er nur 3 Liter verbrauchen, steuerbefreit sein und bei der Versicherung fast nichts kosten. Den gibt es nicht!

Manuel
maretz
maretz 14.06.2021 um 06:55:10 Uhr
Goto Top
Ganz ehrlich - ich glaube es wird da keine Lösung geben... Du hast doch eine Firma - da musst du halt auch mal Arbeitsmaterial bestellen... Also bestellst du dir einfach ne Handvoll x TB-Platten (ggf. auch gleich welche mit nem PIN-Code drauf, das macht das für den Kunden leichter weil der nur ne Nummer eingeben muss statt irgendwas zu entschlüsseln). Die Platte verschickst du - ist die nach 4 Wochen wieder da, alles gut, der Kunde braucht auch nix für die Platte Zahlen (oder - je nach Wunsch ne kleine Leihgebühr) und du nimmst die für den nächsten wieder... Schickt der die nich zurück wirds in Rechnung gestellt - fertig. Alternativ kannst du ja sogar anbieten wenn der das nicht will liefert der dir eine Platte fürs Restore mit - und die wird genutzt (ohne Haftung falls die auch kaputt geht).

Bei allen anderen Lösungen wirst du halt nichts werden mit dem Ansatz "der Kunde soll nix machen, für dich und den Kunden solls sicher sein, du willst keinen Aufwand,....". Klar kannst du jetzt sowas wie Bittorrent o.ä. nutzen - und darauf warten das der erste Kunde es falsch einstellt und seine Platte plötzlich im Netz steht (oder der es "versehentlich" falsch einstellt, nen Film runterläd und du plötzlich Post bekommst weil er dich reinzieht - als Dienstleister hast du ihm das ja empfohlen und er dachte das wäre jetzt alles legal...).

Oder du musst wirklich selbst programmieren - das ist auch kein Problem DA hast du natürlich alle Freiheiten... Nur: Auch da fließt Aufwand rein - und der sollte nicht unterschätzt werden... Machbar ist das natürlich - und wenn du es richtig machst auch mit Rückmeldung welche Datei bereits kopiert wurde, welche aktiv kopiert wird und was offen ist... Das ist - wenn man es richtig macht - ne einfache Verbindung zwischen rsync + einer beliebigen Programmiersprache (und dann musst du trotzdem auf deiner Seite noch z.B. einen ssh-Server haben...). Das ganze schön in eine exe/jar/... verpackt und go... Jetzt musst du es nur noch programmieren...
140742
140742 14.06.2021 aktualisiert um 07:01:35 Uhr
Goto Top
Zitat von @pd.edv:
Gleiches Problem - ich bin nur am Daten herumschieben.

Nicht, wenn Du direkt auf das Snology-NAS wiederherstellst?

Bei Nextcloud gibt es passwortgeschützte Einmal-Links ohne Bedarf für einen extra User, einfacher geht es schon nicht mehr. Und mit Carsten Riegers Scripten in 15 Minuten gebrauchsfertig und sicher aufgesetzt. Nur mal so.
maretz
maretz 14.06.2021 um 07:14:03 Uhr
Goto Top
Das Problem is ja - er will nix pflegen... auch OwnCloud/NextCloud/... muss natürlich gewartet werden (wie JEDER Service der am Internet hängt). Und schon sind wir wieder am Anfang... Es soll keinen Server geben, es soll einfach sein, der Kunde soll nix tun müssen, die Daten sollen auch noch einzeln übertragbar sein, .... Nun - ich arbeite ja selbst viel mit Schiffen... ich bin auch der Meinung wenn die ein Problem haben sollen die gefälligst zu mir kommen, leider musste ich da recht schnell die Realität erkennen das die das teils sogar gerne tun würden aber es da ein paar Probleme gibt die existieren (z.B. das bei mir kein Fluss/Meer übern Parkplatz verläuft - was für Schiffe scheinbar essenziell ist um sich zu bewegen...). Somit bleibt nur die schlechtere Lösung -> ich muss zu den Schiffen hin :D. Irgendwann wird der TO halt merken das es viele Lösungen gibt aber eben keine die ALLES erfüllt... (zumindest nicht solange es nicht die CPU-Instruction "do-what-i-want" gibt...)
em-pie
em-pie 14.06.2021 aktualisiert um 07:19:53 Uhr
Goto Top
Zitat von @140742:

Zitat von @pd.edv:
Gleiches Problem - ich bin nur am Daten herumschieben.

Nicht, wenn Du direkt auf das Snology-NAS wiederherstellst?

Bei Nextcloud gibt es passwortgeschützte Einmal-Links ohne Bedarf für einen extra User, einfacher geht es schon nicht mehr. Und mit Carsten Riegers Scripten in 15 Minuten gebrauchsfertig und sicher aufgesetzt. Nur mal so.

Moin, sein Problem ist ja hierbei - und das kann ich absolut verstehen und nachvollziehen - die Geschichte, dass er dann z.B. 300GB in der Nextcloud bereitgestellt hat, bestehend aus 394.827 Dateien. Die müssten die Kunden dann ja einzeln herunterladen. Man kann die zwar auch am Stück herunterladen, aber dann sind die gezipped und müssen vor Ort wieder entpackt werden.

Daher bleibt meines Erachtens nach nur ein (S)FTP-Server mit einem Skript.

Bei dem Ansatz von oben
Nimm zB BeamIt - das verstehe ich unter Simpel - zeugs in den Browser ziehen und link schicken. Kunde klickt es an, PC fragt wo die Daten hin sollen und schon geht es los.

Kein VPN, kein Server, P2P.
Sehe ich ein Problem (zugegeben, habe mir BeamIt nicht angeschaut):
Werden die Daten DIREKT und VERSCHLÜSSELT an den Kunden übertragen oder werden die unverschlüsselt auf dem BeamIt-Server zwischengelagert?
Und hier rennst du ja auch dem Kunden hinterher: du musst ja einen Termin abstimmen, wann dein Kunde Zeit hat und du mit dem Restore gefertigt bist, sodass ihr zur selben Zeit und für die nächste 72h online seid, oder?

Ich bleibe bei (S)FTP-Server in der DMZ + großes Share, welches über Rechte reglementiert ist. Und User lassen sind binnen 2Minuten komplett anlegen. Dann ist halt mal ein Kaffee weniger drin. Und es klingt jetzt auch nicht so, dass du 300 Kunden am Tag hast, eher 2-5 die Woche (geschätzt)
cykes
cykes 14.06.2021 um 07:47:46 Uhr
Goto Top
Oder du musst wirklich selbst programmieren - das ist auch kein Problem DA hast du natürlich alle Freiheiten... Nur: Auch da fließt Aufwand rein - und der sollte nicht unterschätzt werden...
... und vor allem auch Wartungsaufwand. Wir kennen seine Programmierkenntnisse nicht und als Kontrollinstanz hat er nur sich selbst.
Man stelle sich nur mal vor, ein Kunde schaut sich seine Software mal genauer an und findet einen Bug oder im Firmennetzwerk wird der Traffic als verdächtig eingestuft, daraus folgt wieder Wartungs- und Erklärungsaufwand, den er ja vermeiden will. Von eventuellen datenschutzrechtlichen Folgen mal ganz zu schweigen.

Die Frage wäre, ob man nicht viel früher ansetzen sollte, nämlich beim Angebot, das eine Ersatzfestplatte gleich beinhalten sollte.

Die vielfach erwähnte Sekretärin bei Firmenkunden hat ja hoffentlich nichts mit der Weiderherstellung zu tun, mit der kommuniziert man vielleicht, aber die Daten fasst Sie hoffentlich nicht an.

Gruß

cykes
pd.edv
pd.edv 14.06.2021 um 08:35:06 Uhr
Goto Top
Zitat von @140742:
Nicht, wenn Du direkt auf das Snology-NAS wiederherstellst?

Zum 20. mal. Ich will kein Einfallstor in mein Netzwerk. Andere Problemen wären mehrere Netzwerke von versch. Anbietern, versch. Wiederherstellungen mit versch. Tools die dann gemerged werden, usw.

Die Lösung ist für mich nicht brauchbar!
maretz
maretz 14.06.2021 um 08:42:59 Uhr
Goto Top
Tja - du hast hier auch zum 20sten Mal gehört das vermutlcih platte schicken oder selbst bauen das einzige ist... aber ok, ich bin raus hier, mir is das ehrlich gesagt zu blöd... dir werden sachen vorgeschlagen - willst du nicht. Damit ist anzunehmen das du auch keine Hilfe willst...
pd.edv
pd.edv 14.06.2021 um 08:43:32 Uhr
Goto Top
Zitat von @maretz:
Das Problem is ja - er will nix pflegen... auch OwnCloud/NextCloud/... muss natürlich gewartet werden (wie JEDER Service der am Internet hängt). Und schon sind wir wieder am Anfang... Es soll keinen Server geben, es soll einfach sein, der Kunde soll nix tun müssen, die Daten sollen auch noch einzeln übertragbar sein, ....

Es geht nicht nur um das pflegen wollen sondern auch können - einerseits kann ich schwer etwas neu starten wenn es gerade in Benutzung ist und andererseits ist es schon bedenklich gewisse Daten ohne zusätzliche Sicherung ins Netz zu stellen. Das ist ein Risiko das ich nicht tragen will.

Zitat von @manuel-r:
Irgendwann wird der TO halt merken das es viele Lösungen gibt aber eben keine die ALLES erfüllt... (zumindest nicht solange es nicht die CPU-Instruction "do-what-i-want" gibt...)

Das ist Quatsch - wir reiten hier seit 1 Tag auf dem Thema Server rum und den brauche ich weder wenn ich Anydesk verwende noch bei Teamviewer. Und ich kann alles da hin schieben wo es hin soll.

So ein Tool nur für Datenübertragung wäre Top! Außerdem gibt es genug P2P Zeug, das nicht über Bittorrent läuft. Da wurde schon Resilio genannt - ich glaube zwar das das für meinen Fall immer noch nicht passt aber ich hab mal den Vertrieb kontaktiert.
Spirit-of-Eli
Spirit-of-Eli 14.06.2021 um 08:46:16 Uhr
Goto Top
Zitat von @pd.edv:

Zitat von @Spirit-of-Eli:
Ich verstehe dein Problem immer noch nicht. Mit Nextcloud geht das doch alles. Und die Dateien brauchst du nicht mal direkt auf dem Server hochladen. Du kannst einfach einen externen storage mounten und dann simpel über das rechte management freigeben.
Ein Server und geringer Aufwand.
Oma Ilse klickt auf nen link und muss ggf. Noch ein Passwort rein tackern. Fertig.

Ja aber dann hab ich immer noch die Tür ins Netzwerk offen und da steht alles drin was Gott verboten hat. Oder ich Trenn den Server wieder in ein eigenes Netz nur dann wird es nichts mit dem Share mounten.

Das ist doch einfach Quatsch. Natürlich lässt sich dies sauber realisieren.
Einfach eine vernünftige Firewall als Dreh- und Angelpunkt nutzen.

Den Server steckst du in eine DMZ. Meinetwegen kann der Storage ja auch in einem eigenen Segment liegen. Den Zugriff steuerst du über die Firewall. Fertig.
pd.edv
pd.edv 14.06.2021 um 08:53:44 Uhr
Goto Top
Zitat von @em-pie:
Daher bleibt meines Erachtens nach nur ein (S)FTP-Server mit einem Skript.

Das ist keine Option.

Zitat von @em-pie:
Bei dem Ansatz von oben
Sehe ich ein Problem (zugegeben, habe mir BeamIt nicht angeschaut):
Werden die Daten DIREKT und VERSCHLÜSSELT an den Kunden übertragen oder werden die unverschlüsselt auf dem BeamIt-Server zwischengelagert?
Und hier rennst du ja auch dem Kunden hinterher: du musst ja einen Termin abstimmen, wann dein Kunde Zeit hat und du mit dem Restore gefertigt bist, sodass ihr zur selben Zeit und für die nächste 72h online seid, oder?

BeamIt kommt leider auch nur mit gezippten Daten klar aber die technik ist interessant - WebRTC. Also eine Direkte Verbindung zwischen den Rechnern dafür muss ich nur eine Datei in den Browser ziehen und der Kunde muss nur einen Link öffnen.

Also bastel ich gerade an einer Lösung auf Basis dieser Technik.

Ein weiteres Problem ist, dass mir BeamIt nur 10 Minuten als Zeitfenster für den Link gibt - also auch unbrauchbar. Aber wie gesagt die Technik ist interessant und man könnte damit etwas machen.

Zitat von @em-pie:
Ich bleibe bei (S)FTP-Server in der DMZ + großes Share, welches über Rechte reglementiert ist. Und User lassen sind binnen 2Minuten komplett anlegen. Dann ist halt mal ein Kaffee weniger drin. Und es klingt jetzt auch nicht so, dass du 300 Kunden am Tag hast, eher 2-5 die Woche (geschätzt)

Nein. Kein Server. Wie oft muss ich das sagen - außer du übernimmst die Haftung dafür. Ich mach das nicht. Punkt.
pd.edv
pd.edv 14.06.2021 um 09:07:23 Uhr
Goto Top
Zitat von @cykes:
... und vor allem auch Wartungsaufwand. Wir kennen seine Programmierkenntnisse nicht und als Kontrollinstanz hat er nur sich selbst.
Man stelle sich nur mal vor, ein Kunde schaut sich seine Software mal genauer an und findet einen Bug oder im Firmennetzwerk wird der Traffic als verdächtig eingestuft, daraus folgt wieder Wartungs- und Erklärungsaufwand, den er ja vermeiden will. Von eventuellen datenschutzrechtlichen Folgen mal ganz zu schweigen.

Darum wäre mir eine fertige Lösung lieber aber scheinbar gibt es keine.

Zitat von @cykes:
Die Frage wäre, ob man nicht viel früher ansetzen sollte, nämlich beim Angebot, das eine Ersatzfestplatte gleich beinhalten sollte.

Klar die Option gibt es ja und viele lehnen das ab darum dreht es sich ja.

Zitat von @cykes:
Die vielfach erwähnte Sekretärin bei Firmenkunden hat ja hoffentlich nichts mit der Weiderherstellung zu tun, mit der kommuniziert man vielleicht, aber die Daten fasst Sie hoffentlich nicht an.

Doch! Die ist ja die deren Daten weg waren und die wird ja nicht den EDV-Techniker für teures Geld kommen lassen um die Daten wieder einzuspielen. Gibt ja auch kleine Firmen bei denen es nur 1 oder 2 Leute im Büro gibt.
Lochkartenstanzer
Lochkartenstanzer 14.06.2021 um 09:12:27 Uhr
Goto Top
Zitat von @maretz:

Bei allen anderen Lösungen wirst du halt nichts werden mit dem Ansatz "der Kunde soll nix machen, für dich und den Kunden solls sicher sein, du willst keinen Aufwand,....". Klar kannst du jetzt sowas wie Bittorrent o.ä. nutzen - und darauf warten das der erste Kunde es falsch einstellt und seine Platte plötzlich im Netz steht (oder der es "versehentlich" falsch einstellt, nen Film runterläd und du plötzlich Post bekommst weil er dich reinzieht - als Dienstleister hast du ihm das ja empfohlen und er dachte das wäre jetzt alles legal...).


Ich weiß nicht waum alle meine, bittorrent wäre nur für illegales zu nutzen.

Wenn man den tracker passen konfiguriert und dem Kunde eine batchdatei mit dem passenden komandozeilenclient und der torrentdatei zukommen läßt, die er nur noch auf der Platte plazieren muß, auf die die Daten sollen und dann die batchdatei startet, bestht da überhaupt keine Gefahr, daß der User andere Sachen lädt oder ein andere an die Sachen drankommt.

lks
pd.edv
pd.edv 14.06.2021 um 09:29:43 Uhr
Goto Top
Zitat von @maretz:
dir werden sachen vorgeschlagen - willst du nicht. Damit ist anzunehmen das du auch keine Hilfe willst...

Mir wird leider nur vorgeschlagen was ich schon vor Monaten verworfen habe. Ich bin seit 20 Jahrem im IT-Bereich selbstständig und da ist anzunehmen, dass ich keinen brauche der mir sagt ich kann einen Server ins Netz stellen oder ein VPN einrichten.

Letzteres habe ich zB für den Fernzugriff auf Daten aber das ist für mich und nicht für die Kunden.

Offener Server im Netz ist wie bereits 22 mal gesagt nichts was ich machen will - den habe ich aus verschiedensten Gründen verworfen - zB weil ich offene Daten am öffentlichen Server für nicht ausreichend Sicher halte. Packe ich die zB mit einem Passwort, dann habe ich nichts gewonnen weil ich das eh schon machen muss. Dann ersetze ich die Cloud für die ich ein paar EUR / Monat zahlen muss mit der Cloud die ich warten muss und für die ich zig TB Speicher kaufen muss. Also der gleiche Mist den ich schon habe der diesmal aber bei mir im Büro rumsteht.

Ich suche eine Lösung die ich noch nicht kenne und hatte auf die Erfahrung von verschiedensten Berufskollegen gebaut.
pd.edv
pd.edv 14.06.2021 um 09:32:36 Uhr
Goto Top
Zitat von @Spirit-of-Eli:
Das ist doch einfach Quatsch. Natürlich lässt sich dies sauber realisieren.
Einfach eine vernünftige Firewall als Dreh- und Angelpunkt nutzen.
Den Server steckst du in eine DMZ. Meinetwegen kann der Storage ja auch in einem eigenen Segment liegen. Den Zugriff steuerst du über die Firewall. Fertig.

Klar - nur hab ich dann genau das was ich jetzt schon habe - Daten packen, Daten herumkopieren, usw. Zusätzlich noch User anlegen, User löschen, Freigaben einrichten, usw.

Nochmal - Ziel ist es von Rechner hinter der Firewall Daten zu schicken ohne einen Server ins Netz zu stellen.
wuestenfuchs
wuestenfuchs 14.06.2021 aktualisiert um 09:53:18 Uhr
Goto Top
Wäre rsync.net was für dich?

Das ist ein Cloud-Hoster, der sich auf Backups spezialisiert hat. Der ist es gewohnt, rasch große Datenmengen zu verarbeiten. Und du zahlst keine Transfergebühren, sondern nur den tatsächlich genutzten Speicherplatz. 10 TB kosten bspw. 200 EUR pro Monat. Und wenn du mal technische Probleme hast, sprichst oder schreibst du mit einem echten Techniker, und keinen Callcenter-Agenten, die nach dem 08/15-Schema verfahren.

Das Nette dabei ist, es wird das robuste rsync-Protokoll unterstützt. rsync hat mal grundsätzlich mit diesem Anbieter nichts zu tun, sondern ist ein Open-Source-Tool, das seit Jahrzehnten in unzähligen Installationen weltweit eingesetzt wird. Es ist wie gemacht für den Transfer vieler und/oder großer Dateien. Alles schick mit Resume (abgebrochene Übertragungen können nahtlos fortgesetzt werden), Transportkomprimierung, hoher Transportverschlüsselung usw.
rsync als leichtgewichtiges Tool gibts für alle Betriebssysteme und ist bei einigen schon von Haus aus dabei (Linux, MacOS).

Also, ein möglicher Workflow für dich:
1. Kunde installiert sich rsync (nur auf Windows nötig; woanders gehört das zu den Boardmitteln)
2. Kunde führt rsync mit deinen Einstellungen aus, die du ihm via Telefon oder E-Mail mitteilst (Benutzername, Passwort, Serveradresse, rsync-Optionen). Das ist ein Einzeiler auf der Kommandozeile.
3. Daten werden in die Cloud synchronisiert
4. Noch während der Kunde hoch synchronisiert, kannst du, wenn du möchtest, die Daten schonmal von der Cloud zu dir runter synchronisieren
5. Hast du die Daten zu dir synchronisiert, löschst du die Daten auf dem Server. Das müsste entweder über die Web-Oberfläche des Anbieters gehen, oder - einfacher und schneller - über ein einziges Kommando auf deiner Kommandozeile.

Jeder Kunde ist dabei mit seinen Daten sauber von anderen Kunden abgeschottet.

Und falls du irgendwann mal keine Lust mehr auf einen Cloud-Anbieter hast, kannst du rsync auch auf deinem eigenen Server betreiben (ich weiß, ich weiß, ...). Ist sicherer als FTP und vermutlich auch sicherer als SFTP. Die Installation ist viel leichtgewichtiger als irgendwas mit NextCloud, und die möglichen Einfallstore/Angriffsvektoren sind recht überschaubar und dadurch recht gut absicherbar.
pd.edv
pd.edv 14.06.2021 um 09:36:34 Uhr
Goto Top
Zitat von @Lochkartenstanzer:
Wenn man den tracker passen konfiguriert und dem Kunde eine batchdatei mit dem passenden komandozeilenclient und der torrentdatei zukommen läßt, die er nur noch auf der Platte plazieren muß, auf die die Daten sollen und dann die batchdatei startet, bestht da überhaupt keine Gefahr, daß der User andere Sachen lädt oder ein andere an die Sachen drankommt.

Stimmt aber trotzdem finde ich die Lösung nicht wirklich ideal. Dennoch ist die bis jetzt noch der bei weitem beste Vorschlag.
Lochkartenstanzer
Lochkartenstanzer 14.06.2021 um 09:42:18 Uhr
Goto Top
Zitat von @pd.edv:

Offener Server im Netz ist wie bereits 22 mal gesagt nichts was ich machen will - den habe ich aus verschiedensten Gründen verworfen - zB weil ich offene Daten am öffentlichen Server für nicht ausreichend Sicher halte.


Dir wurde schonmehrmals gesagt, daß die Server nicht offen da rumstehen, sondern in einer DMZ und nur mit Zugangsberchtigungen. Wenn man den Server ordentlich einrichtet, können die Kunden auch nur auf Ihre Daten zugreifen.

Wenn das für Dich ein Problem ist, mußt die Datenübertragung über die Paketdienste machen.

lks
pd.edv
pd.edv 14.06.2021 um 10:18:23 Uhr
Goto Top
Zitat von @wuestenfuchs:
Wäre rsync.net was für dich?

Muss ich mir ansehen. Danke für den Tip.
Lochkartenstanzer
Lochkartenstanzer 14.06.2021 aktualisiert um 10:22:43 Uhr
Goto Top
Zitat von @pd.edv:

Zitat von @wuestenfuchs:
Wäre rsync.net was für dich?

Muss ich mir ansehen. Danke für den Tip.


Genau sowas kannst Du mit wenig Aufwand auch bei Dir selbst hinstellen, wie ich oben schon sagte.

lks
GrueneSosseMitSpeck
GrueneSosseMitSpeck 14.06.2021 um 10:29:41 Uhr
Goto Top
lol. rotfl. "ich will eine P2P Lösung" und dann Sicherheitsbedenken mit einer DMZ Lösung. Nimm Kurierversand, GO oder sowas, die kommen zwar nur zu gewerblichen Kunden, aber der Empfänger hat für 99 Euro Netto am nächsten Tag die Daten in der Hand. Machen wir auch so, jedenfalls mit Kunden in der EU.

Eins muß aber mal klar sein - in der Cloud kostet jedes Gigabyte etwas Geld, aber auch bei einem Upload der 100 Mbit bis zu einem Gigabit hat. Hat man Traffic im 1000 TB Bereich dann kostet das, egal wie.... wer gewerblich solche Datenmengen verschicken muß der kalkuliert das mit ein. Oder nimmt wiederum den Kurierversand mit Overnight-Kapazitäten.
pd.edv
pd.edv 14.06.2021 um 10:48:39 Uhr
Goto Top
Zitat von @Lochkartenstanzer:

Zitat von @pd.edv:

Offener Server im Netz ist wie bereits 22 mal gesagt nichts was ich machen will - den habe ich aus verschiedensten Gründen verworfen - zB weil ich offene Daten am öffentlichen Server für nicht ausreichend Sicher halte.


Dir wurde schonmehrmals gesagt, daß die Server nicht offen da rumstehen, sondern in einer DMZ und nur mit Zugangsberchtigungen. Wenn man den Server ordentlich einrichtet, können die Kunden auch nur auf Ihre Daten zugreifen.

Offener Server soll heißen das der Internet steht und der Zugriff eben nicht per VPN oder IP-Freigabe limitiert ist. Sprich jeder Bot kann da mal anklopfen.

Das ich den in die DMZ stellen kann ändert ja nichts daran, dass ich am Ende heikle Daten offen ins Internet stelle und das einzige was einen Angreifer von denen trennt ist ein Exploit oder anderer Angriff.

Die DMZ schränkt den Zuriff ja nicht auf nur einen Host im Internet ein. Dazu muss ich das mal 3 machen sonst muss ich von 2 der 3 Netze wieder über das Internet drauf zugreifen.

Ich bin nicht völlig bescheuert und Ihr müsst nicht auf der DMZ rumreiten. Die löst mein Problem nicht - das würde ein abgeschottetes VLAN mit VPN tun aber das muss Oma Irma, Tante Erni und Fr. Meier die sonst nur Briefe mit Word schreibt erst mal eingerchtet bekommen. Und dann mache ich 3x länger Telefonsupport für die Datenübertragung als ich zum Retten der Daten brauche.

Ist das so schwer zu verstehen - ich stelle nichts offen auf die Cloud also stelle ich auch nichts offen auf meine eigene Cloud und damit taugt die Lösung nichts weil es nicht nichts erspart.

Ich suche etwas wie rsync aber eben von einem PC hinter einer Firewall auf einen anderen PC hinter einer Firewall. So wie der Datentransfer von Teamviewer oder Anydesk.

Nichts was exponiert im Internet steht. Bittorrent wäre schon was wenn man keinen Tracker brächte - Warum schaut Ihr euch nicht einfach mal https://justbeamit.com/ an - das dauert 1 Minute bevor wir noch 10 Stunden diskutieren.

Der Dienst ist unbrauchbar aber geht in die Richtung die ich suche und wie gesagt falls nichts besseres zu finden ist, werde ich etwas in diese Richtung selber schreiben.
pd.edv
pd.edv 14.06.2021 um 10:53:56 Uhr
Goto Top
Zitat von @Lochkartenstanzer:
Genau sowas kannst Du mit wenig Aufwand auch bei Dir selbst hinstellen, wie ich oben schon sagte.

Das weiß ich - ich will es aber nicht bei mir stehen haben außer du hast Lust und übernimmt die Haftung dafür. Dann gern.

Nochmal - nichts das vor der Firewall steht - nicht mal in einer DMZ.
Lochkartenstanzer
Lochkartenstanzer 14.06.2021 um 10:55:16 Uhr
Goto Top
Zitat von @pd.edv:

Offener Server soll heißen das der Internet steht und der Zugriff eben nicht per VPN oder IP-Freigabe limitiert ist. Sprich jeder Bot kann da mal anklopfen.

Und was ist das Problem, wenn die Tür abgeschlossen ist?


Das ich den in die DMZ stellen kann ändert ja nichts daran, dass ich am Ende heikle Daten offen ins Internet stelle und das einzige was einen Angreifer von denen trennt ist ein Exploit oder anderer Angriff.

Damit hast Du ein Problem aber nicht damit, daß Du die Daten irgendeinem Cloudanbiete in den Rachen wirfst, der sie ungeschützt einsehen und weiterverkaufen kann? Deine Logik muß man verstehen.


Die DMZ schränkt den Zuriff ja nicht auf nur einen Host im Internet ein. Dazu muss ich das mal 3 machen sonst muss ich von 2 der 3 Netze wieder über das Internet drauf zugreifen.

Ich verstehe Deine Logik nicht. Wenn Du eine ordentliche Firewall hast, merken Deine 3 Netze nichts voneinander.

Der Dienst ist unbrauchbar aber geht in die Richtung die ich suche und wie gesagt falls nichts besseres zu finden ist, werde ich etwas in diese Richtung selber schreiben.

Dann schreib Dir das selbst zusamen, auch mit der Gefahr, daß Du Deine Scheunentore viel offener machst als notwendig.

Ich bechränke mich ab jetzt auf Popcorn und Bier in diesem Thread.

lks
wuestenfuchs
wuestenfuchs 14.06.2021 aktualisiert um 11:14:35 Uhr
Goto Top
Ich glaube, da gibt es ein Verständnisproblem.

Nicht jeder Dienst, der vom Internet aus erreichbar ist, muss "offen wie ein Scheinentor" sein.

Aus der Sicherheitsperspektive gesehen geht es primär darum, Angriffsvektoren zu minimieren. Je kleiner und einfacher/übersichtlicher ein Dienst ist, desto sicherer ist er.

Nehmen wir mal als Beispiel NextCloud: Ja, da sollte der Admin auf Zack sein und Sicherheitsupdates regelmäßig einspielen und auch sonst ein Auge auf sein System haben, wenn ihm seine Daten lieb sind. Denn da haben wir einen Apache als fetten Webserver, darauf PHP als Middleware, und darauf setzt noch NextCloud als umfangreiches und komplexes All-in-one-Tool. Alle drei Schichten wollen abgesichert betrieben werden. Also alles in allem eine recht komplexe Umgebung.

Sowas würde ich dir auch nicht empfehlen.

Auf der anderen Seite gibt es aber auch kleine spezialisierte Dienste wie z.B. SSH (oder rsync, was transporttechnisch auf SSH aufsetzt). Das macht genau eine Sache - und die macht es gut. SSH und rsync sind seit Jahrzehnten im Einsatz und robust und sicher wie ein Panzer. Nein, SSH ist nicht unbesiegbar, aber wenn du regelmäßig Sicherheitsupdates einspielst und ein paar einfache Best Practice-Regeln befolgst (google mal nach "hardening SSH"), dann ist das schon *sehr* sicher. Mal zum Vergleich: der Großteil der Nicht-Windows-Server im Netz wird darüber administriert.

Und in der Abwägung: fragwürdiger Datenschutz bei Cloud-Diensten auf der einen Seite und ein sicheres System on-premise bei dir auf der anderen Seite wird vermutlich letzteres gewinnen. Ich würde jedenfalls keine Kundendaten irgendeinem Cloud-Dienst im Internet anvertrauen (und darf es laut DSGVO auch nicht einfach so, ohne Vorkehrungen zu treffen!).
Lochkartenstanzer
Lochkartenstanzer 14.06.2021 aktualisiert um 11:16:02 Uhr
Goto Top
Zitat von @wuestenfuchs:

Und in der Abwägung: fragwürdiger Datenschutz bei Cloud-Diensten auf der einen Seite und ein sicheres System on-premise bei dir auf der anderen Seite wird vermutlich letzteres gewinnen. Ich würde jedenfalls keine Kundendaten irgendeinem Cloud-Dienst im Internet anvertrauen (und darf es laut DSGVO auch nicht einfach so, ohne Vorkehrungen zu treffen!).


Der TO will aber nix bei sich zuhause stehen haben - aus Sicherheitsgründen. face-smile

lks

PS: Noch jemand Popcorn?
pd.edv
pd.edv 14.06.2021 um 11:17:49 Uhr
Goto Top
Zitat von @GrueneSosseMitSpeck:
lol. rotfl. "ich will eine P2P Lösung" und dann Sicherheitsbedenken mit einer DMZ Lösung. Nimm Kurierversand, GO oder sowas, die kommen zwar nur zu gewerblichen Kunden, aber der Empfänger hat für 99 Euro Netto am nächsten Tag die Daten in der Hand. Machen wir auch so, jedenfalls mit Kunden in der EU.

Macht UPS auch und mit Express saver hab ich das für 1/3 der genannten Kosten bis zum nächsten Abend geliefert egal ob gewerblich oder privat. Nachdem wir also das schon kennen was ich seit bald 3 Jahren treibe können wir ja über Neuerungen nachdenken und nicht über den aktuellen Stand.

Zitat von @GrueneSosseMitSpeck:
Eins muß aber mal klar sein - in der Cloud kostet jedes Gigabyte etwas Geld, aber auch bei einem Upload der 100 Mbit bis zu einem Gigabit hat.

Das weiß ich aber da kann ich die Daten eben auch nicht offen drauf stellen. Also kostet nicht nur jedes GB sondern das Zippen von 2TB braucht schon mal 18h, usw.

Zitat von @GrueneSosseMitSpeck:
Hat man Traffic im 1000 TB Bereich dann kostet das, egal wie.... wer gewerblich solche Datenmengen verschicken muß der kalkuliert das mit ein.

K.A. was ihr für Internetanbieter habt ich jage über meine Flatrates 80-120TB / Monat und zahle nichts mehr als nur die Pauschale.

Oder sprichst du von Traffic bei einem Web-Server oder dergleichen? Ja das kostet was.

Bringt aber alles nicht denn ich verliere schon mal einen Tag beim packen, 12-36h beim Upload der meisten Daten und dann brauch der Kunde wieder 12-36h (je nach Datenmende auch mal mehr) zum laden und 18h zum entpacken und den doppelten Speicherplatz.

Nacht also mehr Arbeit als alles wert ist und ist langsam wegen der vielen unnützen Schritte.

Genau darum will ich eine P2P Lösung die Daten direkt zum Kunden in den Ordner schiebt ohne packen, entpacke, upload und download. P2P damit mein Upload direkt gleich beim Kunden ankommt und ich die Daten sofort senden kann ohne diese zu packen.

Ich glaube langsam ich rede gegen eine Wand - wenn die Lösung so einfach wäre wie eine OwnCloud aufzusetzen dann bräuchte ich keine Tipps und keinen Input. Wie glaubt ihr habe ich 20 Jahre selbstständig im IT-Bereich überlebt wenn ich nicht mal wüsste, dass ich mal eben eine Linux-Kiste mit SFTP, OwnCloud oder sonst was in die DMZ stellen kann.

Ich habe derartige Lösungen schon betrieben aber in der aktuellen Situation will ich so eine Lösung nicht mehr nutzen.
pd.edv
pd.edv 14.06.2021 um 11:33:58 Uhr
Goto Top
Zitat von @Lochkartenstanzer:
Und was ist das Problem, wenn die Tür abgeschlossen ist?

Wenn du mir das garantierst dann gern - ich will das nicht garantieren!

Zitat von @Lochkartenstanzer:
Damit hast Du ein Problem aber nicht damit, daß Du die Daten irgendeinem Cloudanbiete in den Rachen wirfst, der sie ungeschützt einsehen und weiterverkaufen kann? Deine Logik muß man verstehen.

Jetzt wird es ja lächerlich - wie oft muss ich noch sagen, dass ich die Daten stundenlang Packe und mit einem PW versehe vor dem Upload und das ich mir das sparen will!

Darum keine Cloud! Keine von Google, keine von Amazon und nicht mal eine eigene! Soll ich es auf englisch versuchen oder ins französische übersetzen lassen oder warum versteht ihr da nicht wenn ich es schon ein Dutzend mal sage!

Zitat von @Lochkartenstanzer:
Ich verstehe Deine Logik nicht. Wenn Du eine ordentliche Firewall hast, merken Deine 3 Netze nichts voneinander.

Die können auch ohne Firewall nicht von einander Merken weil die jeweils einen eigenen Anschluss haben und physisch getrennt sind!

Das ist aber genau das Problem. Wenn nun Netz 2 auf den Server in Netz 1 Daten stellen will geht es nur über das Internet und damit hab ich Leitung 1 und Leitung 2 belegt, muss die Daten erst wieder packen und mit einem PW versehen und das hab ich jetzt ja schon.

Warum soll ich also von der Cloud X zu meiner eigenen Cloud umsteigen wenn ich damit nicht aber auch rein garnichts gewinne?!

Zitat von @Lochkartenstanzer:
Dann schreib Dir das selbst zusamen, auch mit der Gefahr, daß Du Deine Scheunentore viel offener machst als notwendig.
Ich bechränke mich ab jetzt auf Popcorn und Bier in diesem Thread.

Auch zum 10. mal - darum frage ich ja hier nach einer bestehenden und erprobten Lösung die so arbeitet wie ich es benötige bevor ich selber etwas entwickle. Aber es muss eine Lösung sein die mir einen Mehrwert bringt und das macht eine OwnCloud oder ein SFTP-Server oder sonstwas eben nicht!
Mystery-at-min
Mystery-at-min 14.06.2021 um 11:36:35 Uhr
Goto Top
Ich denke eine Lösung, wie du sie haben willst, wird schlicht am Kosten/Anforderungsaspekt scheitern.
SPSman
SPSman 14.06.2021 aktualisiert um 11:38:44 Uhr
Goto Top
Hi,
Wir setzen bei uns Acronis Files Advanced ein. Das hat (fast) alles.
1. Liegen die Daten bei uns. Ich krieg ne mail wenn die Daten runtergeladen sind.
2. Der User muss ich einmal anmelden (also sich ein Passwort ausdenken) (das ist einfach also sich ein GMX-Email postfach zu erstellen) Und damit kam noch jeder Landwirt(mit dem ich mich so beschäftigen darf) klar.
3. Nur die Verteilung der Daten auf unterschiedliche Uploadleitungen wäre jetzt noch ein "Problem" das zu klären wäre.

Somit hast du:
- P2P
- Eine easy Weboberfläche für den Kunden
- Alle Info's in einem E-Mail Postfach (siehst also auch wenn sich jemand die Daten runtergeladen hat)
- Und kannst den Zugang zeitlich beschränken (z.B. 14 Tage)


JustMy2Cent

Kosten -> Ca. 20€/Monat + Einmalig Speicherplatz
pd.edv
pd.edv 14.06.2021 um 12:40:31 Uhr
Goto Top
Zitat von @wuestenfuchs:
Auf der anderen Seite gibt es aber auch kleine spezialisierte Dienste wie z.B. SSH (oder rsync, was transporttechnisch auf SSH aufsetzt). Das macht genau eine Sache - und die macht es gut. SSH und rsync sind seit Jahrzehnten im Einsatz und robust und sicher wie ein Panzer. Nein, SSH ist nicht unbesiegbar, aber wenn du regelmäßig Sicherheitsupdates einspielst und ein paar einfache Best Practice-Regeln befolgst (google mal nach "hardening SSH"), dann ist das schon *sehr* sicher. Mal zum Vergleich: der Großteil der Nicht-Windows-Server im Netz wird darüber administriert.

Das ist mir alles bewusst!

Problem 1 - kann ich diese Updates Zeitnahe einspielen wenn ich nicht vor Ort bin? Nein!
Problem 2 - kann ich den Server neustarten um eine neue Version zu aktivieren wenn ein Kunde schon seit 2 Tagen Daten zieht? Nein wahrscheinlich nicht ohne den Kunden rauszuwerfen aber sagen wir hier mal: Vielleicht.
Problem 3 - kann jeder darauf zugreifen bzw, es zumindest versuchen? Ja! Also brauche ich entsprechende Wartung oder ich kann das Ding nicht laufen lassen wenn ich geschäftlich oder privat unterwegs bin.
usw.

Zitat von @wuestenfuchs:
Und in der Abwägung: fragwürdiger Datenschutz bei Cloud-Diensten auf der einen Seite und ein sicheres System on-premise bei dir auf der anderen Seite wird vermutlich letzteres gewinnen. Ich würde jedenfalls keine Kundendaten irgendeinem Cloud-Dienst im Internet anvertrauen (und darf es laut DSGVO auch nicht einfach so, ohne Vorkehrungen zu treffen!).

Genau das ist es ja! Und genau das mache ich und will es nicht mehr machen müssen. Aber genau das müsste ich auch machen wenn ich die auf einen öffentlichen Server stelle den ich bei mit ins Netzwerk oder in die DMZ hänge!

Also ist der genau so gut wie die Cloud oder ich finde einen Weg nichts ins netz zu stellen und nur temp. Verbindungen verschlüsselt aufzubauen.
pd.edv
pd.edv 14.06.2021 um 12:45:21 Uhr
Goto Top
Zitat von @SPSman:
Hi,
Wir setzen bei uns Acronis Files Advanced ein. Das hat (fast) alles.

Das klingt vielversprechend.

Zitat von @SPSman:
Kosten -> Ca. 20€/Monat + Einmalig Speicherplatz

Preislich human aber was meinst du mit dem Speicherplatz? Dachte die Daten liegen bei mir?
148656
148656 14.06.2021 um 13:14:02 Uhr
Goto Top
Lks, ist das Popcorn mit Zucker oder Salz?
Aber ja, es ist für mich noch immer fraglich, was er da vor hat. Nutzer von Hand anlegen. Vlans erstellen pro Nutzer. Ein valides Berechtigungskonzept sehe ich auch nicht. Rechnungen kommen sicher aus einer Word-Datei die als PDF bearbeitet wird.

Gruß
C.C.
pd.edv
pd.edv 14.06.2021 um 13:31:30 Uhr
Goto Top
Zitat von @148656:
Aber ja, es ist für mich noch immer fraglich, was er da vor hat.

Daten Übertragen möglichst ohne die vorher zu packen und ohne eigenen Server anzubieten.

Zitat von @148656:
Nutzer von Hand anlegen. Vlans erstellen pro Nutzer. Ein valides Berechtigungskonzept sehe ich auch nicht.

Eigentlich sind das LANs denn die einzelnen Arbeitsplätze haben eigene Anschlüsse. Also kann es gut sein, dass ich eine HDD auf Platz 1 und LAN1 anschließe weil da gerade Platz ist. Der nächste landet dann im LAN3 bei PC 3 da auf dem gerade ein Port frei war. usw.

3 Anschlüsse auch schon darum weil ich auch genug Daten hochlade bzw. mal runterladen muss wenn ich zB eine Platte über das Internet image.

Wenn es hilft dann sieh das meinetwegen als 3 getrennte Firmen die alle das absolut gleiche Problem haben und die gleiche Lösung suchen. Ich kann und will selber keine Daten von PC1 auf PC2 oder PC3 laden. Wenn da Daten rüber müssen dann dann per Adidas-Netzwerk mit den HDD-Cage. Bzw. gehören ohnehin für einen Vorgang Kunden- und Temp-Platte bzw. Platten zusammen bevor die wieder gewiped werden. Die wandern also ohnehin umher falls nötig.

Wenn noch ein Kunde oder ein Server in eines der Netze käme dann nur wenn ich am Switch vorher ein VLAN einrichte. Wenn ich die aber wieder völlig abtrenne dann hilft es mir nichts denn dann muss ich Daten wieder intern Hochladen auf den Server und kann nicht einfach die Daten von Rechner aus senden.

Ist das wirklich so schwer zu verstehen?
pd.edv
pd.edv 14.06.2021 um 13:39:54 Uhr
Goto Top
Ich finde das schön langsam echt nicht fair - ich werde als kompletter Vollpfosten hingestellt weil ich eine Lösung die euch gefällt nicht will und etwas anderes suche.

Alles war mir vorgeschlagen wurde kenne ich, habe ich bereits vor Monaten in Erwägung gezogen und aus unterschiedlichsten Gründen verworfen.

Ich verstehe langsam nicht warum ich mich rechtfertigen soll wenn mir die Leute nicht mal zuhören - oder auf meine Entscheidung eingehen. Nennt es wie Ihr wollt - dann bin ich eben übervorsichtig, paranoid, zu faul oder was auch immer aber ich werden keine Cloud, keinen Server oder sonstwas an das Internet anbinden nicht mit VLAN, nicht per DMZ, gar nicht. Weil ich das nicht machen will.

Und da her sind alle Lösungen die in diese Richtung gehen zwar nett gemeint und für viele sicherlich ein guter Web aber eben nicht für mich. Darum brauche ich Alternativen zu Server und Cloud-Anbieter wie zB: Acronis Files Advanced und dergleichen.

Also gibt es die scheinbar doch - jetzt gilt es nur den passenden zu finden und alles ist gut.
Lochkartenstanzer
Lochkartenstanzer 14.06.2021 aktualisiert um 13:47:21 Uhr
Goto Top
Zitat von @pd.edv:

Ist das wirklich so schwer zu verstehen?

hold my beer

Du scheinst schwer zu verstehen. Ein torrenttracker notfalls auf einen 1-Euro-V-Server oder einem 5-€ Pi installieren und dort einen private Torrent einrichten. Dieser muß natürlich per Internet oder VPN erreichbar sein.

Dann kannst Du Die Daten direkt von Deinen PCs ohne die untereinander zu verbinden die Dateien "anbieten". Und den Kunden schickst Du einfach die Torrentdatei (wenige kb) einen Kommandozeilen-client für bittorrent und eine Batchdatei. Die müssen das dann nur noch dort, wo Platz ist ablegen und die Batchdatei anklicken. Alles andere macht das bitttorrent. Und Die Kunde nmüssen keine Angst haben, daß Sie Ihre dateien freigeben, denn Du hast das ja alles korrekt beim Client und der Torrent-Datei richtig konfiguriert, den Die Du dem Kunden schickst.

wieder Bierglas nehm und einen kräftigen Schluck draus trink.

lks
148656
148656 14.06.2021 um 13:54:48 Uhr
Goto Top
Deine Arbeitsweise hast du mehrfach dargelegt. Jedoch ist es genau diese Arbeitsweise, die ich nicht verstehe.
Für mich steckt dort keine Struktur drin. Ja, die Tasks müssen abgearbeitet werden. Aber doch nicht so. Ich kenne dieses "Doing" nur als Headless-Chicken-Workaround. Sorry, für die direkten Worte.

Erfolg besteht aus 99% Inspiration und 1% Transpiration. Nicht andersherum.

Danke LKS. Passt gut zur böhmischen Braukunst face-smile
AnkhMorpork
AnkhMorpork 14.06.2021 um 14:11:47 Uhr
Goto Top
Ihr wollt die 100er-Marke???

Go ahead!
Lochkartenstanzer
Lochkartenstanzer 14.06.2021 aktualisiert um 14:15:24 Uhr
Goto Top
Zitat von @AnkhMorpork:

Ihr wollt die 100er-Marke???


Ich muß auf Chips umsteigen. Popcorn ist alle.

lks

@uwe: So gemein waren die Kommentare doch gar nicht.
pd.edv
pd.edv 14.06.2021 um 14:15:01 Uhr
Goto Top
Zitat von @Lochkartenstanzer:
Du scheinst schwer zu verstehen. Ein torrenttracker notfalls auf einen 1-Euro-V-Server oder einem 5-€ Pi installieren und dort einen private Torrent einrichten. Dieser muß natürlich per Internet oder VPN erreichbar sein.

Das weiß ich - und das ist die einzige Lösung die ich als halbwegs gangbar erachte.

Hatte ich dir aber vorhin schon geschrieben. Nur sehe ich da wieder das Problem wenn Fa. Dorefelektriker Müller keine Verbindung bekommt weil deren externer IT-Techniker eben Torrent nicht an der Firewall freigegeben hat.

Aber wie gesagt das ist noch der beste Vorschlag von allen gewesen weil da wenigstens keine Daten auf dem VServer liegen. Wobei ich mich mit Torrent näher beschäftigen müsste ob einer den den Tracker übernimmt dann eventuell an die Daten kommt auch ohne Torrent-Datei. Das müsste ich noch mal googeln.

Ich finde die Lösung OK als Option wenn es nichts anderes finde mit einfacher Software die dann auch für Mac funktioniert, über den Browser läuft oder sonstwas.

Ich spreche zwar die ganze Zeit von einem Server und ja klar der Tracker ist auch ein Server aber meinte natürlich OwnCloud oder SFTP Server mit den Daten drauf. Also gut - 1:0 ich hab mich missverständlich ausgedrückt.

Also nochmal für alle verständlich:

OwnCloud, SFTP-Server, etc. ... Nein! Nein! Nein!

Torrent ... Wenn es nichts besseres gibt dann eventuell - muss mal schauen ob ich da dann eine Art GUI-Frontent für den CLI-Client stricke oder sonstwas. Wäre eine Idee. Kosten wären kaum der rede wert mit NetCups VServern zahle ich ein paar EUR / Jahr und wenn es dann auch noch zu keiner Zeit eine Gefahr für die Daten gibt falls der vServer gehackt wird dann wär das fast schon ideal.

Acronis Files Advanced, etc. ... warte auf Rückmeldung von Vertrieb - wäre eine interessante Option und mit pers. lieber wenn das Tool wirklich auch ein DAU nutzen kann.

PS.: Ja, Acronis Files Advanced geht auch in die Richtung wie Torrent + Tracker aber mit Klicki-Bunti für Oma Irma und Hr. Schlossermeister Müller sen. der abendlich das Büro nebenbei macht und kaum Ahnung von PC hat und ich zahle lieber 20 EUR und hab keine Arbeit und muss nicht an den sch*** vServer und dessen Wartung denken als mir 17,51 EUR zu sparen und mich dann mit dem zu beschäftigen denn das wird über kurz oder lang im Stress mal untergehen.

Was ich nicht vergessen kann, das fällt mir auch nicht irgendwann auf die Füße!

Ist einfach meine Einstellung. Und ich will kein Konzept darauf aufbauen, dass ich immer alles richtig mache und nie etwas vergesse - das wird nämlich nicht klappen und zur Kontrolle von mir selber fehlt dann das 2. paar Augen das meine Arbeit nochmal zur Sicherheit prüft.
em-pie
em-pie 14.06.2021 aktualisiert um 14:20:49 Uhr
Goto Top
Zitat von @148656:

Lks, ist das Popcorn mit Zucker oder Salz?
Vermutlich hat er beides da stehen.
Ich hätte noch Cola im Portfolio - wahlweise auch mit einer Beigabe im zweistelligen Prozentbereich.
Wobei ja gerade schon das kühle blonde im Umlauf ist face-smile

@pd.edv
ich kann deinen Grundgedanken nachvollziehen - alles so einfach und so sicher wie möglich halten.
Jetzt fasse ich aber einmal zusammen (Nummerierung hat keine gewichtete/ sortierende Funktion):
  1. Du suchst einen Dienst/ ein Tool, mit dem du eine 1:1 Verbindung zum Kunden aufbauen kannst, um auf iese Weise von dir aus gesteuert Daten zu übertragen, ohne diese vorher zu zippen.
  2. Du kannst und willst keinen Einfluss auf die FW beim Kunden nehmen, um dort eingehenden Verkehr zu erlauben.
  3. Der Dienst darf nicht in der Cloud liegen (Daten teilweise zu sensibel)
  4. Du möchtest keine eigene Infrastruktur vorhalten, da du keine Zeit hast, die Umgebung zu betreiben/ betreuen
  5. Du möchtest keine dedizierten User pflegen.
  6. Vom Prinzip her wünscht du dir etwas, wie TeamViewer und Konsorten: beide starten ein Tool, es wird eine 1:1-Verbindung aufgebaut und "los gehts"
  7. DU bist nicht völlig doof, unsere Vorschläge entsprechen nur nicht ganz deinen Vorstellungen (wertneutral formuliert)

Zu 1, 2 + 6: Ohne einen öffentlich zugänglichen Dienst "in der Mitte" geht es hier auch Nicht. Bei TeamViewer & Co. suchen beide Seiten die Server des HErstellers auf, erhalten eine (bekannte) ID und bauen dann eine Verbindung auf. Folglich weiss der Hesterller, welche Partner sich verbinden und welche Datenmenge drüber geht. ob jeglicher Traffic dabei immer über dessen Server geschoben wird, muss im EInzelfall geprüft werden. In jedem Fall musst du einen AVV (Stichwort DSGVO) mit denen abschließen, da immerhin IP-Adresse gelogged werden (können).
Zu 3: Du kommst also um einen eigenen Dienst nicht herum
Zu 4: Klappt nur, wenn du in die Cloud gehst, Siehe Punkt 3
Zu 5: Hängt vom eingesetzten Dienst ab, ganz ohne wird es aber nicht gehen.


Also du suchst etwas wie BeamIT (hast du ja selbst genannt) nur ohne irgendwelche Limits.
Die geben dort ganz unten ja selbst an, dass die Daten direkt transferiert werden, "getunnelt" über deren Dienst, ohne dass Daten selbst gespeichert werden.
De Frage(n) hierbei: was passiert, wenn eine der beiden Seiten plötzlich einen Verbindungsabbruch hat, nach die Daten schon 12h übertragen wurden? Ohne ein Puffern der Daten auf Zwischensysteme wird das nichts. Und dann bist du wieder bei den Punkt 3 + 4

Es wird also nicht anders gehen, außer, du stellst eigene Dienste bereit.
Ggf. kannst du mehrere, kleinere SFTP-Services starten, wenn eine Übertragung ansteht:
Dienst mit bestimmten Port starten (der in deiner FW freigegeben ist), Kunde lädt alles herunter (via Script) und ist die Übertragung durch, beendet sich das Tool. Z.B. mit soetwas: https://www.heise.de/download/product/core-ftp-server-sftp-server-54166
Edit: Wobei, zugegegen, der individuelle Port natürlich auch im Kunden-Netz erlaubt sein muss.
wuestenfuchs
wuestenfuchs 14.06.2021 aktualisiert um 14:36:27 Uhr
Goto Top
Genau das meine ich ja face-wink Ich vermute, du gehst in manchen Dingen schlichtweg von falschen Voraussetzungen aus. Zum Beispiel mit dem, was du geschrieben hast:

@problem 1: Updates kannst du automatisch einspielen lassen. Nimm eine Distri wie Ubuntu, die macht das von Haus aus. Wenn dir das standardmäßige Update-Intervall zu lange ist, erstelle einen Cron-Job, der dir alle 30 Minuten die neueste Software draufspielt.

@problem 2: Nicht immer ist ein zeitnaher Neustart des gesamten Systems nötig. Wenn in SSH oder rsync eine Lücke auftaucht, ist normalerweise überhaupt kein Neustart nötig. Aktualisierte Software drauf, Dienst neu starten (passiert beim Update automatisch), fertig. Kernel-Lücken hingegen, die einen Neustart erfordern, sind (1) eher selten und (2) häufig für Remote-Zugriffe nicht relevant. Da werden meistens Dinge abgedichtet, die dann eine Rolle spielen, wenn man direkt vor der Maschine sitzt. Aber auch da gibt es Lösungen - Ubuntu bietet dir für eine begrenzte Anzahl an Maschinen eine kostenlose Subskription von Kernel Live-Patching an, d.h. du musst selbst bei Kernel-Updates die Maschine nicht neu starten.

@problem 3: Nimm für den SSH-Zugriff ein starkes Passwort oder ein Zertifikat und unterbinde massenhafte Anmeldeversuche mit Software wie Fail2Ban. Die blockt dann wiederholte Angriffsversuche für eine bestimmte Zeit.

@problem 4 (DSGVO): wenn du alles selbst hostest, ist es IMO viel leichter, die DSGVO einzuhalten, als wenn du dir eine Auftragsdatenverarbeitung mit dem ganzen Ratten###, was das nach sich zieht, an Bord holst.

Egal, für welche Lösung du dich entscheidest, du wirst dich wohl oder übel mit dem "Ding" (ob das jetzt ein Serverdienst bei dir on-premise ist, ein Serverdienst woanders oder einfach eine Client-Software, die bei dir läuft) befassen müssen. Alles, auch Acronis, wird so eingerichtet werden müssen, dass Lücken ausgeschlossen sind. Und alles, auch Acronis, wird gewartet werden müssen.

Wenn du dir diese Arbeit nicht antun möchtest oder kannst, wunderbar, dann gehe zu einem kleinen, aber feinen Dienstleister in deiner Nähe und bezahle ihn dafür, dass er die Einrichtung und Wartung für dich übernimmt.

Das gilt für irgendwelche Eigenbau-Lösungen gleichermaßen wie für kommerzielle Lösungen wie Acronis oder andere.
pd.edv
pd.edv 14.06.2021 um 14:36:20 Uhr
Goto Top
Zitat von @148656:
Ich kenne dieses "Doing" nur als Headless-Chicken-Workaround. Sorry, für die direkten Worte.

Warum?! Wie kommst du da drauf. Ich arbeite 10 getrennte Dinge auf 3 getrennten Systemen ab. Wenn ich etwas sonderbares uraltes brauche dann wird halt Rechner 4 oder 5 aktiviert und aus dem Lager kurz mal angeschlossen.

Was ich mache hängt ja nicht in irgend einer Weise zusammen. Was haben Oma Irmas Urlaubsbilder die am DOS-Recher geklont werden mit Hr. Müllers Büro-Daten zu tun die ich am MRT nach einem Firmware-Schaden wiederherstelle? Und was haben diese zwei Fälle dann mit dem Laptop von Hr. Huber zu tun der für seine Scheidung wissen will ob seine noch Ehefrau zwischen 7.3. und 12.3. als er auf Geschäftsreise war am Rechner herumgeschnüffelt hat und was die genau gemacht hat. Oder mit einem Fall der Firma SunshineTravel die wissen will welcher der 4 Angestellten die Kundendaten kopiert und an die Konkurrenz weitergegeben hat.

Dann kommt es wieder mal vor, dass eine Platte die ausgewertet werden soll Lesefehler hat und zuerst am DDI unter DOS geklont wird bevor diese dann physisch an die Forensik-Workstation kommt. Die 3x / Jahr kann ich die Platte auch umstecken ganz abgesehen davon, dass auf DOS kaum Forensik-Tools laufen werden die ein mit Windows 10 auswerten könnten.

Ein anderer Rechner im DDI LAN hat PC-3000 Flash am laufen und arbeitet an SD-Karten. Der brauchte dann weniger Speicher aber viel mehr Rechenleistung und RAM - also hat diese Kiste zB einen 12-core Ryzen und 64GB Ram aber "nur" 2x6TB für Daten. Der DDI der unter DOS läuft braucht zum clonen keine 12 Kerne und 24 Threads und schon gar keine 64GB RAM.

Unterschiedliche Anforderungen, unterschiedliche Hardware für unterschiedliche Aufgaben und eben 3 getrennte LANs weil ich eh so viele Daten herumschicke das ich mir nicht 70-80 EUR / Monat spare und dann alles über eine Leitung fahre.

Was ist daran Kopflos?! Warum sollten diese Systeme zusammen hängen?

Wenn ich spezielle Dinge brauche dann kann ich managed Switche oder zusätzliche Rechner entsprechend noch in die Netze reinhängen um sonst was wie den XP-Rechner der für bestimmte Dinge einige Vorteile bietet oder eine CAIN-Workstation oder eine REMnux-Workstation.
pd.edv
pd.edv 14.06.2021 um 14:44:39 Uhr
Goto Top
Zitat von @em-pie:
Zu 1, 2 + 6: Ohne einen öffentlich zugänglichen Dienst "in der Mitte" geht es hier auch Nicht. Bei TeamViewer & Co. suchen beide Seiten die Server des HErstellers auf, erhalten eine (bekannte) ID und bauen dann eine Verbindung auf. Folglich weiss der Hesterller, welche Partner sich verbinden und welche Datenmenge drüber geht. ob jeglicher Traffic dabei immer über dessen Server geschoben wird, muss im EInzelfall geprüft werden. In jedem Fall musst du einen AVV (Stichwort DSGVO) mit denen abschließen, da immerhin IP-Adresse gelogged werden (können).

Ist mir alles klar! Nur muss ich den dann nicht betreuen was mir lieber wäre.

Zitat von @em-pie:
Also du suchst etwas wie BeamIT (hast du ja selbst genannt) nur ohne irgendwelche Limits.
Die geben dort ganz unten ja selbst an, dass die Daten direkt transferiert werden, "getunnelt" über deren Dienst, ohne dass Daten selbst gespeichert werden.
De Frage(n) hierbei: was passiert, wenn eine der beiden Seiten plötzlich einen Verbindungsabbruch hat, nach die Daten schon 12h übertragen wurden? Ohne ein Puffern der Daten auf Zwischensysteme wird das nichts. Und dann bist du wieder bei den Punkt 3 + 4

Das ist es was ich mit "so in der Art wie" meinte! Einfach, Austausch der Daten per Browser und dann direkte Verbindung. Wenn das nun auch noch mit einzelnen Dateien und Ordnerstrukturen ginge dann wär das perfekt denn dann wär es mir egal wenn da von den 1,8TB die 4,2GB große Videodatei die abgebrochen ist nochmal neu übertragen wird. Beim 18MB großen Foto ja erst recht.

Hätte ich mit JustBeamIt schon die ultimative Lösung gefunden, müsste ich ja nicht fragen und würde einfach die verwenden!

Zitat von @em-pie:
Edit: Wobei, zugegegen, der individuelle Port natürlich auch im Kunden-Netz erlaubt sein muss.

... und schon haben wir wieder den Pferdefuß wie bei Torrent oder diversen anderen Lösungen.

Nochmal - wäre das Problem so trivial oder meine Anforderungen nicht so spezifisch hätte ich schon längst eine Lösung am laufen!
wuestenfuchs
wuestenfuchs 14.06.2021 aktualisiert um 14:49:07 Uhr
Goto Top
Zitat von @em-pie:
Edit: Wobei, zugegegen, der individuelle Port natürlich auch im Kunden-Netz erlaubt sein muss.

Ich will jetzt nicht auf der rsync-Lösung rumreiten, aber das erscheint mir deine Anforderungen ganz gut zu erfüllen. Das Aufwands-Gewinn-Profil ist jedenfalls recht günstig: minimaler Einrichtungs- und Pflegeaufwand bei großem Nutzen. Dort hast du nämlich den Vorteil, dass du wählen kannst:

1. Du kannst die Daten sowohl von dir zum Kunden "pushen", dann ist beim Kunden irgendeine Art von Portweiterleitung o.ä. nötig - das ist ja genau das, was bei dir keinen Sinn macht oder
2. Der Kunde kann sich die Daten "pullen", dann muss die Portweiterleitung nur auf deiner Seite vorhanden sein und im Kundennetz braucht es keine Änderungen. Und falls im Kundennetz Port 22 aus irgendeinem Grund von der Firewall blockiert sein sollte, lege SSH bei dir auf Port 443, dann geht auch das.
pd.edv
pd.edv 14.06.2021 um 14:52:33 Uhr
Goto Top
Zitat von @wuestenfuchs:
@problem 1: Updates kannst du automatisch einspielen lassen. Nimm eine Distri wie Ubuntu, die macht das von Haus aus. Wenn dir das standardmäßige Update-Intervall zu lange ist, erstelle einen Cron-Job, der dir alle 30 Minuten die neueste Software draufspielt.

Klar geht das nur nutzt das nichts ohne neustart zumindest des Dienstes und der soll ja nicht neu starten wenn der Kunde gerade lädt und damit den Transfer unterbrechen.

Abgesehen davon das bei den Ubuntu-Updates 100 Fragen aufkommen allein schon mit den angepassten Configs und die sind werde alle mit Ja noch alle mit Nein zu beantworten - also wie automatisiert du das?

Zitat von @em-pie:
@problem 2: Nicht immer ist ein zeitnaher Neustart des gesamten Systems nötig. Wenn in SSH oder rsync eine Lücke auftaucht, ist normalerweise überhaupt kein Neustart nötig. Aktualisierte Software drauf, Dienst neu starten (passiert beim Update automatisch), fertig.

Weiß ich auch und der Kunde fliegt dann raus und/oder der Download bricht ab - toll wenn der dann nach zig Wochen daher kommt und Daten vermisst wo ich schon nach 14 Tagen alle Datenträger wieder gewiped habe!

Finde ich dann super!

Zitat von @em-pie:
Kernel-Lücken hingegen, die einen Neustart erfordern, sind (1) eher selten und (2) häufig für Remote-Zugriffe nicht relevant. Da werden meistens Dinge abgedichtet, die dann eine Rolle spielen, wenn man direkt vor der Maschine sitzt. Aber auch da gibt es Lösungen - Ubuntu bietet dir für eine begrenzte Anzahl an Maschinen eine kostenlose Subskription von Kernel Live-Patching an, d.h. du musst selbst bei Kernel-Updates die Maschine nicht neu starten.

Das sollten andere Distros auch ohne können.

Zitat von @em-pie:
@problem 3: Nimm für den SSH-Zugriff ein starkes Passwort oder ein Zertifikat und unterbinde massenhafte Anmeldeversuche mit Software wie Fail2Ban. Die blockt dann wiederholte Angriffsversuche für eine bestimmte Zeit.

Ist mir alles bekannt! Hilft aber bei einem Exploit nichts.

Zitat von @em-pie:
@problem 4 (DSGVO): wenn du alles selbst hostest, ist es IMO viel leichter, die DSGVO einzuhalten, als wenn du dir eine Auftragsdatenverarbeitung mit dem ganzen Ratten###, was das nach sich zieht, an Bord holst.

Weiß ich auch aber ich brauche keinen Ratenschwanz sondern nur ein passendes Tool und damit einen Vertag mit dessen Betreiber.

Zitat von @em-pie:
Egal, für welche Lösung du dich entscheidest, du wirst dich wohl oder übel mit dem "Ding" (ob das jetzt ein Serverdienst bei dir on-premise ist, ein Serverdienst woanders oder einfach eine Client-Software, die bei dir läuft) befassen müssen. Alles, auch Acronis, wird so eingerichtet werden müssen, dass Lücken ausgeschlossen sind. Und alles, auch Acronis, wird gewartet werden müssen.

Das kannst so nicht vergleichen.
em-pie
em-pie 14.06.2021 um 14:58:47 Uhr
Goto Top
Zitat von @pd.edv:
Das ist es was ich mit "so in der Art wie" meinte! Einfach, Austausch der Daten per Browser und dann direkte Verbindung. Wenn das nun auch noch mit einzelnen Dateien und Ordnerstrukturen ginge dann wär das perfekt denn dann wär es mir egal wenn da von den 1,8TB die 4,2GB große Videodatei die abgebrochen ist nochmal neu übertragen wird. Beim 18MB großen Foto ja erst recht.

Hätte ich mit JustBeamIt schon die ultimative Lösung gefunden, müsste ich ja nicht fragen und würde einfach die verwenden!
Wissen wir. Aber hast du die Zeit, den gefundenen Anbieter en Details zu prüfen, sodass zu zu 99% sicher sein kannst, dass er zu keinem Zeitpunkt Kenntnis über deine Daten erlangt?
Und du bist ja der Vertragspartner deines Kunden, wenn er einen Datenmissbrauch feststellt (und auch meldet), bist du erst einmal in der Verantwortung. Und du musst dann nachweisen, dass du dich ggü. deinem Anbieter vertraglich abgesichert hast. Anschließend fänsgt du mit ihm an, in die Verhandlung zu gehen.

Zitat von @em-pie:
Edit: Wobei, zugegegen, der individuelle Port natürlich auch im Kunden-Netz erlaubt sein muss.

... und schon haben wir wieder den Pferdefuß wie bei Torrent oder diversen anderen Lösungen.
Die Variante mit dem (S)FTP (ja, das willst du nicht, haben wir begriffen!) und den dynamischen Ports könnte man auch mit Subdomains und einem Reverseproxy in deiner UTM umgehen.
  • Wird SFTP1.yourCompa.ny aufgeufen, wird die Verbindung zu deiner Internen Maschine recoverXP.internal.lan aufgebaut - Port 22
  • Wird SFTP2.yourCompa.ny aufgerufen, wird die Verbindung zu deiner Internen Maschine recover2000.internal.lan aufgebaut - Port 22
  • Wird SFTP3.yourCompa.ny aufgerufen, wird die Verbindung zu deiner Internen Maschine recover2016.internal.lan aufgebaut - Port 22
Und auf deinen internen Maschinen startest du dann eben den oben verlinkten SFTP-Server (oder was auch immer für einen Dienst)

Du kannst das auch auf 443 umbiegen, nicht schön und Regelkonform, aber wäre machbar.

Nochmal - wäre das Problem so trivial oder meine Anforderungen nicht so spezifisch hätte ich schon längst eine Lösung am laufen!
Wissen wir. Aber du machst den Eindruck einer absoluten Beratungsresistenz und scheinst dir nicht mal die Mühe zu machen, unsere Vorschläge abzuwägen. Wobei das nicht ganz richtig ist, du "redest die Dinge kaputt", genauso wie wir dir aufziegne, dass deine vermeidliche simple Vorstellung so nicht 99%ig sicher ist.
em-pie
em-pie 14.06.2021 um 14:59:55 Uhr
Goto Top
du hast den falschen User als Urheber in den Zitaten eingefügt face-wink
148656
148656 14.06.2021 um 15:09:48 Uhr
Goto Top
Zitat von @Lochkartenstanzer:

Zitat von @AnkhMorpork:

Ihr wollt die 100er-Marke???


Ich muß auf Chips umsteigen. Popcorn ist alle.
Ich wäre für eine leckere Frucht-Bowle.
Vitamine sind wichtig face-smile
lks
C.C.

@uwe: So gemein waren die Kommentare doch gar nicht.
Jeder ließt, was er lesen will. face-smile
Er wird sich schon etwas dabei gedacht haben.
wuestenfuchs
wuestenfuchs 14.06.2021 aktualisiert um 15:23:23 Uhr
Goto Top
Okay, das geht jetzt echt ins Detail. Und du schließt diese Lösung ja für dich selbst schon aus, daher nur kurz und knapp:


Zitat von @pd.edv:

Zitat von @wuestenfuchs:
@problem 1: Updates kannst du automatisch einspielen lassen. Nimm eine Distri wie Ubuntu, die macht das von Haus aus. Wenn dir das standardmäßige Update-Intervall zu lange ist, erstelle einen Cron-Job, der dir alle 30 Minuten die neueste Software draufspielt.

Klar geht das nur nutzt das nichts ohne neustart zumindest des Dienstes und der soll ja nicht neu starten wenn der Kunde gerade lädt und damit den Transfer unterbrechen.

Das ist lösbar.

Abgesehen davon das bei den Ubuntu-Updates 100 Fragen aufkommen allein schon mit den angepassten Configs und die sind werde alle mit Ja noch alle mit Nein zu beantworten - also wie automatisiert du das?

Das ist lösbar.

Zitat von @em-pie:
@problem 2: Nicht immer ist ein zeitnaher Neustart des gesamten Systems nötig. Wenn in SSH oder rsync eine Lücke auftaucht, ist normalerweise überhaupt kein Neustart nötig. Aktualisierte Software drauf, Dienst neu starten (passiert beim Update automatisch), fertig.

Weiß ich auch und der Kunde fliegt dann raus und/oder der Download bricht ab - toll wenn der dann nach zig Wochen daher kommt und Daten vermisst wo ich schon nach 14 Tagen alle Datenträger wieder gewiped habe!

Finde ich dann super!

Ist lösbar, siehe oben.

Zitat von @em-pie:
Kernel-Lücken hingegen, die einen Neustart erfordern, sind (1) eher selten und (2) häufig für Remote-Zugriffe nicht relevant. Da werden meistens Dinge abgedichtet, die dann eine Rolle spielen, wenn man direkt vor der Maschine sitzt. Aber auch da gibt es Lösungen - Ubuntu bietet dir für eine begrenzte Anzahl an Maschinen eine kostenlose Subskription von Kernel Live-Patching an, d.h. du musst selbst bei Kernel-Updates die Maschine nicht neu starten.

Das sollten andere Distros auch ohne können.

Nimm die Distri, die dir am meisten zusagt und bei der du dich am wohlsten fühlst. Kernel Live-Patching, wenn man das denn unbedingt braucht, gibt es nur bei einer Handvoll Distris, und meist nur in Verbindung mit einer kommerziellen Subskription.

Zitat von @em-pie:
@problem 3: Nimm für den SSH-Zugriff ein starkes Passwort oder ein Zertifikat und unterbinde massenhafte Anmeldeversuche mit Software wie Fail2Ban. Die blockt dann wiederholte Angriffsversuche für eine bestimmte Zeit.

Ist mir alles bekannt! Hilft aber bei einem Exploit nichts.

Exploits werden durch Software-Updates geschlossen. Siehe oben.

Zitat von @em-pie:
@problem 4 (DSGVO): wenn du alles selbst hostest, ist es IMO viel leichter, die DSGVO einzuhalten, als wenn du dir eine Auftragsdatenverarbeitung mit dem ganzen Ratten###, was das nach sich zieht, an Bord holst.

Weiß ich auch aber ich brauche keinen Raten### sondern nur ein passendes Tool und damit einen Vertag mit dessen Betreiber.

Lustig, dass das Forum das Wort "Ratten s c h w a n z" automatisch zensiert. Ist mir gar nicht aufgefallen. Aber egal, ich meinte das oben geschriebene anders: bei einem Cloud-Dienst wird es herausfordernd und juristisch lustig, das mit einer Auftragsdatenverarbeitung wasserdicht hinzubekommen. Bei Verträgen mit innerdeutschen Anbietern wird das schon leichter sein. Am einfachsten ist IMO aber noch immer, das selbst anzubieten, dann musst du dich gar nicht mit Auftragsdatenverarbeitung von Drittanbietern befassen.

Zitat von @em-pie:
Egal, für welche Lösung du dich entscheidest, du wirst dich wohl oder übel mit dem "Ding" (ob das jetzt ein Serverdienst bei dir on-premise ist, ein Serverdienst woanders oder einfach eine Client-Software, die bei dir läuft) befassen müssen. Alles, auch Acronis, wird so eingerichtet werden müssen, dass Lücken ausgeschlossen sind. Und alles, auch Acronis, wird gewartet werden müssen.

Das kannst so nicht vergleichen.

Doch, kann ich face-wink Denn wie Kollege @em-pie schon geschrieben hat, gibt es nur zwei Möglichkeiten, wenn nicht in das Netz des Kunden eingegriffen werden soll: 1. selbst hosten - dann kannst du bei so überschaubaren Anforderungen wie den deinen die DSGVO recht einfach erfüllen - oder 2. irgendeinen Cloud-Dienst als Mittelsmann nutzen. Und sobald du einen Dienst oder Teile davon über einen Dritten abwickelst, schlägt die DSGVO (zu recht!) mit voller Wucht zu. In beiden Fällen liegt die Verantwortung gegenüber dem Kunden bei dir und bei Haftungsfragen bist du der erste Ansprechpartner.
pd.edv
pd.edv 14.06.2021 um 15:20:55 Uhr
Goto Top
Zitat von @em-pie:
Wissen wir. Aber hast du die Zeit, den gefundenen Anbieter en Details zu prüfen, sodass zu zu 99% sicher sein kannst, dass er zu keinem Zeitpunkt Kenntnis über deine Daten erlangt?
Und du bist ja der Vertragspartner deines Kunden, wenn er einen Datenmissbrauch feststellt (und auch meldet), bist du erst einmal in der Verantwortung. Und du musst dann nachweisen, dass du dich ggü. deinem Anbieter vertraglich abgesichert hast. Anschließend fänsgt du mit ihm an, in die Verhandlung zu gehen.

Und es ist dann besser wenn ich 2 Wochen lang kein Update einspiele und dann dafür verantwortlich bin, dass 12k Patientenakten geleakt werden?!

Da nehme ich lieber die Variante 1 in Kauf und arbeite mit einer entsprechenden Firma zusammen die mir entsprechende Verträge anbietet oder die Bastel-Variante mit Tracker und Torrent von LKS mit einem GUI-Frontend.

Zitat von @em-pie:
Die Variante mit dem (S)FTP (ja, das willst du nicht, haben wir begriffen!) und den dynamischen Ports könnte man auch mit Subdomains und einem Reverseproxy in deiner UTM umgehen.
  • Wird SFTP1.yourCompa.ny aufgeufen, wird die Verbindung zu deiner Internen Maschine recoverXP.internal.lan aufgebaut - Port 22
  • Wird SFTP2.yourCompa.ny aufgerufen, wird die Verbindung zu deiner Internen Maschine recover2000.internal.lan aufgebaut - Port 22
  • Wird SFTP3.yourCompa.ny aufgerufen, wird die Verbindung zu deiner Internen Maschine recover2016.internal.lan aufgebaut - Port 22
Und auf deinen internen Maschinen startest du dann eben den oben verlinkten SFTP-Server (oder was auch immer für einen Dienst)
Du kannst das auch auf 443 umbiegen, nicht schön und Regelkonform, aber wäre machbar.

Klar geht das aber wie gesagt das will ich nicht anfangen. Weder bin ich fehlerfrei noch kontrolliert einer ob ich nichts falsch mache, übersehe oder vergesse und darum will ich das nicht. Da setze ich lieber auf einen Anbieter mit entsprechendem Personal der das für hunderte Kunden macht. Denn das wird dann viel viel billiger als jemanden zu zahlen der das für meinen eigenen Server macht.

Zitat von @em-pie:
Wissen wir. Aber du machst den Eindruck einer absoluten Beratungsresistenz und scheinst dir nicht mal die Mühe zu machen, unsere Vorschläge abzuwägen. Wobei das nicht ganz richtig ist, du "redest die Dinge kaputt", genauso wie wir dir aufziegne, dass deine vermeidliche simple Vorstellung so nicht 99%ig sicher ist.

Stimmt schon nur kann ich da Verantwortung zu einem bestimmte Teil abgeben. Und wenn ich selber etwas mache denn definitiv eher Torrent oder WebRTC als rcync oder sonstige Cloud-Server.

Ich wäge sehr wohl ab aber das hab ich schon vor Monaten und auch mögliche Probleme durchgespielt und verworfen. Ich kenne mich, meine Arbeit und meine Auslastung und kann keinesfalls guten Gewissens einen solchen Server betreiben. Es fehlt an Zeit und oftmals an Möglichkeiten diese so ordentlich zu warten wie ich es erwarten würde.

Daher fällt das flach.

Zitat von @em-pie:
du hast den falschen User als Urheber in den Zitaten eingefügt face-wink face-wink

Ups, sorry.
148656
148656 14.06.2021 um 15:23:41 Uhr
Goto Top
Netzwerksicherheit kann man auf ganz vielen Wegen erreichen.
Nur weil sich Rechner im selben Netz befinden, müssen sie sich nicht zwangsläufig sehen oder dürfen miteinander kommunizieren.

Und Daten würde ich niemals unkomprimiert zum Download bereit stellen. Was bringt dir eine Gigabit-Leitung wenn du 200GB an kleinen 1Kbit Files hast? Da bringen dich 10G-Netzwerkkarten auch nicht schneller ans Ziel.
pd.edv
pd.edv 14.06.2021 aktualisiert um 15:42:07 Uhr
Goto Top
Zitat von @148656:
Netzwerksicherheit kann man auf ganz vielen Wegen erreichen.
Nur weil sich Rechner im selben Netz befinden, müssen sie sich nicht zwangsläufig sehen oder dürfen miteinander kommunizieren.

Ist mir bewusst - nur wo liegt dann der Vorteil darin wenn die sich nicht sehen und nicht mit einander kommunizieren?! Wie sollen dann die Daten von dem einen auf den anderen rüber?!

Zitat von @148656:
Und Daten würde ich niemals unkomprimiert zum Download bereit stellen. Was bringt dir eine Gigabit-Leitung wenn du 200GB an kleinen 1Kbit Files hast? Da bringen dich 10G-Netzwerkkarten auch nicht schneller ans Ziel.

Ja es ist dann besser wenn ich 1,8TB auf 1,6TB komrimiere. Oma Ilse lädt die dann und kann die nicht auspacken weil die nur noch 300GB auf der 2TB platte frei hat.

Also schmeiße ich die 1,6TB Datei weg, schicke ich Ihr einen Tein in einer 900GB-Datei die Sie dann auspackt und dann hat Sie 1TB voll. Also schicke ich ihr dann 400GB die dann entpackt werden und dann sind noch noch 500GB frei also muss der nächste Teil 200GB haben und dann noch 2 x 100 GB.

Oma Ilse ist in Pension und hat Zeit und spart sich lieber 100 EUR für eine HDD und den Versand. Ich will habe nicht mit Oma Ilse 5-10 Tage herumsch***en denn dafür zahlt Oma Ilse zu wenig.

Schiebe ich das Zeug offen rüber dann soll das 24h länger brauchen - die Rechner laufen ohnehin 24/7 durch und das bisschen Strom macht mich nicht arm.

Du sprichst von Maschinen-Arbeitszeit die ein paar Cent Strom kostet und ich spreche von meiner Arbeitszeit die ich anderweitig sinnvoller nutzen kann indem ich an einem Buch schreibe, an einem anderen Projekt arbeite oder Taschenbillard spiele - alles besser als mit Oma Ilse 5 x den Download und das Entpacken am Telefon durchzubesprechen und Tagelang Daten zu packen, hochzuladen und dann wieder von vorne.

Wie gesagt - manche Kunden haben Zeit und wenn die sich 80-100 EUR sparen spielen die gern rum - ich aber nicht. Also brauche ich eine Lösung die mich entlastet.
wuestenfuchs
wuestenfuchs 14.06.2021 um 15:45:11 Uhr
Goto Top
Zitat von @pd.edv:
Und es ist dann besser wenn ich 2 Wochen lang kein Update einspiele und dann dafür verantwortlich bin, dass 12k Patientenakten geleakt werden?!

Warte mal... wir reden hier von Patientendaten? Das sind besonders schützenswerte Daten. Dann spielen wir aber in einer ganz anderen Liga als das, von dem du bisher so erzählt hast.

Ganz ehrlich - und wirklich nicht böse gemeint: von dem, was ich von dir hier lese und mitbekomme, glaube ich nicht, dass du der Sache gewachsen bist.

Du redest von Torrents und dass du notfalls die nötige Software selbst stricken willst. Suchst eine All-Inklusive-Lösung, die keinen Aufwand und keine Verantwortung mit sich bringen darf, gleichzeitig wenig bis nichts kosten soll. Und das bei Patientendaten??

Patientendaten gehören nicht über irgendwelche obskuren Internetdienste rund um die Welt geschickt.
Da gibt es Gesetze, Richtlinien und normative Anforderungen dafür. Und du selbst als Auftragsdatenverarbeiter solltest ebenfalls zertifiziert sein. Was du offensichtlich nicht bist.

Bisher wars ja noch irgendwie nett mit Oma Ilse, aber hier steige ich mal lieber aus, denn das wird mir nämlich ordentlich zu heiß.
Lochkartenstanzer
Lochkartenstanzer 14.06.2021 um 16:01:37 Uhr
Goto Top
Zitat von @wuestenfuchs:

Zitat von @pd.edv:
Und es ist dann besser wenn ich 2 Wochen lang kein Update einspiele und dann dafür verantwortlich bin, dass 12k Patientenakten geleakt werden?!

Warte mal... wir reden hier von Patientendaten? Das sind besonders schützenswerte Daten. Dann spielen wir aber in einer ganz anderen Liga als das, von dem du bisher so erzählt hast.

Ärzte und Krankenhäuser sind sehr knausrig bei Ihren Ausgaben. Da wird jeder Cent gespart, manchmal sogar wenn es mehr kostet. face-smile

lks

PS: 101
pd.edv
pd.edv 14.06.2021 um 16:07:55 Uhr
Goto Top
Zitat von @wuestenfuchs:
Warte mal... wir reden hier von Patientendaten? Das sind besonders schützenswerte Daten. Dann spielen wir aber in einer ganz anderen Liga als das, von dem du bisher so erzählt hast.

Ja und von Anwälten, Notare, Firmen oder eben Oma Ilse - wer auch immer eine defekte Platte hat.

Zitat von @wuestenfuchs:
Du redest von Torrents und dass du notfalls die nötige Software selbst stricken willst. Suchst eine All-Inklusive-Lösung, die keinen Aufwand und keine Verantwortung mit sich bringen darf, gleichzeitig wenig bis nichts kosten soll. Und das bei Patientendaten??

Richtig - ich suche einen Weg diese entsprechend wieder zu liefern und um ganz ehrlich zu sein bei vielen Firmen kann ich die Daten nicht mal lesen weil ich nicht die entsprechende Software habe. Also kann ich da nicht mal sagen was genau da drin steckt in diversen Datenbaken, etc.

Daher kommt auch kein offener Transport über entsprechende Clouds in frage.

Zitat von @wuestenfuchs:
Patientendaten gehören nicht über irgendwelche obskuren Internetdienste rund um die Welt geschickt.

Richtig - zumindest nicht ungesichert.

Zitat von @wuestenfuchs:
Bisher wars ja noch irgendwie nett mit Oma Ilse, aber hier steige ich mal lieber aus, denn das wird mir nämlich ordentlich zu heiß.

Genau darum will ich keine entsprechenden Server betreiben. Nimm zB DFL URE - das mehr oder weniger einzige Tool, das sich auf USB-Platten wie WD Elements oder WD Passport spezialisiert hat ohne das ich das Zeug extra aus SATA umbauen muss. Leider Läuft das Ding nicht rund mit Win. 10 sondern nur auf Win 7. Bei Win 10 gibt es nur einen Bluescreen wenn ich per UART auf die Platte zugreife.

Also läuft das Ding falls nötig auf einem eigenen Laptop der noch Win 7 drauf hat.

Nur so ein Beispiel für Dinge die ich kaum Ändern kann und mit denen ich leben muss.

Der Kunde hat die freie Wahl wie der die Daten will und in der Regel muss der Anwalt oder Arzt keine 100 EUR sparen aber dennoch ist es durchaus drin, das dieser aus welchen Grund auch immer eine elektronische Lieferung wünscht.

Ich hab schon Ahnung womit ich arbeite - keine Sorge. Was denkst du womit ich bei Forensik teilweise zu tun habe? Und was senkst du warum ich so strikt gegen eigene Server bin?!
pd.edv
pd.edv 14.06.2021 um 16:09:11 Uhr
Goto Top
Zitat von @Lochkartenstanzer:
Ärzte und Krankenhäuser sind sehr knausrig bei Ihren Ausgaben. Da wird jeder Cent gespart, manchmal sogar wenn es mehr kostet. face-smile

Eher Krankenhäuser - da ist auch oft die Sicherheit ein Witz aber bei Ärzten hatte ich das noch nicht!
pd.edv
pd.edv 14.06.2021 um 16:18:25 Uhr
Goto Top
Zitat von @wuestenfuchs:
Warte mal... wir reden hier von Patientendaten? Das sind besonders schützenswerte Daten. Dann spielen wir aber in einer ganz anderen Liga als das, von dem du bisher so erzählt hast.
Bisher wars ja noch irgendwie nett mit Oma Ilse, aber hier steige ich mal lieber aus, denn das wird mir nämlich ordentlich zu heiß.

Übrigens - die diversen Datenbanken von diversen Ärzte-Tools sind großteils auch gesichert und ohne teure Arzt-Software und Passwort kommst du da eh nicht weiter.

Aber Oma Ilse dreht völlig am Rad wenn ihr Oben Ohne Selfie mit den Hänget***en dann plötzlich als Meme durch das Netz geistert.

Nur mal so nebenbei. Aber keine Daten dürfen geleaked werden. Da wäre ich als Firma ganz schnell weg vom Fenster und bis jetzt steckt mehr im Labor als in meine Wohnung. Also ist mir das alles wohl bewusst denn für mich geht es hier nicht nur um Daten sondern um meine Existenz.

Und genau darum habe ich bestimmte Regeln die ich einhalten will. Sofern ich einen verschlüsselten Tunnel über irgend einen Vermittler hinbekomme soll es mir egal sein ob das nur Torrent oder sonst was ist das verwendet wird und ob ich diesen Vermittler selber stelle oder miete.
em-pie
em-pie 14.06.2021 aktualisiert um 16:28:06 Uhr
Goto Top
Mal völlig einfach und ohne technische Tools genannt, wäre nicht folgendes möglich (erst lesen, dann "meckern" face-wink)?

  • Du stellt deine Daten in einer DMZ bereit
  • Du versendest ein kleines Tool, welches per "Doppelklick" einen Mikro-VPN-Tunnel aufbaut.
  • Nachdem der Tunnel aufgebaut wurde, öffnet sich der Windows-Explorer und die Leute können selbst Copy&Paste betreiben
  • nach 10 Tagen verliert der Tunnel seine Gültigkeit, sprich, es kann keine Verbindung mehr aufgebaut werden. AUßer, du sendest einen neuen Zugang.
Vorteil: die Leute können selbst bestimmen, welche Daten sie tatsächlich wieder haben wollen. Das schont deine und deren Zeit sowie Bandbreite.
Nachteil: DU müsstest hinterherrennen und fragen "Haben Sie alles kopiert?" Ggf. kann aber systemseitig noch eine Mail-Versand werden, alá "Denken Sie dran, Ihre Daten abzuholen!"

Und ja, ich habe begriffen, dass du keine Pflegeaufwand haben willst, aber wie schreibst du denen denn eine Rechnung? Da musst du ja auch Kontaktdaten pflegen face-wink


Wenn dir das vom Funktionsumfang ausreicht, kann man sich an die Umsetzung und Suche nach geeigneten Tools/ Anwendungen machen, das zu lösen.
pd.edv
pd.edv 14.06.2021 aktualisiert um 16:44:18 Uhr
Goto Top
Zitat von @em-pie:
  • Du stellt deine Daten in einer DMZ bereit

Gut wie bekomme ich die Daten auf den Server? Wie sichere ich das vor unbefugtem Zugriff? Wie kann ich mehrere Kunden auf einem Server bereitstellen und diese von einander abgrenzen? usw. Quasi alle meine Fragen/Probleme von beginn an.

Perfekte Lösung wenn der Server mit einem Vermittler ersetzt wird und der Kunde auf einen bestimmten Ordner limitiert ist den ich direkt von dem PC freigeben kann auf dem die Daten wiederhergestellt werden.

Zitat von @em-pie:
Wenn dir das vom Funktionsumfang ausreicht, kann man sich an die Umsetzung und Suche nach geeigneten Tools/ Anwendungen machen, das zu lösen.

Wäre im Grunde das was ich eh schon habe bzw. könnte ich mir sparen die Daten zu packen aber rumkopieren muss ich das zeug immer noch. Ganz ehrlich - da gefällt mir die Torrent-Variante von LKS noch besser.

Die brauche keine Daten bei mir aussortieren das dauert dann Wochen. Je nach dem wie zerschossen das Dateisystem war gibt es viele Dateien in verschiedenen Varianten und die müssen die ohnehin laden und öffnen und prüfen.

Gewisse Dinge wie den Programme- oder Windows-Ordner schließe ich bei der Wiederherstellung nach Rücksprache ohnehin aus aber das letzt was ich will ist, dass Oma Irma dann 4 Wochen lang Ihre Urlaubsfotos aussortiert.

Kunden bekommen eine Dateiliste vorab um zu prüfen ob das wichtigste da ist und dann werden nach Rücksprache die Daten wiederhergestellt und auch mal Ordner ausgelassen.

Gut gedacht aber nicht was ich suche bzw. wäre es mir notfalls noch egal wenn die dann Lange brauchen wenn das mit dem Dienst und dem herumschieben im Netzwerk nicht wäre. Ob ich nun stundenlang packe, daran denken muss die dann Hochzuladen in die Cloud oder stundenlang Kopiere und dann daran denken muss den Link oder die Datei zu versenden ist das gleiche.

Ich sehe halt keine Verbesserung der Situation aber 3 Server die ich kaufen darf + Platten. Denn jeder sollte zumindest mal 8-12TB haben für den Fall, dass man 3 oder 4 Kunden zusammen kommen oder etwas großes wie ein RAID dabei ist.

Aber rein aus interesse - an welche Lösung denkst du?
148656
148656 14.06.2021 um 17:16:07 Uhr
Goto Top
Zitat von @pd.edv:

Zitat von @148656:
Netzwerksicherheit kann man auf ganz vielen Wegen erreichen.
Nur weil sich Rechner im selben Netz befinden, müssen sie sich nicht zwangsläufig sehen oder dürfen miteinander kommunizieren.

Ist mir bewusst - nur wo liegt dann der Vorteil darin wenn die sich nicht sehen und nicht mit einander kommunizieren?! Wie sollen dann die Daten von dem einen auf den anderen rüber?!
Oha, also für ein "Redesign des Netzwerkes" brauch ich dich also nicht anheuern.

Die Frage ist gelöst, also sind alle Klarheiten beseitigt. face-wink

Viel Erfolg
C.C.
pd.edv
pd.edv 14.06.2021 aktualisiert um 17:47:30 Uhr
Goto Top
Zitat von @148656:
Oha, also für ein "Redesign des Netzwerkes" brauch ich dich also nicht anheuern.

Ich verstehe das echt nicht warum es nicht möglich ist mit Leute im Internet vernünftig zu reden und sachlich an einer Lösung zu arbeiten oder sich normal zu unterhalten?!

Ich bin schon vor Gericht weniger im Kreuzverhör gestanden als in Foren.

Es ist mir sowas von sch###egal was irgendwer davon hat Systeme von einander anzuschotten und klar gibt es immer Wege nur habe ich das alles schon. Ihr nennt mir immer wieder das was ich schon habe und versucht mir den gleichen Käse mit den gleichen Problemen auf eine andere Weise neu zu verkaufen.

Wenn ich Daten nicht sicher von da wo die jetzt sind weg senden kann und das Zeug erst rumkopieren muss oder sonst was damit machen wie zB packen dann gewinne ich nichts denn das mach ich seit 2 Jahren und das geht mir seit 2 Jahren auf die Ei##.

Es nützt also rein gar nichts! Ich brauche eine Lösung dir mir etwas bringt und die für mich passt. Was anderen hilft oder was für die passt ist mir ehrlich gesagt völlig egal - die könnten sich meinetwegen auch mit Benzin übergießen und abfackeln.

Ja ich bin ein herzloses Schwein das völlig selbstsüchtig ist, neu seine Bedürfnisse und Wünsche sieht und dem alles andere was andere machen und warum die es machen völlig egal ist.

Also ist es dann endlich möglich nicht jede Aussage auf die Goldwage zu legen nur weil ich wieder mal "für mich" nicht in den Satz eingebaut habe?! Oder machen wir es so denkt eich einfach das "für mich" in jedem einzelnen Satz den ich geschrieben habe dazu. Bitte!

Vor lauer sinnlosen Diskussionen finde ich bald die 2 oder 3 hilfreichen Tipps nicht mehr. Auerßdem fehlt mir der Nerv jeden Satz 5 mal zu überdenken und 3x nachzubessern und 2 Leute darüberlesen zu lassen damit jede Aussage wasserdicht formuliert ist wie in einem Gutachten.

Ich hab keinerlei Interesse an einem Intelligenzwettbewerb oder einer Runde Schw***längenvergleich - ich suche nur eine Lösung die für auf meine Anforderungen passt, muss nebenbei mit Kunden Telefonieren und Arbeiten und springe zwischen 2 oder 3 Dingen hin und her und hab wirklich keinen Kopf dafür.

Das kann doch nicht so schwer sein zu sagen: "Na ich würde es mit einem XYZ-Server machen aber wenn dir das nicht gefällt dann bin ich raus". Dann hätten wir 90% wenig Posts und eventuell wären noch 1 oder 2 Ideen gekommen von Leuten die jetzt wahrscheinlich keine Lust haben sich durch den ganzen Käse zu lesen - würde ich auch nicht machen so ganz nebenbei.

Ich hafte mit allem was ich habe, ich habe sehr viel Geld investiert und ich habe dutzende Verträge und Haftungserklärungen, etc. unterschieben - wenn du die übernehmen willst dann kannst gern herstellen was du willst. So lange meine gesamte Existenz und zig Jahre Arbeit darin stecken erlaube ich mir selber zu entscheiden was ich machen will und wie ich etwas umsetzen will und was ich persönlich für sicher oder nicht erachte auch wenn ihr mich alle für Dumm, Beratungsresistent oder sonst was haltet.
Lochkartenstanzer
Lochkartenstanzer 14.06.2021 aktualisiert um 17:53:17 Uhr
Goto Top
Zitat von @pd.edv:

..

Komm laß gut sein. alles Wesentliche ist geschwätzt, draußen ist Biergartenwetter und Du schaust jetzt einfach mal was Du von den Tipps verwerten kannst.

Ansonsten läuft das hier aus dem Ruder und das muß nicht sein.

mich schon auf den Biergarten und und das belegte italienische Fladenbrot aus dem Holzofen freu

lks
148656
148656 14.06.2021 um 18:03:03 Uhr
Goto Top
Nanana, sei mal nicht so hart zu dir. Du bist überarbeitet, unausgeschlafen und unterhopft.
Die Kollegen haben dir mehr als genug Informationen zur Lösung deiner Probleme gegeben. Was du daraus machst, ist dir überlassen. Aber wenn jemand deine Probleme lösen soll, ist das ein anderes Thema.

Viel Erfolg
C.C.

P.S.
Ja, ich habe einen Pferdeschwanz. Aber was hat meine Haarpracht mit IT zu tun?
pd.edv
pd.edv 14.06.2021 aktualisiert um 18:24:49 Uhr
Goto Top
Trinkt eins für mich mit - ich hab noch 4-5h Arbeit vor mir...

@lks - ich spiel mich gerade mit einem torrent aber bei 1.8TB stürzt mit der Client beim erstellen ab. Ich werde mal diverse ausprobieren aber wie gesagt - super finde ich die Lösung noch nicht.
Lochkartenstanzer
Lochkartenstanzer 14.06.2021 um 18:39:32 Uhr
Goto Top
Zitat von @pd.edv:

Trinkt eins für mich mit - ich hab noch 4-5h Arbeit vor mir...

@lks - ich spiel mich gerade mit einem torrent aber bei 1.8TB stürzt mit der Client beim erstellen ab.

Am Stück oder viele einzelne Dateien?

ggf. mehrere Torrentdateien daraus machen.

lks
pd.edv
pd.edv 14.06.2021 um 18:53:58 Uhr
Goto Top
177.833 Dateien.

Transmission läuft schon besser als uTorrent aber weißt du wie es mit Verschlüsselung und Sicherheit bei einem eigenen Tracker aussieht - komm ich zB an Daten wenn ich den Tracker übernehme oder kann ich bestenfalls die Verbindung stören?

Aber Torrent-Datei schreiben ist auch nicht viel scheller als packen - aber das sollte ich mit einem Script automatisieren können.

Und läuft der Transfer dann verschlüsselt oder nicht - das hab ich noch nicht ganz gecheckt. Hab zu meiner Schande Torrent auch nie selber benutzt oder darüber was geteilt oder geladen.
Vision2015
Vision2015 14.06.2021 um 21:42:12 Uhr
Goto Top
moin...

ich persönlich finde, das ein UPS/DPD/DHL versand am besten und am schnellsten geht... und ja, du hast recht, mit deiner 1 Mann klitsche wäre eine serverlösung vom aufwand zu viel, entweder du stellst da jemanden ein, oder du lässt es besser!
allerdings denke ich auch, das deine torrent lösung oder was auch immer für ein 1 click billig hoster lösung nicht der geeigneter Ort
für wichtige kunde daten sind. egal ob Oma Erna, oder KMU, wenn du mir als kunde mit sowas kommen würdest, würde ich von deiner Dienstleistung abstand nehmen. es mag ja 100 euro oder mehr kosten, die datenträger zu transportieren, dein job wird wohl teurer werden, und wenn die daten nicht wichtig wären, würde sich keiner bei dir melden!
du machst bestimmt ein prima job, das möchte ich dir nicht absprechen, aber mit solchen aktionen wertest du deine arbeit nur ab..

Frank
pd.edv
pd.edv 14.06.2021 um 23:54:48 Uhr
Goto Top
Schau der Kunde hat die Wahl zwischen eigener Platte mitschicken, Platte kaufen oder zurückschicken und Download. Viele wählen den Download also warum nicht - ich muss nur eine entsprechend passende Lösung finden...

Wieso sollte ich also mit etwas aufhören was scheinbar viele wollen.
Vision2015
Vision2015 15.06.2021 um 06:19:28 Uhr
Goto Top
moin...
Zitat von @pd.edv:

Schau der Kunde hat die Wahl zwischen eigener Platte mitschicken, Platte kaufen oder zurückschicken und Download. Viele wählen den Download also warum nicht - ich muss nur eine entsprechend passende Lösung finden...

Wieso sollte ich also mit etwas aufhören was scheinbar viele wollen.
weil du nicht mal selber genau weißt wo die Daten liegen!
auf der einen seite machst du dir sorgen um datensicherheit dann widerum parkst du deine daten irgendwo im web!
Frank
SPSman
SPSman 15.06.2021 um 07:24:57 Uhr
Goto Top
Zitat von @pd.edv:
Zitat von @SPSman:
Kosten -> Ca. 20€/Monat + Einmalig Speicherplatz

Preislich human aber was meinst du mit dem Speicherplatz? Dachte die Daten liegen bei mir?

Hi, ja die Daten liegen bei dir. Allerdings packt Acronis sie in eine Datenbank. D.h. Du kopierst sie erst lokal nach Acronis und dann kann der User sich die Daten runterladen.
pd.edv
pd.edv 15.06.2021 um 08:48:51 Uhr
Goto Top
Zitat von @Vision2015:
weil du nicht mal selber genau weißt wo die Daten liegen!

Das weiß ich beim Paketversand auch nicht - da werden Pakete die vom Datenrettungslabot kommen auch vor die Türe der Arzpraxis gelegt. Oder es gehen Platten mal verloren...

Daher muss ich in beiden Fällen die Daten zusätzlich sichern damit die eben keiner öffnen kann außer dem Empfänger. Oder glaubt Ihr ich bin wirklich völlig Hirn- und Verantwortungslos?!
Vision2015
Vision2015 15.06.2021 um 08:57:31 Uhr
Goto Top
moin...
Zitat von @pd.edv:

Zitat von @Vision2015:
weil du nicht mal selber genau weißt wo die Daten liegen!

Das weiß ich beim Paketversand auch nicht - da werden Pakete die vom Datenrettungslabot kommen auch vor die Türe der Arzpraxis gelegt. Oder es gehen Platten mal verloren...
also solche pakete werden nicht vor Türen gelegt, sondern nur gegen unterschrift ausgehändigt..


Daher muss ich in beiden Fällen die Daten zusätzlich sichern damit die eben keiner öffnen kann außer dem Empfänger. Oder glaubt Ihr ich bin wirklich völlig Hirn- und Verantwortungslos?!
das sagt ja keiner... ich sage nur meine meinung dazu!
ist es deine sache, was du da machst!
Frank
stefante
stefante 15.06.2021 um 09:37:39 Uhr
Goto Top
Ich habe eben mal mit dem Beaker Browser experimentiert.

https://beakerbrowser.com/

Man kann dort ein sogenanntes Hyperdrive erstellen und mit seinen lokalen Dateien verknüpfen.
Der Empfänger muss auch diesen Browser installiert haben.
Den Link zum Hyperdrive (hyper://73e9u....) z.B. per Mail an den Empfänger schicken.
Wenn der ihn im Beaker Browser öffnet, kann er die freigegebenen Dateien sehen und "exportieren" (nennt sich so),
d.h. praktisch herunterladen.

Die Browser "unterhalten" sich P2P.

Ich finde, das ist ein interessanter Ansatz!
pd.edv
pd.edv 15.06.2021 aktualisiert um 09:54:30 Uhr
Goto Top
Zitat von @Vision2015:
also solche pakete werden nicht vor Türen gelegt, sondern nur gegen unterschrift ausgehändigt..

Leider nein - das ist keine Theorie sondern eine bewiesene Tatsache vor allem in Zeiten von Corona. Ich könnte 30-50% meiner Pakete reklamieren weil es keine Unterschŕiften gibt. Dabei ist es egal ob die nach DE, AT, HU, NL, IT oder FR gehen...

Ich bekomme täglich Pakete und wenn ich bei jedem 2. oder 3. nach einer Unterschrift gefragt werde ist das viel. Dabei ist es völlig egal ob UPS, DHL, DPD oder die Post selber zustellt.

Manche Pakete gehen durch 3 Länder mit 3 versch. Kooperationspartnern und sind dann unter 3 versch. Sendungsnummern geführt.

Das da nicht mehr schief geht ist quasi ein Wunder! Und ich kann ein Lied davon singen denn ich bekomme 98% meiner Arbeit durch Paketdienste denn in den kleinen Ort in dem ich sitze hab ich max. 2-3 Kunden / Jahr und von denen könnte ich nicht leben :D

Zitat von @stefante:
Ich habe eben mal mit dem Beaker Browser experimentiert.

Interessant - danke für den Tip.
Vision2015
Vision2015 15.06.2021 um 09:59:45 Uhr
Goto Top
moin...
Zitat von @pd.edv:

Zitat von @Vision2015:
also solche pakete werden nicht vor Türen gelegt, sondern nur gegen unterschrift ausgehändigt..

Leider nein - das ist keine Theorie sondern eine bewiesene Tatsache vor allem in Zeiten von Corona. Ich könnte 30-50% meiner Pakete reklamieren weil es keine Unterschŕiften gibt. Dabei ist es egal ob die nach DE, AT, HU, NL, IT oder FR gehen...
nö... wir versenden auch viele Pakete Täglich, klar, wenn du Standardversand nutzt, legen die das Paket vor die Tür, wenn du eine unterschrift, oder den nachweis haben willst, muss der empfänger das mit seinem Perso Quittieren!
das muss aber von die extra beauftragt werden, und klappt immer zu 100%

Ich bekomme täglich Pakete und wenn ich bei jedem 2. oder 3. nach einer Unterschrift gefragt werde ist das viel. Dabei ist es völlig egal ob UPS, DHL, DPD oder die Post selber zustellt.
Standardversand eben...

Manche Pakete gehen durch 3 Länder mit 3 versch. Kooperationspartnern und sind dann unter 3 versch. Sendungsnummern geführt.
tja.. es kommt auf den versand an...

Das da nicht mehr schief geht ist quasi ein Wunder! Und ich kann ein Lied davon singen denn ich bekomme 98% meiner Arbeit durch Paketdienste denn in den kleinen Ort in dem ich sitze hab ich max. 2-3 Kunden / Jahr und von denen könnte ich nicht leben :D

Zitat von @stefante:
Ich habe eben mal mit dem Beaker Browser experimentiert.

Interessant - danke für den Tip.
Frank
pd.edv
pd.edv 15.06.2021 aktualisiert um 10:35:58 Uhr
Goto Top
Zitat von @Vision2015:
nö... wir versenden auch viele Pakete Täglich, klar, wenn du Standardversand nutzt, legen die das Paket vor die Tür, wenn du eine unterschrift, oder den nachweis haben willst, muss der empfänger das mit seinem Perso Quittieren!
das muss aber von die extra beauftragt werden, und klappt immer zu 100%

Mag eventuell in DE klappen aber ich sitze im ehem. Ostblock und da kann ich beauftragen was ich will - klappt nicht und/oder wird nicht weitergegeben.

Dito beim Einschreiben mit der Post - 50% ohne Unterschrift am Zustellnachweis. Ich hatte schon gerichtliche Ladungen im Briefkasten.

Bei den Paket-Shops das gleiche Desaster - da muss ich mal unterschreiben und den Ausweis zeigen und mal nicht. Wie die lustig sind. Geht ja zu 99% eh gut und Menschen sind faul.
Lochkartenstanzer
Lochkartenstanzer 15.06.2021 um 10:37:27 Uhr
Goto Top
Zitat von @pd.edv:

Bei den Paket-Shops das gleiche Desaster - da muss ich mal unterschreiben und den Ausweis zeigen und mal nicht. Wie die lustig sind. Geht ja zu 99% eh gut und Menschen sind faul.


Dann nimm Kurierdienste. Die müssen das persönlich zustellen.

lks
pd.edv
pd.edv 15.06.2021 um 10:58:56 Uhr
Goto Top
Zitat von @Lochkartenstanzer:
Dann nimm Kurierdienste. Die müssen das persönlich zustellen.

Klar Ihr lebt seit 10 Jahren hier und kennt euch aus - lassen wir das das eskaliert wieder. Ich bin halt zu blöd für alles.
Lochkartenstanzer
Lochkartenstanzer 15.06.2021 um 11:53:10 Uhr
Goto Top
Zitat von @pd.edv:

Zitat von @Lochkartenstanzer:
Dann nimm Kurierdienste. Die müssen das persönlich zustellen.

Klar Ihr lebt seit 10 Jahren hier und kennt euch aus - lassen wir das das eskaliert wieder. Ich bin halt zu blöd für alles.


Kroll-Ontrack stellt auf Wunsch per Kurier zu. Funktioniert wunderbar.

lks
Vision2015
Vision2015 15.06.2021 um 13:02:17 Uhr
Goto Top
Zitat von @Lochkartenstanzer:

Zitat von @pd.edv:

Zitat von @Lochkartenstanzer:
Dann nimm Kurierdienste. Die müssen das persönlich zustellen.

Klar Ihr lebt seit 10 Jahren hier und kennt euch aus - lassen wir das das eskaliert wieder. Ich bin halt zu blöd für alles.


Kroll-Ontrack stellt auf Wunsch per Kurier zu. Funktioniert wunderbar.
jo...
und wenn ich ein paket versende, und will eine Unterschrift und altersnachweis mit Perso (FSK18) bekomme ich das auch!
sogar im Osten!

lks

Frank
pd.edv
pd.edv 15.06.2021 aktualisiert um 13:17:39 Uhr
Goto Top
Zitat von @Lochkartenstanzer:
Kroll-Ontrack stellt auf Wunsch per Kurier zu. Funktioniert wunderbar.

Wo in Spanien? Italien? Frankreich? Ungarn? Polen? Österreich?

Wenn doch jeder alles richtig macht und alles immer so toll klappt warum brauchen wir dann Sachverständige, Pentester, Gerichte, Anwälte, usw.

Ich ärgern solche platten Aussagen dermaßen das ich schon richtig Schmerzen in der Brust habe.

Ich mach seit 5,5 Jahren nichts anderes als den Mist von Anderen auszubessern, aufzudecken und zu bewerten. Mein ganzes Leben dreht sich nur um die Blödheiten und Fehler der anderen und ich hab teilweise so viel zu tun, dass ich es gar nicht mehr schaffe und an andere Kollegen Arbeit weiterreichen muss.

Aber klar - ist ja immer alles schick und klappt ja immer alles zumindest bis es dem schlecht bezahlen Typen der kaum deutsch kann irgendwann mal egal ist wie und wo der ein Paket abliefert oder der Elekrogroßmarkt-Verkäufer ein RAID als ausfallssicheres automatisches Backup verkauft und dabei Übersieht, dass die Marketing-Abteilung lieber 4TB als 2TB auf die Packung schreiben will und daher das Ding als RAID0 vorkonfiguriert ist oder oder oder.

Ich hatte schon unverschlüsselte Kreditkartendaten in einer Access-DB mit ein paar Makros die dann als Programm verkauft wurde am Tisch und was weiß ich nicht noch für Mist.

Frage mich auch warum ich von 20% der IT-Techniker Platten bekomme die mit Recuva & Co. zu tode analysiert wurden oder warum da Platten über Nacht mal eben unbeaufsichtigt laufen und dann die Magnetscheiben völlig im A... sind.

Und ich frage mich warum ich für 50 Cent bis 1 EUR / Stück bei zig Firmen alte Platten in Bausch und Bogen kaufen konnte und bei ca. 1/3 davon noch Kundendaten drauf sind. Und da spreche ich nicht von vor 10 Jahren sondern zB von der Lieferung die letzten Freitag kam und die ich über das Wochenende gewiped habe.

98% davon geht einfach gut und die restlichen 2% sorgen dann mal für Ärger. Stichwort: Dunkelziffer.

Bisschen über den Tellerrand schauen und mal darüber und nicht von sich selber auf den Rest der Welt schließen denn meiner Erfahrung nach sind ein Großteil der Leute nicht wirklich zuverlässig, motiviert, interessiert oder haben Ahnung von dem was die tun.
Vision2015
Vision2015 15.06.2021 um 13:31:15 Uhr
Goto Top
moin...
Zitat von @pd.edv:

Zitat von @Lochkartenstanzer:
Kroll-Ontrack stellt auf Wunsch per Kurier zu. Funktioniert wunderbar.

Wo in Spanien? Italien? Frankreich? Ungarn? Polen? Österreich?
genau... und sogar in Portugall, kann ich bestätigenund machen wir öfter so!

Wenn doch jeder alles richtig macht und alles immer so toll klappt warum brauchen wir dann Sachverständige, Pentester, Gerichte, Anwälte, usw.
wiso jeder? du brauchst doch nur das richtige bei UPS und Co beauftragen, wo ist das problem?

Ich ärgern solche platten Aussagen dermaßen das ich schon richtig Schmerzen in der Brust habe. nicht ärgern
das ist nicht gut für deine Gesundheit, ich rate dir zu einem Arzt!

Ich mach seit 5,5 Jahren nichts anderes als den Mist von Anderen auszubessern, aufzudecken und zu bewerten. Mein ganzes Leben dreht sich nur um die Blödheiten und Fehler der anderen und ich hab teilweise so viel zu tun, dass ich es gar nicht mehr schaffe und an andere Kollegen Arbeit weiterreichen muss.
fein... aber was genau haben UPS und Co. dammit zu tun? nix...
einfach nur den richtigen versand auswählen, Zustellbestätigung und Unterschrift eines Erwachsenen erforderlich- und alles ist gut!

Aber klar - ist ja immer alles schick und klappt ja immer alles zumindest bis es dem schlecht bezahlen Typen der kaum deutsch kann irgendwann mal egal ist wie und wo der ein Paket abliefert oder der Elekrogroßmarkt-Verkäufer ein RAID als ausfallssicheres automatisches Backup verkauft und dabei Übersieht, dass die Marketing-Abteilung lieber 4TB als 2TB auf die Packung schreiben will und daher das Ding als RAID0 vorkonfiguriert ist oder oder oder.
das hat nix mit der richtigen versandart zu tun....

Ich hatte schon unverschlüsselte Kreditkartendaten in einer Access-DB mit ein paar Makros die dann als Programm verkauft wurde am Tisch und was weiß ich nicht noch für Mist.
das auch nicht....

Frage mich auch warum ich von 20% der IT-Techniker Platten bekomme die mit Recuva & Co. zu tode analysiert wurden oder warum da Platten über Nacht mal eben unbeaufsichtigt laufen und dann die Magnetscheiben völlig im A... sind.
hm... das wissen die Leute von UPS auch nicht...

Und ich frage mich warum ich für 50 Cent bis 1 EUR / Stück bei zig Firmen alte Platten in Bausch und Bogen kaufen konnte und bei ca. 1/3 davon noch Kundendaten drauf sind. Und da spreche ich nicht von vor 10 Jahren sondern zB von der Lieferung die letzten Freitag kam und die ich über das Wochenende gewiped habe.
ja.. was soll ich sagen... hat auch nix mit der versandart zu tun...

98% davon geht einfach gut und die restlichen 2% sorgen dann mal für Ärger. Stichwort: Dunkelziffer.
oha..

Bisschen über den Tellerrand schauen und mal darüber und nicht von sich selber auf den Rest der Welt schließen denn meiner Erfahrung nach sind ein Großteil der Leute nicht wirklich zuverlässig, motiviert, interessiert oder haben Ahnung von dem was die tun.
müssen die Leute ja auch nicht, es ging ja nur um den Versand....
Frank
pd.edv
pd.edv 15.06.2021 um 13:49:34 Uhr
Goto Top
Ist schon gut - jeder macht alles richtig und niemals geht etwas schief. Jeder Mitarbeiter jeder Firma reißt sich ein Bein aus um alles Perfekt zu machen. Ich bin mal raus - sonst bekomme ich echt noch einen Herzinfakt.

PS.: Ich hab dieses Jahr eventuell 2x meinen Ausweis vorzeigen müssen wenn ich überhaupt unterschreibe für ein Paket. Egal ob das von einem Arzt, Anwalt oder sonst was kommt. Mittlerweile mach ich nur noch einen Kringel weil es schneller geht und der hat rein gar nichts mit meiner Unterschrift zu tun.

Aber die ganzen Anwälte, Ärzte und Notare sind wahrscheinlich auch alle zu blöd das richtige zu bestellen.

Zum Thema Ausweise sage ich mal lieber nichts denn die bekommst du recht gut mit einfachsten Mitteln und etwas Zeug aus dem Bastelladen für 200-250 EUR hin. Nicht gut genug für die Polizei aber für einen Paketdienst oder einen Laden auf jeden Fall. Sogar für Postident (glaub auch darum wurde das wieder mehr oder weniger verworfen).

8 von 10 Zustellen machen es falsch oder nur halbherzig - ist aber sch...egal denn die haben eh nur in 0.1% der Fälle mit Betrug zu tun und dann geht das in der Statistik unter und es ist ohnehin egal ob er es ordentlich macht und getäuscht wird der gleich schlampig.
SPSman
SPSman 16.06.2021 aktualisiert um 08:50:41 Uhr
Goto Top
Mein Tipp Nochmal Acronis Files. War auch skeptisch ist aber (nach der Einrichtung) echt easy. Download via SSL und eine Bediener Oberfläche die Selbst Tante Emma noch einigermaßen versteht.
miscmike
miscmike 21.06.2021 um 11:01:45 Uhr
Goto Top
Hallo zusammen, aufgrund der Länge des Beitrages habe ich nicht alles gelesen. Kann also sein, dass mein Vorschlag schon mal kam.

Wir haben ein ähnliches Problem und betreiben für diesen Zweck ein Synology NAS.
Mit "Synology Drive" bekommt man eigentlich alles, was man dafür braucht, Du musst die Zugriffe entsprechend absichern - kann die Synology von Hause aus - und die Nutzer mit entsprechenden Zugangsdaten explizit einrichten.
Diese können dann komfortabel via Synology Drive APP (ja, auch für Windows, Android und Apple) Daten laden oder ganz einfach per Browser.
Timeouts sind kein Problem und der maximale Platz nur durch die NAS-Größe und Anzahl/Größe der Festplatten begrenzt.

Kleiner vorteil am Rande : Die Daten sind lokal und nicht bei irgendwelchen Dienstleistern im Netz.

Grüße
miscmike
Chris22
Chris22 26.06.2021 um 13:09:19 Uhr
Goto Top
Zitat von @miscmike:

Hallo zusammen, aufgrund der Länge des Beitrages habe ich nicht alles gelesen. Kann also sein, dass mein Vorschlag schon mal kam.

Wir haben ein ähnliches Problem und betreiben für diesen Zweck ein Synology NAS.


Das wurde bereits als Lösung verworfen.
Ich kann den Wunsch verstehen und bin gespannt ob es eine P2P Lösung gibt. Vermutlich ist das hier für diesen speziellen Fall nicht das richtige Forum.
Chris22
Chris22 26.06.2021 um 13:27:27 Uhr
Goto Top
Bietet dies vielleicht etwas? Preislich kann ich keine Einschätzung geben
https://www.ibm.com/de-de/products/aspera
https://www.ibm.com/de-de/cloud/aspera/pricing
cykes
cykes 26.06.2021 um 13:42:15 Uhr
Goto Top
@Chris22 Ich galube nach der letzten Anmerkung des TE braucht man hier keine Vorschläge mehr zu machen, offenbar ist die für ihn in allen Punkten passende Lösung noch nicht erfunden. Vielleicht kann man den Thread auch einfach schließen.
jechiel
jechiel 15.09.2023 um 11:52:38 Uhr
Goto Top
Schau Dir mal das an, bin darauf gestossen, aber selbst nicht gestetstet.

www.oo-software.com/en/filedirect