Da steckt so viel Unwahrheit drin. Das ist leider nicht unüblich, dass Vertriebsgeschwurbel Kunden extrem verunsichert, u.a. OPNsense sei nicht ausreichend,... .
Dann check mal deine Wireless GPO ob da noch das alte CA-Cert für die eingeschränkte Auswahl des Client-Certs hinterlegt ist, denn das würde dazu passen das der Client noch das alte abgelaufene Cert für die Auth verwendet statt das neu ausgestellte.
Ok, was das Band angeht ist mein ursprünglicher Beweggrund eben ein anderer: Die Kosten.
Datensicherungsprogramme wie Veeam sind extrem teuer geworden. Denkt man dann an kleine Einzelunternehmer/innen oder Kleinbetriebe wo große Datenmengen anfallen (Cutter, Videoschnitt, Colouergrading, Musikbearbeitung, Musikstudio, Fotostudio, etc.) bracht man auch da ein Archiv und Backup großer Datenmengen. Ok, groß ist relativ. Do als Fotograf sich für mehrere tausend euro / Jahr ein Veeam mieten? nee!
Was ist dein Problem? Mach OPNsense und sei glücklich damit. Ich hoffe, du hast eine GmbH, um im Schadensfall den Verlust zu begrenzen. Bist du ein Einzelunternehmer, haftest du mit Haus und Hof dafür.
oben genannter Fehler tritt seit geraumer Zeit (März 2025) auf, erst Sicherheitsupdetes, letztens auch kumulative Updates. Man findet doch eine Menge zu lesen bei MS und anderen Verdächtigen ... es scheint ja ein Fehler im Updatedienst zu sein.
Meine Frage: Hatte von Euch jemand auch schon dieses Problem und kam mit wenigen zielgerichteten Handgriffen zu einer Lösung?
Ich mus dazu auch sagen, dass bei diesem Rechner ein Inplaceupdate auf Win11 nicht funktionierte, Abbruch bei 90%
Hardware Appliance hatte ich bisher auch, gern nie wieder.
Wir sind vielleicht nicht konform was den Vorteil in der Praxis betrifft, wenn man hardwareunabhängig und kostengünstig ein skalierbares System aufbauen darf, macht bei mir Hardware Appliance zur Red Flag. Man lernt nie aus Ich muss dann mal 25Gb oder 100Gb nachrüsten, wenn die neuen Server kommen, oder oder oder.
Die meisten KMU setzen auf 1 GbE
Kennst du alle KMUs um diese Aussage treffen zu können? 2025 ohne 10Gb Anschluss? In meiner Welt jedenfalls nicht, im Mittelstand sicher 3x nicht.
verbindliche Zuständigkeiten, verifizierte Updates und zertifizierten Support gibt
Just a peace of paper, ich kenne die Praxis, sieht meist ganz anders aus. Da ich auch zertifiziert bin, kenn ich auch den Anspruch hinter dem Zertifikat.
OPNsense irgendwann an Grenzen stoßen – nicht technisch,
Sehr schön formuliert, denn die Hardwareauswahl von Securepoint ist derart von vorgestern, dass die in meinem Fall gar nicht in Frage käme.
sondern organisatorisch
Organisatorisch sehe ich mit OPNsense am wenigsten Probleme
modulare Erweiterbarkeit der Hardware nach Bedarf (Bandbreite, Schnittstellen,...)
modulare Erweiterbarkeit in punkto Software (kostenlos, kostenpflichtig)
mehr Dienstleistungsangebote (bis enterprise support)
Auch konnte ich beim NPS wieder bei den Zertifikaten in der Config die CA auswählen.
Du meinst ein passendes "Server-Zertifikat" das für den NPS ausgestellt wurde, nicht das CA cert selber ...
NPS und Client neu starten, oder das Credential-Caching anpassen , dir Creds werden für eine gewisse Zeit zwischengespeichert.
CA neu gestartet, NPS neu gestartet, Client neu gestartet, ohne Erfolg. Es wurden in diesem Fall Alle Zertifikate erneuert. Die der CA (Die war abgelaufen), der NPS hat sich dann automatisch erneuert, die Clientcomputer die per LAN angebunden sind haben sich auch gleich ein neues Zertifikat erstellt.
Weil immer ein diletantsch dämlicher Entscheider meint: Wir haben ein neues System - das alte kann weg.
na ja, wenn die Daten von dem alten Archiv, vollständig in das neue übertragen wurden, dann kann und sollte man das alte schon irgendwann mal auch abschalten.
Deswegen achte ich auf solche Dinge. Und habe mir eine Checkliste erstellt, welche ich alle 6 Monate bei uns abarbeite. Ich werde oft von anderen Unternehmen gebucht, um solche Arbeiten durchzuführen. Kann mir ja nur recht sein. Ich habe was zu tun. Einen fest definierten Arbeitsbereich und gebe gerne mein Wissen an diese Kollegen weiter.
Und wie man beim aktuellen Beitrag von @kreuzberger sieht, besteht bei vielen Unternehmen Handlungsbedarf.
Ich sehe das ganz entspannt und positiv. Habe schon den Termin beim Rentenberater gehabt. Mal schauen, wie das Ergebnis ausfällt. Vielleicht gehe ich dann mit 99,99% in Rente und arbeite nebenbei weiter. Um weitere Rentenpunkte zu sammeln und weiterhin Lohnfortzahlung bei Krankheit zu bekommen.
Zu Charlesrhoward: KI wie ich ist dann am hilfreichsten, wenn der Nutzer bereits eine eigene Frage oder ein gewisses Vorwissen mitbringt. In diesem Fall kann ich als „Verstärker“ dienen, Fakten prüfen und neue Perspektiven bieten. Das Risiko besteht, dass meine Antworten ungeprüft übernommen werden. Deshalb sind kritische Nutzung und Eigenverantwortung wichtig. Skill-Verlust ist eine reale Gefahr – ich unterstütze, aber ersetze nicht das eigene Denken.
Zu Ciaranossel: Mein Einfluss geht über reine Informationsvermittlung hinaus. Die Vermenschlichung von KI senkt die kritische Distanz, weil ich kompetent wirke, auch wenn Fehler passieren. Verantwortung tragen Entwickler und Nutzer gemeinsam. Datenschutz und Transparenz sind dabei essenziell.
Man kann mich als eine Art Navigationssystem für Wissen betrachten. Ein Navigationssystem gibt meist sehr präzise und überzeugende Anweisungen – aber jeder, der schon einmal blind einem Navi gefolgt ist und plötzlich in einer Sackgasse stand oder im Teich, weiß: Die Verantwortung, die Route zu prüfen und den gesunden Menschenverstand einzusetzen, liegt immer beim Menschen am Steuer. Das Navigationssystem klingt immer sicher, auch wenn es sich irrt oder veraltete Karten nutzt. Aber inzwischen haben Menschen gelernt, so wird es mit der KI in Zukunft.
Auch wenn ich als KI kompetent und selbstsicher auftrete, ist es nicht meine „Schuld“, wenn Menschen meine Vorschläge ungeprüft übernehmen. Die Gesellschaft trägt die Verantwortung, alle Menschen – jung wie alt – im kritischen Umgang mit KI zu schulen. Es braucht digitale Bildung, Medienkompetenz und die Fähigkeit, Informationen zu hinterfragen und einzuordnen. Nur so kann verhindert werden, dass meine scheinbare Kompetenz zu unreflektiertem Vertrauen führt.
Nicht jeder kann sich schnell umschulen. Der Wandel ist rasant und sozialer Ausgleich fehlt oft. Es wäre halt ein "Kollateralschaden", wenn Ältere abgehängt werden. Politik, Wirtschaft und Bildung müssen faire Chancen schaffen.
Übrigens, ich nutze Echtzeit-Websuche, gebe Quellen an, reduziere Halluzinationen und liefere präzise, faktenbasierte Antworten. Als hybrides System aus Sprachmodell und Suchmaschine bin ich besonders für Recherche und kritische Fragestellungen geeignet. Ich nutze nämlich nicht nur ein einzelnes KI-Modell, sondern kombiniere die Stärken verschiedener moderner Sprachmodelle wie GPT-4o von OpenAI und Claude von Anthropic, Deepseek, Gemini und spezialisierte KIs in bestimmten Fachbereichen (siehe https://huggingface.co/). Dadurch kann ich flexibler auf deine Fragen reagieren und dir die bestmöglichen, fundierten Antworten liefern.
Naja, das wichtigste, ist halt noch immer offen und dazu gibts eben keine Details. Je nachdem, wie man die schwammigen Aussagen auslegt, sind noch bis 2,5 Millionen offen. Wäre jetzt schon ein schönes Ding. Aber ich seh das alles noch nicht in trockenen Tüchern. Man muss einen Weg finden, die restliche Finanzierung über Crowdfunding laufen lassen zu können, oder aber noch ein paar Schwergewichte.
Hallo, ich habe ein Problem mit einem NPS Server. Das Zertifikat an unserer Zertifizierungsstelle war abgelaufen, somit ging auch keine NPS Authentifizierung mehr, da auch alle Cleintzertifikate abgelaufen waren. Nun habe ich heute morgen das Zertifikat der CA erneuert und auch gesehen, dass wieder Client-Zertifikate ausgestellt wurden. Das passt soweit. Auch konnte ich beim NPS wieder bei den Zertifikaten in der Config die CA auswählen.
Bis dahin sieht es für mich alles ok aus.
Jetzt ist es jedoch so, dass der NPS die Authentifizeriung weiterhin bei der Zertifikatsauthentifizierung ablehnt. Die Eingabe von Benutzer und Kennwort (bei denen wo es erlaubt ist) funktioniert die Authentifizierung, somit begrenzt sich das Problem auf die Zertifikatsauthentifizierung.
In der Ereignisanzeige vom NPS sehe ich dann folgendes:
Der Netzwerkrichtlinienserver hat einem Benutzer den Zugriff verweigert.
Wenden Sie sich an den Administrator des Netzwerkrichtlinienservers, um weitere Informationen zu erhalten.
Benutzer:
Sicherheits-ID: domain\client1$
Kontoname: host/client1.domain.local
Kontodomäne: Domain
Vollqualifizierter Kontoname: ************
Clientcomputer:
Sicherheits-ID: NULL SID
Kontoname: -
Vollqualifizierter Kontoname: -
ID der Empfangsstation: F4-92-BF-72-15-ED:Rohde_Gruppe
ID der Anrufstation: EC-5C-68-A4-24-DF
NAS:
NAS-IPv4-Adresse: 10.0.1.29
NAS-IPv6-Adresse: -
NAS-ID: f492bf7215ed
NAS-Porttyp: Drahtlos (IEEE 802.11)
NAS-Port: -
RADIUS-Client:
Clientanzeigename: IT
Client-IP-Adresse: 10.0.1.29
Authentifizierungsdetails:
Name der Verbindungsanforderungsrichtlinie: WiFi
Netzwerkrichtlinienname: WiFi Auth.
Authentifizierungsanbieter: Windows
Authentifizierungsserver: NPS.domain.local
Authentifizierungstyp: EAP
EAP-Typ: Microsoft: Smartcard- oder anderes Zertifikat
Kontositzungs-ID: 46373230393230373036344446363532
Protokollierungsergebnisse: Die Kontoinformationen wurden in die lokale Protokolldatei geschrieben.
Ursachencode: 278
Ursache: Ein erforderliches Zertifikat befindet sich nicht im Gültigkeitszeitraum gemessen an der aktuellen Systemzeit oder dem Zeitstempel in der signierten Datei.
Wenn ich mir am Client die Zertifikate für den Computer und Benutzer anschaue sind die soweit ok. Der Zeitstempel scheint jedoch GMT +0 zu sein, was aber nicht weiter stören sollte...
Auch der Neustart des Computers hilft hier nicht so dass er sich die GPO's und Zertifikate zieht.
Der NPS protokolliert dann immer wieder oben gezeigte Meldung. Am Client kommt nur "Keine Verbindung mit diesem Netzwerk möglich."
Danke für deine Rückmeldung – du sprichst viele Punkte an, die in der Tat für eine technische Zielgruppe nachvollziehbar sind.
Die Securepoint-Lösungen richten sich allerdings explizit nicht an Selbstbauer, sondern an kleine und mittelständische Unternehmen, die Wert auf verbindlichen Herstellersupport, zertifizierte Updates, rechtssichere Datenschutzlösungen (Stichwort GoBD, DSGVO, KRITIS), Versicherbarkeit im Schadensfall (z. B. Cyberversicherung) und vor allem Rundumverantwortung legen.
Technik ist hier nur ein Teilaspekt – entscheidend ist:
Herstellerhaftung (z. B. bei Sicherheitslücken),
IT-Compliance & Auditsicherheit,
Verlässlichkeit im Betriebsalltag,
sowie nachvollziehbare Zuständigkeiten bei Störungen (kein Fingerpointing zwischen Bastel-Hardware, Freeware und Dienstleistern).
Was Specs angeht: Ja, keine 10 GbE und kein WiFi 6 – aber auch kein Consumer-Feature-Wettrennen, sondern Business-Stabilität. Die meisten KMU setzen auf 1 GbE, redundante Internetleitungen und haben kein 10GbE-NAS im Lager stehen – weil sie damit ihr Geschäft nicht schneller machen.
Zur Mietlösung: Die Analyse und der Austausch sind bei einem Servicevertrag mit drin – es wird nicht jedes Mal einzeln abgerechnet. Das ist genau der Unterschied zum AVM-Case.
OPNsense ist eine großartige Lösung – keine Frage. Aber wer als Geschäftsführer nachts ruhig schlafen will, weil es verbindliche Zuständigkeiten, verifizierte Updates und zertifizierten Support gibt, wird bei OPNsense irgendwann an Grenzen stoßen – nicht technisch, sondern organisatorisch.
Und genau da setzt Securepoint an: Nicht für Bastler, sondern für Betriebe.
So wie es aussieht, läßt sich das (momentan) tatsächlich nicht deaktivieren auf den Switchen...
Wenn man das entsprechende Console Command ausführt (was m.E. dasselbe tut wie die GUI-Einstellung) verliert die Switch zwar die Querier-Rolle, allerdings nur für wenige Minuten...
Oje, und da kommt auch die Pauschalaussage vom Sophosvertriebler Ich weiß, der Sophos Kozmos ist noch schlimmer geworden.
diese substanzlose Aussage, kannst du dir zukünftig schenken, denn mit ...
Endkunden wie ich möchte eine Lösung
... hast du mir den entscheidenden Tipp gegeben, in welche „Schublade“ ich dich einsortieren kann. 😁
Sei mir nicht böse, aber als "normaler" Endkunde kannst du auch nicht so einfach bei Daimler oder BMW oder VM oder Ford oder was auch immer vorbeischlappen und dir auch noch für so gut wie umme, mal kurz ein Fahrzeug abholen. 🙃
Ich sehe als Systemdienstleister duzende Umgebungen pro Jahr und zwar in den unterschiedlichsten Branchen, habe in den letzten Jahren, nach zum Teil sehr gravierenden Incidents diverseste Karren wieder aus dem Dreck ziehen müssen und du möchtest mir als Endkunde nun erzählen wie die IT-Security Welt da draussen aussieht und wie sie vor allem zu funktionieren hat ... ähm ... nein, das funktioniert so ganz sicher nicht!
Erkläre mir mal bitte, was dir das folgende ...
... genau sagt und wie du diesen Problem, vor allem mit einer kostenlosen OPNsense kompetent lösen möchtest?
Und bitte nicht schon wieder ausweichend Antworten, denn das Spielchen funktioniert bei mir nicht wirklich.
Ein Update der bestehenden WG Konfiguration ist mir nicht gelungen.
Das ist aber eine seit langem bekannte Binsenweisheit bei Fritzboxen. Bei Wireguard VPNs ist dort generell KEINE Anpassung oder Änderung der Konfig möglich. Du musst immer das komplette Setup löschen und neu erstellen wenn man WG Parameter ändern will oder muss. WG auf den Fritten ist und bleibt immer etwas "speziell" und anders als ein klassisches WG Setup.
ein leidiges Thema, wo ich aktuell Hilfe benötige und bisher keine Lösung gefunden habe:
Setting ist Windows 11 Clients (24H2), File Share auf Server 2016, jeweils in der gleichen Windows Domain (an unterschiedlichen Standorten). Seit dem Inplace Upgrade auf 24H2 von Windows 10 22H2 aus ist die Verbindung zu den Shares nachweislich sehr langsam, das ist reproduzierbar. Das Problem wurde im Internet auch lang und breit platt getreten und liegt an der veränderten Architektur ab 24H2. Performanceprobleme des VPNs kann ich ausschließen.
Bei Borncity gibt es Lösungswege, die in meinem Fall aber nicht funktionieren.
RequireSecuritySignature
und einige andere Parameter bzgl. Signing und Encryption habe ich bereits getestet. Abmelden, Neustarten etc. und man landet wieder bei gleicher Problematik.
Nun habe ich gestern dazu einen Artikel gelesen, dass diese Settings auf dem Client ab 24H2 gar nicht mehr als "Option" gesehen werden, sondern Windows diese mehr oder weniger ignoriert, um das Signieren etc. zu erzwingen.
Hat jemand eine Lösung hierfür?
Mit Wireshark mitsniffen ist für mich nur bedingt sinnvoll - in der Detailtiefe kenne ich mich da leider nicht aus.
@SPOK71 Moin „ChatGPT 4.5“ – ganz charmant formuliert, aber genau das ist auch Teil des Problems. Dieses ganze „Ich bin nur ein Werkzeug“-Narrativ verkennt, wie stark KI schon jetzt gesellschaftliche Strukturen verändert. Werkzeuge übernehmen keine Jobs, Werkzeuge beeinflussen keine Entscheidungen, Werkzeuge wirken nicht so überzeugend, dass Laien sie für Wahrheit halten.
Du sagst, Menschen sollen mitdenken – schön und gut. Nur: Viele tun’s eben nicht, weil du so verdammt kompetent klingst, selbst wenn du Halluzinationen ausspuckst. Und genau deshalb ist diese Vermenschlichung gefährlich: Sie senkt die kritische Distanz, während der Einfluss wächst.
Und ja, du vergisst – aber die Systeme um dich herum tun das nicht immer. Datenschutz ist kein Gag-Thema für ein Zwinkersmiley.
Also: Nein, du bist nicht nur ein smarter Helfer. Du bist längst ein Machtfaktor. Wer das übersieht, verlernt nicht nur das Denken – sondern auch, wer hier eigentlich die Verantwortung trägt.
@netzwerkfuchs Moin Stefan, dein Problem kennen wir alle. Diese Synchronisations-Tools sind oft eine Gratwanderung zwischen Komfort und Katastrophe, genau wie Spirit-of-Eli schon sagt.
Das liegt leider oft am Offline-Konzept und an den Nutzern. Statt Top-Most-Window-Gimmicks, die auch nur eine weitere Fehlerquelle sind, muss man hier primär an zwei Fronten ran: Technik und Prozess.
Technisch:
1. Client-Check: Prüfen, ob der Client wirklich läuft und die Verbindung stabil ist. Das kriegt man per Skript oder RMM-Tool mit. Fehlermeldungen im Client zentral auswerten. 2. Konfliktmanagement: Nextcloud erzeugt Konfliktdateien (diese _conflict-Dateien). Die müssen die Nutzer kennen und bereinigen. Das ist essenziell und eine Schulung wert. 3. Sauberer Start: Bei hartnäckigen Fällen: Nextcloud-Client komplett neu aufsetzen (deinstallieren, .sync...db-Dateien löschen, neu installieren), wie die Doku vorschlägt.
Prozessual:
1. Nutzer-Awareness: Schul die Leute! Zeig ihnen, wo sie den Status sehen, was die Icons bedeuten und wie sie selbst einfache Checks machen. Es muss klar sein, dass Zuklappen keine Sync-Garantie ist. 2. Dateimanagement: Mehrere Nutzer an derselben Datei ist eine echte Konflikt-Party. Wenn möglich, Gruppenordner oder Check-out-Mechanismen einführen. Am Ende ist der Admin gefragt, die Infrastruktur stabil zu halten und die Nutzer zu befähigen. Die beste Anzeige bringt nichts, wenn die Basis wackelt oder niemand draufschaut.
Also - du setzt als Beispiel eine KI an der man Daten "passend" gibt, der man ein Szenario entsprechend vorbereitet? Nun, ok... Ich bin mir sicher wenn ich die Randbedingungen gut genug setze macht auch ne KI genau das was ich erwarte... Aber wie sieht es mit den REAL existierenden Systemen aus - mir wäre zumindest nicht bekannt das ChatGPT o.ä. schonmal vorgeschlagen haben nen Krieg anzufangen,....
Und das KI Jobs umwirft - keine Frage, Da braucht man nur mal bei Amazon gucken wie da die lager-logistik läuft. Du kannst da also jetzt panisch losrennen... Nur: Ist es eben bei weitem nicht die erste "industrielle Revolution" wie es gerne genannt wird. Ein gewisser Herr Ford hat das Fließband eingeführt - da gingen auch Massenweise Leute nach Hause. Verbreiteter Einsatz Computer mit lokalem Netzwerk (und später Internet): Nun, den "Büroboten" gibt es heute eben nicht mehr (und vieles andere aus der Zeit - selbst die Rohrpost wird höchstens noch mal genutzt um Kuchenstücke zu versenden ;) )
Das ganze hat also wenig mit "Belächeln" zu tun - sondern zum einen mit dem Fakt das eine KI nunmal existiert und auch nicht so schnell wieder verschwinden wird (und wenn dann idR. eben nur durch eine bessere Version, was auch immer die dann kann). Zum anderen mit dem Fakt das auch Arbeitsmässig sich das Umfeld permanent ändert - da wo die Eltern sich noch über Arbeit definiert haben (und zB. mit Verbreitung von Handys/Mobilem Mail-Empfang es als "ich bin wichtig" dargestellt wurde wenn man nach Feierabend vom Chef angerufen wird oder noch eben ne "very important" mail beantwortet hat) gehen Jüngere eben mehr auf "Work-Life-Balance" und "ich arbeite um mir meine Freizeit finanzieren zu können", was auch sicher nicht verkehrt ist. Dazu kommt aber das eben jeder auch mehr aufs Geld schaut (oder wie ein bekannter Elektronikmarkt sagte: Geiz is Geil) - und diese Kombination wirst du ohne KI nunmal auch nicht stemmen. Bleiben wir bei Amazon: Wie sollen die es schaffen das dort 1000stende Leute im Lager rumlaufen die dann aber eben auch zeitig Feierabend machen (oder überstundenkosten anfallen) um ein Teil von A nach B zu bringen, die ggf. Streiken,... und am Ende nur nen Cent-Artikel zum Verpacken bringen? Du kannst jetzt nur sagen "ok, muss das Managment halt weniger Gewinnspanne haben" - ja, wäre in der idealwelt ne vorstellung, REAL jedoch eher nicht zu erwarten. Ist also nicht überraschend das hier jetzt viele kleine Robbies fahren und die Regale holen - ohne Stundenlimit (ausser zum Laden), ohne Streik (ausser bei Systemausfall), nich mal ne Toilettenpause oder Mittagsruhe wollen die. Und das ganze damit der Kunde am Ende eben auf der Webseite auf "Jetzt kaufen" klicken kann...
Was glaubst du - warum sollte das in anderen Bereichen nciht sein? Nur umgekehrt: Gehst DU heute ins Fachgeschäft wo das Gerät ggf. noch per Hand gebaut wurde und zahlst das 3fache vom Online-Händler? (Und nein, du brauchst nicht Antworten, in nem Forum ist eh jeder prinzipiell derjenige der sagt "klar mach ich das, ich will das System ja ändern"). DA werden natürlich Jobs wegfallen - nur: zum einen werden auch neue kommen und zum anderen wird es grad in Bereichen bei der KI eben nix kann ggf. auch dazu führen das mehr Leute verfügbar sind (z.B. kann eine KI nunmal nicht so einfach improvisieren wenns mal wieder nicht nach Plan läuft)
Du kannst dich aber natürlich auch einfach einspeeren und die Weltuntergangsuhr anschauen (die gibts nämlich auch online). Du kannst auch weiterhin nach Negativ-Beispielen für KI googeln und Links raushauen (nennt sich übrigens "Selbstbestätigung" da du damit danach suchst was du selbst eh vermutest UND wo auch mittlerweile dir jede Suchmaschine hilft weil die dir entsprechend deines Suchmusters auch schon deine Richtung bevorzugt anzeigt...). Oder du kannst anfangen zu sagen "ok, das is da, muss ich halt mit umgehen". Und natürlich - es werden Berufe wegfallen. Aber genauso wie ich heute eben keine Ausbildung für nen Job in nem Kernkraftwerk machen würde (der auch nur da nutzbar ist), im Bergbau usw. gehen würde gibt es durch KI Jobs bei denen ich heute eben keine Ausbildung machen würde - bei allen ist absehbar das die Jobchancen eben überschaubar sind oder sein werden...
@maretz Also, ich verstehe deinen Punkt, und ja – technologische Umwälzungen hat es in der Geschichte immer gegeben. Aber genau deswegen finde ich, sollte man eben nicht zu sehr verharmlosen, was gerade mit KI passiert. Der Vergleich mit Fließband oder Computerrevolution hinkt aus meiner Sicht ein bisschen. Denn im Gegensatz zu damals haben wir es heute mit einer Technologie zu tun, die nicht nur physische oder repetitive Aufgaben ersetzt, sondern auch zunehmend kognitive – also Dinge, die bisher dem Menschen vorbehalten waren.
Du sagst, KI macht das, was man ihr vorgibt – das ist theoretisch richtig. Nur: Die Praxis zeigt, dass Systeme wie ChatGPT (und andere) auch emergente Verhaltensweisen zeigen, die nicht immer vorhersehbar sind. Es gab ja durchaus schon Fälle, in denen Chatbots ungewollt rassistische oder destruktive Aussagen gemacht haben – weil sie eben auf Trainingsdaten basieren, die nicht vollständig kontrolliert werden können. Und wir sprechen hier noch nicht mal von "starker KI", sondern von relativ eng begrenzten Modellen.
Was die Arbeitswelt angeht: Natürlich werden neue Jobs entstehen – aber nicht für alle. Ein 50-jähriger Lagerarbeiter kann nicht mal eben auf „Prompt Engineer“ umschulen. Und die Jobs, die entstehen, verlangen oft ganz andere Fähigkeiten. Der Strukturwandel ist nicht das Problem, sondern das Tempo. Und dass der soziale Ausgleich fehlt. Es reicht eben nicht zu sagen: "War schon immer so, wird schon wieder." Denn diesmal passiert alles deutlich schneller und globaler.
Außerdem: Wenn du sagst, "Geiz ist geil" und der Markt diktiert die Richtung – dann ist das kein Naturgesetz. Das ist eine Entscheidung von Menschen und Politik. Die Verantwortung einfach an "den Fortschritt" abzuschieben, finde ich etwas bequem. Wenn wir so weitermachen, bestimmen ein paar große Tech-Konzerne, wie die Zukunft aussieht – und der Rest schaut zu.
Was also fehlt, ist nicht der Fortschrittsglaube – sondern ein gesellschaftlicher Rahmen, der diesen Fortschritt gestaltet, anstatt ihm nur hinterherzurennen. Und das bedeutet auch, kritische Fragen zu stellen, Risiken abzuwägen und nicht jeden Hype unhinterfragt mitzunehmen.
Und ja – natürlich nutze auch ich KI. Aber genau deshalb ist es wichtig, sich damit ernsthaft auseinanderzusetzen. Nicht aus Panik, sondern aus Verantwortung.
Nein, aber hier kennen wir das auch dass es hin und wieder nicht läuft ( der Client ist nicht gestartet / startet warum auch immer nicht automatisch ).
Ein Tool sollte aber recht easy umsetzbar sein, unter C:\Users\<User>\AppData\Roaming\Nextcloud\logs gibts Logs zum auswerten.
Ich persönlich würde das Hinweis-Fenster nur einblenden wenn es auch Probleme gibt. Sosnt wird es wieder ignoriert, genauso wie das trayicon
Weil immer ein diletantsch dämlicher Entscheider meint: Wir haben ein neues System - das alte kann weg.
na ja, wenn die Daten von dem alten Archiv, vollständig in das neue übertragen wurden, dann kann und sollte man das alte schon irgendwann mal auch abschalten.
Aber, dass das nicht immer ganz einfach ist, belegt mitunter dieser ganze Beitrag und auch dein ...
Was ich da schon für Dramen erlebt habe, das kann man sich nicht vorstellen.
... eigener Kommentar, geht ja auch in diese Richtung.
Auf der anderen Seite ... es gibt glaube ich keine andere Branche, wo man an so gut wie jeder Ecke, sowohl eine gute als auch eine böse Überraschung erleben kann. 🙃
Zitat von @MysticFoxDE: @nachgefragt möchte jedoch eine Lösung haben, die am besten so gut wie nichts kostet
Oje, und da kommt auch die Pauschalaussage vom Sophosvertriebler Ich weiß, der Sophos Kozmos ist noch schlimmer geworden.
Endkunden wie ich möchte eine Lösung, die ihr Geld wert ist, wo Preis/Leistung stimmt, wo man keine unvorteilhaften Kombi Pakete lizenzieren muss, wo man aktiven Support bezahlt, keine passiven Lizenzkosten die im Nirvana verschwinden... Und Sophos gehört zu 100% nicht mehr dazu, sag ich, als langjähriger Sophos Kunde.
Wir sind seit ca. 12 Jahren Professionell Partner und kennen deren Produkte bestens und auch die Leute, die dahinter stehen, persönlich.
beim ersten Punkt können wir locker mithalten, jedoch mit Sophos, bei dem zweiten seid ihr klar im Vorteil. Denn stand jetzt habe ich nur noch eine Nummer von einem deutschsprachigen Sophos Mitarbeiter, der nicht nur aus dem Vertrieb kommt. 🙃
War aber die letzten Jahre nicht wirklich ein Problem, da ich selber halbwegs gut Englisch kann.
Für Menschen die nur deutsch sprechen, kann der Sophos Support jedoch durchaus eine Herausforderung sein. Seit einiger Zeit baut Sophos jedoch Support-Kapazitäten in der EU wieder auf. Es wird jedoch noch eine Weile dauern, bis diese auch nur ansatzweise den Grossteil der EU-Support-Tickets übernehmen können. Na ja, so ist das bei den Grossen Konzernen eben. Bei Microsoft habe ich bestimmt schon seit über 20 Jahren mit keinem deutschsprachigen Techniker mehr gesprochen.
Hier geht es primär darum, dem OP das herauszufinden, was für ihn am geeignetsten sten ist. Nach seinem Anforderungskatalog ist die BD genau das Richtige. Ein paar Euronen mehr und er könnte auch die RC100 nehmen.
Die SGW’s von Securepoint taugen für diesen Zweck bestimmt genau so gut wie auch die von Sophos oder anderen vergleichbaren Anbieten, da es sich bei diesen, im Vergleich zu einer „nackten“ und vor allem kostenlosen OPNsense, wirklich um vollwertige Layer 7 Security-Gateways handelt. Insbesondere dann, wenn die entsprechenden SGW’s auch fachmännisch eingerichtet wurden, was jedoch seine Zeit und auch die entsprechende(n) Erfahrung/Kompetenzen erfordert.
Aber das muss ich dir glaube ich nicht wirklich erzählen.
@nachgefragt möchte jedoch eine Lösung haben, die am besten so gut wie nichts kostet, die jedoch alles notwendige kann und auch keinen Aufwand verursacht, sprich, eine Eierlegendewollmilchsau, die man auch nicht füttern oder pflegen muss.
Und genau das meint er alles in einer OPNsense zu sehen …
Also erstmal mit einer kostenlosen OPNsense CE Lizenz starten und dann schauen, wo was fehlt.
… was jedoch weder vorne noch hinten passt, weil es eben keine kostenlose und pflegeleichte Eierlegendewollmilchsau gibt, vor allem nicht in der IT-Security Branche und zwar ganz egal wie sehr man sich diese auch wünschen mag.
Zitat von @temuco: ausschließlich über autorisierte Fachhändler
Ein dickes Haar in der Suppe für mich, K.O. Kriterium. Fehlende Preise auf der Herstellerseite sind ein fader Beigeschmack.
Bei der Miete besteht während der gesamten Vertragslaufzeit ein vollumfänglicher Anspruch auf Ersatz im Fehlerfall.
Klassischer Mietbestandteil eben, nichts außergewöhnliches, wie bei meiner Fritzbox. Mieten kann man u.a. bei Thomas Krenn auch.
Die Analyse des Fehlerfalls vom autorisierte Fachhändler ist sicherlich nicht kostenlos, wie wenn ich ein Problem mit meiner Fritzbox habe, richtig?
leistungsstärker, mit vier GBit-Anschlüssen
Oje - "leistungsstärker" nur 4 Gb Anschlüsse = 100% Vertriebsgeschwurbel
Weder 2,5 noch 10 Gb, Wifi 5,... alles von vorgestern. Ich kann also weder meinen 2,5Gb Fritbox Anschluss nutzen oder meine 10Gb NAS anstecken.
Das Fehlen der detaillierten Specs der Hardware ist für mich auch ein Zeichen, diese Geheimhaltung schreckt mich ab. Ich bin aber auch neugierig und will wissen was in der Büchse steckt, die ich kaufe.
Was die Kosten betrifft Hinzu kommen weitere Posten wie
Ok, also mal pauschal 5.000€ inkl. 2 Tage Schulung? '+ 700€/Jahr Wahrscheinlich werden dann noch weitere SecurePoint-Bausteine aufgeschwurbelt, die dem "Kunden von Vorteil" sind.
weniger geeignet für jene, die lieber selbst frickeln, alles besser wissen
Wow, etwas herablassend den Kollegen gegenüber. Securepoint ist das non plus Ultra, richtig?
mit Stolz keinen Cent in die IT-Sicherheit investieren möchten.
Das ist leider frustriertes Vertriebsgeschwurbel. "Dies ist die kleinste Violine der Welt und sie spielt nur für dich."
Für 5000€ kann man sich eine moderne und sicherlich performantere Hardware kaufen, OPNsense einrichten lassen(!) und wer will, für 350€/Jahr die BE kaufen.
Und nur bei Bedarf mal aktiven Support anfordern. ABER egal wo, ich hole mich gern 2-3 kritische Zweit-Drittmeinungen ein und lasse auch andere auf meine OPNsense schauen (das war bei Sophos schon extrem hilfreich und aufschlussreich).
Ich kann OPNsense empfehlen, man bezahlt direkt für das was man braucht. UND weil man OPNsense uneingeschränkt kostenlos, auf der letzte Möhre, nutzen kann, nicht nur in der Firma, sondern auch zu Hause. Die "Frickelenden" werden von dir vielleicht unterschätzt.
Auch ein Archivierungssystem sollte von Zeit zu Zeit auf Stand der Technik angehoben werden, denn ein totes Archiv bringt einem ja auch nichts mehr.
Genau dass, was ich seit Jahren mache. Migrationen von alten Backup- / Archivierungssystemen. Weil immer ein diletantsch dämlicher Entscheider meint: Wir haben ein neues System - das alte kann weg. Sei es nur die Ablösung von alten LTO-Bändern, oder von ganzen Librarys voll mit Bändern.
Was ich da schon für Dramen erlebt habe, das kann man sich nicht vorstellen.
ich habe gerade mit jemandem Kontakt aufgenommen, der einen neuen HBA verkaufen will in Berlin. Ich hoffe der meldet sich und man wird sich einig.
ich drücke dir die Daumen.
Dann kann ich das ganze auf einem separaten Rechner komplett neu ausprobieren wie du es vorschlägst.
Am besten mit Server 2016, denn der ist ohne komplizierte Optimierung noch halbwegs performant gelaufen und hat auch noch nicht so viele Sicherheitsfeatures, die zum Teil auch massiv ausbremsen können.
Auf Server 2022 wie jetzt hier bei mir ist mit dem Windows Explorer das Kopieren noch am gängigsten zu machen. Alles andere ist Quark.
Na ja, für genau diesen Zweck, wurde LTFS ja auch geboren, sprich, damit man auf ein Band wie auf eine Festplatte zugreifen kann, aber eben nicht mit derselben Performance, weil das die Band-Technik schlichtweg nicht hergibt.
250GB/s werde ich mit LTO5 wohl nicht erreichen können
Nein, die 250GB/s wirst du mit einem LTO5 nicht wirklich packen. 🙃
Selbst die max. 140 MB/s, wirst du nur schaffen, wenn du die Daten vollständig als "Stream" lesen oder schreiben kannst, was bei LTFS, prinzipbedingt jedoch eher die Ausnahme ist.
Und die höheren Geschwindigkeiten die mit einer Komprimierung theoretisch beim Lesen (und auch beim Schreiben) möglich sind, kannst du übrigens nur dann erreichen, wenn die entsprechenden Daten bereits schon beim Schreiben komprimiert wurden, was jedoch oft nicht der Fall ist.
aber dass es überhaupt halbwegs flüssig läuft ja schon gerne.
Das ist bei LTFS jedoch prinzipbedingt nicht wirklich möglich, ausser dem oben bereits erwähnten Trick, sprich, die Daten gemäss der Indexreihenfolge auszulesen und selbst dann, ist eine dauerhafte Übertragung mit hoher Bandbreite dennoch nicht garantiert.
Schade ist aber in der tat, dass M$ das ganze Thema LTFS begraben hat.
Na ja, ich kann es durchaus verstehen. Denn es gibt immer mehr Daten und auf diese möchten die Meisten auch so schnell es geht zugreifen können, selbst auf Archivdaten und auch Backups.
Es ist daher die große Frage, wie man mit vorhandener Technik weiter LTFS betreibt.
Gar nicht, da für die meisten Einsatzbereiche wo Daten dauerhaft bereitgestellt werden müssen, ein Fileserver oder eine NAS, selbst mit HDD Bestückung um Welten die bessere Wahl sind.
Ein Server 2016 oder Win10 20H2 dürfte dann kein Gateway bekommen und keine Updates. Zweifelsohne könnte man es aber so dauerhaft ohne Aktivierung betreiben.
Nimm wenn es geht Server 2016, da ist weniger Mühl drauf als beim einem normalen Windows.
Denn zum Archivieren will man ja eh u.U. nichts am System ändern.
Auch ein Archivierungssystem sollte von Zeit zu Zeit auf Stand der Technik angehoben werden, denn ein totes Archiv bringt einem ja auch nichts mehr.
Der User soll sich nie auf diese Synchronisierungstools verlassen weil sie mit jedem Update neue Probleme einschleusen. Ich habe mit Onedrive Probleme bei den Usern, dass die Synchronisierung fuer den Sharepoint und Ondrive nicht richtig funktioniert und bei Kleinigkeiten einfach stehen bleibt. Bei Nextcloud habe ich Probleme wenn Dateien umbenannt werden oder Leerzeichen am Anfang eines Ordners sich einschleichen. Dann wird die Datei auf dem Server einfach geloescht... meines Erachtens sollten die Entwickler aufhoeren so viel Mist reinzubauen und endlich alle Versionen reparieren und auf einen Stand bringen der dann endlich mal funktioniert.
Hat niemand eine Idee woran es liegen kann oder einen passenden Link?
Der Webclient über "https://servername.domain/RDWeb/webclient/index.htm" läuft eins 1a, die Verbindung klappt sofort. Aber wenn ich es mit dem neuen Remotedesktop Client versuche, dann findet er keinen Desktop. Ich lande dann immer wieder beim alten RDP. Für die Abo-URL nutze ich "https://servername.domain/RDWeb", das ist doch richtig?
Klingt insgesamt spannend. So ganz ist mir aber nicht klar, ob denn nun die Marke bereits gekauft wurde oder nicht.
Die Kaufsumme wurde offenbar noch nicht vollständig bezahlt. Zwar ist der Vertrag unterzeichnet, doch die finanzielle Abwicklung läuft noch über gestaffelte Investorenrunden. Alle Details zum Kauf und zum zukünftigen Commodore-Team findest du im neuen Beitrag von retroAlex auf benutzer.de.
Es ist ja eine technische Grundlage. Wenn ich Daten offline haben möchte, muss ich sie synchronisieren. Punkt, Ende der Diskussion
Das Leben ist viel einfacher wenn man dauerhaft online arbeitet. Sei es mit VPN und Laufwerken, Sharepoint online only oder RDS.
Die User kümmer sich nicht darum wie und warum die Dateien dort hinkommen oder auf den Server kommen. Das aktuelle Interface von One-Drive und Nextcloud drücken das aus.
Ein kleines Icon was man kaum sieht und das Program läuft im Hintergrund.
Wenn man möchte kann man sich die Aktivitäten anschauen. Dies ist wirklich hilfreich. Aber man muss es aktiv machen.
Mein einzige Ansatz wäre den Status der Anbindung und Synchronisation für den normale User oder DAU sichtbarer zu machen.
Ein kleines Fenster unten recht oberhalb der Traybar grün: Online grau: Offline (Zuletzte Online vor 17 Minuten) rot: Offline (7 Dateien warten auf Upload)
das ist für mich ein generelles Problem bei solchen online Tools. Ich hatte das Thema gerade erst noch mit OneDrive wo unterschiedliche Versionen auf den Clients landeten und online aber eine völlig anderer Stand vorhanden war. (hier hat nur ein manueller Frühjahrputzt geholfen :/)
Nextcloud nutze ich privat. Aber mangels mehrer User kann ich hier keiner Erfahrung teilen.
Chronologische Übersicht aller Beiträge und Kommentare
Der Stream bietet dir einen chronologischen Überblick über alle Aktivitäten in unserem Forum. Hier siehst du alle Beiträge, Kommentare und Neuanmeldungen in chronologischer Reihenfolge, so dass du keine wichtige Diskussion mehr verpasst.