Forward Chain für das WG-Subnetz freischalten ....
iptables -A FORWARD -i wg0 -s 10.252.1.0/24 -j ACCEPT
Und nicht vergessen das IP-Forwarding zu aktivieren falls noch nicht geschehen. Aber das steht ja auch schon alles im Tut von @aqui
Bei Windows Maschinen ist zusätzlich deren Firewall für ICMP und SMB aus fremden Subnetzen freizuschalten, sonst bekommst du zu denen keine Verbindung...
leider erfolglos. Der Container hat - ausschließlich durch das Upgarde auf 7.16 - ein DNS-Problem... und habe keine Idee, wie ich das einkreisen kann.
Das ist kein DNS Problem. Wenn noch nicht mal das Gateway auf Pings antwortet steht die grundlegende IP Kommunikation schon nicht. Also als erstes mal die Firewall auf Durchzug stellen.
Eine cleane CHR VM mit pihole auf Router OS 7.16.1 läuft hier absolut problemlos, es muss also an deiner Konfiguration liegen die hier immer noch niemand vorliegen hat. Ein Export ist doch jetzt ehrlich gesagt nicht so schwer oder? Auf Rumgerate und Glaskugel polieren haben wir hier nämlich eher weniger Lust.
Hattest Du nicht geschrieben, dass Du auch einen pi-Hole am laufen hast im Container ;)
Virtuell im CHR Testlab immer auf Abruf und in ner Minute aufgesetzt 😉
Wieso überhaupt noch ein pihole, der Mikrotik DNS hat inzwischen ein adlist feature an Bord was das gleiche resourcensparender erledigt.
Hattest Du nicht geschrieben, dass Du auch einen pi-Hole am laufen hast im Container ;)
Spaß beiseite. Ich mag das grundsätzliche (DNS) Problem nach dem Upgrade lösen, weil ich ein paar weitere Container habe. Ganz zentral für meine Infrastruktur ist MQTT. Danach werde ich mir die Alternative gerne anschauen. pihole hat halt den Vorteil der kuratierten und regelmäßig aktualisierten Sperrlisten. Meine Avahi werde ich definitiv durch mDNS ersetzen - wieder ein Container weniger
ping heise.de" aus der Container-Shell hat vor dem upgrade funktioniert, nicht mehr nach dem upgrade
Was sagt denn ein Ping auf eine nackte IP wie 1.1.1.1 aus dem Container? Läuft der auch nicht? Wenn doch hat der Container selbst ein DNS Problem. Wieso überhaupt noch ein pihole, der Mikrotik DNS hat inzwischen ein adlist feature an Bord was das gleiche resourcensparender erledigt.
Erstmal brauhst du keine NIC-Teaming! Das ist nur zur bündelung von LInks gedacht. Z.b. bei einem LACP Trunk.
Zweitens kannst du bei Hetzer Vlan konfigurieren. Sei es bei den Dedicated Server oder bei VServern. Diese VLan müssen dann an deinen Hosts anliegen.
Auf Hyper brauchst du in der entsprechenden VM nur das VLan am entsprechenden Adapter per ID einzutragen. Das Netz liegt dann untagged in der VM an. VLan lassen sich bei HyperV glaub ich nicht tagged in eine VM weiter leiten.
Ist das für dich verständlich? VLans sind im endferntesten Sinn eigenen LAN Netzwerke und müssen genauso behandelt werden.
Nutzt du VServer bei Hetzner? Dann haben die ja per so schon internet durch die dortige Firewall. Deine hat da ja dann so erstmal nix mit zu tun. Dafür musst du im VSwitche ne neue Default Route auf deine FW-VM setzen.
ok, upgrade auf 7.16.1 "stable". Alles läuft, theoretisch auch die Container mosquitto und pihole (Status: "running"), aber faktisch sind sie nicht nutzbar.
Vergleich von export vorher<-> nachher zeigt fast keine Unterschiede. Auffällig ist nur der hinzugefügte "Type=A" für alle static DNS einträge. Und ein neu hinzugefügtes "/ip ipsec profile". Der Rest ist gleich. Aber dennoch funktioniert etwas nicht mehr, wie vorher.
"ip a" sieht unverändert aus
root@zeus:/# ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: eth0@if21: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
link/ether 42:ba:24:ba:49:c1 brd ff:ff:ff:ff:ff:ff link-netnsid 0
inet 172.19.21.2/24 scope global eth0
valid_lft forever preferred_lft forever
inet6 fe80::40ba:24ff:feba:49c1/64 scope link
valid_lft forever preferred_lft forever
"ip route" ebenfalls
root@zeus:/# ip route
default via 172.19.21.1 dev eth0
172.19.21.0/24 dev eth0 proto kernel scope link src 172.19.21.2
* "ping heise.de" aus der Container-Shell hat vor dem upgrade funktioniert, nicht mehr nach dem upgrade * pihole -d sieht auch gut aus, bis auf alle externen pings, es gibt offenbar ein DNS oder routing problem für den Container. Explizit wird das Web-Frontend als "running" erwähnt.
*** [ DIAGNOSING ]: Operating system
[i] Pi-hole Docker Container: 2024.07.0
[i] Distro: Debian
[i] Version: 11
[ ] dig return code: 10
[ ] dig response: dig: couldn't get address for 'ns1.pi-hole.net': failure
[ ] Error: dig command failed - Unable to check OS
[...]
*** [ DIAGNOSING ]: Name resolution (IPv4) using a random blocked domain and a known ad-serving domain
[ ] mgtimesdispatch.112.2o7.net is 0.0.0.0 on lo (127.0.0.1)
[ ] mgtimesdispatch.112.2o7.net is 0.0.0.0 on eth0 (172.19.21.2)
[ ] Failed to resolve doubleclick.com via a remote, public DNS server (8.8.8.8)
[...]
*** [ DIAGNOSING ]: Dashboard headers
[ ] Web interface X-Header: X-Pi-hole: The Pi-hole Web interface is working!
pihole -d ist auffällig unterschiedlich hier
vorher (container läuft bereits eine Weile)
*** [ DIAGNOSING ]: contents of /var/log/lighttpd
-rw-r--r-- 1 www-data www-data 69 Nov 16 14:47 /var/log/lighttpd/error-pihole.log
-----head of error-pihole.log------
2024-11-16 15:46:56: server.c.1513) server started (lighttpd/1.4.59)
-----tail of error-pihole.log------
2024-11-16 15:46:56: server.c.1513) server started (lighttpd/1.4.59)
nachher deutlich mehr meldungen, obwohl gerade erst gestartet
*** [ DIAGNOSING ]: contents of /var/log/lighttpd
-rw-r--r-- 1 www-data www-data 1.2K Nov 16 20:24 /var/log/lighttpd/error-pihole.log
-----head of error-pihole.log------
2024-11-16 15:46:56: server.c.1513) server started (lighttpd/1.4.59)
2024-11-16 20:29:47: server.c.1976) server stopped by UID = 65534 PID = 0
2024-11-16 20:31:21: server.c.1513) server started (lighttpd/1.4.59)
2024-11-16 20:33:22: server.c.1513) server started (lighttpd/1.4.59)
2024-11-16 20:34:30: server.c.1513) server started (lighttpd/1.4.59)
2024-11-16 20:34:51: server.c.1513) server started (lighttpd/1.4.59)
2024-11-16 20:35:12: server.c.1513) server started (lighttpd/1.4.59)
2024-11-16 20:35:32: server.c.1513) server started (lighttpd/1.4.59)
[...einige mehr...]
Container wurde gelöscht und neu angelegt (habe mir ein Script für die Upgrades geschrieben, der den Container immer wegwirft)
Web_page "http://192.168.10.1:9000/admin/index.php" nicht mehr erreichbar, vor Upgrade problemlos
Fazit Wo muss ich suchen? Container? Interfaces->VETH? Routing? DNS? Habe bei all' dem nichts geändert, aber dennoch kann pihole nicht mehr ins WWW wie vor dem upgrade und die Web-Page ist nicht erreichbar.
Wenn ich es richtig verstanden habe, muss die CPU bei RouterOS und Layer 3+4 ziemlich ackern - im Wiki steht da im kleingedrucken auch "Only 802.3ad and balance-xor bonding modes are hardware offloaded."
da hast du den Hinweistext wohl nicht richtig gelesen.... Wenn du wirklich 802.3ad oder balance-xor konfiguriert hast, dann läuft dies über den ASIC also über den Switch-Chip und NICHT über die CPU. Zitat:
"....switch chips support bridge hardware offloading with bonding interfaces. Only 802.3ad and balance-xor bonding modes are hardware offloaded, other bonding modes will use the CPU's resources."
Im ROS kannst du als Hash Algorithmus "Layer2, Layer 2und3 oder Layer 3und4 wählen.
SwitchOS ist hauptsächlich nur für Layer2 Funktionalitäten, glaube nur bei ACLS kannst du noch Layer 3 und 4 mit hinzuziehen, das wars dann aber. Wenn man Layer 3 und höher Funktionalitäten benötigt, setzt man ROS ein.
und nicht vergessen, den Hash Algorithmus auf beiden Seiten (Switch und Endgerät) gleich einzustellen.
nach meinem Verständnis hast du drei komplett "autarke" Windows Server 2022 Maschinen bei Hetzner? Die sind per se ja erstmal nicht unter einander verbunden.
Ich kenne das Thema zum Beispiel von OVH oder netcup, da hat man die Möglichkeit ein "Private vLAN" bei dem Anbieter zu bestellen, was dann an allen drei Host Systemen anliegt. Darüber hättest du eine Layer2 Verbindung zwischen den Geräten und könntest deine vLANs auf besagten Systemen verwenden.
Da diese Option aber auch gerne mal ein paar Euros kostet, möchte ich noch einen weitere Vorschlag unterbreiten. Der ist zwar "kostenlos" aber etwas aufwändiger...
Wenn du auf allen drei Hyper-V Hosts jeweils eine OPNSense / PFSense virtualisiert betreibst, können du diese per VPN Tunnel mit einander verbinden und über VXLAN deine Layer2 Netze per Layer3 tunneln. Dafür benötigt du dann aber ein Overlay und ein Underlay Netzwerk.
Ich vermute die erste Option ist deutlich einfacher umzusetzen, wenn keine gereiften Netzwerk Kenntnisse vorliegen.
ich habe kein wirklich "technisches Problem", sondern eher ein organisatorisch und wäre an euren Meinungen interessiert.
Wir betreiben bei uns intern aktuell einen Ubuntu Server auf Basis von 20.04.6 LTS.
Diese Maschine beherbergt unter anderem auch einen MariaDB Server in der Version 10.11. Die Datenbank wird aktuell für folgende Webanwendungen verwendet: Teampass, PHPIPAM, Wiki.js Sowohl die Anwendung "Teampass" als auch "PHPIPAM" sind bei uns abgängig, da wir den Newtrix SecurePassword Server nun einsetzen und als PHPIPAM Ersatz auf Netbox migriert sind. Bleibt also nur noch die Datenbank für Wiki.js, welches noch eingesetzt wird. Wiki.js wird dabei jedoch in einem Docker Container betrieben. Meine Idee dazu: Einfach die Datenbank ebenfalls als Docker Container hosten, dann hat sich das Thema MariaDB erledigt.
Ebenfalls ist der Apache2 Webserver auf dem Server installiert und arbeitet dabei primär als Reverse Proxy. Hierbei arbeiten die folgenden Webanwendungen: Teampass, PHPIPAM, PHPMyAdmin Als Reverse Proxy kommt das System für weitere Systeme zum Einsatz, die zum Beispiel lediglich http sprechen, hier erledigt der Proxy dann das https Protokoll und per Firewall ist geregelt, dass lediglich der ReverseProxy per http auf das "Altsystem" zugreifen darf. Auch der Wiki.js Docker Container wird über den Reverse Proxy angesteuert:
Diese URL's sind natürlich alles andere als Benutzerfreundlich und basieren auch lediglich auf http, da die Docker Kollegen es vermeiden wollen unsere internen Webserver Zertifikate in die Container zu deployen. (Die Zertifikate haben eine Laufzeit von aktuell 6 Monaten und werden von einer 3 Stufigen Windows PKI bereitgestellt. Das ausstellen und deployen der Zertifikate erfolgt dabei automatisch mit einem eigens dafür geschrieben Skripts. Ziel URL's sollten wie folgt sein:
Die Dashboards können von jedem beliebigen User aufgerufen werden, da unsere Webanwendungen, welche dort hinterlegt sind noch mit eine Authentifizierung benötigen. (Im Regefall OpenID Connect, zu einem Microsoft ADFS)
Nun stellt sich uns aber aktuell die Frage aller Fragen, zum zukünftigen Design:
Reverse Proxy auf der Ubuntu 20.04 Kiste weiterlaufen lassen und lediglich die MariaDB umziehen
Reverse Proxy auf ein neueres Ubuntu und apache2 oder nginx migrieren
Die Abbildung des Reverse Proxys mit einem internen Citrix Netscaler (Freemium) im HA lösen
Jeder Lösungsweg hat so seine Vor- als auch Nachteile. Erster Vorschlag: + Never touch a running System ; - wird uns auf kurz oder lang einholen, wenn der Support ausläuft Zweiter: + Neues Ubuntu mit neuen Package Versionen ; + loswerden von Altlasten ; - die einen Kollegen mögen den apache2 nicht, die anderen nginx und wiederum anderen favorisieren den netscaler (ich + ein Kollege) [was manche Kollegen aber Vertäufeln] Dritte: + mein Favorit, da bereits der interne Citrix Storefront darüber angesprochen wird und diverse andere Dienste (NTP, LDAPS, RADIUS) per Loadbalancing zentral bereitgestellt werden.
Deshalb die Frage an die Community: Was wäre euer favorisierter Weg? Bei dem Netscaler habe ich natürlich das Thema mit der 25 MBit/s Datendurchsatz Lizenz (Freemium) was aber bei uns intern (noch) zu keinen Problemen geführt hat. Am Ende des Tages werden ca. 50 Personen auf die Dashboards zugreifen und das jeweilige Dashboard als "Startseite" im Edge verpasst bekommen.
Ich freue mich auf eure Anregungen und wünsche noch ein schönes Wochenende.
Vielen Dank für Deine Hinweise. Da ich jedoch auf einem anderen Gerät ein AD-Controller am Laufen habe, musste ich mit etwas Umwegen erstmal dort eine Zertifikatvorlage erstellen und dann verteilen. Das klappte einwandfrei und ich konnte die Zertifikate für das RDP einbinden. Nun kann ich auch die App über die Systemsteuerung einbinden. Was mich aber wundert: Nutze ich die Microsoft Remotedesktop App und trage dort die Webadresse für den Webfeed ein, dann kommt die Fehlermeldung "unbekannte Zertifikatssperre". Weiß jemand einen Grund? Viele Grüße Stefan
Okay, ich habe gerade mein altes Android rausgeholt und es ausprobiert. Ich kann es nachvollziehen. Es scheint wirklich eine Android-Sache zu sein. Unter iOS habe ich das Problem nicht. Ich werde mal sehen, was ich da machen kann.
Von den Features ist Adguard deutlich besser weil im Upstream auch out of the box DoT und DoH supportet ist. On Top ist das Blocken der üblichen Schnüffel Apps wie Facebook und Co. über ein dediziertes GUI möglich. Macht also Sinn auch einmal über den Tellerrand bei den DNS Filtern zu sehen: https://github.com/AdguardTeam/AdGuardHome Das einfache DNS Grundsetup ist identisch zu dem was Kollege @DivideByZero schon gesagt hat.
Zitat von @admtech: Welches System verwendest du? iOS oder Android?
Android, an Browsern nutze ich testweise Chrome, Firefox und Vivaldi, bei allen gleiches Verhalten. Bei allen wechselt die Eingabe immer erst in die Filterfelder. Wenn es zwei davon gibt muss ich also 3 mal enter drücken bis gesucht wird wenn ich ausschließlich die Tastatur benutzen will Auch im Private Mode ohne Cache gleiches Verhalten.
18.0.1 mit OS 15.0.1. Du hast aber Recht. Sofern es Suchbegriffe im Cache gibt die dann als Vorschag erscheinen muss man 2mal drücken wenn man nichts auswählt. Sobald es ein neuer Begriff ist rennt alles wie es soll. Sorry für die Verwirrung. Der gepostete Suchbegriff aus dem PM ergibt aber weiterhin wilde Phantasietreffer.
unterstellt, dass Du unten nur ein Patchfeld, keinen Switch hast (einfachste Prüfmethode: kein Stecker dran, kein Strom? Dann Patchfeld), könntest Du auch so alles lassen, wie es ist, wenn Du vom Patchfeld in Raum 1 eine Doppeldose hast. Dann 1 Kabel patchen als Verlängerung des DSL-Anschlusses, also so lassen, wie es ist, und das 2. Kabel als Rückführung zum Keller, sprich Patchkabel von Fritz!Box-LAN-Ausgang (1..4) in den 2. Anschluss der Dose in Raum 1. Dann unten einen Switch hinhängen, von dem Patchkabel zu den Ports des Patchfeldes gehen. wenn aber nur 1 Kabel in Raum 1 geht, muss die Fritz!Box in den Keller.
Das Produkt kenne ich nicht, aber das ähnlich gebaute Programm Automatic PDF Processor des Herstellers. Damit werden PDFs automatisch umbenannt und abgelegt in einem Rechnungseingangworkflow.
Mit dem neuen Produkt sollte es möglich sein, E-Rechnungen nicht nur automatisiert abzulegen, sondern auch zu drucken und per Mail intern zur Weiterverarbeitung zu versenden. Ich verstehe die Beschreibung so, dass reine XML-Rechnungen, die ja nicht vernünftig maschinenlesbar sind, umgewandelt werden in lesbare PDFs mit dem Inhalt der XML.
Damit sollte es bspw. möglich sein, alle eingehenden Rechnungsmails automatisiert über den Mailserver oder einen Client in ein bestimmtes Verzeichnis zu speichern und dann mit diesem Produkt weiterzuverarbeiten.
Wie gesagt, kenne es noch nicht, gibt aber eine Testversion.
auf das darunter liegende Filter-Feld wechselt anstatt die eigentliche Suche zu starten.
Das passiert auch stationär im Safari Browser. Da muss man auch immer 2mal Enter drücken.
Das verstehe ich auch nicht. Ich entwickle auf Safari. Wenn ich den Suchbegriff in das Feld eingebe und Return drücke, wird die Suche sofort gestartet. Mit Tab kann ich zwischen den Feldern navigieren.
Welchen Browser und welches MacOS bzw. OS? Löscht evtl. mal den Cache.
Ich habe es unter folgenden Browsern erfolgreich ohne Fehler gerade getestet:
MacOS: Safari, Chrome, Egde, Firefox Windows 11: Edge, Firefox.
damit kannst du uns jetzt aber nicht kommen, den iPerf hat so viele Fehler, nimm lieber NTTTCP, der macht das viel besser und ist auch viel genauer. 😔
Komisch nur das die ganze Welt es benutzt und das die Fehler noch keinem aufgefallen sind, ist ja OpenSource. Kann ich ehrlich gesagt nicht glauben. Diese angeblichen "Fehler" wären doch schon längst aufgefallen. Muss ich mir den Source-Code von NTTTCP in einer ruhigen Stunde mal etwas reinziehen.
Was mir in der mobilen Ansicht aufgefallen ist, dass nach der Eingabe eines Suchbegriffes und Drücken von "Enter", der Eingabefokus auf das darunter liegende Filter-Feld wechselt anstatt die eigentliche Suche zu starten. Erst nach bestätigen des Filters mit Enter startet die Suche. Das ist eigentlich nicht das was ich erwarte wenn ich Enter in einem Suchfeld eingebe. Hier sollte man IMHO noch optimieren.
Grüße Uwe
Hallo Uwe,
Eigentlich nicht. Wenn ich auf meinem iOS etwas in das Suchfeld eingebe und dann auf "Suchen" klicke, startet die Suche sofort, ohne in den Filter zu springen (auf iOS wird "Suchen" und nicht " Return" angezeigt).
Nun, für die Anleitungen gibt es oben im Hauptmenü den Punkt "Anleitungen", um zur Übersicht der Anleitungen zu gelangen. Für alle anderen Filter muss man sich ab jetzt einloggen
Um den Amis etwas klar zu machen werden Bedienungsanleitungen mit Bildern ausgestattet.
ich habe denen betreffend der Probleme schon per Mail, Teams diverse Romane geschrieben, natürlich bebildert, habe auch schon diverse Power-Points, Visio's, Excel's und auch schon diverseste Videos erstellt, jedoch habe ich bisher nicht wirklich das Gefühl gehabt, dass auf der anderen Seite etwas angekommen ist. 😔
Mitunter das "geilste" was ich mal von denen zurückbekommen habe war der Spruch mit, "Alex, das ist alles viel zu kompliziert, beschreib das Problem bitte in max. 5 Sätzen". 🙃
Was mir in der mobilen Ansicht aufgefallen ist, dass nach der Eingabe eines Suchbegriffes und Drücken von "Enter", der Eingabefokus auf das darunter liegende Filter-Feld wechselt anstatt die eigentliche Suche zu starten. Erst nach bestätigen des Filters mit Enter startet die Suche. Das ist eigentlich nicht das was ich erwarte wenn ich Enter in einem Suchfeld eingebe. Hier sollte man IMHO noch optimieren.
Selbst das Tool für ihre eigenen Betriebssysteme zu tweaken sind sie zu doof 😂.
glaub mir, insbesondere dieser Punkt bringt mich momentan so richtig zur Weissglut. 😡
Denn ich habe früher immer mit iPerf gemessen. Dann habe ich wegen Performanceproblemen beim Server 2019 mit den entsprechenden Microsoft Entwicklern mehrere Teeams-Meetings gehabt, bei denen unter anderem auch der Matt Olson höchstpersönlich mit dabei war und sobald ich irgendwie mit iPerf um die Ecke gekommen bin, hiess es seitens Microsoft, nein Alex, damit kannst du uns jetzt aber nicht kommen, den iPerf hat so viele Fehler, nimm lieber NTTTCP, der macht das viel besser und ist auch viel genauer. 😔
Und genau das habe ich auch gemacht, damit ich mir bei einer erneuten Begegnung nicht schon wieder das gleiche Geheule anhören muss.
Nun muss ich jedoch feststellen, das der NTTTCP nicht wirklich das macht, was man diesem per Parameter vorgibt. 🤮🤮🤮
Ich habe bei Hetzner 3 Dedicated Server mit Windows Server 2022 und HyperV installiert. Als Router nutze ich eine OPNsene auf Host "A". In der OPNsense habe ich drei VLANs konfiguriert (90,91,92) diese sind auch in anderen VMs erreichbar.
Jetzt zu meinem Problem...
Ich würde gerne diese VLANs auch auf den anderen beiden Hosts nutzen können. Mit dem Versuch alle Server in ein vSwitch (VLAN 4001) zu packen kann ich die Hosts zwar untereinander ansprechen, jedoch kann ich meine vlans nicht in den vSwitch packen.
Wenn ich z.B. in einer VM auf Host B das VLAN 90 angebe, erhalte ich keine IP mehr
was mir an dem Foto auffällt, dass da ganz rechts in der Menüleiste "Plastischer Reader" offensichtlich aktiv ist. Laut https://support.microsoft.com/de-de/topic/%C3%B6ffnen-des-plastischen-re ... macht der u.a., dass der Text besser lesbar ist mittels Verringerung der Spaltenbreite. Vielleicht hat er diesen versehentlich bzw. unabsichtlich aktiviert.
Mit dem heutigen Release 6.4 haben wir die Struktur der Suche und der Filter etwas verändert.
Die Sucheingabe und die Suchfilter wurden vereinheitlicht und vereinfacht. Sie haben ein auffälligeres und größeres Design erhalten und wurden für die mobile Ansicht optimiert. Ziel war es, die vielen verschiedenen Pulldown-Menüs für die Nutzerinnen und Nutzer übersichtlicher zu gestalten. Ich hoffe, das ist mir gelungen.
Die bisherigen Themen-Tags wurden von der Startseite auf eine eigene Seite verschoben. Die URL dazu ist /t/. Damit machen wir einige Dinge aus Release 6.1 wieder rückgängig, da sie nicht funktioniert haben. Auch nicht innerhalb der SEO. Google hat uns für die damaligen Änderungen abgestraft und viele Inhalte von uns rausgeschmissen.
Auf die neue Suchseite gelangt man, wenn man ein Thema oder einen Filter auswählt oder die Suchfunktion benutzt. Man kann sie auch direkt über das "Hauptmenü" ganz oben (die drei Punkte) und "Erweiterte Suche" erreichen. Allerdings nur, wenn du eingeloggt bist. Im eingeloggten Zustand wird auf der Startseite und in der Tutorial-Übersicht wieder eine Suchbox plus Filter angezeigt.
Ohne Login können die jeweiligen Filter nicht mehr verwendet werden. Ziel ist es, dass sich die Nutzer einloggen, um unsere Seite effizient nutzen zu können. Außerdem können wir so einige Dinge realisieren, ohne dass Google es mitbekommt. Ohne Anmeldung funktioniert zwar die Suchfunktion, aber man muss dann auf einige Features wie z.B. die Filter verzichten.
Die Filter wurden um alle unsere Beitragsarten erweitert (Meinung (IMHO), Fragen, Allgemeine Beiträge etc.). Alle Filter können miteinander kombiniert werden.
Alle weiteren Neuerungen findet ihr wie immer in unserer Release notes
Ich hoffe, die Änderungen gefallen euch und freue mich auf euer Feedback oder einen Klick aufs das Herz.
ein Bekannter hat mir dies Foto geschickt. Angeblich hat er nichts gemacht und auf einmal sind alle neuen Mails zentriert oder haben einen großen linken Rand.
Wenn Jemand sagt er hat nichts gemacht, dann hat er schon etwas gemacht, aber es war nicht kompliziert. Man kann über das Briefpapier so etwas machen, aber das sind sehr viele klicks.
Jemand eine Idee wie er das mit einem Tastendruck oder einem Mausklick gemacht haben könnte?
Glaube nicht, dass ein normales Email Postfachs die Pflicht zur Empfangsmöglichkeit erfüllt.
Doch, selbstverständlich. Dass eine XML-Rechnung dann ggf. von Dir nicht weiter bearbeitet werden kann ohne zusätzliche Software, ist natürlich ein praktisches Problem, hat aber mit der Empfangsmöglichkeit selbst nichts zu tun.
wo genau ist jetzt das Problem? Du deaktivierst im Pihole unter Settings den DHCP-Server, gibst ihm eine feste IP und setzt als DNS Upstream Server in den Settings die IP der Zywall.
Allen Clients, die per DHPC auf dem Windows-Server anfragen, gibst du den Pihole als DNS Server mit:
Zur Konfiguration der Optionen auf einem DHCP-Server öffnen Sie die Eigenschaften der Serveroptionen oder der jeweiligen Bereichsoptionen. Serveroptionen haben für alle erstellten Bereiche Gültigkeit, während Bereichsoptionen nur für den Bereich gelten, für den sie konfiguriert sind. Die wichtigsten Optionen dabei sind: 003 Router (Standardgateway) 006 DNS-Server 015 DNS-Domänenname
Das war es doch auch schon. Oder habe ich etwas falsch verstanden?
Gruß
DivideByZero
P.S.: Und überall da, wo die statische IPs vergibst und den DHCP nicht nutzt, musst Du natürlich von Hand den Pihole als Nameserver einstellen, sofern gewünscht.
ich hätte mal eine Frage, ich möchte auf meinen Windows Server 2019 daheim PiHole über HyperV virtualisieren, der Host für PiHole ist ein Ubuntu 24.04.1 LTS, nun hab ich mich in das System PiHole eingelesen, aber jetzt hab ich noch eine Frage, welche mir evtl. jemand aus der Praxis beantworten könnte, wie umgehe ich dass ich den internen DHCP nutze?
Kurz zum Netzaufbau, Privates Netzwerk, läuft hinter einer ZyxelWall , verbunden ist mein Server 2019 welcher als DHCP fungiert, und noch ein paar weitere Dinge hostet, die AP´s haben alle eine Fixe IP welche auch am DHCP eingetragen und reserviert ist, mein DHCP teilt "normalen" Hostgeräten eine Ip im Bereich von x.x.x.50 - x.x.x.100 zu, alle IP´s welche vor der 50 sind und nach der 100 sind fix vergeben, Teilweise am Gerät aber auch Teilweise über den DHCP, via Reservierung.
VLAN ist derzeit nur eines, wird sich aber ändern, Gäste WLAN wird über die Zyxel-Cloud verwaltet, die Überwachungssysteme und Smart-Home Devices laufen separat.
Da ich gerne meinen Windows-DHCP laufen lassen würde bin ich nun am Grübeln wie ich nun die PiHole richtig konfiguriere, da meine Firewall nun den DNS sowie mein GW macht, hier habe ich mich auch eingelesen, und muss eigentlich "nur" dem PiHole als GW meine FW geben sowie als DNS, und meinen DHCP müsste ich nun als GW und DNS das PiHole angeben, nur ich finde hierzu nichts im Netz, da hier scheinbar alle auch den kleinen als DHCP nutzen...
Hat evtl. jemand diese Konstellation bereits hinter sich und kann mir einen Tipp geben, oder gar einen Link zu einer Anleitung, will jetzt mehr in Bereich Linux machen, als nächstes steht Homematic und Raspi am Programm, um die Cloud-AP,s wegzubekommen....
Moin, sind noch gültige Zertifikate der alten CA in Verwenden? Wenn ja, beinhalten Sie eine CRL? Diese in jedem Fall am Leben halten. Ansonsten werden die Zertifikate unter Umständen ungültig.
Neue CA, je nach Größe der Umgebung unterteilen in Root und Issuing! CRL für die neue würde ich auf einen Webserver planen, statt per SMB/LDAP.
Ein Template für Domänen Authentifizierung und Kerberos würde ich mixen/neu machen. Dabei die integrierten Templates von MS ablösen lassen.
Guter Vorschlag es gibt ja auch so Windows CMD Befehle, wo man anscheinend gleich ins BIOS kommt. Doch bei dem PC funktioniert das leider nicht. Hab das gestern ausprobiert.