ingchris
Goto Top

Server 2008 R2 Performance katastrophal

Hallo,
Bin gerade bei der Umstellung auf einen WIN Server 2008 R2 (64 Bit!), Einsatz als Terminalserver.
Lt. meinem EDV-Anbieter ein verdammt schneller Server...

2x XEON Prozessor W5580 (16 CPU-Kerne)
8 GB RAM
3 x 1Terrabyte - Festplatte RAID 5

Das Gegenteil ist der Fall. Server ist extrem langsam!!
vor allem nach Neustart, z.B Internet Explorer ca. 5sec., MS access 2007 braucht 7-8sec mind. (ohne Datenbank, nur Access!), ServerManager öffnen dauert Sekunden
irgendwie dauert alles einige Sekunden ...

Performance Test mit HD-Tach ergibt durchschnittl. Lesegweschw. von 10-11 MB / s (!!!???), Random Access über 20ms, Burst Speed 285 MB/s ????

statt den 10-11 MB/s sollte der Wert weit über 100 liegen...
Mein XP-Rechner hat 115 MB/s !!

Woran kann das liegen ?

L.G
IngChris

Content-Key: 141378

Url: https://administrator.de/contentid/141378

Ausgedruckt am: 28.03.2024 um 20:03 Uhr

Mitglied: wiesi200
wiesi200 24.04.2010 um 19:22:51 Uhr
Goto Top
Also Raid 5 ist nicht wirklich schnell, dann noch bei nur 3 SATA Platten. Dann kommt es noch darauf an was du für einen Controller hast bzw. ist es ein Software Raid?

Schon mal mit deinen Anbieter darüber geredet? Der muss doch auch eine Aussage treffen.
Mitglied: NetWolf
NetWolf 24.04.2010 um 19:38:50 Uhr
Goto Top
Hallo,

deine gemessenen Werte hast du wann / wie / wo gemessen?
Direkt auf dem Server? und nicht per Terminalsitzung?

Es kann an tausend Dinge liegen....

- zu wenig RAM
- Systempartiton ist hoffentlich nur 50 GB groß?
- Netzwerkkarte ist von Auto auf Fullduplex gestellt?
- Stromsparfunktion der Netzwerkkarte ist aus?
- du verwendest feste IPs?
- Einstellungen für DNS-Server / Gateway stimmen?
- ANTI-VIRUS-PROGRAMM (welches?) = Bremse Nr. 1
- welcher Raid-Controller?
- interne, oder externe Platten?
- welche Platten? Typ/Hersteller
- welcher Typ? ATA/SATA/SATAII/SAS....
- S.M.A.R.T. ist aktiviert?
- der Switch ist KEIN Billigprodukt?
- die Verkabelung ist in Ordnung?


Generell ist RAID5 mit min. 4 Platten zu empfehlen. Wobei die Systemplatte NICHT mit im RAID 5 Verbund laufen sollte! Sondern gespiegelt als RAID 1.
btw: Bei Datenbanken ist Raid 5 eher eine Bremse! Lese auch: http://de.wikipedia.org/wiki/RAID

Gehen wir mal davon aus, dass du jedem Terminal 2 GB zur Verfügung stellen möchtest, dann kannst du 3 Terminals gleichzeitig nutzen (ein wenig Speicher benötigt auch der Server).
Ist das so gewollt?


Grüße aus Rostock
Wolfgang
(Netwolf)
Mitglied: dog
dog 24.04.2010 um 21:58:47 Uhr
Goto Top
Vorallem RAID5 in Standardkonfiguration. face-smile
Zumindest die Read-/Write-Policies muss man meistens anpassen (zumindest wenn man eine USV oder BBU hat).
Mitglied: IngChris
IngChris 25.04.2010 um 00:09:31 Uhr
Goto Top
Danke für die raschen Antworten.

Also beim Messen der Werte hab´ ich dann wahrscheinlich einen Fehler gemacht. Habe die Messung (mit HD-Tach) in der Tat über die Terminalsitzung durchgeführt und NICHT direkt am Server. Ergeben sich hier so gravierende Unterschiede, je nachdem ob die Messung direkt auf dem Terminalserver oder über die Terminalsitzung durchgeführt wird?
Messung auch ohne Virenschutz (Trendmicro WFBS 6) durchgeführt:
mit Virenschutz ca: 10MB/S - 11 MB/s
ohne Virenschutz: ca.11 MB/s --> kann hier dem Virenschutz keine eindeutige Schuldzuweisung geben.

Das derzeitige Produktivsystem besteht aus einem Terminalserver 2003 mit bis zu 10 Usern (eigenes WaWi-System in Access entwickelt, läuft derzeit unter Access 2003 im Access-2000-Format --> wird für Einsatz Server 2008 R2 auf Access 2010 adaptiert). Der Terminalserver 2008 R2 hängt -derzeit zum Testen im gleichen Netz mit einer fixen IP, später soll der 2008er Server den 2003er Server ersetzen; alle Rechner haben fixe IPs.

Virenschutz: Trendmicro Worry Free Business Security 6 auf dem 2003er Server installiert, 1 Lizenz für den 2008er Server verwendet.
Auf dem 2003er Server ist mir auch schon aufgefallen, daß der TrendMicro ca. 5-6GB auf der Festplatte braucht!

Platten sind interne Platten.

Weitere Details kann ich frühestens Montag nachliefern. Sitze derzeit nicht mehr direkt vor dem Server.
Da ich davon ausgegangen bin, daß mir mein EDV-Anbieter unter Berücksichtigung meiner gewünschten Anforderungen ein passendes System zur Verfügung stellt hab´ ich mich nicht im Detail mit der Serverhardware befasst.
Edv-Anbieter hab´ ich übrigens kontaktiert. Diese kann es nicht glauben und sieht sich das ganze demnächst an.

LG IngChris
Mitglied: affabanana
affabanana 25.04.2010 um 08:24:11 Uhr
Goto Top
Ich würde mal eine Fesplatte ausbauen und mit denn 2en ein RAID 1 machen..
Dann nochmals testen obs nicht doch am RAIDcontroller mit RAID 5 liegt.
Falls dein Controller RAID 10 kann könntest Du auch noch eine 1TB Platte dazukaufen.

Was hatte der alte Server für Hardware?? SCSI u160 oder schon u320??

Nur aus Neuhier: Dein händler ist wohl bei Dir um die Ecke. Oder ist mit Deinem chef im Kegel Verein??
Nur weil er sich mit PC's ein wenig auskennt heisst das meisstens, dass er keine Ahnung von Servern für TS Ahnung hat..

gruass affabanana


PS: Hast Du schon mal über XenDesktop nachgedacht??
Bekommst von Citrix 10 Lizenzen for FREE.
Damit kannst 10 Users mit einem Virtuellen XP oder 7 beglücken.
Mitglied: NetWolf
NetWolf 25.04.2010 um 14:25:48 Uhr
Goto Top
Hallo,

Ergeben sich hier so gravierende Unterschiede, je
nachdem ob die Messung direkt auf dem Terminalserver oder über die Terminalsitzung durchgeführt wird?
ja

Messung auch ohne Virenschutz (Trendmicro WFBS 6) durchgeführt:
mit Virenschutz ca: 10MB/S - 11 MB/s
ohne Virenschutz: ca.11 MB/s --> kann hier dem Virenschutz keine eindeutige Schuldzuweisung geben.
ohne bedeutet: deinstallieren! abschalten nützt gar nichts, da das Anti-Virus-Programm im Hintergrund immer noch läuft!

Trendmicro gehört zu den Kandidaten, die als Bremse wirken. Das ist aber relativ zu sehen, alle Anti-Virus-Programm Hersteller versuchen ständig Ihre Programme/Performance zu verbessern, und beim nächsten Release kann das schon wieder ganz anders aussehen.
Ich kann NOD 32 empfehlen.

Das derzeitige Produktivsystem besteht aus einem Terminalserver 2003 mit bis zu 10 Usern
Dann reicht dein Speicher auf dem neuen Server auf keinen Fall! 10 * 2 GB = 20 GB + min. 2 GB für den Server die du benötigst, nicht 8 GB.

(eigenes WaWi-System in Access entwickelt, läuft derzeit unter Access 2003 im Access-2000-Format --> wird für Einsatz Server 2008 R2 auf Access 2010
adaptiert).
Im Access Frontend und Backend trennen. Runtime mit Frontend auf die Clients verteilen, Backend auf dem Server belassen. Dann hast du ein hochperformantes System und brauchst dafür keinen Terminalserver mehr!

Da ich davon ausgegangen bin, daß mir mein EDV-Anbieter unter Berücksichtigung meiner gewünschten Anforderungen
ein passendes System zur Verfügung stellt hab´ ich mich nicht im Detail mit der Serverhardware befasst.
da scheint es wohl Kommunikationsschwierigkeiten gegeben zu haben!? Er wusste wohl nicht, dass du einen Einsatz als Terminalserver planst? und eine Datenbank darauf laufen hast?

Grüße aus Rostock
Wolfgang
(Netwolf)
Mitglied: IngChris
IngChris 25.04.2010 um 18:21:50 Uhr
Goto Top
Hallo,
also jetzt hat´s mir doch keine Ruhe gelassen und ich bin mal "kurz" in die Firma gefahren.

I. Also HD-Tach Test direkt auf dem Server 2008 R2 durchgeführt.
Keine wesentlichen Änderungen!
Bestes Ergebnis 13MB/s, Random access ca 20ms.
HD-Tach war bereits auf dem Server installiert (Kompatibilitätsmode XP, Sp2).(also nicht von mir installiert)

Ich hab dann HD-Tach
1) auf meinem aktuellen Firmen-Desktop-PC mit WinXP , SP3 ausprobiert, dabei ich einen Wert von 115 MB/s bekommen.
2) privater Desktop - Rechner aus dem Jahr 2006, Win 7 --> Wert noch immer bei ca 50MB/s

HD-Tach ist ja anscheinend für Win 2000 und WinXP geschrieben worden.
Ist hier auf dem Server 2008 R2 auch eine entspr. Aussagekraft gegeben bzw. welchen Wert müßte der Server erreichen?
(Mein EDV-Anbieter meinte letzte Woche noch, daß mein Server (vor der Auslieferung) einen Wert von weit über 100 MB/s hatte.)

II.Aufschrauben werde ich den Server nicht (Garantie)
D.h. RAID umbauen o.ä. überlasse ich meinem EDV-Anbieter
Aber folgenden Auszug aus dem Gerätemanager kann ich noch anbieten:
aufschrauben werde ich den Server nicht (Garantie)
Anschlüsse: COM1,COM2
Computer: ACPI x64based PC
Grafikkarte: Matrox G200e (Server Engines), english
CD-rom: HL-DT-ST DVD RAM GH22NS50 SCSI CDRom-Device
Laufwerke: Intel Mega SR SCSI Disk Device
Speichercontroller:
- Intel Embedded Server Raid Technology II sowie
- Microsoft VHD-HBA
Netzwerk:
-Intel 82575EB Gigabit aktiviert
-das gleiche nochmal, aber deaktivert
-LAN virtuelles Netzwerk deaktiviert


hier nochmals Systemsteuerung/System:
Windows Server 2008 R2 Standard
2 Intel XEON-Prozessoren W5580 3,2 Ghz
RAM: 8GB

Vielleicht könntet Ihr meine Server-Ausstattung mal kurz kommentieren...


III. "alter" Server (2003er)
SCSI 320 --> LSI Logic PCI-X Ultra320 SCSI Hostadapter


IV. Access Datenbank in BE und FE und KEIN Terminalserver
Hatte ich getestet bevor wir uns ursprüngl. für den 2003er Terminalserver entschieden haben
War viel zu langsam! Habe nicht nur ein internes Netzwerk, sondern auch noch 2 Filialen über Breitbandverbindung angekoppelt.
Access-DB ist mittlerweile komplex geworden (1998 damit begonnen).

V. Warum TerminalServer 2008 R2 und Access 2010:
- den Fortschritt nicht verpassen (wobei ich mir mittlerweile einige Zweifel kommen...)
- "alter" Server seit 2004 im Einsatz,
- DB - Optimierung und Nutzung neuer Möglichkeiten

L.G IngChris
Mitglied: NetWolf
NetWolf 25.04.2010 um 19:56:33 Uhr
Goto Top
Hallo,
also jetzt hat´s mir doch keine Ruhe gelassen und ich bin mal "kurz" in die Firma gefahren.
das kenne ich face-smile

I. Also HD-Tach Test direkt auf dem Server 2008 R2 durchgeführt.
Keine wesentlichen Änderungen!
Bestes Ergebnis 13MB/s, Random access ca 20ms.
HD-Tach war bereits auf dem Server installiert (Kompatibilitätsmode XP, Sp2).(also nicht von mir installiert)
es gibt ja auch Alternativen, z.B. HD Tune, oder noch besser direkt vom Festplattenhersteller

Ich hab dann HD-Tach
1) auf meinem aktuellen Firmen-Desktop-PC mit WinXP , SP3 ausprobiert, dabei ich einen Wert von 115 MB/s bekommen.
2) privater Desktop - Rechner aus dem Jahr 2006, Win 7 --> Wert noch immer bei ca 50MB/s
das spricht nicht für den Server

HD-Tach ist ja anscheinend für Win 2000 und WinXP geschrieben worden.
Ist hier auf dem Server 2008 R2 auch eine entspr. Aussagekraft gegeben bzw. welchen Wert müßte der Server erreichen?
das kann ich dir nicht sagen, kenne deine Controller/Festplatten -Hardware nicht. Ob HD-Tach mit Server 2008 richtig läuft kann ich auch nicht beurteilen.

(Mein EDV-Anbieter meinte letzte Woche noch, daß mein Server (vor der Auslieferung) einen Wert von weit über 100 MB/s
hatte.)
und nimmt nun 1 MB/s proTag ab ? face-big-smile

Aber folgenden Auszug aus dem Gerätemanager kann ich noch anbieten:
CD-rom: HL-DT-ST DVD RAM GH22NS50 SCSI CDRom-Device
Laufwerke: Intel Mega SR SCSI Disk Device
warum ein SCSI-DVD Laufwerk? ein normales ATA/SATA hätte es auch getan! (zumal viel günstiger)

Speichercontroller:
- Intel Embedded Server Raid Technology II sowie
nö das ist nicht der Controller für den Raid 5 Verbund

ich zitiere:
The Intel® Embedded Server RAID Technology supports two Serial ATA ports, providing a cost-effective way to achieve higher transfer rates and reliability. Intel® Embedded Server RAID Technology supports RAID level 0 data striping for improved performance and RAID level 1 data mirroring for improved data reliability.
Quelle: http://www.intel.com/support/motherboards/server/sb/cs-016550.htm

- Microsoft VHD-HBA
virtuelle Rechner/Platten hast du doch nicht laufen?


Grüße aus Rostock
Wolfgang
(Netwolf)
Mitglied: wiesi200
wiesi200 25.04.2010 um 19:57:59 Uhr
Goto Top
Einen Flotten Prozessor und dafür eine schrottige Festplattenanbindung. Also ein wenig an der Abstimmung fehlt es schon.
Da sollte ein richtiger Raidcontroller rein (ein kleiner LSI z.b. da hat man nicht so viel Ärger) und mit den an sich Festplatten sollte auch was gemacht werden eftl. Raid 10.

Ob das aber das einzige Problem ist, das ist wieder eine andere Sache.
Ach kann es sein das du die HyperV Rolle auch installiert hast?

Der Verkäufer soll sich den noch einmal ansehen. Eflt. das ganze mal ohne Raid oder mit Raid 0 mal testweise laufen lassen.
Mitglied: wiesi200
wiesi200 25.04.2010 um 20:00:49 Uhr
Goto Top
Zitat von @NetWolf:
> Aber folgenden Auszug aus dem Gerätemanager kann ich noch anbieten:
> CD-rom: HL-DT-ST DVD RAM GH22NS50 SCSI CDRom-Device
> Laufwerke: Intel Mega SR SCSI Disk Device
warum ein SCSI-DVD Laufwerk? ein normales ATA/SATA hätte es auch getan! (zumal viel günstiger)

Es wird auch ein SATA Laufwerk sein.
Mitglied: dog
dog 25.04.2010 um 20:03:24 Uhr
Goto Top
warum ein SCSI-DVD Laufwerk? ein normales ATA/SATA hätte es auch getan! (zumal viel günstiger)

Das ist natürlich einen SATA-Laufwerk.
Manche SATA-Controller machen aber gerne mal SCSI aus allem.
Mitglied: IngChris
IngChris 25.04.2010 um 23:48:28 Uhr
Goto Top
Speichercontroller:
- Intel Embedded Server Raid Technology II sowie

nö das ist nicht der Controller für den Raid 5 Verbund

Es dürfte sich aber um eine Version II (neuere Version?) der Raid Technology handeln, unter nachfolgendem Link steht jedenfalls beschrieben
das Raid 5 mit einem Activation Key (??) möglich ist.

http://www.intelraid.com/uploads/Intel_EmbeddedRAID_v6.pdf

LG Ing Chris
Mitglied: Pletty
Pletty 26.04.2010 um 13:43:35 Uhr
Goto Top
Cache und sowas aktiviert?

Bei meinem Intel Onboard Controller hatte ich privat ein Raid5 laufen. Ohne Cache so um die 20MB/s und mit dann plötzlich 120MB/s.

Ich kommte das ganze Softwareseitig aktivieren. hat halt den Nachteil, das bei nem Absturz der Cache weg is
Mitglied: IngChris
IngChris 26.04.2010 um 19:26:08 Uhr
Goto Top
Danke für die vielen wertvollen Tipps.
Leider bin ich noch nicht dazugekommen ...

Folgendes zur Ausstattung kann ich noch nachliefern ...

Motherboard: Intel S5520HCR
Hauptspeicher: 2 Stk. DDR3 4GB King. 1333Mhz ECC CL9
Festplatten: 3 Stk. HD Seag. Constell. ES7200.1 1TB SATA/300
DVD-Laufwerk ist übrigens SATA (und nicht SCSI, wie bereits von "dog" richtig vermutet)
Der Aktivation - Key für Raid 5 für den "Intel Embedded Server Raid Technology II " ist übrigens auch dabei.
Dürfte eigentlich keine schlechte Ausstattung sein.

Sobald ich genaueres weiß, werde ich mich wieder melden....

LG IngChris
Mitglied: hushpuppies
hushpuppies 26.04.2010 um 20:14:52 Uhr
Goto Top
Also bei nur 11Mb/Sekunde ist wirklich was falsch.
Selbst bei Raid5 und nur S-ATA muss da deutlich mehr drin sein.

Ich kann nur dringend empfehlen mal für 150-200 Euro einen guten Adaptec-Controller mit eigenem Cache usw. einzubauen / einbauen zu lassen. Das beseitigt zumindest dieses Nadelöhr.
Auch wenn meine Kollegen hier jetzt wahrscheinlich widersprechen, aber ich halte Raid5 für nen Terminalserver für total übertrieben. Ein einfacheres Raid reicht da ewig.
Lieber regelmässig (sprich täglich, ein oder mehrere Male) Images mit einem vernüftigen Programm (DriveSnapshot, Acronis,usw.) auf eine externe Platte ziehen lassen - natürlich in einem rollierenden System.
Das bringt im Endeffekt mehr Sicherheit und vorallem einfachere Wiederherstellung im Fall des Falles.

Was ich nicht ganz verstehe sind die Berechnungen des benötigten Rams? Wie kommt ihr denn bitte auf 2GB pro Sitzung?
8GB sind in meinen Augen auf jeden Fall mal eine gute Basis - wenn die User dann Schwierigkeiten haben, hat man das auch schnell verdoppelt.
Ich persönlich hätte da vielleicht auch gleich 16 eingeplant, aber alles jenseits von 20GB ist imho übertrieben.

Trennung von Backend und Frontend ist eine gute Idee, aber ich würde das schon auf einem Terminalserver lassen - ist performanter als übers Netzwerk und man umschifft da eventuelle Hürden bezüglich der gemeinsamen Nutzung einer DB übers Netzwerk. Ansonsten kann ich da noch dringend nahelegen: Wenn schon die DB überarbeitet wird, dann würde ich die DB ganz auslagern und das per ODBC oder Direktverbindung lösen. Wenn man da im Hintergrund MySQL oder besser noch Postgres hat und Access fürs Frontend belässt dann kann man da die Vorteile beider Welten vereinen. Auch aus Datensicherheitsgründen sicher eine Überlegung wert.
Mitglied: wiesi200
wiesi200 26.04.2010 um 21:21:16 Uhr
Goto Top
Zitat von @hushpuppies:
Also bei nur 11Mb/Sekunde ist wirklich was falsch.
Selbst bei Raid5 und nur S-ATA muss da deutlich mehr drin sein.

Ich kann nur dringend empfehlen mal für 150-200 Euro einen guten Adaptec-Controller mit eigenem Cache usw. einzubauen /
einbauen zu lassen. Das beseitigt zumindest dieses Nadelöhr.

Bin eher für LSI da ich pauschal zu jedem Controller eine ESX Unterstützung habe. So kann man sich Optionen offen halten

Auch wenn meine Kollegen hier jetzt wahrscheinlich widersprechen, aber ich halte Raid5 für nen Terminalserver für total
übertrieben. Ein einfacheres Raid reicht da ewig.
Lieber regelmässig (sprich täglich, ein oder mehrere Male) Images mit einem vernüftigen Programm (DriveSnapshot,
Acronis,usw.) auf eine externe Platte ziehen lassen - natürlich in einem rollierenden System.
Das bringt im Endeffekt mehr Sicherheit und vorallem einfachere Wiederherstellung im Fall des Falles.

Wirklich wiedersprechen tu ich dir z.b. nicht. Raid 5 ist bestenfalls ein kompromiss wenn man günstig viel Platz brauch bei einer gewissen Grundsicherheit. Datensicherung ist eh standard da ja Raid keine Datensicherung ersetzt.

Was ich nicht ganz verstehe sind die Berechnungen des benötigten Rams? Wie kommt ihr denn bitte auf 2GB pro Sitzung?
8GB sind in meinen Augen auf jeden Fall mal eine gute Basis - wenn die User dann Schwierigkeiten haben, hat man das auch schnell
verdoppelt.
Ich persönlich hätte da vielleicht auch gleich 16 eingeplant, aber alles jenseits von 20GB ist imho übertrieben.

Die Rechnung finde ich auch etwas extrem übertrieben.
Mitglied: IngChris
IngChris 27.04.2010 um 19:38:11 Uhr
Goto Top
Vielen Dank nochmals für die Tipps und das rege Interesse (über 600 Zugriffe in 3 Tagen finde ich nicht schlecht, dürfte also ein Thema sein, das interessiert)

Also es gibt neue Erkenntnisse!!

Nach Telefonat mit meinem EDV-Anbieter teilte er mir mit, daß der Server vor der Auslieferung für die Lesegeschwindigkeit (mit HD-Tach) einen
Wert von 187 MB/s lieferte und meinte, daß meine gemessenen Werte von 10-12 MB/S auf einen Rebuild des Raid 5 schließen lassen.

Auf jeden Fall hat der Server das Rebuild anscheinend nun geschafft.
Warum auch immer er ein Rebuild gestartet hat...
Ich möchte der Vollständigkeit halber dazu nur erwähnen, ich habe derzeit den Server im Testbetrieb, allerdings noch KEINE USV!
Aus diesem Grund hab´ ich den Server abends immer heruntergefahren (d.h. der Server ist nie mehr als 8 Stunden durchgelaufen...).
Ich weiß schon, eigentlich ist vorgesehen, daß der Server rund um die Uhr läuft (wird er dann auch mit der USV!)
Aber kann das ein Grund sein, daß ein Rebuild des Raid ausgelöst wurde? Ich kann auch nicht wirklich beurteilen, ob der Server direkt nach der Lieferung bereits
so langsam war, da ich an diesem Tag eher nur Zuseher war, zumind. hatte ich da auch schonden Eindruck, daß es auch damals schon lange dauerte bis z.B. Access geöffnet wurde!

Die aktuellen Werte:
Lesegschwindigkeit: ca. 197 -203 MB/s !!
Random Access: 12,6 - 12,8 ms
Burst: 274 - 321 MB/s
Das sieht ja schon mal viel besser aus.

Wobei ich sagen muß, wenn man z.B. den ServerManager direkt auf dem Server aufruft und die Rollen oder Features anklickt, könnte es noch schneller gehen. (Sanduhr blendet sich teilweise bis zu geschätzten 1-2 sec ein).

Testen der Access 2007 - DB über einen TS-Client dürfte ausreichende Geschwindigkeit bieten, wobei ich überzeugt bin, daß Access 2010 um einiges schneller als
Access 2007 ist (zumind. was ich auf meinem Privat-Desktop-PC mit der 2010er Beta-Version bis jetzt gesehen habe...

Die Frage stellt sich nach dem absoluten Minimum an Rollen (bzw. Rollendiensten) die installiert sein müssen, um mit der Access-DB auf dem Terminalserver 2008 R2 zu arbeiten.

Bei mir derzeit:
- Anwendungsserver
- Dateidienste
- Hyper-V --> sollte eigentlich überflüssig sein
- Netzwerkrichtlinien u. Zugriffsdienste
- Remotedesktopdienste
- Webserver (anscheinend komplett --> alle 48 Rollendienste installiert) --> würde ich eigentl. nicht brauchen, sofern nicht das System etwas davon benötigt)

Zu den 2 GB Haupspeicher je Anwender:
diese kommen mir auch etwas hoch vor...
derzeit:
1. nur Server: benötigt 1,28 GB
2. testweise 1 Rechner auf den TS angewählt, AccessDB (dz. Vorab-Testversion ca. 20 MB, hat, später sicher 100 MB ) geöffnet
--> statt den 1,28 GB Hauptspeicher nun 1, 36GB

weitere Fragen, Erkenntnisse werden sich noch folgen...
LG IngChris
Mitglied: hushpuppies
hushpuppies 30.04.2010 um 17:35:29 Uhr
Goto Top
Jo, das sieht doch schon mal wesentlich besser aus.

zu den Rollen:
Hyper V kann definitiv weg und der Webserver sicher auch, sofern da nichts dabei ist, was du wirklich brauchst (was dann vielleicht den Webserver an sich nötig macht, aber eben keine 48 Features/Rollen)

Thema "Könnte schneller sein": Da erwartest du etwas zu viel denke ich. 1-2 Sekunden für so ein komplexes Programm wie den Servermanager ist eigentlich schon sehr gut.

Raid-Rebuild:
Das passiert eigentlich nur dann, wenn der Rechner entweder willkürlich und plötzlich vom Strom getrennt wird (also das Sprichwörtliche Stecker ziehen) oder wenn eine der Festplatten hinüber ist.
In einem Raid1-Verbund und bei einem reinen TS ist das mit dem Strom weg auch nicht soooo tragisch - klar sollte vermieden werden, aber da die Sicherung von einem TS bei weitem nicht so kompliziert wie z.B. bei einem SBS ist, isses da nicht so schlimm, wenn was kaputt geht, weil man das Ding in ner Stunde wieder aus der Sicherung installiert bekommt.
Raid5 verkompliziert die Sache da schon etwas - da sollte unbedingt eine USV ran und wenn es nur deshalb ist, damit man ruhiger schläft face-smile
Da tut es da aber auch eine günstigere USV - da muss es nicht gleich APC sein, sondern da reicht auch was von Manhattan respektive Intellinet. Da ist man dann mit geschätzten 350 Euro für eine 1400er Line interactive USV gut dabei.
Meine Erfahrung bei USVs ist sowieso eher so, dass bei Kunden die APC und was günstigeres im Einsatz haben, oft die APC eher Probleme macht als die billigere Variante.
Mitglied: IngChris
IngChris 03.05.2010 um 16:52:44 Uhr
Goto Top
Hallo,
Danke für die Tipps.

USV wird auf jeden Fall verwendet!

2 weitere Fragen würde ich gerne noch diskutieren:

1. Welchen Virenschutz ?
Ich verwende dz. auf meinem "alten" 2003er - Server die Trend Micro Worry Free Business Security.
Für den Test meines 2008er Servers hab´ ich mir vorerst einen freien TrendMicro Security Agent des 2003er-Servers installiert.
D.h. bevor ich komplett umstelle, könnte ich mich auch noch u.U. für eine andere Virenschutzlösung entscheiden...
TrendMicro ist halt ziemlich "ressourcenhungrig", ca. 5-6GB auf der Festplatte (Server 2003), ich nehme mal an, daß wird
wahrscheinlich bei anderen Virenschutz-Varianten ähnlich sein.

2. welche Backup-Variante.
nochmals zu meinem Festplatten-System:
Ich verwende 3 SATA - Platten mit jeweils 1 TB im RAID 5 - Verbund.
Betriebssystem ist bei mir im gleichen RAID 5 - Verbund wie die Daten.
Systemlaufwerk hat 500 GB (dz. ca. 20GB verwendet) --> "Netwolf" hatte - wenn ich´s richtig verstanden habe "nur" 50 GB empfohlen --> finde ich ein bißchen knapp, wenn ich dz. ca 20GB verwendet habe (Server 2008 R2 und Office 2007) u. der TrendMIcro ebenfalls noch 5-6GB benötigen würde.
Datenlaufwerk hat ca. 1,32 TB frei

In unserer Diskussion gab´s ja zahlreiche Statements bzw. Empfehlungen, die ich hier nochmals kurz zusammenfasse
a) RAID5 mit mind. 4 Festplatten
b) Betriebssystem nicht auf das gleiche RAID 5 - System, sondern extra auf RAID1-Festplatten
c) u.U. RAID 10
d) SATA nicht unbedingt sehr schnell, u.U SAS
Ich kann´s nicht wirklich bewerten, ob es sich hier um unterschiedl. Philosophien handelt oder ob das alles wirklich unbedingt erforderlich ist.
Oder kann ich auch mit meiner Konfiguration gut und sicher arbeiten?

Zur eigentl. Frage:
Backup über WIN-eigenes Backup oder u.U. über Acronis o.a ?
Backup am besten auf ext. Ethernet - Festplatte durchführen ?
Backup bisher (auf 2003er Server) war zwar nur halbautomatisch, funktionierte aber
- 2 Festplatten im Server, Daten täglich upgedated
- ca. im 4-6 Wochen Abstand ein Ghostimage erzeugt (dazu mußte allerdings immer der Server von der Ghost-Disk gebootet werden)
- Image-Erzeugung dauerte etwa 1h.
- Image wurde zusätzl. noch 1x / Quartal auf externe Platte kopiert.
- für Notfall mittl.weile auch Ersatzserver vorhanden.
Das ist / war natürl. mit einem entspr. Zeitaufwand verbunden, nur außerdem der Betriebszeiten möglich.
Funktionierte allerdings in meinem (einzigen!) Notfall perfekt.
Möchte allerdings für den neuen Server eine autom. Variante, die z.B. laufend od. in der Nacht durchgeführt werden kann und die
möglichst keinen Zeitaufwand meinerseits erfordert, wenn mal eingerichtet.
Lösung sollte auch so einfach sein, daß Server auch OHNE mein Zutun wieder hergestellt werden kann.

Bin schon gespannt auf Eure Meinung...

PS: Lt. meinem Anbieter soll Office 2010 für den Server bereits verfügbar sein ...

LG. Ing.Chris
Mitglied: hushpuppies
hushpuppies 04.05.2010 um 09:51:22 Uhr
Goto Top
2 weitere Fragen würde ich gerne noch diskutieren:

1. Welchen Virenschutz ?
Ich verwende dz. auf meinem "alten" 2003er - Server die Trend Micro Worry Free Business Security.
Für den Test meines 2008er Servers hab´ ich mir vorerst einen freien TrendMicro Security Agent des 2003er-Servers
installiert.
D.h. bevor ich komplett umstelle, könnte ich mich auch noch u.U. für eine andere Virenschutzlösung entscheiden...
TrendMicro ist halt ziemlich "ressourcenhungrig", ca. 5-6GB auf der Festplatte (Server 2003), ich nehme mal an,
daß wird
wahrscheinlich bei anderen Virenschutz-Varianten ähnlich sein.
AV-Programme sind immer ein bisschen philosofisch face-smile
Ich würde auf jeden Fall mal einen Blick auf AV Comparatives und ähnliche unabhängige Testorganisationen werfen.
Trend Micro wäre sicher so ziemlich meine letzte Wahl face-smile

Wir haben sehr gute Erfahrungen mit den Business Produkten von G-Data und Kaspersky gemacht. Gerade die neue G-Data Lösung namens EndPoint Security bietet eine Vielzahl von Möglichkeiten, die kein anderer in der Form bietet.. Zum Bleistift Policies, zwei Scan-Engines, Zugriffskontrolle für externe Medien an Arbeitsplätzen, Content-Filter mit Zeitkonten und Definition von Zeitfenstern, wo bestimmte Seiten funktionieren (z.B. in der Mittagspause kann der Mitarbeiter A Facebook und Co. ankucken, sonst nicht und insgesamt darf er die Seiten nur 2 Stunden pro Woche anschauen).
Für nähere Infos gerne ne PM schreiben face-smile


2. welche Backup-Variante.
nochmals zu meinem Festplatten-System:
Ich verwende 3 SATA - Platten mit jeweils 1 TB im RAID 5 - Verbund.
Betriebssystem ist bei mir im gleichen RAID 5 - Verbund wie die Daten.
Systemlaufwerk hat 500 GB (dz. ca. 20GB verwendet) --> "Netwolf" hatte - wenn ich´s richtig verstanden habe
"nur" 50 GB empfohlen --> finde ich ein bißchen knapp, wenn ich dz. ca 20GB verwendet habe (Server 2008 R2 und
Office 2007) u. der TrendMIcro ebenfalls noch 5-6GB benötigen würde.
Datenlaufwerk hat ca. 1,32 TB frei

In unserer Diskussion gab´s ja zahlreiche Statements bzw. Empfehlungen, die ich hier nochmals kurz zusammenfasse
a) RAID5 mit mind. 4 Festplatten
b) Betriebssystem nicht auf das gleiche RAID 5 - System, sondern extra auf RAID1-Festplatten
c) u.U. RAID 10
d) SATA nicht unbedingt sehr schnell, u.U SAS
Ich kann´s nicht wirklich bewerten, ob es sich hier um unterschiedl. Philosophien handelt oder ob das alles wirklich
unbedingt erforderlich ist.
Oder kann ich auch mit meiner Konfiguration gut und sicher arbeiten?

Alle RAID-Systeme stehen und fallen mit der Qualität des Controllers. Hier also auf jeden Fall eine gute Marke wie Adaptec und LSI wählen. Onboard Controller sind absolut tabu für RAID5.
Meines Erachtens reichen in deinem Fall ein oder zwei Raid1-Verbünde mit regelmässiger Sicherung per Snapshot. Ich würde System und Daten auf jeden Fall besser sprich physikalisch trennen. Wenn du dann eh zwei Raid-Verbünde hast, dann kannst ja für das System zwei kleinere 250er Platten nehmen, was die Sicherung etwas vereinfacht.

SAS bietet gerade bei relationalen Datenbanken oder Servern, die viele Dateien häufig bewegen einen deutlichen Geschwindigkeitsvorteil. Allerdings eben zu deutlich höheren Kosten (die Festplatten sind sicher 3-5 Mal so teuer wie S-ATA).
Für einen TS, dessen Hauptaufgabe nur das Öffnen einer Access-Datenbank ist, lohnt das IMHO nicht, denn da wird ja nur im wesentlichen von einem Benutzer einmal am Tag das Programm geöffnet und ob das jetzt ne Sekunde oder zwei schneller geht ist für die Tonne und sicher keine 2 oder 3 Tausend Euro und die höheren Folgekosten wert.
Wichtig ist in allen Fällen, dass man die Festplatten regelmässig wechselt. Manche unserer Kunden machen das sogar halbjährlich. Alle 12-15 Monate wäre aber sicher sinnig, wenn man Datensicherheit im Auge hat. Und natürlich nur spezielle 24h/7d Serverfestplatten verwenden und nicht die normalen Consumerplatten. Am besten du liest mal mit SIW oder ähnlichen Programmen die Modellinfos deiner Platten aus und schaust ob das Serverfestplatten sind.

Zur eigentl. Frage:
Backup über WIN-eigenes Backup oder u.U. über Acronis o.a ?
Backup am besten auf ext. Ethernet - Festplatte durchführen ?
Backup bisher (auf 2003er Server) war zwar nur halbautomatisch, funktionierte aber
- 2 Festplatten im Server, Daten täglich upgedated
- ca. im 4-6 Wochen Abstand ein Ghostimage erzeugt (dazu mußte allerdings immer der Server von der Ghost-Disk gebootet
werden)
- Image-Erzeugung dauerte etwa 1h.
- Image wurde zusätzl. noch 1x / Quartal auf externe Platte kopiert.
- für Notfall mittl.weile auch Ersatzserver vorhanden.
Das ist / war natürl. mit einem entspr. Zeitaufwand verbunden, nur außerdem der Betriebszeiten möglich.
Funktionierte allerdings in meinem (einzigen!) Notfall perfekt.
Möchte allerdings für den neuen Server eine autom. Variante, die z.B. laufend od. in der Nacht durchgeführt werden
kann und die
möglichst keinen Zeitaufwand meinerseits erfordert, wenn mal eingerichtet.
Lösung sollte auch so einfach sein, daß Server auch OHNE mein Zutun wieder hergestellt werden kann.

Bin schon gespannt auf Eure Meinung...

Erstes Mal zum Backup-Medium: Eine klassische Netzwerkfestplatte macht nur dann Sinn, wenn sie als zusätzliche Sicherung gedacht ist und *nicht* im gleichen Raum ist, wie der restliche Server. Netzwerkfestplatten sind langsam und erfordern (eigentlich) eine zusätzliche Verkabelung und Netzwerktopologie damit man den Netzwerkverkehr vom restlichen Netz trennen kann.
Eine USB-Festplattenstrategie mit täglich wechselenden Festplatten ist sicher und einfach in der Handhabung. Von Wortmann gibt es da z.B. das EasyDock System mit 500GB 3,5" Wechselfestplatten. Da kann der Chef abends "seine" Firma mit nach Hause nehmen, wenn er denn will face-smile
Bei der Software gilt imho: Schattenkopien sind schon mal die halbe Miete. Funktionierende Schattenkopien bedeuten de facto schon mal alle 3 Stunden eine inkrementelle Sicherung und vorallem super einfache Wiederherstellung bei "Ups, ich hab da was gelöscht" oder "Die Datei ist plötzlich verschwunden - ich hab nichts gemacht" face-smile
Für die Systemplatten empfiehlt sich dann eine Sicherung in Form von Snapshots (Drivesnapshot oder Acronis, wenn man unbedingt nen Haufen Geld ausgeben will) und für die Datenplatten entweder auch Snapshot oder eben irgendwie per 7zip zippen und auf ne externe Platte legen (und die dann regelmässig wechseln).


PS: Lt. meinem Anbieter soll Office 2010 für den Server bereits verfügbar sein ...
Momentan gibt es imho nur Office 2007 mit Technologiegarantie sprich kostenloses Upgrade auf 2010. Es gibt auch keine speziellen Serverversionen von Office. Man braucht nur auf Terminalservern eine andere Form der Lizensierung (z.B. OpenLicense). Normale Einzelplatzversionen (z.B. SystemBuilder) lassen sich nicht installieren und zählen auch nicht als gültige Lizenz auf dem TS. Das solltest du auch überprüfen, was dein EDVler dir da verkauft hat.
Mitglied: IngChris
IngChris 04.05.2010 um 10:20:45 Uhr
Goto Top
Vielen Dank für die rasche und wirklich ausführliche Antwort.

Zu Office 2007 / 2010.

Ich habe für den TS schon die richtige Lizensierung (Volumenlizenz) . Dz. das Office 2007 mit der Upgrade-Garantie.
Lt. meinem EDV-Anbieter ist aber angeblich das Upgrade auf Office 2010 (für den TS) bereits verfügbar !?
(Ich weiß, daß Office 2010 für den Endnutzer erst für Juni, Juli angekündigt wurde...).

LG IngChris
Mitglied: IngChris
IngChris 08.05.2010 um 16:57:35 Uhr
Goto Top
Also ich habe jetzt von meinem EDV-Anbieter die Office 2010 RTM - Version erhalten.
RTM wird bei den Lizenzbedingungen angezeigt, nachdem ich testweise die DVD eingelegt habe und siese Version ist lt. Lizenzbedingungen für Unternehmenskunden mit Volumenlizenz (bei mir Office 2007 mit Technologiegaranie, d.h. Upgrade auf Office 2010 schon mitbezahlt), also genau für mich ...

Meine Frage:
Für Endverbraucher erscheint Office 2010 im Juni.
Lt. Recherche im Internet für Unternehmenskunden ab 12. Mai.

Nachdem wir heute den 8.Mai haben --> ist die RTM-Version gleichzeitig die finale Version, also die Version, die auf DVD gepresst wird, oder kann es noch eine Änderung geben?

1. D.h. kann ich diese Version jetzt installieren od. kann sich in den nächsten Tagen noch etwas ändern?
2. Neuinstall. Office 2010 oder über Office 2007 "drüber" ?

Vielen Dank.
LG IngChris
Mitglied: affabanana
affabanana 09.05.2010 um 12:25:04 Uhr
Goto Top
RTM == release to Manufactur

Auf Deutsch

Frei zum Verkauf

Da wird nichts mehr geändert

gruass affabanana
Mitglied: IngChris
IngChris 10.05.2010 um 18:32:48 Uhr
Goto Top
Danke.

Hab´ Office 2010 RTM mal installiert...

Für alle Interessierten ein paar Werte:

1. Server-Neustart bis zur Kennworteingabe: ca. 1:30 min (nach Kennworteingabe dz. noch Servermanager immer autom. gestartet --> kostet nochmals ca. 30-60 sec, bis endlich gearbeitet werden kann)

2.Access 2007, erstmaliger Aufruf nach Serverneustart: ca. 7sec., weitere Aufrufe sobald einamal im Speicher: ca. 1,5 sec
Word 2007, erstmaliger Aufruf nach Serverneustart: ca. 4sec, weitere Aufrufe sobald einmal im Speicher: ca. 1,5 sec
Internet Explorer, erstmaliger Aufruf nach Serverneustart: ca. 8sec, weitere Aufrufe sobald einmal im Speicher: ca 1-1,5 sec.

3. Werte für Access 2010 und Word 2010 sind doch nicht wirklich schneller, sind in etwa gleich ....

BITTE
Kann mir noch jemand sagen, wo ich den autom. Start des Servermanagers deaktivieren kann. Wird jedesmal beim Anmelden einer Terminalsitzung gestartet und kostet unnötig Zeit (ganz am Anfang gab´s ein Hakerl zum Deaktivieren, das finde ich allerdings nicht mehr)

LG Ing
Mitglied: hushpuppies
hushpuppies 11.05.2010 um 13:56:57 Uhr
Goto Top
Schau mal in den Richtlinien unter:
Computerkonfiguration\Administrative Vorlagen\System\Server-Manager -> Server Manager bei Anmeldung nicht automatisch anzeigen.

Hoffe dass ich das noch richtig in Erinnerung habe face-smile
Mitglied: IngChris
IngChris 11.05.2010 um 15:27:10 Uhr
Goto Top
Zitat von @hushpuppies:
Schau mal in den Richtlinien unter:
Computerkonfiguration\Administrative Vorlagen\System\Server-Manager -> Server Manager bei Anmeldung nicht automatisch
anzeigen.

Hoffe dass ich das noch richtig in Erinnerung habe face-smile


Danke. Dein Gedächtnis funktioniert perfekt!

Hätte Microsoft sinnvollerweise auch gleich deaktiveren können, ist ja ziemlich unsinnig bei jedem Anmelden den Servermanager autom. zu starten.

Apropos unsinnig:
Kennst Du noch einige Tricks um die Performance zu verbessern?
z.B.
- bei Grafikeinstellungen
- sinnlose LOG-Datein, die im Hintergrund laufend sinnlose Dinge aufzeichnen o.ä

LG Ing Chris
Mitglied: hushpuppies
hushpuppies 11.05.2010 um 16:07:18 Uhr
Goto Top
Zitat von @IngChris:
> Zitat von @hushpuppies:
> ----
> Schau mal in den Richtlinien unter:
> Computerkonfiguration\Administrative Vorlagen\System\Server-Manager -> Server Manager bei Anmeldung nicht automatisch
> anzeigen.
>
> Hoffe dass ich das noch richtig in Erinnerung habe face-smile
>

Danke. Dein Gedächtnis funktioniert perfekt!

Danke und das mit Ü30 face-smile

Hätte Microsoft sinnvollerweise auch gleich deaktiveren können, ist ja ziemlich unsinnig bei jedem Anmelden den
Servermanager autom. zu starten.
Naja normalerweise bekommt das nur jemand zu sehen, der Domänen-Admin ist und den interessiert das in aller Regel auch face-smile



Apropos unsinnig:
Kennst Du noch einige Tricks um die Performance zu verbessern?
z.B.
- bei Grafikeinstellungen
- sinnlose LOG-Datein, die im Hintergrund laufend sinnlose Dinge aufzeichnen o.ä

Grafikeinstellung: Naja da gibts nicht viel zu verbessern denke ich. Terminalserver an sich ist eben nicht grad dazu da besonders performant Bildschirme aufzubauen, d.h. das wird so rein vom Gefühl her nie so sein wie an einem lokalen Bildschirm.
Da die meisten klassischen Servern nur relativ bescheidene onboard Grafikkarten haben, kann man etwas verbessern in dem man z.B. eine vernüftige Matrox-Servergrafikkarte einbaut. Das bringt durchaus was, wenn mehrere Benutzer gleichzeitig viele Officeanwendungen betreiben wollen.
Dann natürlich allen grafischen Schnickschnack ausschalten. Aero, Hintergründe, Inhalte beim Ziehen anzeigen usw. ziehen einfach Leistung.

Log-Dateien: Da bin ich mal ganz der Admin und sage "Es gibt keine sinnlosen Log-Dateien" face-smile The more the merrier face-smile Man kann die höchstens in gewissen Abständen mal aufräumen (lassen).

Ansonsten kann ich dir nur noch die Best Practices Analyzer von Microsoft empfehlen um zu schauen, ob es da Verbesserungspotenzial gibt. Die eigentlichen Eingriffe, die der dann vorschlägt sollte aber dein EDVler machen, denn nicht immer ist das was der vorschlägt auch wirklich sinnvoll. Da braucht man schon Erfahrung um das einschätzen zu können.
Mitglied: affabanana
affabanana 11.05.2010, aktualisiert am 18.10.2012 um 18:42:04 Uhr
Goto Top
Hallo zusammen

Schau Dir mal im Servermanager unter Terminalservices die Remoteapp an
Da kannste z.B: dein Access Datenbank freigeben.

http://technet.microsoft.com/en-us/library/cc730673%28WS.10%29.aspx

http://blogs.technet.com/dmelanchthon/archive/2008/02/05/terminal-servi ...

Sogar hier im Forum habe ich was gefunden::
Windows Server 2008 RemoteApp-Programm erstellen

Gruass affabanana
Mitglied: IngChris
IngChris 22.05.2010 um 14:22:20 Uhr
Goto Top
Danke.

Best Practice Analyzer hab´ ich probiert.
Hat mir z.B. bei Hyper V - Rolle mittgeteilt, wenn Hyper-V verwendet wird, sollte diese Rolle als einzige installiert werden.
D.h. im Umkehrschluss - nachdem ich Hyper-V NICHT verwende, hab´ ich die Hyper-V- Rolle entfernt.
Habe zumindest den - subjektiven - Eindruck, daß das System eine Spur schneller wurde.

Allerdings bekomme ich bei der Ausführung des BestPracticeAnalyzers für "Netzwerkrichtlinien und Zugriffsdienste" (installiert ist nur 1 Rollendienst --> "Netzwerkrichtlinienserver) folgende Fehlermeldung
"Der Index, basierend auf 0(null), muß größer oder gleich Null sein, und kleiner als die Größe der Argumentenliste".
Diese Fehlermeldung hatte ich vorher nicht (kann aber nicht definitiv sagen, ob dies mit der Deinstall. von Hyper-V zusammenhängen könnte); habe aber sonst keine Änderung am Server vorgenommen...
1. Kann mir jemand sagen, was diese Fehlermeldung bedeutet?


2. Ich verwende eine USV "Delta UPSEntry Smart 2000" --> immer wenn ich mich in einer Terminalsitzung abmelde und neu anmelde, blendet sich für einige Sekunden eine Grafik (bzw. ein Meldefenster) ein, mit der Info "Protected bei UPS entry".
Kann mir jemand sagen, wie ich diese - überflüssige - Meldung "abdrehen" kann ? (in der USV-Software bzw. Autostart hab´ich nix gfund´n)


3. Hat jemand Erfahrung mit "Acronis Backup & Recovery 10 Server für Windows" bwz. mit dessen Zusatzoption "universal Restore" (Disaster Recovery). Bin mir über die Backup-und Recovery - Strategie doch noch etwas unschlüssig.
Zweiten baugleichen Server möchte ich mir eigentlich nicht leisten. Alternative wäre noch ein Ersatz-Mainboard (weiß hier allerdings noch keine Kosten), Ersatzfestplatte einzulagern und zusätzlich z.B. Acronis im Zusammenspiel mit einer externen Festplatte zu verwenden.
Mir ist schon klar, daß jeder eine eigene Backup-Recovery Strategie verfolgen muss, aber welche Backup/Recovery - Strategien verwendet Ihr ? Vielleicht komme ich mit Euren Tipps zu einer sinnvollen Lösung....


4. Erfordernisse - Breitbandverbindung, welche Bandbreite pro Rechner erforderlich ?
Hat jemand Erfahrung, ob das Rdp-Protokoll unter Server 2008 r2 ressourcenhungriger ist, ich hab zumindest den Eindruck, wenn ich mich von Zuhause über VPN in die Terminalsitzung auf dem 2008 er Server einwähle dauert, der Bildaufbau länger als beim 2003er Server.
Ich habe bereits bei der Einrichtung der Rdp-verbindung auf meinem Notebook (zu Hause) alle möglichen Effekte, die die Übertragung beeinträchtigen können, deaktivert....

Wünsche Euch noch ein schönes Wochenende.

LG Ingchris
Mitglied: wiesi200
wiesi200 23.05.2010 um 22:10:11 Uhr
Goto Top
Zitat von @IngChris:
Danke.

Best Practice Analyzer hab´ ich probiert.
Hat mir z.B. bei Hyper V - Rolle mittgeteilt, wenn Hyper-V verwendet wird, sollte diese Rolle als einzige installiert werden.
D.h. im Umkehrschluss - nachdem ich Hyper-V NICHT verwende, hab´ ich die Hyper-V- Rolle entfernt.
Habe zumindest den - subjektiven - Eindruck, daß das System eine Spur schneller wurde.

Ob man den Umkehrschluss so ziehen kann glaub ich zwar nicht aber wenn du was nicht brauchst dann gehört es auch nicht auf deinen Server

Allerdings bekomme ich bei der Ausführung des BestPracticeAnalyzers für "Netzwerkrichtlinien und
Zugriffsdienste" (installiert ist nur 1 Rollendienst --> "Netzwerkrichtlinienserver) folgende Fehlermeldung
"Der Index, basierend auf 0(null), muß größer oder gleich Null sein, und kleiner als die Größe
der Argumentenliste".
Diese Fehlermeldung hatte ich vorher nicht (kann aber nicht definitiv sagen, ob dies mit der Deinstall. von Hyper-V
zusammenhängen könnte); habe aber sonst keine Änderung am Server vorgenommen...
1. Kann mir jemand sagen, was diese Fehlermeldung bedeutet?


2. Ich verwende eine USV "Delta UPSEntry Smart 2000" --> immer wenn ich mich in einer Terminalsitzung abmelde und neu
anmelde, blendet sich für einige Sekunden eine Grafik (bzw. ein Meldefenster) ein, mit der Info "Protected bei UPS
entry".
Kann mir jemand sagen, wie ich diese - überflüssige - Meldung "abdrehen" kann ? (in der USV-Software bzw.
Autostart hab´ich nix gfund´n)

Vermutlich Werbung die man nicht abschalten kann.


3. Hat jemand Erfahrung mit "Acronis Backup & Recovery 10 Server für Windows" bwz. mit dessen Zusatzoption
"universal Restore" (Disaster Recovery). Bin mir über die Backup-und Recovery - Strategie doch noch etwas
unschlüssig.
Zweiten baugleichen Server möchte ich mir eigentlich nicht leisten. Alternative wäre noch ein Ersatz-Mainboard
(weiß hier allerdings noch keine Kosten), Ersatzfestplatte einzulagern und zusätzlich z.B. Acronis im Zusammenspiel
mit einer externen Festplatte zu verwenden.
Mir ist schon klar, daß jeder eine eigene Backup-Recovery Strategie verfolgen muss, aber welche Backup/Recovery - Strategien
verwendet Ihr ? Vielleicht komme ich mit Euren Tipps zu einer sinnvollen Lösung....

Warum Ersatzfestplatten einlagern? Du hast doch Raid und einen Servicevertrag, oder? Da sollte bei einem Festplatten defekt erst mal das Raid ein einsatz kommen und am nächsten Tag kommt der Postman mit ner neuen Platte.
Beim Ersatz-Mainbord kannst du einen Tag Serverausfall verkraften? Wenn nein dann solltest du dir eher gedanken um einen zweiten Server machen (Cluster). Wenn ja, Service.
Wobei das ganze nichts mit Backup zu tun hat. Und da setze ich lieber auf normale Backupsoftware und keine Image Programme.

4. Erfordernisse - Breitbandverbindung, welche Bandbreite pro Rechner erforderlich ?
Hat jemand Erfahrung, ob das Rdp-Protokoll unter Server 2008 r2 ressourcenhungriger ist, ich hab zumindest den Eindruck, wenn ich
mich von Zuhause über VPN in die Terminalsitzung auf dem 2008 er Server einwähle dauert, der Bildaufbau länger als
beim 2003er Server.
Ich habe bereits bei der Einrichtung der Rdp-verbindung auf meinem Notebook (zu Hause) alle möglichen Effekte, die die
Übertragung beeinträchtigen können, deaktivert....

Hab als TS leider nur eine 2003er
Mitglied: hushpuppies
hushpuppies 25.05.2010 um 10:21:18 Uhr
Goto Top
Zu 1: Generell zum BPA: Nicht alles was dort als "Fehler" moniert wird ist auch unbedingt einer. Am besten mal den entsprechenden Knowledge Base Artikel dazu lesen (Link steht normalerweise in der Fehlerbeschreibung)
Zu 2: Joa wird wohl Werbung sein, die immer dann erscheint, wenn einer mit Adminrechten sich anmeldet (der dann ja theoretisch auch was an den Einstellungen ändern könnte). Zumindest ist das bei Intellinet und APC so.
Zu 3: Erfahrung nur mit den Vorgängerversionen. Sicherung von einem TS ist eigentlich relativ einfach, da es da normalerweise keine "komplizierten" Dienste wie SQL oder Exchange darauf gibt. Wichtig ist, dass das ein Produkt ist mit dem du zurechtkommst. Acronis ist immer schon sehr Einsteiger-freundlich gewesen, ist also sicher nicht die schlechteste Wahl. Wichtig ist dass du beim Backup zweigleisig fährst. Zum einen Snapshots vom System komplett und einmal die Daten seperat.
Die Daten natürlich täglich (oder mehrmals täglich, je nach Volumen) und das System vielleicht 2-3 mal die Woche. Und das jeweils mit 3 Ständen auf verschiedenen externen Festplatten - dann sollte das eigentlch die meisten Risiken abdecken.
Die Finger lassen solltest du von "on-the-fly" Backups die quasi zur Laufzeit immer wieder kleine inkrementelle Backups in Echtzeit sichern. Das ist noch eine relativ neue Technik und da fehlen noch Erfahrungswerte wie gut die Backups zum wiederherstellen sind.
Bezüglich Ersatzteile usw: Da hast du hoffentlich einen ordentlichen Server gekauft, der vom Hersteller mit einer gewissen Garantie ausgestattet wurde. Üblich sind hier Reaktionszeiten von 24 bis 4 Stunden - was sich natürlich preislich auswirkt face-smile Gute Hersteller wie Wortmann oder Thomas Krenn sind auch sehr flexibel im Bedarfsfall und liefern im Notfall auch schnell Ersatzteile gegen Aufpreis wenn man keine solche Garantieerweiterung dazu gekauft hat. "Große" Hersteller wie Dell, HP usw. sind da meistens gerade bei kleineren Firmen sehr unkooperativ.
Selber irgendwelche Ersatzteile vorzuhalten ist quatsch, denn wenn du das selber tauschst verlierst du höchstwahrscheinlich die Restgarantie - ausserdem sind das meistens spezielle Mainboards usw. die man so schlecht oder gar nicht im normalen Handel bekommt. Also: Finger weg.
Was sich mittlerweile auch bei uns bewährt hat ist eine Kombination aus VMWare Converter und Server bzw. Player als "Notanker" . Ist beides kostenlos zu haben und man kann damit in gewissen Abständen den TS virtualisieren. Sollte es wirklich mal zu einem Hardwareausfall kommen, kann man die VMWare auf einer beliebigen Maschine schnell wieder zum Leben erwecken. Das ist dann zwar langsamer als sonst, aber es geht wenigstens face-smile

zu 4: Das könnte daran liegen, dass der 2008er besser verschlüsselt als der 2003er. So ohne weiteres kann man das nicht sagen, weil das arg vom verwendeten VPN abhängt. Ausserdem sollte man den erweiterten Grafikschnickschnack generell am Server direkt für alle ausschalten, wenn man das nicht unbedingt nutzen will. Denn was erst gar nicht beim Booten geladen wird, kann nachher auch nicht Leitung verstopfen face-smile
Mitglied: IngChris
IngChris 29.05.2010 um 15:17:51 Uhr
Goto Top
Vielen Dank für die reichlichen Tipps.

es geht weiter und hiermit ein neue Frage:

Kann mir jemand sagen, ob Corel Draw X5 auf dem Terminalserver 2008 R2 läuft ?
Ich weiß schon, ein TS ist nicht unbedingt dafür gebaut um mit Grafikprogrammen zu arbeiten, ich brauch Corel eh nur auf einem Arbeitsplatz , um ab und zu mal eine Werbung zu bauen ...

LG IngChris
Mitglied: hushpuppies
hushpuppies 31.05.2010 um 09:47:49 Uhr
Goto Top
Zitat von @IngChris:
Vielen Dank für die reichlichen Tipps.

es geht weiter und hiermit ein neue Frage:

Kann mir jemand sagen, ob Corel Draw X5 auf dem Terminalserver 2008 R2 läuft ?
Ich weiß schon, ein TS ist nicht unbedingt dafür gebaut um mit Grafikprogrammen zu arbeiten, ich brauch Corel eh nur
auf einem Arbeitsplatz , um ab und zu mal eine Werbung zu bauen ...

LG IngChris

Versuchs doch einfach mit der 30-Tage Trial, die es davon gibt.
Ich vermute allerdings, dass wenn es gehen sollte, du gegen die Lizenzbedingungen verstösst, wenn du das auf einem TS installierst wo potentiell mehrere Leute Zugriff hätten. Und da die Software gern nach Hause telefoniert ist das vermutlich nicht ratsam ohne vorherige Klärung von Corel.
Mitglied: IngChris
IngChris 10.06.2010 um 00:21:56 Uhr
Goto Top
Hallo,

Etwa 30 Tage sind vergangen seit ich die Office 2010 RTM installiert habe.
Ich hab mich damals schon gewundert, daß keine Aktivierung verlangt wurde.
Jetzt ist es soweit!

Zur Erinnerung: Ich habe ja um teures Geld eine entspr. Volumenlizenz für Office 2007 mit Technologiegaranie (!) erworben (d.h. Upgrade auf Office 2010 schon mitbezahlt).

Office 2010 RTM verlangt nun die Aktivierung. Wenn ich meinen Produktkey (Office 2007 mit Technologiegarantie) eingebe, erhalte ich eine Meldung, daß es sich um einen NICHT gültigen Lizenzkey handelt.
Bei meiner Recherche im Internet hab ich gefunden daß es für Office 2010 Beta - Versionen ganz bestimmte MAKs gibt, die man eingeben muss - um überhaupt aktivieren zu können. Zählt die RTM-Version auch noch zu den Betaversionen. Ich verstehs nicht !

Kann mir jemand sagen, warum ich die Office 2010 RTM - Version NICHT aktivieren kann, bzw. wie ich diese aktivieren kann ?

Vielen Dank
L.G.
Ing Chris
Mitglied: hushpuppies
hushpuppies 10.06.2010 um 09:31:33 Uhr
Goto Top
Also ich vermute, dass das erst geht wenn man im Volumenlizenzportal auch 2010er Schlüssel sieht. Aktivieren mit nem 2007er Schlüssel wird sicher nicht gehen.
Und es ist durchaus möglich, dass die richtigen 2010 Schlüssel auch nur mit ner richtigen Office 2010 Version funktionieren. Es könnte also sein, dass du das nochmal runterwerfen musst und neuinstallieren musst, wenns soweit ist.

RTM ist halt nicht wirklich final und eigentlich auch noch nicht für den Produktiveinsatz gedacht.
Mitglied: IngChris
IngChris 10.06.2010 um 18:05:00 Uhr
Goto Top
(1) Hab´ das Aktivierungs-Problem mal an meinen Händler bzw. Microsoft weitergereicht, weitere Infos folgen ...

(2) Kann Windows Live Mail problemlos unter Server 2008 R2 verwendet werden ?
Ich hab´s zumindest mal installiert, sieht soweit gut aus ...

LG Ing Chris
Mitglied: hushpuppies
hushpuppies 10.06.2010 um 18:49:00 Uhr
Goto Top
WLM: Keine Ahnung ob das dafür geeignet ist. Eigentlich müsste es ja, weil es die Mails usw. als einzelne Dateien ablegt. Die Frage is eher, warum man sowas im Firmenumfeld tun sollte.
Das ist schliesslich mehr oder weniger ein Consumerprodukt und spätestens wenn du versuchen solltest das automatisch sichern zu wollen, dann stösst du da auf halbgare Freeware oder relativ teure Speziallösungen.
Outlook-TS-Lizenzen sind nicht sooo teuer bzw in deinem Office vermutlich eh mit dabei. Weshalb also den kleinen Bruder benutzen, wenn man auch das grosse Schwert haben kann face-smile
Mitglied: IngChris
IngChris 11.06.2010 um 10:41:37 Uhr
Goto Top
Zur Office 2010 Pro RTM - Aktivierung.

Aktueller Stand der Dinge ist, daß anscheinend nicht einmal Microsoft selbst was genaues sagen kann (oder will) ....

In mehreren Telefonaten mit Microsoft hat mein EDV-Händler genau nix erfahren.
Anscheinend hat Microsoft die RTM-Version zwar zur Verfügung gestellt, aber das ganze Aktivierungs- bzw. Lizensierungskonzept ist entweder noch nicht fertig oder die Lizensierungserver funktionieren noch nicht oder das ganze funktioniert erst, wenn Office 2010 für ALLE Endverbraucher zur Verfügung steht (Ende Juni ???).
(Zur Erinnerung: Die Office 2010 RTM -Version wurde ja ab Mitte Mai nur für Volumenslizenzkunden zur Verfügung gestellt.)

Mein EDV-Händler hat mir vorerst empfohlen, Office 2010 wieder zu deinstallieren und wieder Office 2007 installieren und ABZUWARTEN.

Teste ich halt wieder mit Office 2007, soweit ich das gesehen habe dürfte es unter Access 2010 sowieso KEIN neues Datenbankformat geben, oder weiß hier jemand mehr darüber ?


LG Ing Chris
Mitglied: IngChris
IngChris 14.06.2010 um 18:04:05 Uhr
Goto Top
Hallo

Altes System, neues Problem...

Komme seit heute früh mit einem PC nicht mehr auf meinen - derzeit noch in Verwenung befindlichen - 2003er Terminalserver.

Fehlermeldung: "Die Verbindung mit der Remote-Sitzung wurde getrennt, da keine Terminalserver - Clientzugriffslizenzen für diesen Computer vorhanden sind. Wenden Sie sich an den Systemadministrtor" HA HA HA

Hab´ genug Lizenzen frei. Hab´auch keine Veränderung am System vorgenommen.

Das einzige was ich gemacht habe ist daß ich auf diesem PC vor einiger Zeit auf den Rdp(Rds)-Client 7 umgestellt habe (vorher 6.1).

Heutiger Anruf bei Microssoft ClearingHouse: alle Lizenzen ("Geräte"-Lizenzen) nochmals neu aktiviert, auch Terminalserver - Lizenserver nochmals neu aktiviert.

Hat nix gebracht. Ganzer Tag sinnlos ...

Hatte jemand schon so einen Fall ? Es ist echt zum wahnsinnig werden...

LG Ing chris
Mitglied: hushpuppies
hushpuppies 14.06.2010 um 18:15:59 Uhr
Goto Top
Was steht denn im Lizenzserver wieviel Lizenzen du in Benutzung hast?
Hast du tatsächlich device cals und keine user cals?
Und hat dein neuer TS vielleicht auch den Lizenzserver installiert?
Mitglied: IngChris
IngChris 14.06.2010 um 18:39:22 Uhr
Goto Top
5 Lizenzen frei

Device-Cals !

neuen TS vom Netzwerk getrennt.

LG Ing
Mitglied: hushpuppies
hushpuppies 15.06.2010 um 10:18:48 Uhr
Goto Top
Hmm, TS D-CALs ist aber ungewöhnlich. Was hat das für eine Bewandnis bei euch in der Firma?

Und hat das Trennen des TS was gebracht?
Mitglied: IngChris
IngChris 15.06.2010 um 17:14:07 Uhr
Goto Top
Trennen hat nix gebracht...

Weiterer Anruf bei Microsoft --> Unterstützung durch Techniker möglich, entspr. Ticket lösen kostet EUR 299.- (falls Schuld beim Anwender) !!

Das einzige das mir aufgefallen ist:
Auf dem 2003er Server habe ich noch RDP 5.2.
(Hier hab ich ein Update auf Version 6.0 - vom April 2007 - gefunden (wurde aber anscheinend über Microsoft Update NICHT vorgeschlagen bzw. angeboten),
allerdings noch NICHT installiert.
Habe auch keine Ahnung, ob das irgendwelche Auswirkungen auf die Lizensierung haben kann).
Lt. Internet gibts direkt für den 2003er Server zwar das Update auf RDP 6.0 aber kein Update auf RDP 6.1 (vorgesehen für Vista bzw. 2008er Server)
bzw. 7.0 (vorgesehen für Win7 bzw 2008 R2)

Kann´s daran liegen ??

LG Ing
Mitglied: hushpuppies
hushpuppies 15.06.2010 um 17:37:21 Uhr
Goto Top
hm, ich denke mal, dass wenn es bisher mit dieser RDP-Version ging, dann kann es ja eigentlich nicht daran liegen. Höhere RDP-Version auf der Seite des zugreifenden PCs heisst in der Regel nur, dass du z.B. bei Win7 anhaken musst, dass du dich prinzipiell mit dieser schlechteren RDP-Version verbinden lassen willst (und umgekehrt gibts auch einen Haken der steuert, dass sich jemand mit einer schlechteren RDP-Version auf deinen PC verbinden kann)
Ich greife hier z.B. auch regelmässig mit Win7 auf 2003er Server mit RDP 6 zu und das geht wunderbar - wär ja auch schlimm wenn nicht.


Ein Punkt, den du überprüfen solltest wäre der Terminalserverlizensierungsmodus und ob es ne Menge temporärer Clientlizenzen gibt.
Und mich interessiert immer noch warum es bei dir device cals gibt...das wäre nämlich so ein Punkt warum es durch Veränderung der Infrastruktur zu einem solchen Fehler kommen könnte.

Mal so banal gefragt noch was: Neu gestartet hast den alten TS aber schon mal, oder?
Mitglied: IngChris
IngChris 15.06.2010 um 18:02:00 Uhr
Goto Top
Also temporäre Clientlizenzen hab ich nicht.

Was spricht gegen DeviceCals ?

Veränderung der Infrastruktur hab ich nicht vorgenommen (außer Update auf RDP 7 auf diesem einen PC vor einiger Zeit).

Neustart natürlich durchgeführt.

Nachdem der PC, der plötzlich die Lizenz nicht mehr bekommt sowieso nicht mehr der neueste ist , werden wir diesen - auch in Hinblick auf Server 2008 R2 durch einen neuen mit WIN 7 PRO (32bit) ersetzen, vielleicht löst sich dann das Problem.

Auf jeden Fall danke für Deine zahlreichne Tipps und Anregungen ...

LG IngChris
Mitglied: hushpuppies
hushpuppies 15.06.2010 um 18:37:32 Uhr
Goto Top
naja device cals machen eigentlich nur dann Sinn, wenn man mehr Benutzer als PCs hat - also z.B. Schichtbetrieb oder sowas in der Art.
Ansonsten ist die user cal eigentlich immer die flexiblere und bessere Wahl.

Und wenn es device cals sind, dann könnte es eben passieren, dass ein PC dazu kommt oder sich wesentlich verändert und dann eben die CAls ausgehen. Bei user cals passiert das nicht, denn da reicht es dann wenn sich der entsprechende Benutzer abmeldet.

Du könntest mal mit TSAdmin schauen ob da irgendwie getrennte, inaktive Sitzungen noch rumgammeln (wobei die eigentlich durch den Neustart weggehen hätten müssen)..
Mitglied: wiesi200
wiesi200 15.06.2010 um 18:53:45 Uhr
Goto Top
Hey Leute,

sollte man das ganze nicht in nem seperaten Beitrag klären, das hat überhaupt nichts mit Performance zu tun.
Da kann man doch überhaupt nicht mehr folgen.
Und wenn jemand danach sucht findet er es umso schwerer.
Mitglied: IngChris
IngChris 15.06.2010 um 20:34:24 Uhr
Goto Top
Hallo wiesi200,

Wahrscheinlich haben wir uns etwas in der Diskussion "verloren".

Du hast mit Deinem Argument natürlich nicht unrecht, es passt tatsächlich nicht mehr zum Thema Performance...
Wir sind über die Server 2008 R2 - Performance-Diskussion und allgemeinen Fragen zu Server 2008 R2 wieder bei Server 2003 gelandet.

Ich wollte nur nicht ständig neue Beträge eröffnen, aber für Nachvollziehbarkeit und Suche ist es ist wahrscheinlich doch sinnvoller die einzelnen Themen auch in verschiedene Beiträge zu packen.

LG IngChris
Mitglied: IngChris
IngChris 17.06.2010 um 19:35:30 Uhr
Goto Top
Für alle Interessierten,

Also, mit dem XP-Rechner - der bisher auch immer problemlos funktioniert hat - bin ich ich nicht mehr auf den Terminalserver gekommen (obwohl 5 Lizenzen frei)

NEUEN Win 7 - statt XP-Rechner in Betrieb genommen --> kommt ohne Probleme auf den 2003er Server.
(von den 5 Lizenzen sind jetzt noch 4 frei) - wie es sein soll.

Ich muss ja nicht alles verstehen ...
Mitglied: IngChris
IngChris 17.06.2010 um 19:38:24 Uhr
Goto Top
Habe das Thema Office 2010 - Aktivierung in einen eigenen Beitrag verlagert...

"Office 2010 Aktivierung auf Server 2008 R2, Betrieb als Terminalserver" in der Kategorie Lizensierung.


LG IngChris