chappert
Goto Top

Nach index neu organisieren und index reorganisieren wird das log File riesig

Hallo zusammen,

ich habe das Problem das meine ldf Datei meiner Datenbank nach einem "index neu erstellen" & "index neu organisieren" um ca. 250 GB wächst.

Hier erstmal was zu meiner Umgebung.

Win2003 Server mit SQL2005 Server
Größe der Datenbank um die es geht 100 GB
Wiederherstellungsmodus Vollständig

Die Datenbank wird einmal Täglich gesichert, über einen Backupserver mit Symantec BackupExec2010.
Backup-Methode: "Gesamt - Gesamte Datenbank oder Dateigruppe sichern"

Die Transactionlogs werden stündlich über den gleichen Backupserver mit der gleichen Backupsoftware gesichert
Backup-Methode: Protokoll - Transaktionsprotokoll sichern

Einmal in der Woche (am WE) wird ein Wartungsplan "index neu erstellen" ausgeführt. Dieser dauert ca. 3,5 Stunden. Danach wird der Wartungsplan "Index neu organisieren" ausgeführt und dauert ca. 30m.
Dabei wächst mein ldf File um ca. 250 GB.
Der Speicherplatz wird nicht wieder automatisch frei gegeben.

Liegt hier ein Fehler vor oder muss ich das ldf immer per Script verkleinern lassen?

USE [DATENBANK]
GO
DBCC SHRINKFILE (N'DATENBANK_Log' , 0, TRUNCATEONLY)
GO

Dieses Problem tritt erst seit kurze Zeit auf. Vorher wurde der Speicherplatz automatisch wieder frei gegeben bzw. das Log File wurde erst gar nicht so groß. Bevor das Problem aufgetreten ist wurde das ldf File nicht per Script verkleinert und wurde bei den Wartungsaufträgen auch nicht größer.

Kann mir jemand helfen?

Content-ID: 192054

Url: https://administrator.de/forum/nach-index-neu-organisieren-und-index-reorganisieren-wird-das-log-file-riesig-192054.html

Ausgedruckt am: 23.12.2024 um 03:12 Uhr

Grinskeks
Grinskeks 01.10.2012 um 15:20:20 Uhr
Goto Top
Hallo,

hier sind mehrere Vorgänge sinnvoll durchzuführen:

Vor dem Index neu erstellen sollte das Wiederherstellungsmodell auf Massenprotokolliert gestellt werden - dann wächst das Transaktionsprotokoll relativ gering.Danach umstellen nicht vergessen.


2. Backup des Tranasktionsprotokolls mit anschließendem Abschneiden der Protokolleinträge

Ein Shrink macht an dieser Stelle nur wenig Sinn. Die Datei sollte auf einem "ordentlichen" Wert belassen und regelmäßig gesichert werden. Nach dem Sichern sollte das Transaktionsprotokoll abgeschnitten werden -> Speicherplatz in der .ldf wird wieder frei. Auf diese Art und Weise entsteht keine Fragmentierung innerhalb der .ldf-Datei (interne Fragmentierung mit Seiten - nicht die NTFS-Fragmentierung!)

Der Wartungsplan sollte sich auf einen burchteil der Zeit verringern.

Versuche alternativ auch mal folgendes Script zum Erstellen der Indizes:


DECLARE @tablename VARCHAR(255)
DECLARE @sql NVARCHAR(500)
DECLARE @fillfactor INT
SET @fillfactor = 80
DECLARE TableCursor CURSOR FOR
SELECT OBJECT_SCHEMA_NAME([object_id])+'.'+name AS TableName
FROM sys.tables
OPEN TableCursor
FETCH NEXT FROM TableCursor INTO @tablename
WHILE @@FETCH_STATUS = 0
BEGIN
SET @sql = 'ALTER INDEX ALL ON ' + @tablename + ' REBUILD WITH (FILLFACTOR = ' + CONVERT(VARCHAR(3),@fillfactor) + ')'
EXEC (@sql)
FETCH NEXT FROM TableCursor INTO @tablename
END
CLOSE TableCursor
DEALLOCATE TableCursor
GO

Gruss
Grinskeks
chappert
chappert 02.10.2012 um 08:20:43 Uhr
Goto Top
Hallo Grinskeks,

bevor ich was auf einer Produktivumgebung einfach so ändere habe ich da noch ein paar Fragen.

Soll ich jetzt jedesmal bevor die Wartungsaufträge laufen den Wiederherstellungsmodus ändern
und danach wieder ändern? Das seh ich als nicht gerade zweckmäßig an oder soll ich das nur einmal machen und was hat das dann für ein Zweck?

Die oben genannte Backupmethode der Transaktionlogs beinhaltet das kürzen bzw. abschneiden bereits.
Anscheinend wird dadurch die Datei trotzdem nicht kleiner.

Was macht dein Script genau?

mfg
Grinskeks
Grinskeks 02.10.2012 um 10:54:47 Uhr
Goto Top
Hallo,

das Wiederherstellungsmodell sagt aus, wie Änderungen an den Daten wiederhergestellt werden können. Beim vollständigen Wiederherstellungsmodell werden alle Änderungen im Transaktionsprotokoll hinterlegt. Wir sichern die Datendateien bei kritischen Datenbanken z.B. einmal täglich und das Transaktionsprotokoll alle 15 Minuten - somit sind unsere Backups relativ klein und der Datenverlust beträgt max. 15 Minuten.

Sobald das Transaktionsprotokoll gesichert wird, gibt es den Platz für Änderungen, die nun gesichert wurden, wieder frei. Das Protokoll kann abgeschnitten werden und wächst somit nicht / kaum. Wird das Transaktionsprotokoll nicht explizit (alleine) gesichert, wird kein Prüfpunkt erzeugt und das Abschneiden hat keinen Effekt.

Bevor die Indizes neu erstellt werden, würde ich das Wiederherstellungsmodell auf bulk logged stellen, damit das Transaktionsprotokoll nicht so enorm wächst und der Wartungsvorgang auch schneller abläuft. Danach per Script wieder umstellen und gut ist.

Das Script läuft durch alle Tabellen der Datenbank auf der es ausgeführt wird und macht einen Rebuild der Indizes. Es setzt den Füllfaktor nach Eingabe (80% Voreinstellung). Somit hast du pro Indexseite nur 80% Befüllung und kommt ein neuer Datensatz hinzu, fragmentieren dir die Indizes nicht so schnell.

Den Index Rebuild würde ich versuchen, auf Zeiten setzen zu denen keiner arbeitet und offline durchführen. Online kann das Rebuild nur mit der Enterprise Version des SQL Servers durchgeführt werden.

Es scheint mir so, als ob du den SQl Server noch nicht allzu lange administrierst - daher empfehle ich, auf jeden Fall eine Testumgebung einzurichten! Virtualisiere doch das OS mit dem SQL Server und teste das Ganze durch, bevor du dich an das Produktivsystem traust.

Gruss Grinskeks
chappert
chappert 02.10.2012 aktualisiert um 15:38:49 Uhr
Goto Top
Hi,

ich denke mal das die Backupsoftware in der Hinsicht keinen Prüfpunkt erzeugt und dadurch das abschneiden keinen Effekt über diese hat. Daher habe ich die ganze Sicherung mal mit den SQL eigenen Mitteln umgesetzt (Wartungspläne).

Ich denke mal das Script was direkt vorher laufen sollte um den Wiederherstellungsmodus umzustellen sollte so aussehen...

USE [master]
GO
ALTER DATABASE [DATENBANK] SET RECOVERY BULK_LOGGED WITH NO_WAIT
GO
ALTER DATABASE [DATENBANK] SET RECOVERY BULK_LOGGED
GO

Wann sollte das wieder auf den Vollständigen Wiederherstellungsmodus umgestellt werden nach dem "Index neu erstellen" oder nach dem "Index neu organisieren"? Da diese ja nacheinander laufen.

Der Füllfaktor (Prozentsatz für freien Speicherplatz pro Seite) steht bei mir auf 10% ist das in Ordnung in Hinblick auf die Fragmentierung? Ich habe ja dann quasi nur 10% Befüllung pro Indexseite, ist das nicht etwas wenig?

Beide Wartungspläne laufen am Sonntag ab 0:00 da ist niemand auf der Datenbank, von der Seite passt das denke ich.

Den Server habe ich mir bereits schon mit VMware geklont ;)

Vielen Dank für deine tolle Hilfe!
Grinskeks
Grinskeks 02.10.2012 um 16:40:17 Uhr
Goto Top
Hi,

mache ich gerne face-wink

Das Wiederherstellungsmodell sollte im Anschluss an die Index Vorgänge wieder auf vollständig umgestellt werden.

Der Füllfaktor ist viel zu niedrig! Stell dir vor du schreibst ein Buch (Tabelle) und das Stichwortverzeichnis am Ende füllt sich automatisch mit. Hast du jede Seite im Verzeichnis zu 100% gefüllt, musst du bei jedem neuen Stichwort im Buch an der Stelle, wo du das Stichwort dazwischen schiebst, Blätter reinkleben und den Rest der Seite auf die nächste Seite legen.Hast du jede Seite nur zu 10% gefüllt, ist dein Stichwortverzeichnis 10 mal so groß und du blätterst sehr viel beim Suchen.

Ist der Füllfaktor also zu gering muss der Server zuviel lesen. Ist er zu hoch, muss er zuviel umschichten und Seiten erzeugen, was Fragmentierung erzeugt. Daher würde ich die 80% vorerst belassen und mich in die Thematik einlesen. Je nachdem, was ihr für Indizes habt, kann man die Indizes später immer noch anpassen bzgl. Füllfaktor. Die 80% sind ein guter Ausgangswert für viele Indizes (z.B. Namen, fortlaufende Nummern).

Der Füllfaktor ist ein Mittel zu Performanceoptimierung und sollte aktuell noch nicht im Fokus stehen, da es hier schnell sehr komplex wird (Ausführungspläne,Häufigkeitsanalysen, Indexoptimierung, Profiling)

Gruss

Grinskeks
chappert
chappert 10.10.2012 um 11:09:59 Uhr
Goto Top
Leider wächst meine ldf Datei immer nach den index vorgängen.
Die Transaktionlogs werden zwar ordnungsgemäß abgeschnitten und haben auch eine dementsprechende Größe aber die ldf Datei wird nicht wieder kleiner.

Warum wird der Speicherplatz nicht wieder frei gegeben sobald die Transaktionlogs abgeschnitten wurden?
MadMax
MadMax 10.10.2012 um 12:33:59 Uhr
Goto Top
Hallo chappert,

wenn Du die DB einmalig verkleinern willst, weil sie jetzt über lange Zeit ohne Protokllsicherung angewachsen ist, kannst Du das über "DBCC SHRINKDATABASE" oder gezielt eine Datei über "DBCC SHRINKFILE" tun. Alternativ kannst Du im Management Studio zu der DB gehen und im Kontextmenü "Tasks / Verkleinern" auswählen.

Automatisch könnte die DB auch verkleinert werden, würde ich an Deiner Stelle aber nicht tun. Dazu könnte man in den DB-Eigenschaften bei den Optionen "Automatisch verkleinern" einstellen (oder auch mit "alter database xyz set auto_shrink on"). Aber wie gesagt, ich würds nicht tun.

Gruß, Mad Max
chappert
chappert 10.10.2012 um 13:21:19 Uhr
Goto Top
Hallo Max,

es geht mir ja nicht um die DB sondern um das log File (ldf) welches immer um zig GB anwächst.
Wie schon Grinsekeks oben geschrieben hat ist wohl ein Shrinken des Log Files nicht angebracht da man es auf eine ordentliche Größe belassen soll. Allerdings wächst das Log File ständig weiter. Durch das Sichern der Transaktionlogs wird das Log File auch nicht kleiner sondern behält seine Größe die es nach jedem Index neu und reorg bekommen hat.

Es kann doch aber nicht sein das das ständig so enorm wächst? Kann man das nicht so einstellen das es eine Größe behält, bzw. der Speicherplatz nach abschneiden der Transaktionlogs wieder frei gegeben wird?
MadMax
MadMax 11.10.2012 um 02:30:54 Uhr
Goto Top
Hallo chappert,

es geht mir ja nicht um die DB sondern um das log File (ldf) welches immer um zig GB anwächst.
Die Aussage ist widersprüchlich, das Transaktionslog gehört nämlich zur DB.

Allerdings wächst das Log File ständig weiter. Durch das Sichern der Transaktionlogs
wird das Log File auch nicht kleiner sondern behält seine Größe die es nach jedem Index neu und reorg bekommen
hat.
Was ist jetzt eigentlich das Problem, daß die LDF-Datei nicht kleiner wird oder daß sie trotz TP-Sicherung immer noch wächst?
Wenn Du eine TP-Sicherung durchführst, wird intern der Platz freigegeben und kann anschließend durch das TP wieder überschrieben werden. Die Datei selber wird nicht kleiner, aber sie wächst auch nur weiter an, wenn der freigegebene Platz in der LDF-Datei nicht ausreicht.

Fall eins, daß die LDF-Datei nicht kleiner wird, wäre also normal, solange keine automatische DB-Verkleinerung eingeschaltet ist. Du könntest die Datei dann von Hand verkleinern, anschließend würde sie bei der Index-Reorganisation auf die dafür benötigte Größe anwachsen und dürfte sich bei weiteren Index-Reorganisationen dann allenfalls noch in kleineren Schritten vergrößern.

Fall zwei, die LDF-Datei wächst trotz TP-Sicherung bei jeder Index-Reorganisation um etwa den gleichen Wert an, würde darauf hindeuten, daß bei der TP-Sicherung etwas nicht richtig läuft, weil dann scheinbar der Platz intern nicht freigegeben wird.

Gruß, Mad Max
chappert
chappert 11.10.2012 um 08:11:18 Uhr
Goto Top
Das Problem ist gelöst, vielen Dank für eure Hilfe.

Das Log File ist jetzt bis auf 93 GB hoch geklettert und bleibt bei dieser Größe auch nach den index neu und index reorg vorgängen.

Kann mir evtl. noch jemand erklären warum diese so groß ist? Das Log File ist knapp 3 GB kleiner als meine DB
Grinskeks
Grinskeks 11.10.2012 um 12:01:53 Uhr
Goto Top
Schau mal bitte im Datei verkleinern Dialog im Management Studio wie groß der verfügbare Speicherplatz ist.

Danach mache ein Full Backup
Danach Transactional Backup ohne Transaktionsprotokoll abschneiden
Danach Transactional Backup mit Transaktionsprotokoll abschneiden

Dann schau wie am Anfang nach, wie groß der verfügbare Speicherplatz im Logfile ist.

Ein Shrinkfile bedeutet immer Fragmentierung und sollte möglichst sparsam eingesetzt werden.

---
Plan B (vorher sichern, keine Nutzer auf dem System):

Datenbank trennen.
Datenbank anfügen -> im Dialog bei Datenbankdetails das Protokollfile über "entfernen" ... entfernen face-wink
mit Ok bestätigen.

Danach ist das Logfile erstmal mimimal und wieder vorhanden. Setze es nun auf einen Wert und mache das absolute Wachstum absolut, d.h. keine Prozentzahlen sondern eine Zweierpotenz in MB, z.B. 512MB (was m.E. sehr viel ist, aber je nach Datenbanknutzung...)

---

Gruss
Grinskeks
chappert
chappert 12.10.2012 um 17:45:18 Uhr
Goto Top
Was ist wenn dieser Wert erreicht ist?
Treten dann nicht Probleme auf weil das log File den Max Wert erreicht hat auf?
chappert
chappert 12.10.2012 um 17:54:28 Uhr
Goto Top
Zitat von @MadMax:
Wenn Du eine TP-Sicherung durchführst, wird intern der Platz freigegeben und kann anschließend durch das TP wieder
überschrieben werden. Die Datei selber wird nicht kleiner, aber sie wächst auch nur weiter an, wenn der freigegebene
Platz in der LDF-Datei nicht ausreicht.

Gruß, Mad Max

Ich glaube damit habe ich das dann Verstanden face-smile
Somit hat sich auch dann auch mein vorheriger Post erledigt.

Nochmal zum Verständnis: Ich sollte das log File also lieber in der Größe lassen da der bei den Index Vorgängen benötigte Speicherplatz wieder verbraucht wird und anschließend wieder frei gegeben wird. Die Datei bleibt aber gleich groß.

Das erklärt auch warum dann das ldf File 99% freien Speicherplatz hat, da dieser nur bei den index Vorgängen belegt wird

acchhhsoooooo face-smile


Vielen Dank an Alle
Super Hilfe hier!!!