stefankittel
Goto Top

Ich suche eine Software um Auslastungsänderungen bei NGINX+Apache-Webservern aufzuspüren

Hallo,

Ich suche eine Software um Auslastungsänderungen bei NGINX/Apache-Webservern aufzuspüren.
Grundlage sind die Access-Log-Dateien.

Ich werde hin und wieder gefragt wenn ein Web-Server auf einmal sehr langsam ist.
Meist sieht man die CPU Last bei 100% und meist stellt sich herraus, dass irgendein Bad-Bot ganz wild die Webseite crawlt.
Dann blockt man diese IP und gut.

Manchmal ist es aber auch Bing oder Google die spontan entscheiden zeitgleich die Anzahl der Zugriff deutlich zu erhöhen.

Ich nutzt WebLog-Expert Professional, aber das hilft nur bedingt.

Auf die Frage was ist von 08:00 bis 08:10 anders als von 07:30 - 07:40 hilft es eher gar nicht.
Ich nutzte dann Excel um die IPs oder Agents zu gruppieren und auszuwerten um Muster zu finden die vorher nicht da waren.
Aber das ist sehr mühsam.


Kennt Jemand eine Software mit der man solche Änderungen aufspüren kann?
Ich stelle mir einen Slider Oben vor und Unten verschiedene Listen die dann nach Anzahl sortiert werden.

Danke

Stefan

Content-Key: 656097

Url: https://administrator.de/contentid/656097

Printed on: April 20, 2024 at 02:04 o'clock

Member: godlie
godlie Feb 25, 2021 at 08:38:00 (UTC)
Goto Top
Hallo,

auf die schnelle fallen mir die üblichen Verdächtigen ein:


wenn du was buntes zum klicken suchst, dann musst du inzwischen ein paar Scheine rüberreichen ....
Member: NetzwerkDude
NetzwerkDude Feb 25, 2021 at 08:39:20 (UTC)
Goto Top
schau dir mal mod_status bei apache an
Member: godlie
godlie Feb 25, 2021 at 08:44:05 (UTC)
Goto Top
Zitat von @NetzwerkDude:

schau dir mal mod_status bei apache an

Danke auf den hab ich ganz vergessen, stellt zwar nur den Momentanwert dar, aber da gibt es eine nette Auffrischung "Visuel"
https://github.com/axelhahn/pimped-apache-status/tree/master
Member: NordicMike
NordicMike Feb 25, 2021 at 08:50:05 (UTC)
Goto Top
Liegt die Webseite bei Euch lokal und macht die DSL Leitung dicht?
Member: StefanKittel
StefanKittel Feb 25, 2021 at 09:58:37 (UTC)
Goto Top
Zitat von @godlie:
auf die schnelle fallen mir die üblichen Verdächtigen ein:
Die helfen aber alle nicht bei der Frage was von 08:00 - 08:10 anders ist als von 07:50 - 08:00.

wenn du was buntes zum klicken suchst, dann musst du inzwischen ein paar Scheine rüberreichen ....
Gute Software kostet Geld... Kein Problem.


Zitat von @NetzwerkDude:
schau dir mal mod_status bei apache an
Bei 200 Zugriffen pro Sekunde hilft das auch nicht bei der Frage was jetzt gegenüber vor 15 Minuten anders ist.


Zitat von @NordicMike:
Liegt die Webseite bei Euch lokal und macht die DSL Leitung dicht?
Cluster im Rechenzentrum mit Load Balancer
Es ist definitiv die CPU-Leistung und diese bedingt durch die Anzahl der Zugriffe.

Heute morgen waren auf einmal 80% aller Zugriff von Bing und Google gegenüber den sonst üblichen 10%.

Stefan
Member: NordicMike
NordicMike Feb 25, 2021 at 10:37:58 (UTC)
Goto Top
Du kannst Google auch sagen was es nicht durchsuchen darf.
Member: StefanKittel
StefanKittel Feb 25, 2021 at 11:50:00 (UTC)
Goto Top
Zitat von @NordicMike:
Du kannst Google auch sagen was es nicht durchsuchen darf.
Man kann über die robots.txt den Bots vorgeben was sie durchsuchen und wie schnell.
Aber leider halten sich selbst Google und Bing nicht an das Rate-Limit und die Bad-Bots halten sich an gar nichts.
Member: NetzwerkDude
NetzwerkDude Feb 25, 2021 at 19:51:28 (UTC)
Goto Top
Okay, dann die Apache Logs in einen ELK-Stack kippen und dann die "Baseline" finden wie normaler traffic aussieht und die peaks sollten dann von allein auffallen.
Such mal nach "Apache ELK", da kommen ganz gute Ergebnisse schon auf Seite 1
Member: Gentooist
Gentooist Mar 15, 2021 at 19:38:14 (UTC)
Goto Top
Für Apache gibt es für diesen Zweck mod_evasive. Das ist definitiv besser als nur stupides Auswerten von Logfiles. Allerdings ist es auch so komplex, dass man sich damit die eigene Webseite ziemlich zerschießen kann.