Excel (CSV) Datei auswerten
Hi,
wie kann ich am einfachsten eine Excel (CSV) Datei auswerten.
Ich habe 16 Spalten mit unterschiedlichen Daten (z.B. Datum, Uhrzeiten, User IDs usw.).
Es sind Zugriffzeiten von Usern auf ein Server, ausgewertet sollen werden wann, wieviele, wielange, durchschnittszeit usw.
Vorschlag ist bisher die Daten in MySQL Tabellen zu schreiben und mit PHP und HTML auf ein Frontend dar zu stellen.
Da ich in all diesen Themen ein absoluter Neuling bin wollte ich gern wissen ob es noch andere Möglcihkeiten gibt.
wie kann ich am einfachsten eine Excel (CSV) Datei auswerten.
Ich habe 16 Spalten mit unterschiedlichen Daten (z.B. Datum, Uhrzeiten, User IDs usw.).
Es sind Zugriffzeiten von Usern auf ein Server, ausgewertet sollen werden wann, wieviele, wielange, durchschnittszeit usw.
Vorschlag ist bisher die Daten in MySQL Tabellen zu schreiben und mit PHP und HTML auf ein Frontend dar zu stellen.
Da ich in all diesen Themen ein absoluter Neuling bin wollte ich gern wissen ob es noch andere Möglcihkeiten gibt.
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 22885
Url: https://administrator.de/forum/excel-csv-datei-auswerten-22885.html
Ausgedruckt am: 16.02.2025 um 18:02 Uhr
9 Kommentare
Neuester Kommentar
Moin chris,
geht mir (und wahrscheinlich allen anderen) genauso wie verkehrsberuhigt.. die Strategie ist nicht ganz klar..
Ich versuchs mal mit Rückfragen:
- warum um Himmels willen liegen denn die Daten jetzt als Excel-CSV vor? Ist das irgendein AD/ADSI-Export?
- wenn denn diese Daten viel zu detailliert sind, um damit etwas anzufangen, warum denn dann den ganzen Müll noch mal in MySQL überführen?
- wenn ihr nur die verdichteten Daten braucht, dann lass da einen kleinen Batch/ein kleines VBSkript drüberschrapeln, am besten als Dienst morgens um 02h oder so, der aus den 14000 "Datensätzen" die 300 "verdichteten" macht
- und DANN können wir über das Anzeige-Thema meditieren - wo die Daten am Besten abgerufen/abgefragt werden können.
Bitte um Erläuterung
Biber
geht mir (und wahrscheinlich allen anderen) genauso wie verkehrsberuhigt.. die Strategie ist nicht ganz klar..
Ich versuchs mal mit Rückfragen:
- warum um Himmels willen liegen denn die Daten jetzt als Excel-CSV vor? Ist das irgendein AD/ADSI-Export?
- wenn denn diese Daten viel zu detailliert sind, um damit etwas anzufangen, warum denn dann den ganzen Müll noch mal in MySQL überführen?
- wenn ihr nur die verdichteten Daten braucht, dann lass da einen kleinen Batch/ein kleines VBSkript drüberschrapeln, am besten als Dienst morgens um 02h oder so, der aus den 14000 "Datensätzen" die 300 "verdichteten" macht
- und DANN können wir über das Anzeige-Thema meditieren - wo die Daten am Besten abgerufen/abgefragt werden können.
Bitte um Erläuterung
Biber
![13100](/images/members/profile_male_48x48.png)
14000 Zeilen sollten für excel eigentlich kein problem darstellen.
eventuell lässt sich dies sogar mit formeln realisieren.
eventuell lässt sich dies sogar mit formeln realisieren.
![13100](/images/members/profile_male_48x48.png)
in dem fall, biste doch besser mit php + csv-file unterwegs.
sorry, zu sehr auf eine einfache auswertung konzentriert.
sorry, zu sehr auf eine einfache auswertung konzentriert.
Moin chris,
danke für die Antwort, bin schon schlauer jetzt, aber einmal will ich noch nachhaken:
Hmmm ja... aber: Wenn sich später die Granularität (also die Detailliertheit der Abfragen, die "Detailtiefe") auf der Ebene "Monatliche Anmeldezeiten je Account" erschöpft, dann brauchst Su eben nur die aggregierten Daten.
Oder andersherum, Du brauchst nur alle "Datensätze", wenn auch jemals die Frage kommt "Wie oft und zu welchen Zeiten hat sich Account xyz am vorletzten Dienstag im April eingeloggt?".
Denn der Nachteil, wenn Du alle Infos mitschleppst, ist ja: es müssten auch jedesmal, wenn Du die Monatssicht auf dem Monitor haben willst, alle 14000 Datensätze aufaddiert werden. Wenn das nicht nötig ist, würde ich das nicht machen.
Aber egal welcher Weg: Du kannst auch in MySql
a) eine CSV-Datei mit obigem Aufbau direkt importieren (einmalig alles, manuell); not recommended
b) per Skript/Batch/Makro das ganze per SQL-Statements updaten (immer nur die "neuen" Sätze)
c) das per PHP machen
Aber dazu müsstest Du trotz alledem erstmal meditieren,
- wie die Datenbanktabelle(n) aussehen sollen
- welche Auswertungs-Anforderungen dann tatsächlich da sind
(das, was ich oben als "Granularität der Daten" umschrieben habe).
Eine Eins-zu-Eins-Übernahme einer gesamten Logdatei/Protokolldatei hatte ich in der Praxis noch nie, glaube ich.
Grüße
Biber
danke für die Antwort, bin schon schlauer jetzt, aber einmal will ich noch nachhaken:
In SQL nur weil man daraus besser die Abfragen erstellen kann, wurde mir berichtet.
Hmmm ja... aber: Wenn sich später die Granularität (also die Detailliertheit der Abfragen, die "Detailtiefe") auf der Ebene "Monatliche Anmeldezeiten je Account" erschöpft, dann brauchst Su eben nur die aggregierten Daten.
Oder andersherum, Du brauchst nur alle "Datensätze", wenn auch jemals die Frage kommt "Wie oft und zu welchen Zeiten hat sich Account xyz am vorletzten Dienstag im April eingeloggt?".
Denn der Nachteil, wenn Du alle Infos mitschleppst, ist ja: es müssten auch jedesmal, wenn Du die Monatssicht auf dem Monitor haben willst, alle 14000 Datensätze aufaddiert werden. Wenn das nicht nötig ist, würde ich das nicht machen.
Aber egal welcher Weg: Du kannst auch in MySql
a) eine CSV-Datei mit obigem Aufbau direkt importieren (einmalig alles, manuell); not recommended
b) per Skript/Batch/Makro das ganze per SQL-Statements updaten (immer nur die "neuen" Sätze)
c) das per PHP machen
Aber dazu müsstest Du trotz alledem erstmal meditieren,
- wie die Datenbanktabelle(n) aussehen sollen
- welche Auswertungs-Anforderungen dann tatsächlich da sind
(das, was ich oben als "Granularität der Daten" umschrieben habe).
Eine Eins-zu-Eins-Übernahme einer gesamten Logdatei/Protokolldatei hatte ich in der Praxis noch nie, glaube ich.
Grüße
Biber
Danke, chris,
MySQL ist ja auch brauchbar.. machen Hunderttausend andere auch.
Und sorry für die blöde Formatierung eben, sooooooo viel wollte ich gar nicht betonen![face-wink face-wink](/images/icons/fa/light/face-laugh-wink.svg)
Noch mal das Wichtigere:
Aber dazu müsstest Du trotz alledem erstmal meditieren,
- wie die Datenbanktabelle(n) aussehen sollen
- welche Auswertungs-Anforderungen dann tatsächlich da sind (das, was ich oben als "Granularität der Daten" umschrieben habe.
Denke Dir ein Fragezeichen dazu. Dann wäre jetzt das, was wir vor irgendwelchen handwerklichen Schritten bräuchten.
Grüße
Biber
MySQL ist ja auch brauchbar.. machen Hunderttausend andere auch.
Und sorry für die blöde Formatierung eben, sooooooo viel wollte ich gar nicht betonen
Noch mal das Wichtigere:
Aber dazu müsstest Du trotz alledem erstmal meditieren,
- wie die Datenbanktabelle(n) aussehen sollen
- welche Auswertungs-Anforderungen dann tatsächlich da sind (das, was ich oben als "Granularität der Daten" umschrieben habe.
Denke Dir ein Fragezeichen dazu. Dann wäre jetzt das, was wir vor irgendwelchen handwerklichen Schritten bräuchten.
Grüße
Biber