Wie seht ihr die Zukunft der IT?
Was ist eure persönliche Einschätzung? (Stand August 2006)
Servus allerseits!
Diese Frage ist sicher schon einige Male diskutiert worden - finde es aber immer wieder interessant grade mit Leuten vom Fach darüber zu diskutieren.
Wie stellt ihr euch die Zukunft der EDV vor? Nicht nur unbedingt die ferne Zukunft vielmehr eure Einschätzung der nächsten 7 - 10 Jahre?
Ich denke, gerade längerfristig ist es schwer abzuschätzen, was passieren wird.
Meiner Meinung nach wird der Trend der Performanceverbesserung nicht mehr so stark fortgesetzt, wie dies in den letzten Jahren der Fall war. Es wird eher größere Sprünge geben! Die Halbleitertechnik wird möglicherweise bald durch die Einführung der Kohlenstoff-Nano-Röhrchen revulotioniert, was einen Quantensprung in Betrachtung der Rechenperformance darstellen würde - vorausgesetzt die Schwierigkeiten, die das Thema momentan noch darstellt werden beseitigt.
Im Trend werden Rechensysteme immer günstiger werden! In ein paar Jahren wird der Kostenschwerpunkt des Betriebs von Computersystemen nicht länger bei der Hardware als vielmehr bei der Dienstleistung selbst liegen. Der einfache "Internetzugang" wie wir ihn heute kennen wird keinen nennenswerten Kostenpunkt mehr darstellen.
Zudem werden nahezu alle Einzelkomponenten eine Steuerung via WAN ermöglichen - mit dazugehöriger Identifikation (IPv6? und entsprechenden Applikationen.
(Der Wartungs- und Betriebsstatus des PKWs kann via PDA oder Notebook jederzeit mobil eingesehen werden... Komplexe Haussteuerungssysteme lassen sich unterwegs im Auto abrufen... etc)
Kommunikation via Handy oder Notebook werden über einen neuen Standard geregelt, der den Daten- und Voiceverkehr einheitlich regelt.
Puh... Klingt das einigernaßen Realistisch?
Vergessen zu erwähnen habe ich: Firmenserver werden in Zukunft auf virtueller Basis betrieben. Ein zentrale Hardware verwaltet beliebig viele virtuelle PCs. (Eine Firma arbeitet via Terminals an EINEM Zentralen Terminalserver auf dem alle anderen Applikationen laufen und das ohne jegweden Performanceverlusst! [ Ich spinne ein bisschen rum...])
Was meint ihr?
Servus allerseits!
Diese Frage ist sicher schon einige Male diskutiert worden - finde es aber immer wieder interessant grade mit Leuten vom Fach darüber zu diskutieren.
Wie stellt ihr euch die Zukunft der EDV vor? Nicht nur unbedingt die ferne Zukunft vielmehr eure Einschätzung der nächsten 7 - 10 Jahre?
Ich denke, gerade längerfristig ist es schwer abzuschätzen, was passieren wird.
Meiner Meinung nach wird der Trend der Performanceverbesserung nicht mehr so stark fortgesetzt, wie dies in den letzten Jahren der Fall war. Es wird eher größere Sprünge geben! Die Halbleitertechnik wird möglicherweise bald durch die Einführung der Kohlenstoff-Nano-Röhrchen revulotioniert, was einen Quantensprung in Betrachtung der Rechenperformance darstellen würde - vorausgesetzt die Schwierigkeiten, die das Thema momentan noch darstellt werden beseitigt.
Im Trend werden Rechensysteme immer günstiger werden! In ein paar Jahren wird der Kostenschwerpunkt des Betriebs von Computersystemen nicht länger bei der Hardware als vielmehr bei der Dienstleistung selbst liegen. Der einfache "Internetzugang" wie wir ihn heute kennen wird keinen nennenswerten Kostenpunkt mehr darstellen.
Zudem werden nahezu alle Einzelkomponenten eine Steuerung via WAN ermöglichen - mit dazugehöriger Identifikation (IPv6? und entsprechenden Applikationen.
(Der Wartungs- und Betriebsstatus des PKWs kann via PDA oder Notebook jederzeit mobil eingesehen werden... Komplexe Haussteuerungssysteme lassen sich unterwegs im Auto abrufen... etc)
Kommunikation via Handy oder Notebook werden über einen neuen Standard geregelt, der den Daten- und Voiceverkehr einheitlich regelt.
Puh... Klingt das einigernaßen Realistisch?
Vergessen zu erwähnen habe ich: Firmenserver werden in Zukunft auf virtueller Basis betrieben. Ein zentrale Hardware verwaltet beliebig viele virtuelle PCs. (Eine Firma arbeitet via Terminals an EINEM Zentralen Terminalserver auf dem alle anderen Applikationen laufen und das ohne jegweden Performanceverlusst! [ Ich spinne ein bisschen rum...])
Was meint ihr?
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 39054
Url: https://administrator.de/contentid/39054
Ausgedruckt am: 25.11.2024 um 06:11 Uhr
11 Kommentare
Neuester Kommentar
Jupp; hat aber auch schon gezeigt, daß trotz modernster Technik nix geht, wenn die Technik ned so will, wie sie soll...
(siehe Microsoft-Haus, als da die Schließanlage den Besitzer nicht mehr reingelassen hat; zu komisch )
Lonesome Walker
PS: IT rocks, auch wenn's manchmal nervt...
PPS: JohnnyB, Dein Thread über Probleme, 1A...
(siehe Microsoft-Haus, als da die Schließanlage den Besitzer nicht mehr reingelassen hat; zu komisch )
Lonesome Walker
PS: IT rocks, auch wenn's manchmal nervt...
PPS: JohnnyB, Dein Thread über Probleme, 1A...
Grummel ! Mein Beitrag den ich gestern geschrieben hatte, wurde bei der heutigen überarbeiten ( zeitmangel ) und anschliessendem übertragen fehlerhaft. Nun ist nichts mehr da .... Toll ....
Also nocheinmal, aber diesmal kürzer und zusammengefaster und mit anderen Aspekten... !
Ich bin nicht der Meinung das unsere Systeme in Zukunft virtualisiert werden. Dagegen sprechen für mich zu schwere Argumente.
Die Hardware wird dazu nicht schnell genug werden können, um ein performantes und produktives System darstellen zu können. Dazu fehlt es einfach an den Hardware und Softwarelösungen. Desweiteren wird sich kaum eine Firma ein zweites komplettes System in die Ecke stellen können, das bei einem Hardwareproblem ebend umgeswitcht wird. Dafür wären die Profisysteme einfach viel zu teuer.
Schauen wir uns doch dazu mal das Thema MULTITASKING an. Wir arbeiten Augenscheinlich an allen Ecken im System mehrfach parallel und wie ist es in Wirklichkeit -> serial. Der Prozessor arbeitet alles einzeln in schöner Reihenfolge ab. Sehr deutlich wird das beim kopieren von Daten. Kopiert mal von einer HDD zu einer anderen HDD Daten und greift dann von Netzwerk aus auf irgendwelche Daten zu oder startet Office. Schon geht der Zeitzähler im Kopierfenster nach oben. Da wir zwar die ganzen Server virtuell PARALLEL haben, aber unsere Hardware nur seriell arbeitet kann, bekommt jeder Rechner nur wieder ein Zeitfenster zum wirklichen arbeiten, dabei entstehen Latenzzeiten die sich addieren. Wenn ich jetzt noch bedenke das die virtuellen Rechner auch noch Mulittasking und so weiter haben... nun jut.
Wo befindet sich der Flaschenhals des virtuellen Serverparks? -> in der Hardware des wirklichen Rechners. Wenn nun ein WEBSERVER und ein FILESERVER ggf auch ein Datenbankserver sich die gleiche Hardwarekiste teilen, entsteht für die Hardware so eine große Last, die sie nicht bewältigen kann. Ich denke da an die Busssysteme ( PCI, SATA, IDE, AGP, PCIEXPRESS ) des Mainboards. Die ganze Aussenwelt sprich die Clients wollen dann etwas von den virtuellen Servern. Nun hängt es an der(die) Netzwerkkarte(n) des Hardware Rechners. Das Gigabit Netzwerk ist spezifiziert mit 125 MByte/s, tatsächlich schaffen die Biester aber im optimalsten Fall 50MByte pro Sekunde. Also eine Effektivität von maximal 40% eher 20% . Bei einem 100Mbit Netz war das noch ca 72%.
Sata 2 Standart HDD's schaffen eine Leistung von 60-80 Mbyte/s anstatt der möglichen 384Mbyte/s laut Spezifikation.
Meiner persönlichen Meinung nach werden wir hergehen und Clustersysteme in Mittelständischen und auch in kleineren Firmen aufbauen. Desweiteren wird wahrscheinlich in Zukunft vermehrt auf Multikerncpu oder auf reine Multicpu Systeme gesetz. Ich denke es wird auch ggf die Busbreit erhöht > 64bit und restliche Hardware vom FSB her erhöht, wie es beim RAM zur Zeit ja schon passiert. Mit den Taktraten der CPU's selber wird weniger gespielt, vielleicht nur mit dem Multiplikatoren. So das eine 4 Gigaherz CPU nicht mit 10*400 MHZ angesteuert wird, sondern mit 4*1000 MHZ. Ich denke die Software wird auch auf Multicpu funktionalitäten und so weiter optimiert, wobei trotzdem nicht auf Platz Funktionalität Stabilität oder Bugs geachtet wird. Desweiteren wird es wahrscheinlich auch " Bedarfscpus geben " RISC Prozessoren die spezielle Zusatzbefehle enthalten wie z.b. MMX oder SSE allerdings für web java php ... ich denke auch das Zusatzgeräte schon komplette kleine Geräte werden. Ich denke da so an NAS Systeme ... An dem Beispiel Soundkarte X-Fi fitality von Creativlabs Soundblaster, haben wir ja schon heute 64MB Ram drauf und einen Prozessor der einen Leistungsindex einer Pentium 4 3Ghz CPU...
Ich wünschen mir für die Zukunft das die Software Entwickler Ihre ganze Software mit Verstand optimieren und Ressourcen schonender programmieren und nicht jede Schnittstelle neu erfinden müßen. Es gibt so viele Developer Tools von Prozessorherstellern, Direct x, ... , warum kann man die nicht verwenden. In den 80's waren die Ressourcen für Programme sehr knapp. Da hatte man schon mal überlegt, ob man wirklich ein Befehl verwendet, der 20 Rechenzyklen benötigt oder doch lieber 3 mit 6 Zyklen. Damals waren die Programme klein und sehr effektiv / schnell und stabil danke ausgibigen Betaphasen. Heute heißt es ja leider nur noch soll doch der Anwender sich ein neues System kaufen und auf Updates / Patche warten bis es läuft. Uns ist doch egal ob es bei Ihm funktioniert oder nicht, hauptsache der Rubel ist gerollt, und nach mir die Sintflut.
MFG Metzger
Also nocheinmal, aber diesmal kürzer und zusammengefaster und mit anderen Aspekten... !
Ich bin nicht der Meinung das unsere Systeme in Zukunft virtualisiert werden. Dagegen sprechen für mich zu schwere Argumente.
- Hardware zu teuer
- Keine wirkliche Parallelität der System
- Hardware ist nicht dafür ausgelegt & Systeme nicht ausgelastet
Die Hardware wird dazu nicht schnell genug werden können, um ein performantes und produktives System darstellen zu können. Dazu fehlt es einfach an den Hardware und Softwarelösungen. Desweiteren wird sich kaum eine Firma ein zweites komplettes System in die Ecke stellen können, das bei einem Hardwareproblem ebend umgeswitcht wird. Dafür wären die Profisysteme einfach viel zu teuer.
Schauen wir uns doch dazu mal das Thema MULTITASKING an. Wir arbeiten Augenscheinlich an allen Ecken im System mehrfach parallel und wie ist es in Wirklichkeit -> serial. Der Prozessor arbeitet alles einzeln in schöner Reihenfolge ab. Sehr deutlich wird das beim kopieren von Daten. Kopiert mal von einer HDD zu einer anderen HDD Daten und greift dann von Netzwerk aus auf irgendwelche Daten zu oder startet Office. Schon geht der Zeitzähler im Kopierfenster nach oben. Da wir zwar die ganzen Server virtuell PARALLEL haben, aber unsere Hardware nur seriell arbeitet kann, bekommt jeder Rechner nur wieder ein Zeitfenster zum wirklichen arbeiten, dabei entstehen Latenzzeiten die sich addieren. Wenn ich jetzt noch bedenke das die virtuellen Rechner auch noch Mulittasking und so weiter haben... nun jut.
Wo befindet sich der Flaschenhals des virtuellen Serverparks? -> in der Hardware des wirklichen Rechners. Wenn nun ein WEBSERVER und ein FILESERVER ggf auch ein Datenbankserver sich die gleiche Hardwarekiste teilen, entsteht für die Hardware so eine große Last, die sie nicht bewältigen kann. Ich denke da an die Busssysteme ( PCI, SATA, IDE, AGP, PCIEXPRESS ) des Mainboards. Die ganze Aussenwelt sprich die Clients wollen dann etwas von den virtuellen Servern. Nun hängt es an der(die) Netzwerkkarte(n) des Hardware Rechners. Das Gigabit Netzwerk ist spezifiziert mit 125 MByte/s, tatsächlich schaffen die Biester aber im optimalsten Fall 50MByte pro Sekunde. Also eine Effektivität von maximal 40% eher 20% . Bei einem 100Mbit Netz war das noch ca 72%.
Sata 2 Standart HDD's schaffen eine Leistung von 60-80 Mbyte/s anstatt der möglichen 384Mbyte/s laut Spezifikation.
Meiner persönlichen Meinung nach werden wir hergehen und Clustersysteme in Mittelständischen und auch in kleineren Firmen aufbauen. Desweiteren wird wahrscheinlich in Zukunft vermehrt auf Multikerncpu oder auf reine Multicpu Systeme gesetz. Ich denke es wird auch ggf die Busbreit erhöht > 64bit und restliche Hardware vom FSB her erhöht, wie es beim RAM zur Zeit ja schon passiert. Mit den Taktraten der CPU's selber wird weniger gespielt, vielleicht nur mit dem Multiplikatoren. So das eine 4 Gigaherz CPU nicht mit 10*400 MHZ angesteuert wird, sondern mit 4*1000 MHZ. Ich denke die Software wird auch auf Multicpu funktionalitäten und so weiter optimiert, wobei trotzdem nicht auf Platz Funktionalität Stabilität oder Bugs geachtet wird. Desweiteren wird es wahrscheinlich auch " Bedarfscpus geben " RISC Prozessoren die spezielle Zusatzbefehle enthalten wie z.b. MMX oder SSE allerdings für web java php ... ich denke auch das Zusatzgeräte schon komplette kleine Geräte werden. Ich denke da so an NAS Systeme ... An dem Beispiel Soundkarte X-Fi fitality von Creativlabs Soundblaster, haben wir ja schon heute 64MB Ram drauf und einen Prozessor der einen Leistungsindex einer Pentium 4 3Ghz CPU...
Ich wünschen mir für die Zukunft das die Software Entwickler Ihre ganze Software mit Verstand optimieren und Ressourcen schonender programmieren und nicht jede Schnittstelle neu erfinden müßen. Es gibt so viele Developer Tools von Prozessorherstellern, Direct x, ... , warum kann man die nicht verwenden. In den 80's waren die Ressourcen für Programme sehr knapp. Da hatte man schon mal überlegt, ob man wirklich ein Befehl verwendet, der 20 Rechenzyklen benötigt oder doch lieber 3 mit 6 Zyklen. Damals waren die Programme klein und sehr effektiv / schnell und stabil danke ausgibigen Betaphasen. Heute heißt es ja leider nur noch soll doch der Anwender sich ein neues System kaufen und auf Updates / Patche warten bis es läuft. Uns ist doch egal ob es bei Ihm funktioniert oder nicht, hauptsache der Rubel ist gerollt, und nach mir die Sintflut.
MFG Metzger
Ich denke das die Vernetzung der Komponenten immer grösser wird. Das IT und CE immer mehr miteinander verschmelzen. So wird es in Zukunft immer mehr möglich sein sein ganzes Haus von woanderst zu steuern. Dies ist zwar schon möglich jedoch werden die Preise dafür dann bald für jeden erschwinglich sein. Was jedoch dann für eine Frage stellt ist die Absicherung des ganzen.....was Alex bestimmt ein breites Grinsen ins Gesicht zaubern wird wen er da absichern darf
Wenn man nur mal das Beispiel Auto nimmt.....da sind wir noch weit weg von absicherung.
Sonst hätte D. Beckham seinen BMW ja noch
Ich sehe die Zukunft vorallem auch Softwaretechnisch bei Open-Source. Wen man sich die Preise ansieht die Microsoft im moment für seine zukünftigen Zugpferde vorschlägt, muss man ja fast ausweichen.
Es ist sicher so, das die Dienstleistung einen hohen, oder noch höheren Stellenwert einehmen wird......man verdient ja heute schon nichts mehr mit hardware.
Liebe Grüsse aus der Schweiz
Joshi
Wenn man nur mal das Beispiel Auto nimmt.....da sind wir noch weit weg von absicherung.
Sonst hätte D. Beckham seinen BMW ja noch
Ich sehe die Zukunft vorallem auch Softwaretechnisch bei Open-Source. Wen man sich die Preise ansieht die Microsoft im moment für seine zukünftigen Zugpferde vorschlägt, muss man ja fast ausweichen.
Es ist sicher so, das die Dienstleistung einen hohen, oder noch höheren Stellenwert einehmen wird......man verdient ja heute schon nichts mehr mit hardware.
Liebe Grüsse aus der Schweiz
Joshi
Also!
Preise von Vista: http://www.pctipp.ch/webnews/wn/34166.asp
Preise von Office 07: http://www.pctipp.ch/webnews/wn/34195.asp
Also ich steig auf Open Office um!!
Jetzt aber sicher!
Preise von Vista: http://www.pctipp.ch/webnews/wn/34166.asp
Preise von Office 07: http://www.pctipp.ch/webnews/wn/34195.asp
Also ich steig auf Open Office um!!
Jetzt aber sicher!
> Ich bin nicht der Meinung das unsere Systeme in Zukunft virtualisiert werden. Dagegen
> sprechen für mich zu schwere Argumente.
>
> * Hardware zu teuer
> * Keine wirkliche Parallelität
> * Hardware ist nicht dafür ausgelegt
Und das mit der zu teuren Hardware ist auch nicht ganz korrekt. Im Endeffekt teilen sich
die virtuellen Maschinen ja schliesslich die zentrale Hardware, daher entstehen für
etwaige Peripherie durch mehrbenutzung keine Sonderkosten.
Du hast allerdings recht: Das ganze steht und fällt mit der aufgewendeten
Rechenleistung. Und optimale Nutzung von Performance ist auch was anderes.
> sprechen für mich zu schwere Argumente.
>
> * Hardware zu teuer
> * Keine wirkliche Parallelität
> * Hardware ist nicht dafür ausgelegt
Und das mit der zu teuren Hardware ist auch nicht ganz korrekt. Im Endeffekt teilen sich
die virtuellen Maschinen ja schliesslich die zentrale Hardware, daher entstehen für
etwaige Peripherie durch mehrbenutzung keine Sonderkosten.
Du hast allerdings recht: Das ganze steht und fällt mit der aufgewendeten
Rechenleistung. Und optimale Nutzung von Performance ist auch was anderes.
Ich war bei den Kosten von der Hardware ausgegangen die als Ersatz brach liegen.
Somit sind das 2 Systeme.
- 1x als Producktiv System, das ist die Hardware auf dem alle Server bereitstellt werden.
- 1x als BACKUP System, das ist die ersatz Hardware, die vor sich hin gammelt bis sie benötigt wird
Da solch ein "" normaler "" Server dann ja auch eine gewisse Hardwareleistung haben muss, plane ich da schon mal gerne 25000 - 50000€ ein. Wenn ich nun 25000 - 50000€ einfach nur so dumm rumstehen habe für denn Fall das mein Produktive System hops geht, dann habe ich doch schon sehr große Kosten...
MFG Metzger