nikolaus-online
Goto Top

Wie seht ihr die Zukunft der IT?

Was ist eure persönliche Einschätzung? (Stand August 2006)

Servus allerseits!

Diese Frage ist sicher schon einige Male diskutiert worden - finde es aber immer wieder interessant grade mit Leuten vom Fach darüber zu diskutieren.
Wie stellt ihr euch die Zukunft der EDV vor? Nicht nur unbedingt die ferne Zukunft vielmehr eure Einschätzung der nächsten 7 - 10 Jahre?
Ich denke, gerade längerfristig ist es schwer abzuschätzen, was passieren wird.

Meiner Meinung nach wird der Trend der Performanceverbesserung nicht mehr so stark fortgesetzt, wie dies in den letzten Jahren der Fall war. Es wird eher größere Sprünge geben! Die Halbleitertechnik wird möglicherweise bald durch die Einführung der Kohlenstoff-Nano-Röhrchen revulotioniert, was einen Quantensprung in Betrachtung der Rechenperformance darstellen würde - vorausgesetzt die Schwierigkeiten, die das Thema momentan noch darstellt werden beseitigt.

Im Trend werden Rechensysteme immer günstiger werden! In ein paar Jahren wird der Kostenschwerpunkt des Betriebs von Computersystemen nicht länger bei der Hardware als vielmehr bei der Dienstleistung selbst liegen. Der einfache "Internetzugang" wie wir ihn heute kennen wird keinen nennenswerten Kostenpunkt mehr darstellen.

Zudem werden nahezu alle Einzelkomponenten eine Steuerung via WAN ermöglichen - mit dazugehöriger Identifikation (IPv6? face-smile und entsprechenden Applikationen.
(Der Wartungs- und Betriebsstatus des PKWs kann via PDA oder Notebook jederzeit mobil eingesehen werden... Komplexe Haussteuerungssysteme lassen sich unterwegs im Auto abrufen... etc)

Kommunikation via Handy oder Notebook werden über einen neuen Standard geregelt, der den Daten- und Voiceverkehr einheitlich regelt.

Puh... Klingt das einigernaßen Realistisch?
Vergessen zu erwähnen habe ich: Firmenserver werden in Zukunft auf virtueller Basis betrieben. Ein zentrale Hardware verwaltet beliebig viele virtuelle PCs. (Eine Firma arbeitet via Terminals an EINEM Zentralen Terminalserver auf dem alle anderen Applikationen laufen und das ohne jegweden Performanceverlusst! [face-big-smile Ich spinne ein bisschen rum...])

Was meint ihr?

Content-ID: 39054

Url: https://administrator.de/contentid/39054

Ausgedruckt am: 25.11.2024 um 06:11 Uhr

JohnnyB
JohnnyB 30.08.2006 um 15:52:38 Uhr
Goto Top
Der Wartungs- und Betriebsstatus des PKWs kann via PDA oder Notebook jederzeit mobil
eingesehen werden... Komplexe Haussteuerungssysteme lassen sich unterwegs im Auto abrufen...

Ist bereits state of the art.
16568
16568 30.08.2006 um 17:14:55 Uhr
Goto Top
Jupp; hat aber auch schon gezeigt, daß trotz modernster Technik nix geht, wenn die Technik ned so will, wie sie soll...
(siehe Microsoft-Haus, als da die Schließanlage den Besitzer nicht mehr reingelassen hat; zu komisch face-big-smile )


Lonesome Walker
PS: IT rocks, auch wenn's manchmal nervt...
PPS: JohnnyB, Dein Thread über Probleme, 1A...
Metzger-MCP
Metzger-MCP 30.08.2006 um 17:17:48 Uhr
Goto Top
Grummel ! Mein Beitrag den ich gestern geschrieben hatte, wurde bei der heutigen überarbeiten ( zeitmangel ) und anschliessendem übertragen fehlerhaft. Nun ist nichts mehr da .... Toll ....

Also nocheinmal, aber diesmal kürzer und zusammengefaster und mit anderen Aspekten... !


Ich bin nicht der Meinung das unsere Systeme in Zukunft virtualisiert werden. Dagegen sprechen für mich zu schwere Argumente.

  • Hardware zu teuer
  • Keine wirkliche Parallelität der System
  • Hardware ist nicht dafür ausgelegt & Systeme nicht ausgelastet

Die Hardware wird dazu nicht schnell genug werden können, um ein performantes und produktives System darstellen zu können. Dazu fehlt es einfach an den Hardware und Softwarelösungen. Desweiteren wird sich kaum eine Firma ein zweites komplettes System in die Ecke stellen können, das bei einem Hardwareproblem ebend umgeswitcht wird. Dafür wären die Profisysteme einfach viel zu teuer.

Schauen wir uns doch dazu mal das Thema MULTITASKING an. Wir arbeiten Augenscheinlich an allen Ecken im System mehrfach parallel und wie ist es in Wirklichkeit -> serial. Der Prozessor arbeitet alles einzeln in schöner Reihenfolge ab. face-smile Sehr deutlich wird das beim kopieren von Daten. Kopiert mal von einer HDD zu einer anderen HDD Daten und greift dann von Netzwerk aus auf irgendwelche Daten zu oder startet Office. Schon geht der Zeitzähler im Kopierfenster nach oben. Da wir zwar die ganzen Server virtuell PARALLEL haben, aber unsere Hardware nur seriell arbeitet kann, bekommt jeder Rechner nur wieder ein Zeitfenster zum wirklichen arbeiten, dabei entstehen Latenzzeiten die sich addieren. Wenn ich jetzt noch bedenke das die virtuellen Rechner auch noch Mulittasking und so weiter haben... nun jut.

Wo befindet sich der Flaschenhals des virtuellen Serverparks? -> in der Hardware des wirklichen Rechners. Wenn nun ein WEBSERVER und ein FILESERVER ggf auch ein Datenbankserver sich die gleiche Hardwarekiste teilen, entsteht für die Hardware so eine große Last, die sie nicht bewältigen kann. Ich denke da an die Busssysteme ( PCI, SATA, IDE, AGP, PCIEXPRESS ) des Mainboards. Die ganze Aussenwelt sprich die Clients wollen dann etwas von den virtuellen Servern. Nun hängt es an der(die) Netzwerkkarte(n) des Hardware Rechners. Das Gigabit Netzwerk ist spezifiziert mit 125 MByte/s, tatsächlich schaffen die Biester aber im optimalsten Fall 50MByte pro Sekunde. Also eine Effektivität von maximal 40% eher 20% . Bei einem 100Mbit Netz war das noch ca 72%.
Sata 2 Standart HDD's schaffen eine Leistung von 60-80 Mbyte/s anstatt der möglichen 384Mbyte/s laut Spezifikation.


Meiner persönlichen Meinung nach werden wir hergehen und Clustersysteme in Mittelständischen und auch in kleineren Firmen aufbauen. Desweiteren wird wahrscheinlich in Zukunft vermehrt auf Multikerncpu oder auf reine Multicpu Systeme gesetz. Ich denke es wird auch ggf die Busbreit erhöht > 64bit und restliche Hardware vom FSB her erhöht, wie es beim RAM zur Zeit ja schon passiert. Mit den Taktraten der CPU's selber wird weniger gespielt, vielleicht nur mit dem Multiplikatoren. So das eine 4 Gigaherz CPU nicht mit 10*400 MHZ angesteuert wird, sondern mit 4*1000 MHZ. Ich denke die Software wird auch auf Multicpu funktionalitäten und so weiter optimiert, wobei trotzdem nicht auf Platz Funktionalität Stabilität oder Bugs geachtet wird. Desweiteren wird es wahrscheinlich auch " Bedarfscpus geben " RISC Prozessoren die spezielle Zusatzbefehle enthalten wie z.b. MMX oder SSE allerdings für web java php ... ich denke auch das Zusatzgeräte schon komplette kleine Geräte werden. Ich denke da so an NAS Systeme ... An dem Beispiel Soundkarte X-Fi fitality von Creativlabs Soundblaster, haben wir ja schon heute 64MB Ram drauf und einen Prozessor der einen Leistungsindex einer Pentium 4 3Ghz CPU...


Ich wünschen mir für die Zukunft das die Software Entwickler Ihre ganze Software mit Verstand optimieren und Ressourcen schonender programmieren und nicht jede Schnittstelle neu erfinden müßen. Es gibt so viele Developer Tools von Prozessorherstellern, Direct x, ... , warum kann man die nicht verwenden. In den 80's waren die Ressourcen für Programme sehr knapp. Da hatte man schon mal überlegt, ob man wirklich ein Befehl verwendet, der 20 Rechenzyklen benötigt oder doch lieber 3 mit 6 Zyklen. Damals waren die Programme klein und sehr effektiv / schnell und stabil danke ausgibigen Betaphasen. Heute heißt es ja leider nur noch soll doch der Anwender sich ein neues System kaufen und auf Updates / Patche warten bis es läuft. Uns ist doch egal ob es bei Ihm funktioniert oder nicht, hauptsache der Rubel ist gerollt, und nach mir die Sintflut.

MFG Metzger
JohnnyB
JohnnyB 30.08.2006 um 17:58:47 Uhr
Goto Top
PPS: JohnnyB, Dein Thread über
Probleme, 1A...

Danke für die Blumen. ;)
nikolaus-online
nikolaus-online 31.08.2006 um 10:31:54 Uhr
Goto Top
Jupp; hat aber auch schon gezeigt, daß
trotz modernster Technik nix geht, wenn die
Technik ned so will, wie sie soll...

Ich denke, Probleme mit der Technik wird es immer geben. face-smile Und sie werden exponentiell zunehmen mit der Masse an neuen Lösungen die entwickelt werden.

(siehe Microsoft-Haus, als da die
Schließanlage den Besitzer nicht mehr
reingelassen hat; zu komisch face-big-smile )

Das ist das vollkommen neue Sicherheitskonzept von Microsoft! (Siehe Internetexplorer: Wenn ich mich durch myriaden von Fragefensterchen geklickt habe und mir das noch nicht die Laune am Surfen verdorben hat, tut es spätestens die Sicherheitseinstellung auf SUPER-MEGA-MÖRDER-GEDÖHNS-Stufe die ausser Text und graden Zahlen nichts mehr durchlässt.)
Wenn ich den Besitzer nicht ins Haus lasse, kann er auch nichts kaputt oder schmutzig machen. Ausserdem reduziert sich dadurch der durchschnittliche Wasserverbrauch und die daraus resultierende Umweltbelastung. Und das Drastisch.

Wer durfte denn das Haus noch betreten?
Der Administrator?
9781
9781 31.08.2006 um 13:50:58 Uhr
Goto Top
Ich denke das die Vernetzung der Komponenten immer grösser wird. Das IT und CE immer mehr miteinander verschmelzen. So wird es in Zukunft immer mehr möglich sein sein ganzes Haus von woanderst zu steuern. Dies ist zwar schon möglich jedoch werden die Preise dafür dann bald für jeden erschwinglich sein. Was jedoch dann für eine Frage stellt ist die Absicherung des ganzen.....was Alex bestimmt ein breites Grinsen ins Gesicht zaubern wird wen er da absichern darf face-wink
Wenn man nur mal das Beispiel Auto nimmt.....da sind wir noch weit weg von absicherung.
Sonst hätte D. Beckham seinen BMW ja noch face-smile
Ich sehe die Zukunft vorallem auch Softwaretechnisch bei Open-Source. Wen man sich die Preise ansieht die Microsoft im moment für seine zukünftigen Zugpferde vorschlägt, muss man ja fast ausweichen.
Es ist sicher so, das die Dienstleistung einen hohen, oder noch höheren Stellenwert einehmen wird......man verdient ja heute schon nichts mehr mit hardware.

Liebe Grüsse aus der Schweiz

Joshi
Metzger-MCP
Metzger-MCP 31.08.2006 um 15:10:29 Uhr
Goto Top
Da hast du fast recht @ Hardware Preise.

Ich habe noch keine Preise für Vista ... Poste doch mal deine Infos.

PS mein obiger Post wurde überarbeitet und anschliessend neu geschrieben, da bei der Übertragung sich ein Fehler eingeschlichen hat.

MFG Metzger
9781
9781 31.08.2006 um 15:35:13 Uhr
Goto Top
Also!
Preise von Vista: http://www.pctipp.ch/webnews/wn/34166.asp
Preise von Office 07: http://www.pctipp.ch/webnews/wn/34195.asp

Also ich steig auf Open Office um!!
Jetzt aber sicher!
nikolaus-online
nikolaus-online 31.08.2006 um 16:18:45 Uhr
Goto Top
Ich bin nicht der Meinung das unsere Systeme
in Zukunft virtualisiert werden. Dagegen
sprechen für mich zu schwere Argumente.

  • Hardware zu teuer
  • Keine wirkliche Parallelität
  • Hardware ist nicht dafür ausgelegt

Schwer zu sagen... Es hat beinahe ebensoviele Vorteile!
  • zentrale Administration
  • erleichterte Überwachung
  • enorm erleichtertes Backup
daraus resultierend:
  • Einfachere Wiederinstandsetzung nach Totalausfall


Und das mit der zu teuren Hardware ist auch nicht ganz korrekt. Im Endeffekt teilen sich die virtuellen Maschinen ja schliesslich die zentrale Hardware, daher entstehen für etwaige Peripherie durch mehrbenutzung keine Sonderkosten.

Du hast allerdings recht: Das ganze steht und fällt mit der aufgewendeten Rechenleistung. Und optimale Nutzung von Performance ist auch was anderes. face-wink

Wir werden sehen.

Die Preise von Vista und Office 2007 sind für Privatanwender nicht grade berauschend. Da kann sogar einem Student noch schlecht werden. face-smile
Nehmt das Upgrade, das geht noch. Oder schmeisst die Idee Vista auf den Sondermüllhaufen.
Metzger-MCP
Metzger-MCP 31.08.2006 um 17:05:35 Uhr
Goto Top
> Ich bin nicht der Meinung das unsere Systeme in Zukunft virtualisiert werden. Dagegen
> sprechen für mich zu schwere Argumente.
>
> * Hardware zu teuer
> * Keine wirkliche Parallelität
> * Hardware ist nicht dafür ausgelegt

Und das mit der zu teuren Hardware ist auch nicht ganz korrekt. Im Endeffekt teilen sich
die virtuellen Maschinen ja schliesslich die zentrale Hardware, daher entstehen für
etwaige Peripherie durch mehrbenutzung keine Sonderkosten.

Du hast allerdings recht: Das ganze steht und fällt mit der aufgewendeten
Rechenleistung. Und optimale Nutzung von Performance ist auch was anderes. face-wink

Ich war bei den Kosten von der Hardware ausgegangen die als Ersatz brach liegen.
Somit sind das 2 Systeme.

  • 1x als Producktiv System, das ist die Hardware auf dem alle Server bereitstellt werden.
  • 1x als BACKUP System, das ist die ersatz Hardware, die vor sich hin gammelt bis sie benötigt wird

Da solch ein "" normaler "" Server dann ja auch eine gewisse Hardwareleistung haben muss, plane ich da schon mal gerne 25000 - 50000€ ein. Wenn ich nun 25000 - 50000€ einfach nur so dumm rumstehen habe für denn Fall das mein Produktive System hops geht, dann habe ich doch schon sehr große Kosten...

MFG Metzger
nikolaus-online
nikolaus-online 31.08.2006 um 17:18:37 Uhr
Goto Top
So gesehen hast du natürlich vollkommen recht. face-wink