pras4our
Goto Top

Cloud computing free tool ?

Freeware Cloud for everyone??

Hallo

ich habe mich gefragt ob es möglich ist eine art rechen zentrum für jeder man zur verfügung zustellen
nehemen wir an wir haben ein tool was auf vielen rechner installiert ist und es erkennt welche prozesse viel rechen leistung benötigen (oder ich ordne dem tool speziell einen prozess zu)
dieses tool packt teile diese sehr aufwendigen rechen prozesses in kleine daten packete und schickt sie an freunde die auch das tool haben und nutzt die rechen leistung meiner freunde
das ergebniss wird an mich zurück gesendet und verwerte

das ganze funktioniert ähnlich dem SETI projekt nur das ich der jenige bin der die packete für irgend einen prozess vergibt und versendet
und wenn ich gerade nichts berechne kann ich pakete von anderen empfangen und berechnen

das tool müsste quasie eine schnittstelle zwischem dem was ich berechne will und meinen freunden (oder netzwerk mitgliedern) sein, die rechenleistung zur verfügung stellen

gibt es sowas als freeware tool

quasie installieren
immer im hintergund laufen lassen
und wenn ich mal was rändern will oder so, gebe ich diesen prozess an das tool und das chekt freie leistung im netz und versendet meine packete an freunde

gibt sowas oder is das noch ein wunschtraum??

ich will auch nicht leute anwerben bzw bequatschen das sie für mich was berechen und ihren rechner laufen lassen
es sollte quasie ein dauerhaft bestehendes netzwerk sein sagen wir wie torrent wo immer so viel rechner sind die irgendwie leistung übrich haben

Content-ID: 154930

Url: https://administrator.de/contentid/154930

Ausgedruckt am: 22.11.2024 um 15:11 Uhr

maretz
maretz 12.11.2010 um 08:07:03 Uhr
Goto Top
Moin,

nein, sowas gibt es für universelle Berechnungen nicht. Wie soll das gehen? Der eine packt dort nen Source-Code rein und möchte das der übersetzt wird (siehe z.B. DistCC). Der nächste sagt: Nee, ich will meine 3D-Zeichnung gerendert haben (Siehe 3D-Studio). Dann kommt einer und möchte seine Raytrace-Zeichnung gern haben und packt in dein Projekt eine PovRay-Zeichnung. Und der 4te koppelt da einfach mal nen Seti u.ä. rein...

Und wie soll dein Universal-Client jetzt arbeiten? Diese Clients zum verteilten Rechnen haben eigentlich IMMER eine Aufgabe die genau definiert ist -> oder die Programme müssen sogar speziell für diese Aufgabe übersetzt werden...
Pras4our
Pras4our 12.11.2010 um 10:06:02 Uhr
Goto Top
So weit ich weis bieten ja manche betriebssystem an, ein cluster mit hilfe eines LAN\'s einzurichten
doch soweit wie ich das jetzt gelesen habe dient es nicht zwingend der rechenleistungssteigerung
diese erzeugt nähmlich wohl auch ziemlich viel traffic im LAN was dann ja über internet eher noch schlechter zu bewältigen wäre

also bleibt es doch erstmal nur ein wunschtraum fürchte ich
maretz
maretz 12.11.2010 um 11:57:15 Uhr
Goto Top
Jap - ich denke auch... Denn nen Cluster kann viele Funktionen haben - Rechenleistung steigern ist nur EINE davon! Ausfallsicherheit wäre ein großer Part den es noch gibt. Lastverteilung ein anderer,....

Und da musst du dann schon genau wissen was du möchtest. Ich habe ein wenig das Gefühl die Idee entstand bei dir dadurch "Cluster -> Rechenleistung verteilen -> super schneller Computer für alles" (und da wärst du bei weitem nich der erste der sich diesen Universal-Cluster wünscht). Leider hat das mit der Realität nichts zu tun - sonst hätte man das schon gebaut. Nehmen wir den simplen Fall das du nur die Rechenleistung steigern möchtest. Dann wäre es fatal wenn du einfach so nen Cluster übers i-Net aufbaust. Die Verbindung ist einfach zu langsam. Da musst du dir dann Gedanken machen wie du die Arbeit aufteilen kannst das der Datenversand sich lohnt (d.h. die Clients müssen länger rechnen als der Datenversand dauert) und das es auch teilbare Aufgaben sind... Simples Beispiel: Wir stellen uns nen Cluster aus 2 Rechnern vor - PC1 is nen oller Zuse-Computer, PC2 ist nen aktueller Super-Computer. Aufgabe:
$a = 1;
$b = $a*2;
$c = $a+$b;
Und egal wieviele Knoten du jetzt hast und wie stark die Rechner sind: Diese Aufgabe ist NICHT teilbar. Gibst du die also an PC 1 (und der würde 5 Minuten für die Berechnung brauchen) dann muss dein PC2 für die Aufgabe
$d=$c+2;
trotzdem warten. Du kannst dir jetzt vorstellen das du mit der Anzahl an PCs das Problem vergrößerst... Also musst du Recheneinheiten packen die unabhängig voneinander berechnet werden können. DAFÜR haben die großen Systeme eben noch wieder eigene Rechner stehen die nur für die Paket-Verwaltung zuständig sind...

Und glaub mir - damit fangen die Probleme erst an. Selbst bei nem speziellen Cluster (z.B. eben DistCC als Cluster um C-Files zu übersetzen) hast du im LAN noch die Probleme das du ggf. warten musst weil nen langsamer Client mit dem Compile-Vorgang beschäftigt ist oder weil ggf. ein Client grad mal weggefallen ist (im Internet sind diese Probleme noch deutlich größer)...

Von daher - ich glaub selbst wenn man das nur ganz grob anreisst dann wird klar: Einen universellen Cluster gibt es so nicht...
Pras4our
Pras4our 12.11.2010 um 14:37:41 Uhr
Goto Top
hmm ja das sehe ich dann erstmal ein
und danke für die schnelle antwort

aber ich denke vieleicht wird es sowas ja mal geben


PS: ich kann ja die aufgabe bei grossen netzwerken auch an viele clients schicken und das erste ergebnis was ich zurückbekommen nutze ich dann
aber das problem liegt ja eher wenn ich es richtig verstanden habe eine Aufgabe sinnvoll aufzuteilen bzw die ergebnisse dann wieder richtig zusammen zusetzen
maretz
maretz 12.11.2010 um 15:13:58 Uhr
Goto Top
Moin,

"vielleicht" wird es auch irgendwann den CPU-Befehl "Do_what_i_want;" geben... die chance ist eher überschaubar...

Und nein - dein Ansatz ist falsch. Klar - ich könnte beispielsweise hingehen und einfach die Aufgabe $x=1+1; an 10 Clients schicken. DANN habe ich aber keine Rechenzeit gewonnen -> da ja 9 Rechner umsonst rechnen. Es GIBT durchaus Fälle bei denen man das macht -> z.B. in der Raumfahrt wird das genutzt. Hier hast du 3 bis n Rechner im Shuttle die dasselbe berechnen -> und das Ergebnis was die meisten haben gewinnt. Da gehts aber nicht um Geschwindigkeit - sondern um Sicherheit. So vermeidet man das z.B. durch Strahlung falsche Ergebnisse zur Berechnung rangezogen werden -> es wäre ja fatal wenn ein Rechner da nen Speicherfehler hat und der Vogel daher absemmelt... (Kleine Notiz am Rande: Das bringt natürlich nur was wenn die Daten zum Rechnen richtig sind -> wenn man natürlich statt der international üblichen Kilo einfach mal englische Pfund für Gewichtsberechnungen verwendet dann semmelt die Sonde trotzdem nahezu ungebremst auf den Mars... ;) ).

Daher musst du da schon unterscheiden was du möchtest. Das ist wie beim Raid von Festplatten: Mehr Geschwindigkeit oder mehr Sicherheit...
Schnuffo
Schnuffo 23.02.2011 um 21:01:22 Uhr
Goto Top
Hi!

Such mal nicht unter "Cloud" sondern unter "GRID", da findest du vielleicht das, was du suchst. Das nutzen die meisten Unis für wissenschaftliche Projekte, Sicherheit steht allerding da erst an 2. Stelle.

Gruß!

Chris
Pras4our
Pras4our 04.03.2011 um 17:07:41 Uhr
Goto Top
hallo

und danke für die erläuterungen
du hast wohl recht das was ich eigentlich gemeint habe ist offensichtlich ein GRID
wer noch interesse an dem thema CLOUD hat dem empfehle ich den folgenden Podcast

http://chaosradio.ccc.de/cre176.html
Chaosradio Express Ausgabe 176 21.02.2011

die hat mir geholfen den etwas schwammigen begriff der CLOUD ein wehnig zu beleuchten

grüße Pras