Cloud computing free tool ?
Freeware Cloud for everyone??
Hallo
ich habe mich gefragt ob es möglich ist eine art rechen zentrum für jeder man zur verfügung zustellen
nehemen wir an wir haben ein tool was auf vielen rechner installiert ist und es erkennt welche prozesse viel rechen leistung benötigen (oder ich ordne dem tool speziell einen prozess zu)
dieses tool packt teile diese sehr aufwendigen rechen prozesses in kleine daten packete und schickt sie an freunde die auch das tool haben und nutzt die rechen leistung meiner freunde
das ergebniss wird an mich zurück gesendet und verwerte
das ganze funktioniert ähnlich dem SETI projekt nur das ich der jenige bin der die packete für irgend einen prozess vergibt und versendet
und wenn ich gerade nichts berechne kann ich pakete von anderen empfangen und berechnen
das tool müsste quasie eine schnittstelle zwischem dem was ich berechne will und meinen freunden (oder netzwerk mitgliedern) sein, die rechenleistung zur verfügung stellen
gibt es sowas als freeware tool
quasie installieren
immer im hintergund laufen lassen
und wenn ich mal was rändern will oder so, gebe ich diesen prozess an das tool und das chekt freie leistung im netz und versendet meine packete an freunde
gibt sowas oder is das noch ein wunschtraum??
ich will auch nicht leute anwerben bzw bequatschen das sie für mich was berechen und ihren rechner laufen lassen
es sollte quasie ein dauerhaft bestehendes netzwerk sein sagen wir wie torrent wo immer so viel rechner sind die irgendwie leistung übrich haben
Hallo
ich habe mich gefragt ob es möglich ist eine art rechen zentrum für jeder man zur verfügung zustellen
nehemen wir an wir haben ein tool was auf vielen rechner installiert ist und es erkennt welche prozesse viel rechen leistung benötigen (oder ich ordne dem tool speziell einen prozess zu)
dieses tool packt teile diese sehr aufwendigen rechen prozesses in kleine daten packete und schickt sie an freunde die auch das tool haben und nutzt die rechen leistung meiner freunde
das ergebniss wird an mich zurück gesendet und verwerte
das ganze funktioniert ähnlich dem SETI projekt nur das ich der jenige bin der die packete für irgend einen prozess vergibt und versendet
und wenn ich gerade nichts berechne kann ich pakete von anderen empfangen und berechnen
das tool müsste quasie eine schnittstelle zwischem dem was ich berechne will und meinen freunden (oder netzwerk mitgliedern) sein, die rechenleistung zur verfügung stellen
gibt es sowas als freeware tool
quasie installieren
immer im hintergund laufen lassen
und wenn ich mal was rändern will oder so, gebe ich diesen prozess an das tool und das chekt freie leistung im netz und versendet meine packete an freunde
gibt sowas oder is das noch ein wunschtraum??
ich will auch nicht leute anwerben bzw bequatschen das sie für mich was berechen und ihren rechner laufen lassen
es sollte quasie ein dauerhaft bestehendes netzwerk sein sagen wir wie torrent wo immer so viel rechner sind die irgendwie leistung übrich haben
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 154930
Url: https://administrator.de/contentid/154930
Ausgedruckt am: 22.11.2024 um 15:11 Uhr
7 Kommentare
Neuester Kommentar
Moin,
nein, sowas gibt es für universelle Berechnungen nicht. Wie soll das gehen? Der eine packt dort nen Source-Code rein und möchte das der übersetzt wird (siehe z.B. DistCC). Der nächste sagt: Nee, ich will meine 3D-Zeichnung gerendert haben (Siehe 3D-Studio). Dann kommt einer und möchte seine Raytrace-Zeichnung gern haben und packt in dein Projekt eine PovRay-Zeichnung. Und der 4te koppelt da einfach mal nen Seti u.ä. rein...
Und wie soll dein Universal-Client jetzt arbeiten? Diese Clients zum verteilten Rechnen haben eigentlich IMMER eine Aufgabe die genau definiert ist -> oder die Programme müssen sogar speziell für diese Aufgabe übersetzt werden...
nein, sowas gibt es für universelle Berechnungen nicht. Wie soll das gehen? Der eine packt dort nen Source-Code rein und möchte das der übersetzt wird (siehe z.B. DistCC). Der nächste sagt: Nee, ich will meine 3D-Zeichnung gerendert haben (Siehe 3D-Studio). Dann kommt einer und möchte seine Raytrace-Zeichnung gern haben und packt in dein Projekt eine PovRay-Zeichnung. Und der 4te koppelt da einfach mal nen Seti u.ä. rein...
Und wie soll dein Universal-Client jetzt arbeiten? Diese Clients zum verteilten Rechnen haben eigentlich IMMER eine Aufgabe die genau definiert ist -> oder die Programme müssen sogar speziell für diese Aufgabe übersetzt werden...
Jap - ich denke auch... Denn nen Cluster kann viele Funktionen haben - Rechenleistung steigern ist nur EINE davon! Ausfallsicherheit wäre ein großer Part den es noch gibt. Lastverteilung ein anderer,....
Und da musst du dann schon genau wissen was du möchtest. Ich habe ein wenig das Gefühl die Idee entstand bei dir dadurch "Cluster -> Rechenleistung verteilen -> super schneller Computer für alles" (und da wärst du bei weitem nich der erste der sich diesen Universal-Cluster wünscht). Leider hat das mit der Realität nichts zu tun - sonst hätte man das schon gebaut. Nehmen wir den simplen Fall das du nur die Rechenleistung steigern möchtest. Dann wäre es fatal wenn du einfach so nen Cluster übers i-Net aufbaust. Die Verbindung ist einfach zu langsam. Da musst du dir dann Gedanken machen wie du die Arbeit aufteilen kannst das der Datenversand sich lohnt (d.h. die Clients müssen länger rechnen als der Datenversand dauert) und das es auch teilbare Aufgaben sind... Simples Beispiel: Wir stellen uns nen Cluster aus 2 Rechnern vor - PC1 is nen oller Zuse-Computer, PC2 ist nen aktueller Super-Computer. Aufgabe:
$a = 1;
$b = $a*2;
$c = $a+$b;
Und egal wieviele Knoten du jetzt hast und wie stark die Rechner sind: Diese Aufgabe ist NICHT teilbar. Gibst du die also an PC 1 (und der würde 5 Minuten für die Berechnung brauchen) dann muss dein PC2 für die Aufgabe
$d=$c+2;
trotzdem warten. Du kannst dir jetzt vorstellen das du mit der Anzahl an PCs das Problem vergrößerst... Also musst du Recheneinheiten packen die unabhängig voneinander berechnet werden können. DAFÜR haben die großen Systeme eben noch wieder eigene Rechner stehen die nur für die Paket-Verwaltung zuständig sind...
Und glaub mir - damit fangen die Probleme erst an. Selbst bei nem speziellen Cluster (z.B. eben DistCC als Cluster um C-Files zu übersetzen) hast du im LAN noch die Probleme das du ggf. warten musst weil nen langsamer Client mit dem Compile-Vorgang beschäftigt ist oder weil ggf. ein Client grad mal weggefallen ist (im Internet sind diese Probleme noch deutlich größer)...
Von daher - ich glaub selbst wenn man das nur ganz grob anreisst dann wird klar: Einen universellen Cluster gibt es so nicht...
Und da musst du dann schon genau wissen was du möchtest. Ich habe ein wenig das Gefühl die Idee entstand bei dir dadurch "Cluster -> Rechenleistung verteilen -> super schneller Computer für alles" (und da wärst du bei weitem nich der erste der sich diesen Universal-Cluster wünscht). Leider hat das mit der Realität nichts zu tun - sonst hätte man das schon gebaut. Nehmen wir den simplen Fall das du nur die Rechenleistung steigern möchtest. Dann wäre es fatal wenn du einfach so nen Cluster übers i-Net aufbaust. Die Verbindung ist einfach zu langsam. Da musst du dir dann Gedanken machen wie du die Arbeit aufteilen kannst das der Datenversand sich lohnt (d.h. die Clients müssen länger rechnen als der Datenversand dauert) und das es auch teilbare Aufgaben sind... Simples Beispiel: Wir stellen uns nen Cluster aus 2 Rechnern vor - PC1 is nen oller Zuse-Computer, PC2 ist nen aktueller Super-Computer. Aufgabe:
$a = 1;
$b = $a*2;
$c = $a+$b;
Und egal wieviele Knoten du jetzt hast und wie stark die Rechner sind: Diese Aufgabe ist NICHT teilbar. Gibst du die also an PC 1 (und der würde 5 Minuten für die Berechnung brauchen) dann muss dein PC2 für die Aufgabe
$d=$c+2;
trotzdem warten. Du kannst dir jetzt vorstellen das du mit der Anzahl an PCs das Problem vergrößerst... Also musst du Recheneinheiten packen die unabhängig voneinander berechnet werden können. DAFÜR haben die großen Systeme eben noch wieder eigene Rechner stehen die nur für die Paket-Verwaltung zuständig sind...
Und glaub mir - damit fangen die Probleme erst an. Selbst bei nem speziellen Cluster (z.B. eben DistCC als Cluster um C-Files zu übersetzen) hast du im LAN noch die Probleme das du ggf. warten musst weil nen langsamer Client mit dem Compile-Vorgang beschäftigt ist oder weil ggf. ein Client grad mal weggefallen ist (im Internet sind diese Probleme noch deutlich größer)...
Von daher - ich glaub selbst wenn man das nur ganz grob anreisst dann wird klar: Einen universellen Cluster gibt es so nicht...
Moin,
"vielleicht" wird es auch irgendwann den CPU-Befehl "Do_what_i_want;" geben... die chance ist eher überschaubar...
Und nein - dein Ansatz ist falsch. Klar - ich könnte beispielsweise hingehen und einfach die Aufgabe $x=1+1; an 10 Clients schicken. DANN habe ich aber keine Rechenzeit gewonnen -> da ja 9 Rechner umsonst rechnen. Es GIBT durchaus Fälle bei denen man das macht -> z.B. in der Raumfahrt wird das genutzt. Hier hast du 3 bis n Rechner im Shuttle die dasselbe berechnen -> und das Ergebnis was die meisten haben gewinnt. Da gehts aber nicht um Geschwindigkeit - sondern um Sicherheit. So vermeidet man das z.B. durch Strahlung falsche Ergebnisse zur Berechnung rangezogen werden -> es wäre ja fatal wenn ein Rechner da nen Speicherfehler hat und der Vogel daher absemmelt... (Kleine Notiz am Rande: Das bringt natürlich nur was wenn die Daten zum Rechnen richtig sind -> wenn man natürlich statt der international üblichen Kilo einfach mal englische Pfund für Gewichtsberechnungen verwendet dann semmelt die Sonde trotzdem nahezu ungebremst auf den Mars... ;) ).
Daher musst du da schon unterscheiden was du möchtest. Das ist wie beim Raid von Festplatten: Mehr Geschwindigkeit oder mehr Sicherheit...
"vielleicht" wird es auch irgendwann den CPU-Befehl "Do_what_i_want;" geben... die chance ist eher überschaubar...
Und nein - dein Ansatz ist falsch. Klar - ich könnte beispielsweise hingehen und einfach die Aufgabe $x=1+1; an 10 Clients schicken. DANN habe ich aber keine Rechenzeit gewonnen -> da ja 9 Rechner umsonst rechnen. Es GIBT durchaus Fälle bei denen man das macht -> z.B. in der Raumfahrt wird das genutzt. Hier hast du 3 bis n Rechner im Shuttle die dasselbe berechnen -> und das Ergebnis was die meisten haben gewinnt. Da gehts aber nicht um Geschwindigkeit - sondern um Sicherheit. So vermeidet man das z.B. durch Strahlung falsche Ergebnisse zur Berechnung rangezogen werden -> es wäre ja fatal wenn ein Rechner da nen Speicherfehler hat und der Vogel daher absemmelt... (Kleine Notiz am Rande: Das bringt natürlich nur was wenn die Daten zum Rechnen richtig sind -> wenn man natürlich statt der international üblichen Kilo einfach mal englische Pfund für Gewichtsberechnungen verwendet dann semmelt die Sonde trotzdem nahezu ungebremst auf den Mars... ;) ).
Daher musst du da schon unterscheiden was du möchtest. Das ist wie beim Raid von Festplatten: Mehr Geschwindigkeit oder mehr Sicherheit...