Dann Rechne mal aus, wie es mit Stromkosten vs Bitcoins assieht.. da ist alles unter 200mh in de eher mau..
Das ist aber ein bisschen ungünstig ausgedrückt,
ein single FPGA schafft ja auchnur gut 200MH/s, von "eher mau" kann dabei aber nicht die Rede sein.
Es kommt doch nicht auf die Höhe der Hashrate an, sondern auf das Verhältniss zwischen Hashrate und Stromverbrauch,
bei mir (bzw meinem Strompreis von 0.235ct/kWh) liegt die kritische Grenze zur Zeit bei etwa 1.3-1.5MH/s pro Watt.
Solange ich diese Grenze nicht unterschreite, ists völlig egal, ob ich nur 1MH/s, 100MH/s, oder 10GH/s habe.
Die Vermutung liegt allerdings nahe, das eine Nvidia Geforce fx 8800 diese Grenze nicht einhalten kann und weit mehr Strom verbraucht, als sie Bitcoins einbringt.