Warum ist das eine Milchmädchenrechnung?
Ich habe deine gegebenen Daten genommen und den Break-Even errechnet.
Annahme Leistungsaufnahme: 350 Watt --> 54,10€ (0,23€/KWh)
Mh/s ~ 800 --> 122,45$ --> 94,70€
Kosten Grafikkarte: ca. 340€
Break-Even ohne Stromkosten: 3,59 Monate
Break-Even mit Stromkosten: 8,37 Monate
ABER...ich habe nur mal kurz gegooglet und laut diesem Link
HIER eine Leistungsaufnahme von ca. 275 Watt bei OC einer HIS HD7970 OC gefunden. (auf 1225 Mhz Core Clock)
Sollten damit 800 Mh/s möglich sein, dann verändert die Differenz von 75 Watt Leistungsaufnahme (was Kosten von 11,59€ ausmacht) den Break-Even auf 6,51 Monate.
Stimmt dies alles wie ich es nun annehme, ist es profitabler die Karte zu übertakten und auf Vollast rennen zu lassen, anstatt diese auf geringen Verbrauch zu drosseln.
Das ist aber nie so pauschal zu sagen oder zu errechnen.
Man kann das nur ansatzweise errechnen und sieht das wirkliche Ergebnis erst dann, wenn die Karte wirklich im Einsatz ist.
Der Streufaktor spielt ja auch eine Rolle.
Vielleicht erwischst du eine Montags-Karte und die macht einfach partout keine 800Mh/s...egal wie du sie aufdrehst.
Da kannst du dich totrechnen und tausende Szenarien durchdenken.