Title: GTX690 -> Tesla Post by: Rave on April 29, 2013, 11:50:27 PM Nvidia Karten sind ja bekanntlich ziemlich lame wenn's ums Mining geht. Mal abgesehen von den Tesla S2070 Karten, aber die sind ziemlich teuer.
Scheinbar kann man aber aus einer GTX690 eine Quadro oder gar eine Tesla basteln: http://www.golem.de/news/grafikkarten-hack-von-geforce-nach-quadro-per-loetkolben-1303-98294.html Nun frage ich mich: WTF? Wenn das im wesentlichen eh nur eine Frage des Treibers ist, wäre es dann nicht möglich Mining Treiber für NVidia Karten zu schreiben? Oder wo liegt das Problem? Hardware? Ist die S2070 nur wegen den Fermis brauchbar? Was macht die NVidia Karten so langsam? THX Edit: Die Teslas ohne Fermi sind scheinbar auch nicht besonders effizient. Die K20 schafft nur 134.8 mhash/s. Aber es bleibt die Frage: Wo liegt das Problem bei den NVidia Karten? Edit2: Antwort gefunden: https://en.bitcoin.it/wiki/Why_a_GPU_mines_faster_than_a_CPU#Why_are_AMD_GPUs_faster_than_Nvidia_GPUs.3F & http://www.extremetech.com/computing/153467-amd-destroys-nvidia-bitcoin-mining Title: Re: GTX690 -> Tesla Post by: maxpain on April 30, 2013, 10:40:11 AM in der uni mine ich mit quadro karten und dem cudaminer, die schaffen nur 65 khas/s... meine GTX 560 (overclocked auf 0,987V und 930MHz) schafft "gewaltige" 135 khash/s und hat nur 150€ gekostet, die gibts aber nichtmehr :)
wenn alle rechner in der uni laufen schaff ich ca 0,8 ltc/d :D also sind die quadro karten müll fürs minen Title: Re: GTX690 -> Tesla Post by: Schrankwand on May 02, 2013, 10:53:08 AM Quote Edit: Die Teslas ohne Fermi sind scheinbar auch nicht besonders effizient. Die K20 schafft nur 134.8 mhash/s. Aber es bleibt die Frage: Wo liegt das Problem bei den NVidia Karten? Die Nvidia Karten sind effizienter und bringen bei weniger Recheneinheiten mehr Leistung. Fürs Bitcoin Mining erzeugt die Rechenfunktion allerdings teilweise viel mehr Schritte, 3 vs. 1 bei den Amd Karten. Dazu sind die Nvidia Karten auch darauf ausgelegt, bei 64 Bit Berechnungen weniger stark einzubrechen, der Performance Hit für 32 zu 64 Bit liegt unter 50% für die GTX Titan und über 66% für die 79070. Es wird davon ausgegangen, dass der Bottleneck darin liegt, dass die die Nvidia Karten mehr Kerne pro Recheneinheit ansteuern, daher die reine Computing Power in den Recheneinheiten verloren geht. Es sind ca. 14 in der Titan, 32 in einer 7970. Die Nvidia Units haben insgesamt weniger logische Einheiten als die AMD Einheiten. Die GTX 690 beispielsweise hat genauso viele EInheiten wie die 6990. |