Hai visto allora che siamo su 300w?
Parlavo con cognizione di causa quando ti dicevo che non è possibile far andare, come ipotizzavi, a 150-180w una 280x al massimo della performance (quindi 740/750khs). Io sono arrivato ad avere 14 x 280x più altre 7950/7970 e un paio di gloriose 5970 dual GPU, anzi se qualcuno vuole comprarle sono in vendita (solo BTC o LTC).
Per curiosità (e per condividerlo col forum) che procedura hai utilizzato per abbassare i voltaggi?
si a 300 con un voltaggio di 1.12 il ché è normale, ma quelli che l'han portato a 1000-1050 ti assicuro che arrivano a mala pena sui 250w
il mio voltaggio è 1.1
62ragazzi mi son perso qualche cosa... anche se ho letto tutto dal primo post di trigun.
per ora ho solo 2 280x toxic che tengo con la config di fabbrica 1150/1600.
La corrente VDCC con GPU-Z o Trixx che sia me la da a 0,875.
A pieno carico con miner attivo, mi consuma 11,94[VDCC]*17[VDCCCurrent], sempre di GPU-Z che sono quindi 203W.
La cosa mi pare corretta in quanto con i7 4770S con cpu che non lavora, col multimetro misuro 1,2 ampere con una sola scheda attiva o 2,1 ampere con tutte e 2 le schede attive.
fatti i conti sarebbero rispettivamente 264 [1,2X220] e 462[2,1x220] watt.
Ora... l'unica differenza che vedo è che io non sto minando con cgminer, ma la GPU è cmq al 99/100% di utilizzo.
quindi... è cgminer che utilizza diversamente la GPU?
nel senso il 100% di GPU di cgminer consuma di più del 100% di GPU di openCLminer?
e poi, come mai avete alzato così il voltaggio, 1,162, lasciando invariate le frequenze di GPU/DDR?
di solito il voltaggio non viene alzato per aumentare le frequenze di clock?
bah... non ci sto capendo una mazza ferrata!!!