redhatzero (OP)
|
|
July 09, 2011, 08:37:34 AM |
|
So kleines Problem, wenn ich oben auf Pool-Statistik klicken kommt eine Fehlermeldung. Ein Skript auf dieser Seite ist eventuell beschäftigt oder es antwortet nicht mehr. Sie können das Skript jetzt stoppen oder fortsetzen, um zu sehen, ob das Skript fertig wird.
Skript: https://www.google.com/uds/api/visualization/1.0/fe1d328b536e13990320de904ddb840f/default,corechart.I.js:544 Hm, ich benutz die Google Charts Api für die Graphen... kommt die Meldung auch, wenn du dir deine Worker Graphen anschaust? Welchen Browser benutzt du? Edit: Ich hab gerade die PoolStats Page ein bischen "leichter" gemacht (z.B. hat der SysStat Graph nur noch eine Auflösung von 10 Minuten statt einer) Dadurch sollte sich die Ladezeit verringern.
|
|
|
|
Magro
Member
Offline
Activity: 76
Merit: 10
|
|
July 09, 2011, 08:58:24 AM |
|
Hm, ich benutz die Google Charts Api für die Graphen... kommt die Meldung auch, wenn du dir deine Worker Graphen anschaust? Welchen Browser benutzt du?
Edit: Ich hab gerade die PoolStats Page ein bischen "leichter" gemacht (z.B. hat der SysStat Graph nur noch eine Auflösung von 10 Minuten statt einer) Dadurch sollte sich die Ladezeit verringern.
Jetzt gehts wieder mit. Bei meinen Worker Graphen ging es die ganze Zeit.
|
|
|
|
rykigam
Newbie
Offline
Activity: 57
Merit: 0
|
|
July 09, 2011, 09:20:04 AM |
|
btw 120 GH/s und juhu für den kurzen block
|
|
|
|
rykigam
Newbie
Offline
Activity: 57
Merit: 0
|
|
July 09, 2011, 09:27:55 AM |
|
Ich tippe mal darauf, dass Fropp einfach für jede Karte einen eigenen Worker hat, bei ~20Ghash kommt man dann schon Richtung >50 Worker. Gab ein kleines Update, wer die Änderung findet... darf sie behalten? oder so dann sollten die meiste worker auch die gleiche ip haben das müste man sehen können ... komisch wirds nur wenn alle CPU minen abewr dann wärens viel mehr worker bei 20 GH/s / 60 worker sind das 60 gute GPU's die würd ich auch als einzene wörker laufen lassen wenn da mal eine ausfällt ...
|
|
|
|
Chefnet
|
|
July 09, 2011, 02:06:44 PM |
|
boah mein erste je gefundener Block *freu*!!
|
|
|
|
slammed
Member
Offline
Activity: 84
Merit: 10
|
|
July 09, 2011, 02:49:43 PM |
|
gz an alle blockfinder.
ich habe mal eine frage,
2011-07-09 16:43:18: Running command: C:\Users\Miner_I\Desktop\guiminer\phoenix.exe -u http://+++++++:+++++++++@pit.x8s.de:8337 PLATFORM=0 DEVICE=0 -k phatk VECTORS BFI_INT AGGRESSION=15 FASTLOOPS=false WORKSIZE=256 2011-07-09 16:43:18: Listener for "0-0" started 2011-07-09 16:43:19: Listener for "0-0" shutting down 2011-07-09 16:43:22: Listener for "0-0": [09/07/2011 16:43:22] Phoenix 1.50 starting... 2011-07-09 16:43:22: Listener for "0-0": [09/07/2011 16:43:22] Connected to server 2011-07-09 16:43:34: Listener for "0-4": [09/07/2011 16:43:34] LP: New work pushed 2011-07-09 16:43:34: Listener for "0-5": [09/07/2011 16:43:34] LP: New work pushed 2011-07-09 16:43:34: Listener for "0-2": [09/07/2011 16:43:34] LP: New work pushed 2011-07-09 16:43:34: Listener for "0-3": [09/07/2011 16:43:34] LP: New work pushed 2011-07-09 16:43:34: Listener for "0-1": [09/07/2011 16:43:34] LP: New work pushed 2011-07-09 16:43:34: Listener for "0-0": [09/07/2011 16:43:34] LP: New work pushed
seid heute kommt nur noch das in der console, nicht mehr block aktzepiert und dieser humbuck, shares finde ich aber was sagt er mir mit LP:New Work Pushed ?
mfg op
|
|
|
|
redhatzero (OP)
|
|
July 09, 2011, 03:42:36 PM |
|
gz an alle blockfinder.
ich habe mal eine frage, ... shares finde ich aber was sagt er mir mit LP:New Work Pushed ?
mfg op
Also, das LP: New Work Pushed bedeutet, dass irgendwer im Bitcoin Netz einen Block gefunden hat, der pool gibt deinem Miner bescheid damit er sich neue arbeit abholen kann und nicht mehr an veralteten Sachen rumrechnet (-> hilft ein wenig gegen stale shares) Warum kein Block accepted mehr kommt, kann ich dir nicht sagen *hm* Wie du schon gesagt hast, Shares findest du.. und in der Datenbank kommen die auch an. BTW: Ich teste zur Zeit das loadbalancing auf verschiedene Nodes, wenn wer Probleme mit minen über pit.x8s.de hat, bitte melden.
|
|
|
|
yetis
Member
Offline
Activity: 112
Merit: 10
|
|
July 09, 2011, 03:46:44 PM |
|
gz an alle blockfinder.
ich habe mal eine frage,
2011-07-09 16:43:18: Running command: C:\Users\Miner_I\Desktop\guiminer\phoenix.exe -u http://+++++++:+++++++++@pit.x8s.de:8337 PLATFORM=0 DEVICE=0 -k phatk VECTORS BFI_INT AGGRESSION=15 FASTLOOPS=false WORKSIZE=256
mfg op
ich habe auch ne frage. Fährst Du wirklich mit AGGRESSION=15 ? Bei meinen 6990ern würde der Treiber ständig abstürzen, egal welche Taktung ich haben würde. Ausserdem steht in der Anleitung, dass man AGGRESSION=14 nur bei einer absoluten Spitzenkarte probieren kann. 13 ist das höchste was bei mir ginge, leider habe ich dann sehr viele Stales. Momentan laufen meine Karten bei 11 und die 6870er bei 12. Sind deine Karten wassergekühlt?... cul8er.
|
|
|
|
slammed
Member
Offline
Activity: 84
Merit: 10
|
|
July 09, 2011, 03:53:21 PM |
|
hd 5970 black limited edition das passt bisher ^^
|
|
|
|
yetis
Member
Offline
Activity: 112
Merit: 10
|
|
July 09, 2011, 03:54:13 PM |
|
hd 5970 black limited edition das passt bisher ^^
Alles klar.
|
|
|
|
slammed
Member
Offline
Activity: 84
Merit: 10
|
|
July 09, 2011, 03:59:34 PM |
|
achso edit ^^
die karten sind luftgekühlt 2 5970er 2 5850er
die 5970 übertaktet auf core 935 ram 400 je core 425m/hash also gesamt 850 m/hash je karte bei knapp 80 grad
|
|
|
|
turbofoen
Member
Offline
Activity: 98
Merit: 10
|
|
July 09, 2011, 04:02:36 PM |
|
evtl. den speicher noch weiter runter...dann dürften die noch etwas weniger warm werden.
|
|
|
|
slammed
Member
Offline
Activity: 84
Merit: 10
|
|
July 09, 2011, 04:04:48 PM |
|
nun wenn ich den speicher unter 400 ziehe macht sich die karte mit der zeit in die hose.... mehr als 940 core ist ohne spannungsanhebung auch nicht drin.....
die 5850 muss ich noch mal angehen da mach ich nun 350m/hash mit bei 58 grad bekomme aber den core einfach nicht über 900.....
|
|
|
|
defrostx
Newbie
Offline
Activity: 11
Merit: 0
|
|
July 09, 2011, 04:48:28 PM |
|
Fropp zieht die ganzen Prozente. . Naja dafür geht ja auch ein wenig schneller. @fropp darf man mal ein paar bilder von der anlage sehen? 23k ist nicht gerade wenig Danke Ps. Der pool ist wirklich genial.
|
|
|
|
redhatzero (OP)
|
|
July 09, 2011, 05:29:12 PM |
|
war/ist grad ein bischen holprig, die Datenbank wehrt sich gegen ein paar Versuche meinerseits :/
|
|
|
|
yetis
Member
Offline
Activity: 112
Merit: 10
|
|
July 09, 2011, 05:42:37 PM |
|
war/ist grad ein bischen holprig, die Datenbank wehrt sich gegen ein paar Versuche meinerseits :/
Schiebst Du immer die komplette Datenbank von Hand auf den Slave? Wäre es möglich die Datenbank zu spiegeln oder ein inkrementelles Backup durchzuführen? Am besten vollautomatisch, so alle 24 Stunden? Ich weiss ja nicht wie Du das genau machst, aber könnte der Slave nicht regelmässig schauen (wiederum vielleicht alle 24 Stunden), ob und wieviel sich geändert hat, und das sich automatisch holen und sichern? Directoryabfrage und/oder Dateiabfrage mit Zeitstempel und nur die neuen Daten sichern... War mal nur wieder so ein Gedanke...
|
|
|
|
slammed
Member
Offline
Activity: 84
Merit: 10
|
|
July 09, 2011, 05:52:57 PM |
|
ich bekomme hier massive discos kann das an deinen arbeiten liegen ?
|
|
|
|
redhatzero (OP)
|
|
July 09, 2011, 05:58:30 PM |
|
Schiebst Du immer die komplette Datenbank von Hand auf den Slave? Wäre es möglich die Datenbank zu spiegeln oder ein inkrementelles Backup durchzuführen? Am besten vollautomatisch, so alle 24 Stunden? Ich weiss ja nicht wie Du das genau machst, aber könnte der Slave nicht regelmässig schauen (wiederum vielleicht alle 24 Stunden), ob und wieviel sich geändert hat, und das sich automatisch holen und sichern? Directoryabfrage und/oder Dateiabfrage mit Zeitstempel und nur die neuen Daten sichern... War mal nur wieder so ein Gedanke... Ne, der Slave ist ne replizierte Datenbank, die ist im Normalfall 100% in sync mit dem Master. Leider hat's mir anscheinend gestern durch die Arbeit am Master den Slave zerschossen. Damit ich die wieder in Sync bekomme, muss der Master für nen Moment sämtliche Tabellen sperren. Und das mag pushpool nicht (bzw. pushpool wartet brav, bis es wieder Daten reinschreiben darf, aber da kommt's halt zu timeouts..) Naja, auf alle Fälle hab ich jetzt wieder die Daten die ich brauche um den Slave neu aufzusetzen. Ausserdem werde ich wohl in Zukunft xtraBackup zum sichern nehmen (für die, die es interessiert ^^) opschinken: jap.. hing leider damit zusammen, sollte aber jetzt wieder stabil laufen
|
|
|
|
slammed
Member
Offline
Activity: 84
Merit: 10
|
|
July 09, 2011, 06:17:35 PM |
|
jo schaut so aus herrlich ^^
gute arbeit
|
|
|
|
PaZer
Member
Offline
Activity: 112
Merit: 10
|
|
July 09, 2011, 07:03:03 PM |
|
jetzt geht es schlag auf schlag... round 19...
cool!
|
|
|
|
|