Hallo zusammen,
entschuldigt bitte die Verspätung. Jetzt habe ich endlich die Zeit gefunden, um etwas zum GPU Plotter zu schreiben.
Für alle, die eine normale bis sehr gute Grafikkarte haben, sollte der GPU Plotter die erste Wahl sein.
Im Folgenden erkläre ich euch wie ihr den verwenden könnt.
Zuerst benötigen wir natürlich den GPU Plotter. Den gibt es
hier. Linux und Windows kompatibel.
Danach laden wir uns den herunter und kopieren ihn in ein Verzeichnis unserer Wahl (Beispiel: Ordner >>Burst<< auf dem Desktop).
Dann nur noch entpacken.
Als nächstes öffnen wir die Kommandozeile (Cmd) und navigieren (mit cd) in das Verzeichnis, wo der 'gpuplotgenerator' ist.
Ihr findet nun im Ordner eine leere 'devices.txt'. Die sollten wir nun füllen.
Dafür rufen wir in der Kommandozeile 'gpuplotgenerator setup' auf.
Das zeigt uns alle vorhandenen Grafikkarten.
In die 'devices.txt' schreibt ihr hinein, welche Grafikkarte genutzt werden wollen.
In die 'devices.txt' sollte folgendes rein (für in die Klammern gesetzten Befehle vorher noch 'gpuplotgenerator' einsetzen, Beispiel: 'gpuplotgenerator listPlatform'):
platformId: The platform id of the device. Can be retrieved with the [listPlatforms] command.
deviceId: The device id. Can be retrieved with the [listDevices] command.
globalWorkSize: The amount of nonces to process at the same time (determine the required amount of GPU memory). Should be a power of 2.
localWorkSize: The amount of parrallel threads that computes the nonces. Must be less or equal than [globalWorkSize]. Should be a power of 2.
hashesNumber: The number of hashes to compute per GPU calls. Must be between 1 and 8192. Use a value under 8192 only if you experience driver crashes or display freezes.
Am Ende sollte die 'devices.txt' dann so ungefähr aussehen: 0 0 1024 128 8192
Oder so: 1 0 1024 512 512
Oder so: 0 1 512 256 256
Oder auch anders
Auf jeden Fall nur (!) Leerzeichen zur Trennung verwenden und mit Zahlen kann man auch ein wenig probieren.
Nach dem Konfigurieren folgt jetzt noch ein bisschen Arbeit:
Um den gpuplotgenerator zu starten müssen wir uns immer noch im Verzeichnis (mit cmd) befinden.
Wichtig!!! Der gpuplotgenerator hat zwei Modi: buffer und direct
Beim
buffer wird der 'plot' direkt erstellt.
Den Modus
direct kann man sich so vorstellen: Erst wird ein Rahmen gebaut und dann erst der Rahmen gefüllt.
Das dauert zwar länger ist aber optimaler. Das hat den Vorteil, dass man einmal unoptimierte 'plots' erstellen kann (buffer) und dann wiederum optimierte 'plots' (direct).
Wer bisher nur unoptimierte erstellt hat, kann diese noch mit dem Tool von Blago (aus dem Burst-Forum) optimieren lasssen.
Weiter zum 'plotten':
Der Befehl zum starten des gpuplotters schaut so aus:
gpuplotgenerator generate buffer D:\Burst\plots\euerNumerischeAccountID_
Nun brauchen wir noch euren freien Festplatterspeicher, eure numerische Account-ID und etwas Rechenarbeit.
Die numerische Accout-ID bekommt ihr heraus, wenn ihr oben im Client links auf eure ID klickt und dann 'Copy Numeric Account ID'. Am besten in einem .txt abspeichern.
Weiter gehts!
Nun müssen wir die 'nonces' kennen, die wir plotten wollen.
Das kann man im Kopf ausrechnen oder wer faul ist (so wie ich
), der probiert das Tool von JohnathanMoura aus dem Burst-Forum. (
http://www.mediafire.com/download/y8k3d1617qbc4lp/Burst+-+Nonces+Calculator+v3.0.exe)
Sollte auch über Excel funktionieren:
http://www.mediafire.com/download/uu7r86q87mkhih3/Burst+Nonces+v2.0.xlsmDa gibt man seinen freien GB ein und erhält eine Anzahl von 'nonces' zurück, die wir gleich brauchen.
Wir schauen uns wieder unseren Kommandozeilen-Befehl von oben an und ergänzen ihn:
gpuplotgenerator generate buffer D:\Burst\plots\euerNumerischeAccountID_0_eureAnzahlvonNonces_
Jetzt müssen wir uns noch noch entscheiden wie viel GB an RAM wir dem Prozess zuschreiben. Wichtig ist herbei von verfügbarem Speicher zu reden.
Wenn ein System 8 GB hat, Windows und Hintergrundprozess schon 2 GB verbrauchen, dann macht es keinen Sinn dem 'plotter' 8 GB zuzuschreiben.
Ich gehe einfach mal von verfügbaren 4 GB aus und stütze mich dabei auf 'Propagandalfs' Post (
https://forums.burst-team.us/post/4925).
4GB = 4096 MB = 4194304 KB
Wissen müssen wir noch, dass ein 'stagger' 256 kb groß ist.
Deshalb 4194304 : 256 =
16384Diese 'stagger' brauchen wir jetzt und sind fertig!
Wir fügen nun alles in das Kommandozeile-Fenster ein.
Also:
gpuplotgenerator generate buffer D:\Burst\plots\euerNumerischeAccountID_0_eureAnzahlvonNonces_16384
Ein fertiges Beispiel:
gpuplotgenerator.exe generate buffer D:\Burst\plots\4401562696129194441_0_2048000_16384
Das würden einen 'buffer' im Ordner plots der Festplatte D mit 500 GB und einer RAM-Nutzung von 4 GB erzeugen.
Falls ihr mehrere 'plots' erstellt müsst ihr die 0 im Befehl durch die letzte Zahl der 'nonce' im letzten Plot ersetzen.
Sonst überlappen sich eure 'plots'.
Ich hoffe, das war einigermaßen verständlich und bei Fragen/Probleme/Kritiken bin ich gerne hier anzutreffen.
Viel Spaß beim plotten!