eneloop
Legendary
Offline
Activity: 1513
Merit: 1040
|
|
July 11, 2017, 08:18:50 PM |
|
07.07.17 - Freigegeben 350 GB - Vermietet: 144 GB - Letzte Auszahlung: 6,10$
Darf ich dazu eine kurze Frage stellen? Für wie lange und wie viele GB hast Du die 6,10$ erhalten? Ich versuche gerade hier zu berechnen, wie viel ein Bitcoin kosten würde, wenn man ihn quasi mit "Festplattenspeicher" kaufen würde, indem man ihn bei Storj oder Sia anbietet. Daher die Frage - wieviel bekommt man etwa per TB/Monat angebotenem bzw. "echt genutztem" Speicherplatz? Storj zahlt pro Monat aus und ich denke, die 6.10 $ hat er für 144 GB bekommen. Soweit ich weiß, ist Storj derzeit noch subventioniert um einen Anreiz zu schaffen. Das wird in Zukunft deutlich weniger werden. Der Knackpunkt an dem ganzen ist und das schreibst du auch im englischen Thread: die Platten voll bekommen. Fraglich ist auch wie viel Bandbreite erwartet bzw. benötigt wird. Eine hohe Kapazität mit entsprechenden Zugriffen muss man auch erst mal bedienen können.
|
|
|
|
montagid
|
|
July 11, 2017, 09:16:30 PM |
|
Die Frage ist, wie lange das Protokoll wartet, bis der Contract automatisch aufgelöst wird. Die Daten werden auf 3 Hosts gesichert und wenn ein Host offline geht, kann das Protokoll aus Sicherheitsgründen nicht ewig warten, bis der Host wieder online kommt. Mindestens 3 hosts, oder? Und wohl mindestens eine Woche, da man vor einer Auszahlung mindestens einmal in der Woche davor online gewesen sein soll, sonst erhält man nichts. Darf ich dazu eine kurze Frage stellen? Für wie lange und wie viele GB hast Du die 6,10$ erhalten? Wenn es stimmt, dass man subventioniert wird, erhält man wohl für 1gb den man einen Monat lang hostet pauschal coins im Wert von 5 Dollar, also hat er wohl für 143gb 1,1dollar bekommen?!
|
Man muss nur wollen!
|
|
|
Antigo
|
|
July 12, 2017, 07:31:26 AM |
|
Wenn es stimmt, dass man subventioniert wird, erhält man wohl für 1gb den man einen Monat lang hostet pauschal coins im Wert von 5 Dollar, also hat er wohl für 143gb 1,1dollar bekommen?!
Wenn das so ist, mache ich mir doch lieber 100 Accounts mit jeweils 1GB, dann bin ich bei 500$...
|
|
|
|
eneloop
Legendary
Offline
Activity: 1513
Merit: 1040
|
|
July 12, 2017, 07:41:10 AM |
|
Mindestens 3 hosts, oder?
Das kann man als User scheinbar selbst definieren. Default sind 3 und man kann laut FAQ auch weniger einstellen. Wenn das so ist, mache ich mir doch lieber 100 Accounts mit jeweils 1GB, dann bin ich bei 500$...
Im Prinzip ja, aber du benötigst 100 unterschiedliche IPs.
|
|
|
|
Antigo
|
|
July 12, 2017, 07:45:26 AM |
|
Wenn das so ist, mache ich mir doch lieber 100 Accounts mit jeweils 1GB, dann bin ich bei 500$...
Im Prinzip ja, aber du benötigst 100 unterschiedliche IPs. Hm eine AWS nano Instanz kostet ca. 4$ im Monat. Dann gebe ich da 1GB frei und verdiene 1$ pro Instanz. Kann ich ja beliebig scalen, mach ich einfach 10.000 Instanzen an und hab ausgesorgt
|
|
|
|
montagid
|
|
July 12, 2017, 07:52:30 AM |
|
Wenn es funktioniert, gib Bescheid An alle die es interessiert: Ich denke ich bin einen kleinen Schritt weiter gekommen. Nach nun mittlerweile fast einer Woche hatte ich nicht mehr als 40mb auf der Platte, das erschien mir nun doch ein wenig mager zu sein. Da ich ja schon mal gehostet habe und da nach relativ kurzer Zeit über die GB grenze kam, hab ich mich gefragt, was nun anders ist. Mir ist aufgefallen, dass ich die 966gb nun alle in eine node gepackt habe. Damals habe ich verschiedene nodes, auch mit verschiedenen größen erstellt, die alle gleichmäßig voll wurden. So ging es schneller. Ich hab also meine bisherigen Daten aufgelöst und nun 8 nodes zu a 100gb erstellt. Mehr als 8 kriege ich irgendenwie nicht hin, ihr vielleicht? Ich hab so bereits beim Start die achtfache Menge an Daten bekommen, die ich mit nur einer node hatte.
|
Man muss nur wollen!
|
|
|
Antigo
|
|
July 12, 2017, 07:57:26 AM |
|
Wenn es funktioniert, gib Bescheid An alle die es interessiert: Ich denke ich bin einen kleinen Schritt weiter gekommen. Nach nun mittlerweile fast einer Woche hatte ich nicht mehr als 40mb auf der Platte, das erschien mir nun doch ein wenig mager zu sein. Da ich ja schon mal gehostet habe und da nach relativ kurzer Zeit über die GB grenze kam, hab ich mich gefragt, was nun anders ist. Mir ist aufgefallen, dass ich die 966gb nun alle in eine node gepackt habe. Damals habe ich verschiedene nodes, auch mit verschiedenen größen erstellt, die alle gleichmäßig voll wurden. So ging es schneller. Ich hab also meine bisherigen Daten aufgelöst und nun 8 nodes zu a 100gb erstellt. Mehr als 8 kriege ich irgendenwie nicht hin, ihr vielleicht? Ich hab so bereits beim Start die achtfache Menge an Daten bekommen, die ich mit nur einer node hatte. Das ist interessant, ich hatte auch schon überlegt ob das etwas bringen könnte. Wenn das wirklich so ist, halte ich das aber für einen Fehler im System. Es kann aber auch Zufall sein und die Tatsache dass du jetzt schneller Daten bekommst liegt einfach nur daran, dass das Netzwerk deinen Node (PC) jetzt schon länger kennt. Ich hab so bereits beim Start die achtfache Menge an Daten bekommen, die ich mit nur einer node hatte. Heißt das du hast jetzt am ersten Tag bereits 8 * 40 = 320MB bekommen?
|
|
|
|
eneloop
Legendary
Offline
Activity: 1513
Merit: 1040
|
|
July 12, 2017, 08:07:13 AM |
|
If the space I'm sharing goes offline, what happens to the data I’m storing? The network will route around your node, and drop your contracts. Another node on the network would retrieve the data from the redundant nodes that the owner has contracted with, and you will lose the contract to store the affected data. Klingt nicht gut. Ich hab also meine bisherigen Daten aufgelöst und nun 8 nodes zu a 100gb erstellt. Unter der gleichen IP? Ich erinnere mich in den Tutorials gelesen zu haben, dass pro Node eine IP notwendig ist. Vielleicht täusch ich mich auch, aber es würde Sinn machen.
|
|
|
|
montagid
|
|
July 12, 2017, 08:20:27 AM Last edit: July 12, 2017, 08:40:32 AM by montagid |
|
Vielleicht benutze ich die falschen Wörter? Laut den logs, die ich grad überflogen habe, werden da dann schon sogenannte nodes erstellt. Also mehrere Freigaben an einem PC. Kurz nach dem Start: Noch mal ca. 20min später: Das sind also schon mehr als 2mb, das hatte ich mit der anderen Variante erst noch ein paar Tagen zusammen. Das was ich da jetzt bei jedem "share" (node?) habe, ist das was ich vorher bei einem hatte. Und rückblickend deckt sich das mit der Erfahrung die ich gemacht habe, als ich auch mehrere Orte angegeben habe. Da hat das nicht lange gedauert und ich hatte einige GB zusammen. Hab paar restarts gemacht, daher sollte euch die uptime, Peers und contracts nicht irritieren! Mal eine andere Frage: C:\Users\BENUTZER\.config\storjshare wie groß ist euer LOGS ordner? ?
|
Man muss nur wollen!
|
|
|
eneloop
Legendary
Offline
Activity: 1513
Merit: 1040
|
|
July 12, 2017, 08:39:15 AM |
|
Ok, seh schon. Du hast mehrere Speicherpfade (shares) innerhalb einer Software-Instanz (node). Interessant, dass jedes share eine eigene Anzahl an Peers und Ping hat. Sieht so aus, als ob die einzelnen shares getrennt voneinander behandelt werden. Genaues Einlesen in Storj notwendig ist. Mit 250 MB ist der Log-Ordner ganz schön groß. Mehr Logs als belegter share.
|
|
|
|
montagid
|
|
July 12, 2017, 08:45:45 AM |
|
LOL Bei mir sind da 14GB!!!!!!!!!!!! drin.
Aber da sind teilweise auch alte logs, von vorangegangenen Versuchen drin.
|
Man muss nur wollen!
|
|
|
david123
Legendary
Offline
Activity: 1022
Merit: 1004
|
|
July 12, 2017, 09:05:18 AM |
|
Juhuu, ich hab jetzt schon fast 4 MB Sollte es mich eigentlich irritieren dass ich bei port was orangenes stehen habe (mit: "Tunnel")
|
|
|
|
montagid
|
|
July 12, 2017, 09:09:02 AM |
|
Das hatte ich, als ich versucht habe die ports manuel freizugeben. Brauch für 8 Shares ja auch nur 8 freie ports, dann steht da bei mir auch tunnel. wenn ich es auf selbsständige portfreigabe stelle, macht er mir die gleichen ports auf, aber es steht kein tunnel da.
was es genau zu bedeuten hat, würde mich auch interessieren.
|
Man muss nur wollen!
|
|
|
david123
Legendary
Offline
Activity: 1022
Merit: 1004
|
|
July 12, 2017, 09:11:11 AM |
|
Ich habe so die Befürchtung, dass man mit Tunnel weniger Contracts bekommt. Bin mir aber nicht sicher.. (Sonst würde es ja nicht in orange da stehen, oder )
|
|
|
|
montagid
|
|
July 12, 2017, 09:14:42 AM |
|
https://storj.github.io/core/tutorial-tunnel-connections.htmlEstablishing a Tunnel After a private node has discovered some willing tunnels using the FIND_TUNNEL RPC message defined in the Protocol Specification, it can now begin the handshake to establish the tunnel. This begins by sending the OPEN_TUNNEL RPC message to the desired tunneler node. The recipient of OPEN_TUNNEL will check: Do I have enough remaining tunnels? (based on arbitrary limit set by node) Am I already tunneling for this nodeID? Has a payment channel been opened? (future spec) If the tunneling node has enough tunnels, is not already tunneling the node, and (in a future spec) if a payment channel has been opened for bandwidth, then the tunneling node opens a new dedicated TCP socket on an available port that will be used by the requester to send/receive HTTP messages. { "result": { "proxyPort": 12000, "contact": { "address": "10.0.0.3", "port": 1337, "nodeID": "48dc026fa01ae26822bfb23f98e725444d6775b0", "protocol": "0.6.0" }, "nonce": 1455216323786, "signature": "304502207e8a439f2cb33055e0b2e2d90e775f29d90b3ad85aec0c..." }, "id": "7b6a2ab35da6826995abf3310a4875097df88cdb" } Now the private node can open a TCP connect to the proxyPort provided and messages sent to the tunneler that specify your node ID in the x-storj-node-id header will be written to the connected socket. From there, you may pipe this socket directly to your locally running node. Auch interessant: https://storj.github.io/core/tutorial-contract-topics.html
|
Man muss nur wollen!
|
|
|
eneloop
Legendary
Offline
Activity: 1513
Merit: 1040
|
|
July 12, 2017, 09:24:47 AM Last edit: July 12, 2017, 09:40:57 AM by eneloop |
|
Wenn euer Modem/eure Anbindung UPnP unterstützt, aktivieren und verwenden. Die shares haben offenbar eine gewisse Eigenständigkeit, wenn jeweils ein eigener Port verwendet wird. Aufpassen muss man ggfs. bei den Peers. Ich weiß nicht, wie viele davon gleichzeitig aktiv sind, aber da gibt es auch eine gewisse Grenze, die ein Modem/eine Anbindung verträgt. Die Tabelle ist hochinteressant. Eine hohe Fragmentierung der shares und damit auch Fragmentierung der Bandbreite (vorausgesetzt es gibt gleichzeitige Zugriffe) kann sich damit negativ auf den speed descriptor auswirken. Im schlechtesten Fall bekommt man keine medium und high contracts (mehr).
|
|
|
|
montagid
|
|
July 12, 2017, 10:04:48 AM |
|
Man fragmentiert ja nicht die shares, man hat mehrere shares, wenn ich das richtig verstehe? Aber ich denk, ich weiß was du meinst. Ich hab jetzt pro "share" zwischen 120 und 160 peers, und pro "share" zwischen 200 und 700 contracts, das erhöht die benötigte Bandbreite vermutlich enorm. Könnte mir vorstellen, dass man so schnell an Daten kommt, gleichzeitig aber auch schnell an seine Grenzen stößt. Wohingegen ein share zwar langsamer voll wirt, durch seine Verfügbarkeit und seine nutzbare Bandbreite auf lange Sicht größere Pakete bekommt?
Auf jedenfall hab ich mittlerweile 6mb insgesamt. Das geht also sicher schneller voll.
|
Man muss nur wollen!
|
|
|
eneloop
Legendary
Offline
Activity: 1513
Merit: 1040
|
|
July 12, 2017, 10:55:48 AM |
|
Man fragmentiert ja nicht die shares, man hat mehrere shares, wenn ich das richtig verstehe?
Fragmentierung des Speicherplatzes sollte es eigentlich heißen.
|
|
|
|
Antigo
|
|
July 12, 2017, 11:22:55 AM |
|
Stand 12.07.17 - Gestartet 08.07.17 - Freigegeben 512GB - Genutzt 500.51MB - Bandbreite 1Gbit/s / 1Gbit/sWeiterhin exponentielles Wachstum
|
|
|
|
eneloop
Legendary
Offline
Activity: 1513
Merit: 1040
|
|
July 12, 2017, 11:28:19 AM |
|
Stand 12.07.17 - Gestartet 08.07.17 - Freigegeben 512GB - Genutzt 500.51MB - Bandbreite 1Gbit/s / 1Gbit/sWeiterhin exponentielles Wachstum Wow! Wie eigentlich zu erwarten war, spielt die Bandbreite eine sehr große Rolle.
|
|
|
|
|