Perso j'avais eu un soucie en branchant ma 4 ème carte : Mon alim possède 6 entrés pour CG ... et elle est vendu avec 6 cables qui vont bien avec , et chacun de ces cables se divisent en 2x8 pin ... Au départ j'avais l'idée d'utiliser seulement 3 cables vu que "théoriquement" cela aurait suffit pour 6 cartes . Ca bien marché pour les 3 premières mais impossible pour la 4eme ... finalement j'ai opté pour 1 cable = 1 carte et ça marche ! desfois que ...
Merci pour cette piste, malheureusement, mon alim ne possède que 2 câbles subdivisés en en 2x8 pins pour GPU (la troisième carte fonctionne avec des adaptateurs Molex ou Sata). D'ailleurs je ne savais même pas que cela exista une alimentation avec 6 fois 2x8 pins : c'est quelle référence ? C'est une LEPA 1600W G1600 80+ Gold : https://www.cowcotland.com/articles/1076/test-alimentation-lepa-g1600.htmlOn peut la trouver dans les 160 euros régulièrement , son seul défaut selon moi est un ventilateur un peu bruyant ... Merci pour la référence. Le bruit du ventilateur, tu ne me surprends pas : j'ai testé mon autre mineur avec 2 GTX 1070 et une GTX 750 : je suis passé d'une consommation de 130 W (1 seule GTX 1070) à 260 W et j'ai nettement fait la différence de bruit de ventilation de l'alimentation de 600 W (bronze, celle-là et non fanless). D'ailleurs c'est un des enseignements de la pratique du minage : si vous payez votre électricité au tarif public, vous allez avoir tendance à underclocker vos GPUs et au final ce ne sont pas les nombreux ventilateurs des GPUs qui seront gênants acoustiquement, mais l'unique ventilateur de l'alimentation... d'où ma seconde alimentation fanless (mais 500W).
|
|
|
HI
just found this thread
how do i adjust it to mine Monero or Eth?
Thanks
Phil
You can't with this software.
|
|
|
...nous sommes à l’origine du traiding avec la crypto-monnaie Bitcoin Et moi je suis Léonard de Vinci, Pasteur, Chopin, Diderot et Platon réunis en une seule et même personne, mais ma modestie m'interdisais de le proclamer jusqu'à le lecture de vos affirmations. Tous le monde aura compris qu'il faut fuir ce genre d'officine.
|
|
|
Voici le câblage actuel des 3 cartes (750/960/1070) : Pour rappel, la photo de référence de l'alimentation : http://fsp-europe.com/wp-content/uploads/2014/08/aurum_xilenser_3d_view.pngSATA/HDD/FDD (3 prises de gauche) : Prise 1 (6 pins) : GTX 750 (TdP de 30 à 50 W, bloqué à 30 W via le driver NVidia) via Molex sur riser. Prise 2 (6 pins) : GTX 960 (TdP de 60 à 130 W, bloqué à 60 W via le driver NVidia) via adaptateur SATA/Molex sur riser. Prise 3 (6 pins) : SSD via SATA. CPU1/CPU2 (8 pins) : CPU. GPU1/GPU2 (2 prises de droite) : Prise 1 (6 pins) : GTX 1070 (TdP de 100 à 250 W, bloqué à 100 W via le driver NVidia) via 8 pins + 6 pins. Prise 2 (6 pins) : GTX 960 (TdP de 60 à 130 W, bloqué à 60 W via le driver NVidia) via 6 pins. Seule la GTX 1070 est sur un slot (16x), les 2 autres sont sur risers USB3. La carte mère comporte 2 slots 16x (qui fonctionnent en 1 16x et 1 4x) et 3 slots 1x. A priori, il faudrait que j'arrive à prélever du courant sur les sorties GPUs, mais ce ne sont que des PCIe 6+2 pins. J'en ai bien une de libre mais je ne trouve pas d'adaptateur en Molex ou SATA pour mes risers. Je vais continuer à chercher (Banggod et compagnie). Si j'ai bien compris, sachant que ma 4ème carte graphique est une GTX 750 identique à celle déjà en place : - retirer l'alimentation du riser de la GTX 960 de la prise 2 de la sortie SATA/HDD/FDD de l'alimentation et y mettre celle du riser de la seconde GTX 750 (qui n'appelera que 50 W maximum au démarrage au lieu des 130 W maximum de la GTX 960). - alimenter le riser de la GTX 960 avec la prise 2 de la sortie GPU2 de l'alimentation, à condition de trouver l'adaptateur qui va bien. Tu vois mieux à faire ? Edit 1 : voici ce que je recherche, mais j'ai trouvé la photo sur un forum où il n'y avait pas mentionné où se le procurer. http://i193.photobucket.com/albums/z150/AsusCoolUk/PCI-Molex12V_01.jpgEdit 2 : ou alors un adaptateur PCIe femelle vers PCIe femelle (6 ou 8 pins, de préférence 8 pins), dans lequel viendra se connecter le PCIe 6/8 pins de l'alimentation d'in côté et un adaptateur PCIe mâle 8 pins vers Molex ou SATA (qui lui est courant, j'en ai déjà).
|
|
|
Dans les 3 cartes graphiques actuellement connectée, il y a une autre GTX 750 sans prise PCIe 6 ou 8 pins, donc déjà alimentée par Molex via riser.
|
|
|
La puissance de l'alim ne fait pas tous . C'est bien , tu dit être bon : Perso , je trouve cela trop juste mais sans load sa devrait pas planter 1.) Alimentation PCI Express ne doit pas être négligé. 2.) C'est con mais au boot les CG peuvent etre full load pendant 2 sec . 3.) Alim 500W , 1500W , 500000W ok ca passe . Mais combien de Watt par ligne alimentation . Sous entendu la charge de tes carte graphique est bien repartis ? 4.) Tu as pas pas 300 Watt au total pour les PCI-E 4,6,8X Tu as pas pas 150 Watt au total pour les Molex/SATA Tu as pas pas 150 Watt au total pour les PIN ATI Donne la référence de ton alimentation Mon alimentation est une FSP Aurum Xilenser 80 plus gold en 500 W, voici son descriptif chez le fabricant : http://fsp-europe.com/aurum-xilenser-400w500w/Je ne connais l'architecture des rails internes. Sur la fiche d l'alim il est inscrit des ampérages pour des tensions (je le copie ici, mais c'est plus lisble dans le tableau "Power Output Table" en bas de page sur le lien ci-dessus) : 650W AU-500FL AC Input 100Vac ~ 6A 60Hz / 240Vac ~ 3A 50Hz DC Output +3.3V +5V +12V1 +12V2 -12V +5Vsb Max Output Current 20A 20A 22A 22A 0.3A 2.5A Max Combined Power 100W 492W 16.1W Total Power 500W Je vais faire une interprétation très hypothétiques de ce tableau, dis moi di je délire : - j'aurais 100 W sur la source 3,3/5 v, pour alimenter le CPU et le chipset (prise CPU et broche 24 pins) - j'aurai bien 492 W sur les 2 sources (rails) 12 v et ces 2 sources alimenteraient uniquement les 2 câbles GPUs (chacun avec 6+2 et 8 pins, donc au total 4 x 8 pins) - j'aurais 16,1 W sur la source -12v/5v pour alimenter les disuqes durs (prises SATA et Molex) Il me manque l'alimentation des ports PCIe : ce serait sur la broche 24 pins, donc il n'y aurait que 100 W à se partager avec le CPU (mon CPU ne fait même pas 25 W en charge, c'est un Celeron G3900, mais même avec ce CPU le moins gourmand de ceux qui existent dur socket, il ne reste que 75 W, soit l'alimentation max d'un seul slot PCIe, et il y en a 5, dont 2 16x). La carte que je cherche à ajouter est une GTX750 qui consomme très peu (son TdP max est 50 W), elle n'a donc pas de prise 6 ou 8 pins. Elle est alimentée uniquement par le slot PCIe : un riser 1x dans mon cas, alimenté par une Molex ou une SATA au choix, qui elles seraient alimentée par la source -12V/+5 v qui ne dispose que de 16,5 W ? Si tout ce que je préjuge ci-dessus est correct, je devrais donc pouvoir ajouter ma 4ème carte si je la fait s'alimenter sur une des prises GPUs 8 pins des sources 12 v qui disposent de 492 W ? Si oui, reste à trouver le câble qui connecte une prise mâle PCIe 6 ou 8 pins avec une prise SATA ou Molex mâle... (ou femelle, faut que je vérifie) ? Edit : j'espère que les 492 W sont disponibles sur autre chose que des prises PCIOe 8 pins mâles parce que l'offre en adaptateur ayant un PCIe 8 pins femelle semble confidentielle.
|
|
|
Ok, je vais voire du côté de ma lib boost. (Oui, j'ai fais ces derniers essais sur tes repos)
Merci pour tout.
|
|
|
Merci pour tes précisions. Bon, le Mineum ne passe pas. Je fais : USE_PNP=0 qmake MNM-Qt.pro (j'ai aussi essayé "qmake MNM-Qt.pro" et "USE_PNP=- qmake MNM-Qt.pro"). chmod ugo+x src/leveldb/build_detect_platform make Et J'obtiens après 20' de compilation : build/util.o: dans la fonction \Uffffffff boost::program_options::detail::basic_config_file_iterator<char>::basic_config_file_iterator(std::istream&, std::set<std::string, std::less<std::string>, std::allocator<std::string> > const&, bool) \Uffffffff: util.cpp:(.text._ZN5boost15program_options6detail26basic_config_file_iteratorIcEC2ERSiRKS t3setISsSt4lessISsESaISsEEb[_ZN5boost15program_options6detail26basic_config_file_iteratorIcEC5ERSiRKSt3setISsSt4lessISsESaISsEEb]+0x23): r\Uffffffffrence ind\Uffffffffnie vers \Uffffffff boost::program_options::detail::common_config_file_iterator::common_config_file_iterator(std::set<std::string, std::less<std::string>, std::allocator<std::string> > const&, bool) \Uffffffff collect2: error: ld returned 1 exit status Makefile:590\Uffffffff: la recette pour la cible \Uffffffff\UffffffffMineum-Qt\Uffffffff\Uffffffff a \Uffffffffou\Uffffffffmake: *** [Mineum-Qt] Erreur 1
Avant, je faisais mes essais avec la commande "qmake USE_PNP=-" et non USE_"PNP=- qmake" (donc je m'y prenais à l'envers niveau syntaxe). J'avais aussi installé miniupnpc, mais sans résultat. Edit 1 : j'ai vu que tu avais un répertoire CCMiner_CryptoNight_TSIV dans ton git : c'est une copie pure ou tu as modifié/amélioré le programme ? Edi 2 : Avec PostCoin j'ai l'erreur : build/util.o: dans la fonction \Uffffffff boost::program_options::detail::basic_config_file_iterator<char>::basic_config_file_iterator(std::istream&, std::set<std::string, std::less<std::string>, std::allocator<std::string> > const&, bool) \Uffffffff: util.cpp:(.text._ZN5boost15program_options6detail26basic_config_file_iteratorIcEC2ERSiRKS t3setISsSt4lessISsESaISsEEb[_ZN5boost15program_options6detail26basic_config_file_iteratorIcEC5ERSiRKSt3setISsSt4lessISsESaISsEEb]+0x23): r\Uffffffffrence ind\Uffffffffnie vers \Uffffffff boost::program_options::detail::common_config_file_iterator::common_config_file_iterator(std::set<std::string, std::less<std::string>, std::allocator<std::string> > const&, bool) \Uffffffff collect2: error: ld returned 1 exit status Makefile:529\Uffffffff: la recette pour la cible \Uffffffff\Uffffffffpostcoin-qt\Uffffffff\Uffffffff a \Uffffffffou\Uffffffffmake: *** [postcoin-qt] Erreur 1
(problème de référence indéfinie).
|
|
|
mineum Done:https://github.com/perl5577/MINEUMpostcoin Done:qmake postcoin-qt.pro chmod ugo+x src/leveldb/build_detect_platform make make install BitSynq Done:qmake synq-qt.pro chmod ugo+x src/leveldb/build_detect_platform make make install P.S Je n'ai jamais fait les make install ! N'ayant pas mes environnement secure sous la main . Si tu en a autre hesite pas Ca me troue le cul ! Je vais voire tout ca dans la soirée, là j'ai lancé la compilation de Mineum. Non, je n'en ai pas d'autres, par contre quelques explications sur ce que tu as fait me seraient bénéfiques.
|
|
|
Content si cela a pu t'aider.
|
|
|
Merci pour l'info tarif (en France, 400 W H24, c'est un surcoût de 43 € par mois)
Je suis sous Ubuntu, donc pas le spécialiste du minage sous Windows, mais normalemnt tu n'auras aucun souçis pour installer tes 3 cartes sous Windows (il y a parfois des souçis avec 6 ou 5) : il te faudra 2 risers, bien sur.
Attention, les GTX 970 ne sont probablement pas le meilleur achat en ce moment en NVidia, sauf à les oucher à moins de 200 €... et encore : il faudrait faire les calculs avec ton coût d'électricité, mais je pense qu'il est tout de même préférable de prendre 1 GTX 1070 à 400 €, en plus tu tirera moins sur l'alim qui travaillera certainement mieux et fera moins de bruit.
|
|
|
Pour des crtes NVidia, le programme dépends de la monnaie que tu veux miner.
Chaque monnaie à son algo. A cet instant, le programme multi algo le plus performant pour NVidia est le CCMiner TPruvot en version 1.8.3 : tu en trouvera une version compilée pour Windows sur le site cryptominingblog. Si tu souhaites miner de l'ethereum, c'est un autre programme : ethminer.
A titre d'information, c'est combien le KWh en Belgique, avec et sans programme social ?
|
|
|
Je test ce soir mais me semble plus un problème de permission Ok. J'ai essayé le sudo make mais aucun changement (je n'ai pas fait le sudo qmake car le qmake focntionne).
|
|
|
Tu me conseillerai plutot de garder ma gtx970 et d en acheter une ou deux de plus que de mettre des RX480? Si j ai bien compris. Merci pour ta réponse ;-)
Non, je ne te conseilles rien, je ne connais pas tous tes paramètres. Beaucoup de personnes ont achetées des RX470/480 qui sont sensiblement moins chères que les NVidia. Vu leur consommation, je pense que beaucoup d'acheteurs ont tranposés des situations qui ne sont pas forcément transposables. Sur le forum, il y a le monde entier et tout le monde ne paye l'électricité le même prix sur la planète : la France est un pays où l'électricité est chère, voire très chère par rapport au canada et d'autres pays. Et même en restant en France, il y a 300.000 agents et retraités EDF qui bénéficient d'abattements importants (jusqu'à 90%) sur leur facture d'électricité. En payant l'électricité au tarif public, pour moi le choix n'existait pas : le ratio hash/watt est vital et même avec des NVidia, il y a des mois par le passé où j'ai éteint mon mineur car il me coûtait plus qu'il ne me rapportait.. En payant l'électricité 2, 3 ou 10 fois moins chère, l'équation est très différente et cela justifie pleinement le choix de l'économie des cartes AMD malgré leur sur-consommation.
|
|
|
Je n'ai pas de GPU AMD (j'avais prévu de monter un RIG RX 480 avant leur sortie, mais leurs performances et leur soucis d'alimentation m'ont énormément déçu, donc je suis reparti sur du NVidia), mais à priori, le programme pour miner en AMD est SGMiner. Pour des explications, va sur une pool et dans la rubrique "get started".
Si tu es vraiment perdue, reste sur NiceHash plutôt que de t'arracher les cheveux : ce n'est pas si mal que ça et c'est vraiment très simple d'utilisation (pas de programmation, c'est assez sophistiqué).
|
|
|
c'est rigolo Mais moi , je suis littéralement incapable de compiler un truc sous Windows. Et jusque a aujourd'hui toujours trouver une solution rapidement sous linux . Le soucis est peut être plus la distrib Donne moi un exemple ou deux Voici les compilations sur lesquelles je bute : Mineumhttps://github.com/antho281/MINEUMqmake -> ok make -> après une 15aine de minutes de compilations, j'ai le message : build/util.o: dans la fonction \Uffffffff boost::program_options::detail::basic_config_file_iterator<char>::basic_config_file_iterator(std::istream&, std::set<std::string, std::less<std::string>, std::allocator<std::string> > const&, bool) \Uffffffff: util.cpp:(.text._ZN5boost15program_options6detail26basic_config_file_iteratorIcEC2ERSiRKS t3setISsSt4lessISsESaISsEEb[_ZN5boost15program_options6detail26basic_config_file_iteratorIcEC5ERSiRKSt3setISsSt4lessISsESaISsEEb]+0x23): r\Uffffffffrence ind\Uffffffffnie vers \Uffffffff boost::program_options::detail::common_config_file_iterator::common_config_file_iterator(std::set<std::string, std::less<std::string>, std::allocator<std::string> > const&, bool) \Uffffffff collect2: error: ld returned 1 exit status Makefile:590\Uffffffff: la recette pour la cible \Uffffffff\UffffffffMineum-Qt\Uffffffff\Uffffffff a \Uffffffffou\Uffffffffmake: *** [Mineum-Qt] Erreur 1 PostCoinhttps://github.com/postcoindev/postcoinqmake -> ok make -> message d'erreur /bin/sh: 1: ./build_detect_platform: Permission denied Makefile:18: build_config.mk: Aucun fichier ou dossier de ce type]/bin/sh: 1: ./build_detect_platform: Permission denied Makefile:18: build_config.mk: Aucun fichier ou dossier de ce type BitSynqhttps://github.com/SynqCrypto/bitsynqqmake -> OK Make -> /bin/sh: 1: ./build_detect_platform: Permission denied Makefile:18: build_config.mk: Aucun fichier ou dossier de ce type make[1]: *** Aucune r\Uffffffffe pour fabriquer la cible \Uffffffff\Uffffffffbuild_config.mk\Uffffffff\Uffffffff. Arr\Uffffffff (idem PostCoin) Ne te prends pas trop la tête, je suis en cours de téléchargement des blockchains de leurs versions Windows dans une VM Windows sous Ubuntu.
|
|
|
4x RX 480 8gb (version Radeon) + 1x Rx 470 Nitro OC 8gb
pour le LBRY, quelle sont les caractéristiques importantes du gpu? fréquence gpu, vram etc?
Tu as quoi comme différence de hash entre RX 480 et RX 470 ? Pour quelle différence de prix ? Autrement dit : la RX 480 vaux-t'elle le coup à ton avis par rapport à la RX 470 ? Pour Lbry, c'est la puissance du GPU qui importe, la mémoire n'est quasiment pas occupée. Il pourrait d'ailleurs il y avoir de très gros progrès dans l'avenir sur le hashage de cet alogorithme. C'est justement pour ca que j'ai pris les deux, je n'arrivait pas à trouver d'infos fiables sur le net... La 470 fais 22-23 quand la 480 fait 23-24, mais niveau temperature et nuisance sonore la 470 à deux ventilos et un gros radiateur donc plus optimal. Elles font toutes les deux la même conso. J'ai vu sur forum.ethereum.com qu'il existait un flash de bios 470 pour faire passer la 4go comme une 8go et des gens obtenaient du 28-29mhs avec !! (mais du 30-31 avec la 470) Quand au prix, si je me souviens bien 0,99eur d'écart chez materiel.net Merci pour les précisions : Je serais taquin, je dirais : même performance, même consommation et même prix. A quoi ils jouent chez AMD :-) ?
|
|
|
Merci Ceric35.
Je cherche à comprendre : Tes liens sont des VM qui sont destinées à tester Edge/IE 8 à 11 et qui contiennent donc par nécessité une version de Windows, sur laquelle je pourrais installer mes wallets.
Sachant que je n'ai pas besoin de Edge/IE, c'est plus simple tout de même d'utiliser cette VM que de me taper sa création puis l'installation d'un ISO de Windows ?
Je teste :-).
|
|
|
Oui, tout cela est assez contre-intuitif comme le disais botacoin : le travail de hash passé n'a aucune influence sur le temps qui nous sépare de la chute du prochain bloc.
Par contre, le travail de hash passé influence directement les gains de chaque mineur dans la mesure où le reward du bloc qui tombera sera réparti entre chaque mineur ayant miné depuis le précédent bloc, au prorata du nombre de hash miné et de leur niveau de difficulté.
Souhaitons que la pool continue à avoir de la chance, au moins le temps qu'elle monte en puissance : je me vois mal attendre 6 semaines (3 semaines + 100% de bad luck).
|
|
|
Cela fait maintenant longtemps que je ne suis plus l'évolution de Windows.
Je suis sous Ubuntu et fait tout mon possible pour y rester, mais j'ai des wallets dont la compilation me pose problème (miniupnpc.so.3 ou 5, de mémoire) et je n'ai guère envie de passer des heures/des jours à chercher sur ce sujet (bien que...peut-être plus tard).
Ces wallets sont en POS et doivent rester ouverts H24 (mais vérouillés). L'idéal, c'est donc de mettre ces wallets sur un de mes mineurs qui sont eux allumés H24, plutôt que de conserver une machine spécifiquement pour ces quelques wallets. L'idée est donc de faire tourner un Windows dans une machine virtuelle Virtual-Box sous Ubuntu.
Ne comptant pas acquérir de licence Windows pour cet usage, j'aimerai savoir où nous en sommes des possibilités des versions de windows gratuites.
Si je me souviens bien, il y a la version d'essai, gratuite 90 jours ? - Au bout de 90 jours que se passet-'il ? - Un simple effacement de la VM puis sa réinstallation suffit-elle à repartir pour 90 jours ?
Je m'étais inscrit au programme "Insider" de Windows 10 - cette version insider de Windows 10 est-elle valable indéfiniment ?
Autre piste ?
Merci.
|
|
|
|