Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2307 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  567  568  569  ..  845  846  847  848  849  850
Auteur Sujet :

[Topic Unique] Nvidia Turing (12nm FFN) / RTX 2080(Ti)(S) / 2070-60(S)

n°10544451
ZzDazzleZz
Bencheur Oufff
Posté le 18-03-2019 à 15:37:14  profilanswer
 

Reprise du message précédent :

angelusdeus a écrit :


alors déjà comme ça a été dit c'est du 12. Et puis qui te dit qu'elles seront pas encore plus cher? :o


 
Ce n'est pas du vrai 12nm mais une amélioration / optimisation du process du 16nm.
Après au niveau stats sur le marché des cartes à plus de 1000 euros ça ne concerne qu'une infime minorité de joueurs  :D , la plupart sont dans le créneau des 2060 / 2070 gros max :o

Message cité 1 fois
Message édité par ZzDazzleZz le 18-03-2019 à 15:39:00
mood
Publicité
Posté le 18-03-2019 à 15:37:14  profilanswer
 

n°10544453
ZzDazzleZz
Bencheur Oufff
Posté le 18-03-2019 à 15:39:59  profilanswer
 

alexreunion a écrit :


On en sait rien  :o


 
Tu crois que j'attends pourquoi le 7nm à ton avis ?? !!! ça va déchirer mémé  :o  :o


Message édité par ZzDazzleZz le 18-03-2019 à 15:45:51
n°10544457
mac fly
Posté le 18-03-2019 à 15:49:21  profilanswer
 

ZzDazzleZz a écrit :


 
Ce n'est pas du vrai 12nm mais une amélioration / optimisation du process du 16nm.


Il n'y a pas de faux/vrai, c'est du 12nm point barre  :pt1cable: .Un nouveau process est toujours une optimisation du précédent process, on ne part jamais de "zéro".
https://fr.wikipedia.org/wiki/Turin [...] graphique)

Message cité 1 fois
Message édité par mac fly le 18-03-2019 à 15:50:10
n°10544462
neoulous
Posté le 18-03-2019 à 15:53:27  profilanswer
 

ZzDazzleZz a écrit :


 
Perso je te conseillerais d'attendre la fin d'année voir un peu plus et avoir du 7nm qui poutre mémé  :jap:  
1400 euros c'est pas rien et tu risques de regretter à la sortie de la prochaine gen, à cette date elle va prendre une grosse claque la 2080 Ti  :whistle:


 
Perso, quitte à attendre à la sortie de la prochaine gen, je te conseillerai d'attendre un peu encore plus pour avoir la gen d'après qui poutre encore plus mémé   :whistle:  
C'est bien d'attendre pour un achat de GPU, ça fait faire des économies  :lol:  
 
Plus sérieusement, je pense plutôt qu'on arrive à une certaine limite de capacité des GPU,de la même façon qu'avec les CPU d'ailleurs...
Du coup, avec une 2080ti d'aujourd'hui, si on reste pas au delà du 1440p, pas sûr qu'elle se retrouve à la ramasse avec les prochaines gen...  
J'ai le sentiment qu'ils sont obligés de trouver des innovations mineures à l'instar du RTX pour impulser les ventes des nouvelles gen car au final, l'apport de performance constaté reste à mon sens un peu justes si tant est qu'on reste sur des résolutions inférieures à la 4k. Et ce sera certainement pareil à la prochaine gen...
 

n°10544466
Playaz
Le Justi-brouteur - Playnaze
Posté le 18-03-2019 à 16:09:33  profilanswer
 

Moi j'adopte la méthode suivante : je saute le pas toutes les deux générations environ 660ti => 970 => 2070.


Message édité par Playaz le 18-03-2019 à 16:10:15
n°10544467
drey19
Posté le 18-03-2019 à 16:15:20  profilanswer
 

mac fly a écrit :


Il n'y a pas de faux/vrai, c'est du 12nm point barre  :pt1cable: .Un nouveau process est toujours une optimisation du précédent process, on ne part jamais de "zéro".
https://fr.wikipedia.org/wiki/Turin [...] graphique)


 
C'est plus compliqué que ça, comme tu peux le lire dans la news que j'ai link un peu avant.
 
Pour donner un exemple :
 
https://www.hardware.fr/medias/photos_news/00/52/IMG0052965_1.jpg

Message cité 1 fois
Message édité par drey19 le 18-03-2019 à 16:17:58
n°10544474
max022
Posté le 18-03-2019 à 16:24:34  profilanswer
 

neoulous a écrit :


 
Perso, quitte à attendre à la sortie de la prochaine gen, je te conseillerai d'attendre un peu encore plus pour avoir la gen d'après qui poutre encore plus mémé   :whistle:  
C'est bien d'attendre pour un achat de GPU, ça fait faire des économies  :lol:  
 
Plus sérieusement, je pense plutôt qu'on arrive à une certaine limite de capacité des GPU,de la même façon qu'avec les CPU d'ailleurs...
Du coup, avec une 2080ti d'aujourd'hui, si on reste pas au delà du 1440p, pas sûr qu'elle se retrouve à la ramasse avec les prochaines gen...  
J'ai le sentiment qu'ils sont obligés de trouver des innovations mineures à l'instar du RTX pour impulser les ventes des nouvelles gen car au final, l'apport de performance constaté reste à mon sens un peu justes si tant est qu'on reste sur des résolutions inférieures à la 4k. Et ce sera certainement pareil à la prochaine gen...
 


 
Pour quel raisons on arriverait à la limite des gpu ?  
Pour les cpu, la raison est simple, on ne peut pas augmenter de fréquence autant que l'on le souhaite : problème de chauffe mais en terme de nombre de cores, on est loin d'être arrivé à la limite.  
(je schématise un peu bien sur)  

n°10544477
havoc_28
Posté le 18-03-2019 à 16:30:42  profilanswer
 

max022 a écrit :


 
Pour quel raisons on arriverait à la limite des gpu ?  
Pour les cpu, la raison est simple, on ne peut pas augmenter de fréquence autant que l'on le souhaite : problème de chauffe mais en terme de nombre de cores, on est loin d'être arrivé à la limite.  
(je schématise un peu bien sur)  


 
 
Plus y a d'unités de calculs, plus il devient difficile de les alimenter correctement, le GV100 par exemple la courbe de progression des performances par rapport à l'augmentation des unités diminue, augmenter le nombre d'unités de calcul fini par coûter très chère niveau transistor pour un gain de performance qui se réduit ...
 
De même coté GCN, où 4096 unités semblent être la limite de l'architecture actuelle ... gain très faible entre Hawaii et Fiji par exemple (par rapport à la débauche de transistors), dernièrement y a que la montée en fréquence / augmentation de bande passante (et quelques améliorations mineures coté architectures) qui ont aidé CGN, jusqu'à quand ?
 
Faudra voir si on peut diminuer les goulets d'étranglements sur un travail coté architecture etc, mais augmenter le nombre d'unités etc ça fini par caler, et la montée en fréquence n'est pas infini.


Message édité par havoc_28 le 18-03-2019 à 16:41:22
n°10544484
mac fly
Posté le 18-03-2019 à 16:38:00  profilanswer
 

drey19 a écrit :


 
C'est plus compliqué que ça, comme tu peux le lire dans la news que j'ai link un peu avant.
 
Pour donner un exemple :
 
https://www.hardware.fr/medias/phot [...] 2965_1.jpg


Oui, j'ai compris ce que tu voulais dire  :jap:  
Cela dit ça ne change rien au fait que c'est clairement pas du 16nm (comparé aux autres fondeurs l'appelation 12nm est justifiée, c'est ce qu'il en ressort des discutions du lien que tu donnes effectivement).
En pratique, c'est du 12nm qui peut encore etre optimisé bien plus que ça.

n°10544488
Profil sup​primé
Posté le 18-03-2019 à 16:47:54  answer
 

pas du tout  
la densité est la même qu'en 16 nm c'est donc bien du 16 nm  
 
sur les précédentes gen il en a été de même  
entre le 28 nm des radeon 7000 et celui des maxwell et fiji le process a été grandement amélioré avec différentes appellations mais ça restait du 28 nm  
 
le 12 nm n'est qu'une appellation commerciale pour faire illusion face au ralentissement des innovations dans ce domaine  [:spamafoote]
mais en gros c'est juste un 16nm mieux maitrisé

Message cité 1 fois
Message édité par Profil supprimé le 18-03-2019 à 16:55:21
mood
Publicité
Posté le 18-03-2019 à 16:47:54  profilanswer
 

n°10544497
mac fly
Posté le 18-03-2019 à 16:56:32  profilanswer
 


Dans le lien cité plus haut par drey19, il est pourtant dit que la densité a augmenté et la conso diminué avec ce fameux "12nm" non ? -> https://www.hardware.fr/news/15054/ [...] alise.html

Message cité 1 fois
Message édité par mac fly le 18-03-2019 à 16:58:17
n°10544504
max022
Posté le 18-03-2019 à 16:59:43  profilanswer
 

Ben en faites je trouve surtout que cela peut être limite financièrement dangereux de se dire que l'on a atteint les limites gpu.  
En définitive cela pousse un peu/beaucoup à la consommation.  
Perso, j'attends de voir, je me dis que l'on ne sait jamais, ils vont peu être trouvé quelque chose qui améliore les performances.  
Puis on sait effectivement que c'est possible de sortir du 7NM.  

n°10544512
tex2
Posté le 18-03-2019 à 17:10:23  profilanswer
 

max022 a écrit :


 
Pour quel raisons on arriverait à la limite des gpu ?  
Pour les cpu, la raison est simple, on ne peut pas augmenter de fréquence autant que l'on le souhaite : problème de chauffe mais en terme de nombre de cores, on est loin d'être arrivé à la limite.  
(je schématise un peu bien sur)  


 
Il faut aussi que les différentes taches du soft soient parallélisables en grand nombre pour pouvoir tirer parti des différents cœurs.
 
 
Des explications ici :
 
https://www.youtube.com/watch?v=eJBOU23L720
 
Et ici :
 
https://fr.wikipedia.org/wiki/Loi_d%27Amdahl
 
 

n°10544513
aliss
Rhyme the Rhyme Well
Posté le 18-03-2019 à 17:10:35  profilanswer
 

mac fly a écrit :


Dans le lien cité plus haut par drey19, il est pourtant dit que la densité a augmenté et la conso diminué avec ce fameux "12nm" non ? -> https://www.hardware.fr/news/15054/ [...] alise.html


 
C'est le 12nm FFN utilisé pour Turing et Volta et il n'y a pratiquement aucun gain en terme de densité (d'ou la taille démesurée de ces chips).

n°10544519
chicco77
Posté le 18-03-2019 à 17:22:30  profilanswer
 

Bon j'ai ramené mon Asus gl12cx avec la Asus Turbo rtx 2080 dont le ventilateur marchait un peu quand il voulait (et plus du tout sans Afterburner).  
 
La Turbo était vraiment, vraiment bruyante. PAr contre elle refroidissait vraiment très bien. J'étais à 31 en idle et dans les 65 en game. Mais bon ca fait du bruit quoi, et vu que je joue souvent quand ma femme dort, le pc étant dans notre chambre (deuxième enfant, toussa), c'était bof.  
 
Me suis pris un pc d'une petite marque suisse, Joule Performance.  
 
Le pc sera à base de la Gainward rtx 2080 ti (Phoenix GS), et le 9700 sera remplacé par un 9900, tant que j'y étais.  
 
Je l'aurai normalement cette semaine, je ferai un retour sur la carte.

n°10544522
Profil sup​primé
Posté le 18-03-2019 à 17:25:51  answer
 

aliss a écrit :


 
C'est le 12nm FFN utilisé pour Turing et Volta et il n'y a pratiquement aucun gain en terme de densité (d'ou la taille démesurée de ces chips).


 
 :jap:  
 
à l'instar du 12 nm de GloFo, il permet juste un léger gain de perf/watt  
 

n°10544564
mac fly
Posté le 18-03-2019 à 18:41:49  profilanswer
 

ok  :jap:

n°10544644
Invite_Sur​prise
Racaille de Shanghaï
Posté le 18-03-2019 à 20:14:41  profilanswer
 

Test de la KFA2 RTX 2080 Ti HoF chez TH.fr :
 
http://www.tomshardware.fr/test-kf [...] ame-galax/
 
Un prix allumé, un style discutable mais des perfs et une carte au top niveau.
 
Max Power Limit : 450W  [:maman_de_galles:4]

n°10544648
ZzDazzleZz
Bencheur Oufff
Posté le 18-03-2019 à 20:17:38  profilanswer
 

Je l'aurais bien acheté mais en jaune pour aller avec mon gilet ^^
[:zog79:2]

n°10544655
El Paladin​ Malefik
Posté le 18-03-2019 à 20:20:44  profilanswer
 

Une belle carte mais dépenser 400 euros plus d'une 2080ti classique ça devient abusé pour 10% de perfs en plus sur des cartes déjà très performantes...
Bref une vitrine mais salé le prix

n°10544658
aliss
Rhyme the Rhyme Well
Posté le 18-03-2019 à 20:24:47  profilanswer
 

Invite_Surprise a écrit :

Test de la KFA2 RTX 2080 Ti HoF chez TH.fr :
 
http://www.tomshardware.fr/test-kf [...] ame-galax/
 
Un prix allumé, un style discutable mais des perfs et une carte au top niveau.
 
Max Power Limit : 450W  [:maman_de_galles:4]


 
Je me demande quel va être le MSRP de la KPE... :D  
 
https://www.eteknix.com/evga-geforc [...] al-record/

n°10544659
ZzDazzleZz
Bencheur Oufff
Posté le 18-03-2019 à 20:25:31  profilanswer
 

Mouais 400 euros de plus qu'une GeForce RTX 2080 Ti GAMING X TRIO c'est un peu trop abusé...
Même la lighting Z est 200 euros moins cher  :pfff:  :pfff:  
 
A moins de faire mumuse avec l'azote elles n'ont aucun intérêt :o

n°10544668
Invite_Sur​prise
Racaille de Shanghaï
Posté le 18-03-2019 à 20:43:07  profilanswer
 

Citation :

Le contrôleur PWM est un XDPE10281 produit par Infineon. Ce modèle tout nouveau, est capable de fournir les tensions très précises nécessaires aux GPU de dernière génération. En outre, il sait gérer directement le doublement des phases, ce qui permet de se passer de doubleur. On économise ainsi de la place sur le PCB. C’est la première fois que l’on retrouve cette puce sur une carte graphique, et nous espérons que d’autres constructeurs s’en inspireront rapidement.


 
A voir ce que ça peut donner également sur d'autres cartes.

n°10544715
obduction
Posté le 18-03-2019 à 22:03:03  profilanswer
 

Microsoft vient de présenter une nouvelle fonctionnalité de directx 12 : le Variable Rate Shading
https://devblogs.microsoft.com/dire [...] gehammers/
 
Ce n'est pas la même chose qu'nvidia a fait avec wolfenstein 2?

n°10544723
ZzDazzleZz
Bencheur Oufff
Posté le 18-03-2019 à 22:25:17  profilanswer
 

obduction a écrit :

Microsoft vient de présenter une nouvelle fonctionnalité de directx 12 : le Variable Rate Shading
https://devblogs.microsoft.com/dire [...] gehammers/
 
Ce n'est pas la même chose qu'nvidia a fait avec wolfenstein 2?


C'est pareil ^^

n°10544743
mkfao
Posté le 18-03-2019 à 23:10:12  profilanswer
 

https://videocardz.com/newz/nvidia- [...] -and-volta
 
Du RT sur gtx 1060 mais oui  :lol:  
et les graphiques toujours tellement bidons pauvre Nvidia.. au lieu de nous proposer une 1180 que tout le monde attend :o

n°10544754
ZzDazzleZz
Bencheur Oufff
Posté le 18-03-2019 à 23:20:45  profilanswer
 

mkfao a écrit :

https://videocardz.com/newz/nvidia- [...] -and-volta
 
Du RT sur gtx 1060 mais oui  :lol:  
et les graphiques toujours tellement bidons pauvre Nvidia.. au lieu de nous proposer une 1180 que tout le monde attend :o


 
Ca ne sera pas jouable sur une 1060 mais ça restera possible sur une 1080 Ti après niveau perfs ça risque de piquer un peu trop...
Bref l'intention est louable mais utilisable j'en doute un peu...
 

n°10544756
reflex69
Posté le 18-03-2019 à 23:23:43  profilanswer
 

mkfao a écrit :

https://videocardz.com/newz/nvidia- [...] -and-volta
 
Du RT sur gtx 1060 mais oui  :lol:  
et les graphiques toujours tellement bidons pauvre Nvidia.. au lieu de nous proposer une 1180 que tout le monde attend :o


Il y a déjà une démo qui tourne pour montrer le rendu du ray tracing sur une gtx 1060:
https://www.youtube.com/watch?v=zPI [...] e=youtu.be

n°10544758
mkfao
Posté le 18-03-2019 à 23:29:13  profilanswer
 

reflex69 a écrit :


Il y a déjà une démo qui tourne pour montrer le rendu du ray tracing sur une gtx 1060:
https://www.youtube.com/watch?v=zPI [...] e=youtu.be


 
4K ?  :D

n°10544759
chapelou09
Posté le 18-03-2019 à 23:36:04  profilanswer
 

Bonsoir,
 
À la recherche d'une rtx 2080 ti que me conseillez vous entre la msi rtx 2080 ti lightning z et la evga ftw3? Sachant que je privilégie le refroidissement et le silence.
 
Merci

n°10544766
ZzDazzleZz
Bencheur Oufff
Posté le 18-03-2019 à 23:52:03  profilanswer
 
n°10544771
Moonrain
Posté le 19-03-2019 à 00:06:50  profilanswer
 

NVidia qui avoue à demi mot que son RTX ça bide et que le seul moyen de faire en sorte que les gens activent l’option c’est de permettre à ceux qui ont Pascal de l’activer...
 
 Sinon bah c’est simple les développeurs vont pas s’amuser à supporter la feature pour si peu de personnes et NVidia ne pourra pas arroser éternellement pour que les gros jeux le proposent.
 
En parallèle ils tuent le seul argument marketing qui justifiait le surcoût RTX.
 
Attendons de voir la gueule, le coût en perfs et les spécifications du Ray Tracing sur Pascal, mais là niveau « je m’emmêle les pieds dans le tapis » ils font très très fort.

n°10544773
drey19
Posté le 19-03-2019 à 00:14:20  profilanswer
 

Moonrain a écrit :

NVidia qui avoue à demi mot que son RTX ça bide et que le seul moyen de faire en sorte que les gens activent l’option c’est de permettre à ceux qui ont Pascal de l’activer...
 
 Sinon bah c’est simple les développeurs vont pas s’amuser à supporter la feature pour si peu de personnes et NVidia ne pourra pas arroser éternellement pour que les gros jeux le proposent.
 
En parallèle ils tuent le seul argument marketing qui justifiait le surcoût RTX.
 
Attendons de voir la gueule, le coût en perfs et les spécifications du Ray Tracing sur Pascal, mais là niveau « je m’emmêle les pieds dans le tapis » ils font très très fort.


 
Je trouve que c'est justement tout le contraire.
 
En élargissant la base d'utilisateur, ils le rendent bien plus attractif pour les dev.
 
Ce qui justement en fera un argument plus important pour le RTX qui le gère de façon bien plus rapide et complexe.
 
C'est bien simple depuis le début le soucis c'est surtout qu'il n'y a pas de jeux et pour que les dev bougent, pas de secret, il faut une base d'utilisateurs importante.


Message édité par drey19 le 19-03-2019 à 00:19:15
n°10544776
ZzDazzleZz
Bencheur Oufff
Posté le 19-03-2019 à 00:20:23  profilanswer
 

SOTR ne devrait plus trop tarder avec son patch DXR et DLSS d'après la conférence GTC :)
 
https://cdn.videocardz.com/1/2019/03/geforce-rtx-gtx-dxr-shadow-of-the-tomb-raider-performance.jpg


Message édité par ZzDazzleZz le 19-03-2019 à 00:23:06
n°10544778
havoc_28
Posté le 19-03-2019 à 00:22:56  profilanswer
 

Moonrain a écrit :

NVidia qui avoue à demi mot que son RTX ça bide et que le seul moyen de faire en sorte que les gens activent l’option c’est de permettre à ceux qui ont Pascal de l’activer...
 
 Sinon bah c’est simple les développeurs vont pas s’amuser à supporter la feature pour si peu de personnes et NVidia ne pourra pas arroser éternellement pour que les gros jeux le proposent.
 
En parallèle ils tuent le seul argument marketing qui justifiait le surcoût RTX.
 
Attendons de voir la gueule, le coût en perfs et les spécifications du Ray Tracing sur Pascal, mais là niveau « je m’emmêle les pieds dans le tapis » ils font très très fort.


 
C'est plus pour que les gens testent le Raytracing Hybride sur pascal et se disent :
 

Citation :

"ho c'est jolie, mais zut, j'ai un tau d'image par seconde lamentable, il faut donc que je passe sur une RTX   [:cerveau cupra]  .


 
vu ici p:  
 
https://forum.hardware.fr/hfr/Hardw [...] #t10544768
 

mukumi a écrit :

Bah c'était connu, on avait déjà vu une vidéo d'une Titan truc qui faisait tourner BF V. Mais le drop de FPS est énorme.  
 
Pour moi c'est plus un coup pour vendre des RTX. Les utilisateurs avec leur 1080 ti vont tenter le coup, éventuellement trouver ça joli, et sauter le pas si ils sont chauds :D


 
Bref j'attends de voir le résultat, tout comme la mise en pratique de la démo de Neon Noir de Crytek (genre si y a pas des trucs ou autre :o).

Message cité 1 fois
Message édité par havoc_28 le 19-03-2019 à 00:28:04
n°10544798
Leops33
Posté le 19-03-2019 à 06:53:22  profilanswer
 

obduction a écrit :


 :??:  
Merci de lire attentivement avant de répondre à un message.
 
Ou ais je parlé de 60 fps? J'ai dit que cela pouvait suffire selon les exigences de chacun


 

obduction a écrit :


Tout le monde n'a pas besoin de 60 fps pour jouer. ;)  


 
J'ai pas dit le contraire mais si c'est pour jouer sur PC sans pouvoir pousser les options graphiques à fond et/ou tenir du 60fps, faut rester sur console ça reste plus économique  [:mir45]


---------------
http://www.facebook.com/RB26.Motors.33
n°10544804
angelusdeu​s
BlobUmad
Posté le 19-03-2019 à 07:35:33  profilanswer
 

chapelou09 a écrit :

Bonsoir,
 
À la recherche d'une rtx 2080 ti que me conseillez vous entre la msi rtx 2080 ti lightning z et la evga ftw3? Sachant que je privilégie le refroidissement et le silence.
 
Merci


 
perso j'hésiterais entre la HoF et la FTW3, la lightning Z c'est pas fou.

n°10544825
chapelou09
Posté le 19-03-2019 à 09:30:54  profilanswer
 

Salut pour quelle raison hormis la garantie ? Meilleurs composants ? Et la ASUS strix oc elle est performante en fréquence de fonctionnement ou moins bien que les deux ?.

Message cité 1 fois
Message édité par chapelou09 le 19-03-2019 à 09:37:46
n°10544830
aliss
Rhyme the Rhyme Well
Posté le 19-03-2019 à 09:47:13  profilanswer
 

havoc_28 a écrit :


 
C'est plus pour que les gens testent le Raytracing Hybride sur pascal et se disent :
 

Citation :

"ho c'est jolie, mais zut, j'ai un tau d'image par seconde lamentable, il faut donc que je passe sur une RTX   [:cerveau cupra]  .


 
vu ici p:  
 
https://forum.hardware.fr/hfr/Hardw [...] #t10544768
 


 

havoc_28 a écrit :


 
Bref j'attends de voir le résultat, tout comme la mise en pratique de la démo de Neon Noir de Crytek (genre si y a pas des trucs ou autre :o).


 
C'était pourtant prévu depuis l'annonce de Microsoft.
 
https://i.imgur.com/Uaxnu58.jpg
 
J'ai l'impression que certains confondent DXR et RTX.
 
https://www.anandtech.com/show/1254 [...] raytracing
 
 

n°10544863
angelusdeu​s
BlobUmad
Posté le 19-03-2019 à 10:46:40  profilanswer
 

chapelou09 a écrit :

Salut pour quelle raison hormis la garantie ? Meilleurs composants ? Et la ASUS strix oc elle est performante en fréquence de fonctionnement ou moins bien que les deux ?.


Pour faire simple, de mon point de vue:
HoF:
Perf:***
PCB:***
Refroidissement:***
Bruit:**
Garantie:*
 
FTW3:
Perf:**
PCB:**
Refroidissement:***
Bruit:**
Garantie:***
 
Strix:
Perf:*
PCB:*
Refroidissement:***
Bruit:***
Garantie:*
 
En gros de ce que j'en ai vu/lu :o  
 

n°10544867
Playaz
Le Justi-brouteur - Playnaze
Posté le 19-03-2019 à 10:50:37  profilanswer
 

angelusdeus a écrit :


Pour faire simple, de mon point de vue:
HoF:
Perf:***
PCB:***
Refroidissement:***
Bruit:**
Garantie:*
 
FTW3:
Perf:**
PCB:**
Refroidissement:***
Bruit:**
Garantie:***
 
Strix:
Perf:*
PCB:*
Refroidissement:***
Bruit:***
Garantie:*
 
En gros de ce que j'en ai vu/lu :o  
 


 
T'as oublié le critère de prix :o

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  567  568  569  ..  845  846  847  848  849  850

Aller à :
Ajouter une réponse
 

Sujets relatifs
Aide: peut-on mettre une NVIDIA GeForce 980M sur un Schenker XMG P724?GPU nvidia inutilisable apres changement carte mere
Impossible de réinstaller les pilotes nvidiaBIOS NVIDIA 9600M GT 512 MB GDDR3
Upgrade config / i7 4770k Nvidia m2000Problème mise à jour carte graphique Nvidia
Intel Xeon W 2133 + Nvidia P4000 en version "grand public" ?Artefacts Carte Graphique Nvidia
Bruit parasite Son suite update driver Nvidia GTX 680 
Plus de sujets relatifs à : [Topic Unique] Nvidia Turing (12nm FFN) / RTX 2080(Ti)(S) / 2070-60(S)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)