Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
998 connectés 

  FORUM HardWare.fr
  Hardware
  HFR

  [HFR] Actu : Influence du PCIe sur une GTX 1080

 


 Mot :   Pseudo :  
 
 Page :   1  2
Page Précédente
Auteur Sujet :

[HFR] Actu : Influence du PCIe sur une GTX 1080

n°10012536
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 13-12-2016 à 13:58:14  profilanswer
1Votes positifs
 

Nos confrères de techPowerUp ont évalué l'impact de la vitesse PCI Express sur une GeForce GTX 1080. Plusieurs vitesses ont été testées en jouant sur le nombre ...
Lire la suite ...


Message édité par Marc le 13-12-2016 à 13:59:14
mood
Publicité
Posté le 13-12-2016 à 13:58:14  profilanswer
 

n°10012550
KraMeR
Citoyen déchu
Posté le 13-12-2016 à 14:09:57  profilanswer
3Votes positifs
 

Cool donc je peux mettre ma GTX1080 sur une carte mère 775 sans être "Bus limited" :D


Message édité par KraMeR le 13-12-2016 à 14:10:08
n°10012553
Tchewi
Posté le 13-12-2016 à 14:12:24  profilanswer
1Votes positifs
 

Ah cool, donc un SLI de 980Ti ne sera pas bridé par le nombre de lignes PCI d'un 4790K. Vu qu'en PCIE 3.0 x8 y'a pas de différence avec une 1080. Je me posait la question depuis un moment ^^

n°10012555
It_Connexi​on
Posté le 13-12-2016 à 14:13:03  profilanswer
3Votes positifs
 

Très intéressant comme article  ;)


Message édité par It_Connexion le 13-12-2016 à 14:13:29
n°10012633
Sacharpie
Posté le 13-12-2016 à 15:35:53  profilanswer
0Votes positifs
 

De toute façon en SLI, la liaison est faite par le pont SLI et c'est ce qui fait que le scaling n'est pas toujours bon : il suffit alors le plus souvent (quand ce n'est pas une faute logicielle bien entendu) de mettre deux ponts SLI pour obtenir un scaling de presque + 100% à coup sûr :)


Message édité par Sacharpie le 13-12-2016 à 15:36:37
n°10012651
landouille
yolo
Posté le 13-12-2016 à 15:47:28  profilanswer
2Votes positifs
 

ca va rabatte le clapet à quelques uns :D


Message édité par landouille le 13-12-2016 à 15:47:43
n°10012665
overclockp​ro
Posté le 13-12-2016 à 15:51:53  profilanswer
0Votes positifs
 

Il manque des tests en SLI : avec 2 GTX1080 en 4K + pont HB, j'ai une différence de 16 % sur Witcher 3 entre du x16/x8 et x16/x16. Cela est confirmé par une autre personne sur youtube. De même, sur Project Cars, the Division, toujours en 4K, la différence est conséquente, du même ordre de grandeur.
 
J'ai aussi testé d'autres jeux (Tomb Raider, Deus Ex, GTA V) et aucune différence.


Message édité par overclockpro le 13-12-2016 à 15:52:15
n°10012724
Roovy
Posté le 13-12-2016 à 17:07:19  profilanswer
1Votes positifs
 

Et pour les Radeon , qu'en est-il de l'impact avec le CrossFire XDMA (sans pont) , étant donné que dans ce cas les échanges de données inter-GPU se font via le bus PCIe ?
 

n°10012753
Xixou2
Posté le 13-12-2016 à 17:38:51  profilanswer
1Votes positifs
 

En effet je vois pas trop de diff entre pcie gen 3 8x et gen2 8x avec une gtx 1070.
 
Sinon passer le bus de 100 MHz à 99 MHz empêche le plantage d'overwatch chez moi (avec rallonge pcie)

n°10012762
metm
metm
Posté le 13-12-2016 à 17:47:48  profilanswer
2Votes positifs
 

Ça passe cool quand c'est nvidia qui ce plante sur ça carte haut de gamme à 700€ pigeon !

mood
Publicité
Posté le 13-12-2016 à 17:47:48  profilanswer
 

n°10012767
dr gast
Posté le 13-12-2016 à 17:53:45  profilanswer
0Votes positifs
 

Cet article n'est pas très clair pour moi. Trop technique. Quelques explications supplémentaires seraient bienvenues.
De plus, dans mon cas, quel est l'impact de faire tourner la gtx 1080 sur un 2 x PCI Express 2.0 16 (2.0 au lieu de pc express 3.0) ?
Merci.

n°10012770
dr gast
Posté le 13-12-2016 à 17:54:44  profilanswer
0Votes positifs
 

erratum : 1 carte sur 1 seul slot pci 2.0

n°10012775
pinpinb
Posté le 13-12-2016 à 17:58:58  profilanswer
0Votes positifs
 

Dans ton cas : "En moyenne en 1080p le passage de 16 à 8 Go/s n'est pas perceptible"

n°10012777
dr gast
Posté le 13-12-2016 à 18:03:04  profilanswer
0Votes positifs
 

pinpinb a écrit :

Dans ton cas : "En moyenne en 1080p le passage de 16 à 8 Go/s n'est pas perceptible"


Le passage de pcie 2.0 à pcie 3.0 correspond donc à un passage de 8 G0/s à 16 Go/s ?

n°10012818
The_Balrog
Et là, c'est le drame...
Posté le 13-12-2016 à 18:47:03  profilanswer
1Votes positifs
 

Pas franchement nouveau ces chiffres^^

n°10012874
drynek
Posté le 13-12-2016 à 19:33:30  profilanswer
1Votes positifs
 

Ouais donc moralité pour ceux qui ont des cartes mdg ils seront limité en pci 2 x16 éventuellement par la futur GTX 4060 a peu près sur leur socket 775/1366 est encore sur 5fps  :whistle:  
Car concrètement qui a encore une CM PCI 2 avec un monstre comme une 1080 vu le prix du bousin, le pourcentage doit friser le zéro   :lol:  
 

n°10012893
CL8i
Posté le 13-12-2016 à 19:49:56  profilanswer
0Votes positifs
 

drynek a écrit :

Ouais donc moralité pour ceux qui ont des cartes mdg ils seront limité en pci 2 x16 éventuellement par la futur GTX 4060 a peu près sur leur socket 775/1366 est encore sur 5fps  :whistle:  
Car concrètement qui a encore une CM PCI 2 avec un monstre comme une 1080 vu le prix du bousin, le pourcentage doit friser le zéro   :lol:  
 

L'intérêt du test n'est pas de prouver qu'une vieille carte mère fait l'affaire, mais comment la nouvelle est pas nécessairement utile.
 
Donc, si vous n'avez qu'un ordinateur d'OEM (HP, DELL, Acer...) qui n'a qu'une 16x (avec seulement les lignes 8x) en 3.0 ou une 16x 2.0, vous vous en sortez sans problème.

n°10013164
KinG Buche​ron
Posté le 13-12-2016 à 22:59:56  profilanswer
0Votes positifs
 

drynek a écrit :

Ouais donc moralité pour ceux qui ont des cartes mdg ils seront limité en pci 2 x16 éventuellement par la futur GTX 4060 a peu près sur leur socket 775/1366 est encore sur 5fps  :whistle:  
Car concrètement qui a encore une CM PCI 2 avec un monstre comme une 1080 vu le prix du bousin, le pourcentage doit friser le zéro   :lol:  
 


 
j'ai un 2600k sur une z68 avec une gtx1070 sur un pcie 2.0 16x. ça tourne du feu de dieu.

n°10013232
HashBoost
Posté le 13-12-2016 à 23:28:19  profilanswer
3Votes positifs
 

metm a écrit :

Ça passe cool quand c'est nvidia qui ce plante sur ça carte haut de gamme à 700€ pigeon !


Tu as un problème avec les S et l'expression. Je défie quiconque de comprendre ce que tu veux dire...
Pour ma part, je penche sur une conclusion que ceux qui ont une 1080 se sont fait avoir par quelque chose, mais impossible de déterminer quoi.

n°10013447
vladobar
J'aime pas quand ça rame…
Posté le 14-12-2016 à 09:59:16  profilanswer
0Votes positifs
 

Moi ca m’arrange, je tourne en PCI 2.0 en 8x sur ma P67, je peux sereinement envisager un changement de carte graphique si je suis encore a 95% des perfs max :p (pas forcement pour une 1080, mais les résultats doivent être similaire pour les autres)


Message édité par vladobar le 14-12-2016 à 13:26:58
n°10013462
sebdej
Posté le 14-12-2016 à 10:15:11  profilanswer
0Votes positifs
 

Est ce que ça veut dire que les cartes graphiques déportées par Thundebolt (ex Razer Core) sont largement viables ?

n°10013476
TotalRecal​l
Modérateur
Posté le 14-12-2016 à 10:38:16  profilanswer
3Votes positifs
 

metm a écrit :

Ça passe cool quand c'est nvidia qui ce plante sur ça carte haut de gamme à 700€ pigeon !


Rien compris, mais c'est bourré de fautes et ça a l'air agressif, merci de prendre tes cachets avant de venir sur le forum.


---------------
Réalisation amplis classe D / T      Topic .Net - C# @ Prog
n°10013503
flogger88
Euskadi Ta Askatasuna
Posté le 14-12-2016 à 11:15:06  profilanswer
1Votes positifs
 

Sa rassurera aussi les possesseurs d'une plateforme AM3+, vu qu'ils sont encore en PCIe 2.

n°10013693
pinpinb
Posté le 14-12-2016 à 14:31:43  profilanswer
0Votes positifs
 

dr gast a écrit :

pinpinb a écrit :

Dans ton cas : "En moyenne en 1080p le passage de 16 à 8 Go/s n'est pas perceptible"


Le passage de pcie 2.0 à pcie 3.0 correspond donc à un passage de 8 G0/s à 16 Go/s ?


 
En fait, je pense que ce n'est pas la technicité de la news qui te pose problème, mais le fait que tu dois faire un effort de lecture pour trouver les informations te concernant. Allez, je suis sympa, je vais te guider :

Citation :


16 Go/s (PCIe 3.0 x16)
8 Go/s (PCIe 3.0 x8, 2.0 x16)

n°10013726
heiwa-FR
Posté le 14-12-2016 à 14:57:14  profilanswer
0Votes positifs
 

Il commence à y avoir des différences notables avec la dernière génération. A l'époque c'était vraiment infime...
Par contre il faut prendre en considération qu'on perd d'avantage dans la réalité puisqu'on reste sur des CPU d'anciennes générations. Le test se faisant ici avec le même CPU pour se focaliser sur la vitesse du bus.
 
Sinon pas mal le coup du scotch sur les connectiques. Un peu goret mais c'est parfait pour le test !

n°10013821
ostro
et la lumière fut !
Posté le 14-12-2016 à 16:11:52  profilanswer
0Votes positifs
 

Une petite question :  
Est ce que dans une configuration crossfire, avec pont entre les deux cartes.
 
L'utilisation des slot PCI express change ?
Est ce que chacune des cartes communique ses données avec le processeur.
Ou le port pci express le plus rapide est privilégié.
 
Dans le cadre d'une configuraiton pcie 2.0 x16 / x4
 
 
Merci :)

n°10013826
Xixou2
Posté le 14-12-2016 à 16:18:56  profilanswer
0Votes positifs
 

crossfire x depuis la r9 290 (pas de pin pour pont).

n°10013830
ostro
et la lumière fut !
Posté le 14-12-2016 à 16:24:49  profilanswer
0Votes positifs
 

Et dans le cas de deux AMD R9 280X.
Est ce que tout les échanges se font via le slot PCI Express le plus rapide , par exemple 2.0 x16 a 8 Gb/s
ou les deux carte se brident au minimum 2.0 x4 x4 équivalent a 2 Gb/s + 2Gb/s
 
 :cry:  
 

n°10013872
kimujix
Posté le 14-12-2016 à 17:18:53  profilanswer
0Votes positifs
 

dr gast a écrit :

Cet article n'est pas très clair pour moi. Trop technique. Quelques explications supplémentaires seraient bienvenues.
De plus, dans mon cas, quel est l'impact de faire tourner la gtx 1080 sur un 2 x PCI Express 2.0 16 (2.0 au lieu de pc express 3.0) ?
Merci.


Ça veut dire qu'entre le 3.0x16 et le 2.0x16 la perte est quasi-négligeable. Il n'y a aucune raison de remplacer une carte mère PCI-E 2.0 (surtout si elle supporte le x16) pour une PCI-E 3.0 pour profiter des performances d'un GPU de dernière génération.

Message cité 1 fois
Message édité par kimujix le 14-12-2016 à 17:19:59
n°10014614
Solide
Posté le 15-12-2016 à 15:34:16  profilanswer
0Votes positifs
 

Je partage juste mon expérience, j'étai parti pour changer de PC avec des potes en aout pour faire de la réalité virtuelle. J'ai commandé une Geforce Titan P que j'ai fixée sur mon PC de novembre 2008, un chipset X58 avec un intel I7 965 et 12GO de ram et un SSD (plus récent)... Mon PC tourne aussi bien que celui de mes potes dans tous les jeux auxquels nous jouons, tous les détails au max en général (dark souls 3, witcher 3, deus EX, Starcraft, diablo, doom ... et j'en passe).  
 
Du coup, j'ai annulé la commande de tout le materiel de remplacement (CPU, CM, Memoire...) car je n'en ai pas eu besoin. Comme quoi, le X58 avait du bon alors qu'il date de 2008 ! Pour faire le lien avec l'article, c'est du PCI Express 2.0 16x pour le port utilisé par la carte graphique.

n°10014628
Invite_Sur​prise
Racaille de Shanghaï
Posté le 15-12-2016 à 15:46:36  profilanswer
0Votes positifs
 

Pour avoir remplacé mon 2600K par un 4790K, j'ai vu une différence dans les zones CPU limited alors avec un i7 965 ça doit être encore pire.
Comparé l'influence CPU dans des zones GPU limited, ça sert quasiment à rien.
 

n°10015189
bjone
Insert booze to continue
Posté le 16-12-2016 à 12:32:41  profilanswer
0Votes positifs
 

Comme d'habitude depuis 20 ans en fait. Les cycles de vie des bus sont longs et il faut les introduire avant d'en avoir besoin.
---
Ça dépends du scénario mais dans un jeu on essaye d'être stable en vram ou de ne pas dépendre de quelque chose en cours de transfert.  
(ie les tiles de texture, mais plus la vram est importante et le bus rapide, plus on reste sur les tiles de lod élévé)


Message édité par bjone le 16-12-2016 à 12:34:45
n°10015222
drynek
Posté le 16-12-2016 à 13:15:42  profilanswer
0Votes positifs
 

kimujix a écrit :


Ça veut dire qu'entre le 3.0x16 et le 2.0x16 la perte est quasi-négligeable. Il n'y a aucune raison de remplacer une carte mère PCI-E 2.0 (surtout si elle supporte le x16) pour une PCI-E 3.0 pour profiter des performances d'un GPU de dernière génération.


En théorie oui sauf que le Test est biaisé dans le sens ou le proc est un i7 6700k dans tout les cas de figure alors qu'il aurait fallut mettre un proc contemporain au PCI 2 (en restant sur un Intel du moins ) donc socket 1366 (dernier PCI 2 il me semble) avec un i7 960 et la ont fait un test réel des capacitées de la 1080 sur du "vrai" pci 2 avec le reste qui va avec,  ça rime a rien sinon  :D  
Sinon dans la même logique du test avec le i7 est la ddr4 sachant que le pci2 x4 a les mêmes perfs que l'agp8x (2go/s dans les deux cas) si une gtx1080 existait en agp je pourrais faire tourne BF1 a 125fps en 1080p,  ridicule n'est-ce pas?   :lol:

n°10015281
Nono0000
Posté le 16-12-2016 à 14:18:03  profilanswer
0Votes positifs
 

drynek a écrit :


En théorie oui sauf que le Test est biaisé dans le sens ou le proc est un i7 6700k dans tout les cas de figure alors qu'il aurait fallut mettre un proc contemporain au PCI 2 (en restant sur un Intel du moins ) donc socket 1366 (dernier PCI 2 il me semble) avec un i7 960 et la ont fait un test réel des capacitées de la 1080 sur du "vrai" pci 2 avec le reste qui va avec,  ça rime a rien sinon  :D
Sinon dans la même logique du test avec le i7 est la ddr4 sachant que le pci2 x4 a les mêmes perfs que l'agp8x (2go/s dans les deux cas) si une gtx1080 existait en agp je pourrais faire tourne BF1 a 125fps en 1080p,  ridicule n'est-ce pas?   :lol:

 

Je ne suis pas d'accord. Entre un PCIE 2.0 et 3.0, il n'y a pratiquement pas de différence en dehors du "quasi" doublement de la vitesse par lien. Le protocole est le même et les overheads aussi...
Donc oui un PCIE2.0 x16 est très très proche du comportement d'un PCIE3.0 x8...
Et il faut bien comparer des pommes avec des pommes et comparer un 960 avec un 6700k n'a aucun sens. Le but de l'exercice est de montrer l'impact du bus... rien d'autre...
Si tu as un 960 et des performances que tu juges insuffisantes, tu sais que c'est dû au CPU et non au bus PCIE 2.0. Cela permet de sortir une variable de l’équation.

 

Message cité 1 fois
Message édité par Nono0000 le 16-12-2016 à 14:43:55

---------------
CPU: 6950X 4.3Ghz (Uncore: 3.7Ghz) WC HM -- Mem: 4x8Go 3200Mhz 14-16-17-32-1T -- Mobo: Asus X99 Deluxe -- GPU: 4080 (GPU: 3015Mhz, VRAM: 12200Mhz) -- Carte Son: X-Fi Titanium Fatal1ty Professional -- SSD: M.2 PCIE XP941 -- Ecran: DELL AW3423DW QD-OLED
n°10015314
flogger88
Euskadi Ta Askatasuna
Posté le 16-12-2016 à 14:55:51  profilanswer
0Votes positifs
 

Citation :

Si tu as un 960 et des performances que tu juges insuffisantes, tu sais que c'est dû au CPU et non au bus PCIE 2.0. Cela permet de sortir une variable de l’équation.


 
+1
Un article daté de 2 ans :   http://www.tomshardware.fr/article [...] 350-3.html
Plus pertinent car n'utilise pas le scotch mais les possibilités de l'UEFI de la CM.


Message édité par flogger88 le 16-12-2016 à 14:56:24

---------------
http://valid.canardpc.com/ujkyk7 http://valid.canardpc.com/show_oc.php?id=2712932 http://valid.canardpc.com/show_oc.php?id=2095761
n°10015392
drynek
Posté le 16-12-2016 à 16:24:35  profilanswer
0Votes positifs
 

Nono0000 a écrit :


 
Je ne suis pas d'accord. Entre un PCIE 2.0 et 3.0, il n'y a pratiquement pas de différence en dehors du "quasi" doublement de la vitesse par lien. Le protocole est le même et les overheads aussi...
Donc oui un PCIE2.0 x16 est très très proche du comportement d'un PCIE3.0 x8...
Et il faut bien comparer des pommes avec des pommes et comparer un 960 avec un 6700k n'a aucun sens. Le but de l'exercice est de montrer l'impact du bus... rien d'autre...
Si tu as un 960 et des performances que tu juges insuffisantes, tu sais que c'est dû au CPU et non au bus PCIE 2.0. Cela permet de sortir une variable de l’équation.
 


T'a pas compris mon cheminement, mais j'ai pas été très clair  :D  
 comparer un bus pour ce qu'il est sans prendre en compte le reste de la machine revient a pisser contre le vent, quand le protocole revient a comparer des éléments qui n'ont jamais cohabiter ensemble c'est un non sens.
C'est pas le résultat mon soucis ont connaient bien les vitesses etc....   C'est la méthode qui me chagrine, et surtout les raccourcis du pelo lambda qui va se dire une 1080 va roxer du poney avec mon c2q stock  

n°10015443
saruhada
Legendary X58
Posté le 16-12-2016 à 17:11:00  profilanswer
0Votes positifs
 

Le X58 est la plateforme la plus evolutive depuis sa sortie en 2008.
C'est pas pour rien que pour la generation suivante Intel n'a pas refait la même erreur commerciale : il ont bloqué l'OC par le bus et reservé seulement au CPU HDG en "K".

 

Le X58 supporte les Hexacores.
Pour 70€ sur ebay t'a des 6 Cores 95W qui prennent 4.2GHz.

 

Et vous etes là a encenser le 6700K. :lol:


Message édité par saruhada le 16-12-2016 à 17:13:35

---------------
Achats & Ventes
n°10015479
Prophet_ch
Posté le 16-12-2016 à 18:05:44  profilanswer
0Votes positifs
 

Invite_Surprise a écrit :

Pour avoir remplacé mon 2600K par un 4790K, j'ai vu une différence dans les zones CPU limited alors avec un i7 965 ça doit être encore pire.
Comparé l'influence CPU dans des zones GPU limited, ça sert quasiment à rien.
 


 
Ton 2600k était overclocké ? Si oui à combien ? Et le 4790k ?
J'ai un 2500k à 4.7 ghz et me demande si ça changerait vraiment de passer à un CPU récent.


Message édité par Prophet_ch le 16-12-2016 à 18:06:47
n°10015532
flogger88
Euskadi Ta Askatasuna
Posté le 16-12-2016 à 19:02:14  profilanswer
1Votes positifs
 

@Prophet_ch

Citation :

J'ai un 2500k à 4.7 ghz et me demande si ça changerait vraiment de passer à un CPU récent.


 
Pour un usage normal, net, quelques jeux, multimédias, etc, sa change pas grand chose, c'est inutile de changer.
Il y aurait plus à gagner à passer à un SSD pour celui qui aurait encore son OS sur un HDD ...........


---------------
http://valid.canardpc.com/ujkyk7 http://valid.canardpc.com/show_oc.php?id=2712932 http://valid.canardpc.com/show_oc.php?id=2095761
n°10017122
Prophet_ch
Posté le 19-12-2016 à 08:52:49  profilanswer
0Votes positifs
 

Merci, c'est ce que je me disais aussi. Au final, la technologie n'a pas tant évoluer ces dernières années. C'est même assez incroyable !

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2
Page Précédente

Aller à :
Ajouter une réponse
  FORUM HardWare.fr
  Hardware
  HFR

  [HFR] Actu : Influence du PCIe sur une GTX 1080

 

Sujets relatifs
[HFR] Actu : Vega 10: 4096 unités, 1.5 GHz et 8 Go de HBM2?[HFR] Actu : Naples : l'énorme CPU Zen 32 coeurs en photo
[HFR] Actu : Radeon Instinct et Vega : AMD mise sur l'IA[HFR] Actu : Débrider une RX460, c'est possible !
[HFR] Actu : Kaby Lake dans moins d'un mois : le point[HFR] Actu : AMD va parler de Zen le 13 décembre
[HFR] Actu : Sniper Elite 3, nouveau titre Mantle 
Plus de sujets relatifs à : [HFR] Actu : Influence du PCIe sur une GTX 1080


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR