Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1522 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2
Page Suivante
Auteur Sujet :

[HFR] Actu : La norme PCI Express 4.0 finalisée

n°10259994
keydar
Posté le 26-10-2017 à 13:41:27  profilanswer
0Votes positifs
 

Reprise du message précédent :

ravenloft a écrit :


Ces commentaires n'auraient pas tort en soi même si la fin de la phrase est absurde car quel rapport entre la quantité de ram et l'intérêt du pci express 4? Le bus pciexpress n'a jamais été un facteur limitant et l'est encore moins aujourd'hui. Il y a déjà eu pleins de tests montrant qu'à moins de rester en pciexpress 1.0 ou utiliser du sli à outrance, les perfs varient souvent seulement au pire de quelques % au mieux à la marge.
C'est d'ailleurs pour ça que les constructeurs de carte graphique ne se plaignent pas de ce retard et que quand un nouveau pciexpress arrive, t'as vraiment pas besoin de te presser à switcher dessus.


Pour le sport, je me lance.  
Changeant très peu de config (hors gpu) la dernière fois c'était à la jonction 2.0->3.0. époque du P67/Z68.
j'ai pris du 3.0 pour voir venir la différence à l'époque était nulle.
Sur les 4 ports (2x16 & 2x1) j'en utilise 3 dont les 2 16x (le dernier 1x étant inaccessible) dans cette configuration les 16x fonctionnent en 8x.
 
https://tpucdn.com/reviews/NVIDIA/G [...] 0_1080.png
 
avec le scaling ci-dessus mono GPU. (jeu et résolution que j'utilise),
en 2.0 j'aurais perdu ~9% de perf par rapport au 16x@3.0
en 3.0 je ne perds que ~2%  
 
bref pas besoin de SLI pour perdre des perf. 9% pour moi ce n'est plus de la marge d’erreur.


---------------
ROG Strix X570-F - R7 3800X - 16G@3733C15 1T - Crucial BX100 240G - Crucial P1 1T NVME - C27HG70 - S23A700D - RTX3070FE  - Win 10 // UX32VD-R4002H - Bios 213 - Intel i7-3517U - 10Go - FHD - iSSD+SSD Samsung840 240Go - Manjaro/Win
mood
Publicité
Posté le 26-10-2017 à 13:41:27  profilanswer
 

n°10259999
drynek
Posté le 26-10-2017 à 13:47:27  profilanswer
0Votes positifs
 

@samourai80
Vous étés encore en développement ? Ou phase pré indus?
Ça confirme que pas avant fin 2018 sur le mainstreams quoi a priori soit petit durée de vie le pépère ou bien on nous vend de la merde sur le 5 comme ca deviens une habitude est lui on l'aura pas avant 2020/2021 au mieux  soit 3 ans pour le 4


---------------
"Toute voiture restant en un morceau pendant plus d'une course est trop lourde"  
n°10260041
mazingerz
Posté le 26-10-2017 à 14:22:30  profilanswer
0Votes positifs
 

ravenloft a écrit :


Ces commentaires n'auraient pas tort en soi même si la fin de la phrase est absurde car quel rapport entre la quantité de ram et l'intérêt du pci express 4? Le bus pciexpress n'a jamais été un facteur limitant et l'est encore moins aujourd'hui. Il y a déjà eu pleins de tests montrant qu'à moins de rester en pciexpress 1.0 ou utiliser du sli à outrance, les perfs varient souvent seulement au pire de quelques % au mieux à la marge.
C'est d'ailleurs pour ça que les constructeurs de carte graphique ne se plaignent pas de ce retard et que quand un nouveau pciexpress arrive, t'as vraiment pas besoin de te presser à switcher dessus.


 
je te propose te passer ta CG en PCIe 1X et tu nous en diras des nouvelles ...

n°10260044
samurai80
Posté le 26-10-2017 à 14:26:32  profilanswer
0Votes positifs
 

drynek a écrit :

@samourai80
Vous étés encore en développement ? Ou phase pré indus?
Ça confirme que pas avant fin 2018 sur le mainstreams quoi a priori soit petit durée de vie le pépère ou bien on nous vend de la merde sur le 5 comme ca deviens une habitude est lui on l'aura pas avant 2020/2021 au mieux  soit 3 ans pour le 4

C'est taped out donc phase pre indus. Je ne sais pas trop pour le 5 honettement mais perso je le vois pas dispo avant 2021-22 sur le mainstream.

n°10260054
HashBoost
Posté le 26-10-2017 à 14:35:09  profilanswer
0Votes positifs
 

NVidia et AMD poussent chacun des technologies de mémoire unifiée entre le GPU et le système. Dans ce sens, avoir une bande passante toujours plus élevée est intéressant. Maintenant, ce sont des techno pas vraiment fondamentales dans le gaming, donc...

n°10260068
samurai80
Posté le 26-10-2017 à 14:41:41  profilanswer
0Votes positifs
 

HashBoost a écrit :

NVidia et AMD poussent chacun des technologies de mémoire unifiée entre le GPU et le système. Dans ce sens, avoir une bande passante toujours plus élevée est intéressant. Maintenant, ce sont des techno pas vraiment fondamentales dans le gaming, donc...

Ben c'est CCIX, GenZ et OpenCAPI en gros.

n°10260157
valeoscoot
Posté le 26-10-2017 à 16:01:46  profilanswer
0Votes positifs
 

HashBoost a écrit :

NVidia et AMD poussent chacun des technologies de mémoire unifiée entre le GPU et le système. Dans ce sens, avoir une bande passante toujours plus élevée est intéressant. Maintenant, ce sont des techno pas vraiment fondamentales dans le gaming, donc...


Effectivement, mais toute l'informatique n'est pas gaming.
Les grosses marges se font même ailleurs que sur le gaming, tout ce qui est application Pro notamment.
 
Par ailleurs la présentation AMD avec HBM2 laisse entendre qu'ils s'orientent vers un usage direct par le GPU de la RAM (et même de la mémoire de masse), la HBM2 ne servant quasiment que de cache. Le concept envisage donc d'avoir un carte graphique avec 4Go de HBM2 et puis tout le reste est à piocher sur la RAM, voire le SSD du PC.
Du coup la vitesse RAM et SSD deviennent très importantes pour le GPU... et la vitesse connexion et des débits de transfert aussi.
Actuellement, avec les grosses cartes graphiques on est en limite de débit si on utilise 2 cartes PCI 3.0 16x. On voit qu'à 2 cartes en 8x, on subit un ralentissement, certes pas énorme mais réel. Du coup, de nouvelles générations de cartes, plus puissantes, risquent d'y trouver des limites manifestes. Il est impératif que la norme soit mise en place avant la sortie de ces cartes.

n°10260174
zonka
x58 forever!
Posté le 26-10-2017 à 16:10:57  profilanswer
0Votes positifs
 
n°10260199
Nayald
Posté le 26-10-2017 à 16:35:21  profilanswer
0Votes positifs
 

ravenloft a écrit :


Ces commentaires n'auraient pas tort en soi même si la fin de la phrase est absurde car quel rapport entre la quantité de ram et l'intérêt du pci express 4? Le bus pciexpress n'a jamais été un facteur limitant et l'est encore moins aujourd'hui. Il y a déjà eu pleins de tests montrant qu'à moins de rester en pciexpress 1.0 ou utiliser du sli à outrance, les perfs varient souvent seulement au pire de quelques % au mieux à la marge.
C'est d'ailleurs pour ça que les constructeurs de carte graphique ne se plaignent pas de ce retard et que quand un nouveau pciexpress arrive, t'as vraiment pas besoin de te presser à switcher dessus.


 
J'y vois un avantage pour le GPGPU car qui dit plus de débit dit moins de temps pour transférer des données au GPU. Car on peut perdre pas mal de perf à cause de cette attente.

n°10260206
drynek
Posté le 26-10-2017 à 16:39:02  profilanswer
0Votes positifs
 

ah tient encore sophie la gourmande, c'est plein de chaudière au gabon ou quoi   :o  
 


---------------
"Toute voiture restant en un morceau pendant plus d'une course est trop lourde"  
mood
Publicité
Posté le 26-10-2017 à 16:39:02  profilanswer
 

n°10260215
Krutors
Posté le 26-10-2017 à 16:54:38  profilanswer
0Votes positifs
 

Nayald a écrit :


 
J'y vois un avantage pour le GPGPU car qui dit plus de débit dit moins de temps pour transférer des données au GPU. Car on peut perdre pas mal de perf à cause de cette attente.


 
Je pense que dans ce cadre là, c'est plus la latence le problème, pas nécessairement le débit. Il me semble que le PCI-E est un bus assez "lent" en terme de temps d'accès.

n°10260217
B00lay Ier
Posté le 26-10-2017 à 16:55:58  profilanswer
0Votes positifs
 

samurai80 a écrit :

Clairement pas. Premierement si tu connais un peu comment fonctionne la retrocompatibilite du PCIe, tu saurais qu'elle n'engendre aucun facteur limitant (en tous cas pas au niveau de la couche physique) donc la sacrifier ne permettra aucun gain.

 

Troisiemement dans mon taf on developpe des puces en Gen4 actuellement et nos concurrents aussi. Donc je suis assez bien place (c'est moi qui bosse sur le controlleur PCIe) pour savoir que la Gen4 sera bel et bien utilisee, et il est peu probable que ce ne soit pas le cas pour les PCs grand public.


Tu sais le nombre de produits développés qui ne voient pas le jour, ou pour ainsi dire uniquement sur le papier et jamais mis en production de masse? :o

 

Par contre effectivement, avec un peu de recul, la rupture de rétro-compatibilité n'est pas forcément indispensable.

 
Krutors a écrit :

Je pense que dans ce cadre là, c'est plus la latence le problème, pas nécessairement le débit. Il me semble que le PCI-E est un bus assez "lent" en terme de temps d'accès.


Le PCIe étant point à point, la latence doit pas être loin du minimum... la clé actuellement c'est la consommation spécifique, d'où la solution de facilité de l'encodage 128:130 avec le PCIe 3.0 déjà.

Message cité 1 fois
Message édité par B00lay Ier le 26-10-2017 à 16:59:31
n°10260273
samurai80
Posté le 26-10-2017 à 18:02:23  profilanswer
0Votes positifs
 

Krutors a écrit :

Je pense que dans ce cadre là, c'est plus la latence le problème, pas nécessairement le débit. Il me semble que le PCI-E est un bus assez "lent" en terme de temps d'accès.


150ns environ sur du PCIe Gen3. A priori negligeable pour une application de video 3D classique.
 

B00lay Ier a écrit :

Tu sais le nombre de produits développés qui ne voient pas le jour, ou pour ainsi dire uniquement sur le papier et jamais mis en production de masse? :o

Ouais enfin on parle de PCIe quand meme. LE bus central dans un PC pour ainsi dire. Ca m'etonnerait qu'il ne soit pas utilise sur des composants mainstream.
 

B00lay Ier a écrit :

Par contre effectivement, avec un peu de recul, la rupture de rétro-compatibilité n'est pas forcément indispensable.

Relis surtout mon message, j'expliquais que la retrocompatibilite n'est pas un facteur limitant, donc autant la laisser.

Message cité 1 fois
Message édité par samurai80 le 26-10-2017 à 18:06:19
n°10260298
drynek
Posté le 26-10-2017 à 18:41:26  profilanswer
0Votes positifs
 

samurai80 a écrit :


150ns environ sur du PCIe Gen3. A priori negligeable pour une application de video 3D classique.
 


A priori négligeable pour pas mal de chose autre que la vidéo 3d, c'est peanuts 150ns ça fait quoi 0.00015ms, même les meilleur ssd PCI ne descende pas en dessous des 0.020ms soit 2000ns y a encore de la marge aussi de ce point de vue la.
 :ouch:


---------------
"Toute voiture restant en un morceau pendant plus d'une course est trop lourde"  
n°10260330
NEmergix
Lanceur d'Heden depuis 1854
Posté le 26-10-2017 à 19:21:41  profilanswer
0Votes positifs
 

Alors que la norme 2.0 n'est pas dépassé pour 90% des gents :o


---------------
Lurker pro | Steam | Topic Deep Rock Galactic
n°10260392
Nayald
Posté le 26-10-2017 à 20:14:09  profilanswer
1Votes positifs
 

L'article en parle pas mais, ont ils validé le délire des 300w par port ?

n°10260513
HashBoost
Posté le 26-10-2017 à 21:46:26  profilanswer
0Votes positifs
 

valeoscoot a écrit :

Effectivement, mais toute l'informatique n'est pas gaming.Les grosses marges se font même ailleurs que sur le gaming, tout ce qui est application Pro notamment.


Tient, tu nous remets ta théorie qui s'est faite démontée chiffre à l'appui dans les news précédentes ? Enfin bon.
 

valeoscoot a écrit :

Par ailleurs la présentation AMD avec HBM2 laisse entendre qu'ils s'orientent vers un usage direct par le GPU de la RAM (et même de la mémoire de masse), la HBM2 ne servant quasiment que de cache.


Je coupe le reste...Tu n'as aucune notion de ce que AMD et NVidia veulent faire. Ta compréhension est limitée dans ce domaine et tu mélanges beaucoup de choses ensemble.
La mémoire unifiée est un artifice de programmation pour le développeur, jamais un GPU ne fera un calcul sur de la mémoire centrale, ce serait suicidaire en termes d'efficacité. Par contre, pour le programmeur, avoir cette mémoire unifiée lui permet de ne pas se limiter à une taille donnée et de décharger la responsabilité sur le GPU d'avoir les bonnes données au bon moment et au bon endroit. Ce n'est qu'un MMU pour GPU.

n°10260519
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 26-10-2017 à 21:54:41  profilanswer
0Votes positifs
 

loustic a écrit :

Quid des limites des longueurs de lignes PCIex, notamment pour les perifs externe?


Je n'ai plus de login membre PCI-SIG valide pour y avoir accès :/

n°10260523
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 26-10-2017 à 21:57:06  profilanswer
0Votes positifs
 

Nayald a écrit :

L'article en parle pas mais, ont ils validé le délire des 300w par port ?


Tout ce qui est communiqué si ce n'est la vitesse c'est :
 

Citation :

Additional functional enhancements include:
 Extended tags and credits for service devices
 Reduced system latency
 Lane margining
 Superior RAS capabilities
 Scalability for added lanes and bandwidth
 Improved I/O virtualization and platform integration

n°10260605
SynE
Posté le 26-10-2017 à 22:51:13  profilanswer
0Votes positifs
 

Vaniteux, va. Mon premier ordi n'avait même pas de lecteur de cassette.
 

zezinho a écrit :


Vaniteux, va. Ma première CG avait 512ko de RAM, j'avais droit à du 640x480 16bits ou 800x600 8bits...
 
https://en.wikipedia.org/wiki/Tseng_Labs

n°10262481
loustic
Posté le 28-10-2017 à 20:42:23  profilanswer
0Votes positifs
 

Marc a écrit :


Je n'ai plus de login membre PCI-SIG valide pour y avoir accès :/


Que l'on m'apporte un fouet!.............. :p
 
 
Curieux de voir ce qu'ils vont faire sur la V5, déjà que la 4 s'annonce borderline à ce niveau. Pour la 6 quelqu'un sait s'ils vont partir sur de la commutation à coup de PAM?

n°10262551
samurai80
Posté le 28-10-2017 à 22:19:36  profilanswer
0Votes positifs
 

loustic a écrit :


Que l'on m'apporte un fouet!.............. :p
 
 
Curieux de voir ce qu'ils vont faire sur la V5, déjà que la 4 s'annonce borderline à ce niveau. Pour la 6 quelqu'un sait s'ils vont partir sur de la commutation à coup de PAM?

Je crois que le PAM4 est deja ce qui est prevu sur la Gen5.

n°10263884
B00lay Ier
Posté le 30-10-2017 à 15:41:24  profilanswer
1Votes positifs
 

HashBoost a écrit :

jamais un GPU ne fera un calcul sur de la mémoire centrale, ce serait suicidaire en termes d'efficacité. Par contre, pour le programmeur, avoir cette mémoire unifiée lui permet de ne pas se limiter à une taille donnée et de décharger la responsabilité sur le GPU d'avoir les bonnes données au bon moment et au bon endroit. Ce n'est qu'un MMU pour GPU.


Oui et non, dans certains cas il peut être préférable de rapatrier directement en cache les données d'un espace mémoire lointain plutôt que de les amener en mémoire locale, ce qui revient à aller les lire directement. En HPC, on va tendre vers ce modèle, avec notamment une mémoire locale servant juste à ne pas envoyer des données inutiles à l'autre bout.

 

Dans le cas des APU, c'est aussi ce qui permet d'éviter la copie de données de la RAM centrale vers la VRAM, simplement en travaillant sur des pointeurs communs.


Message édité par B00lay Ier le 30-10-2017 à 15:43:53
n°10273111
drynek
Posté le 12-11-2017 à 09:36:28  profilanswer
0Votes positifs
 

HashBoost a écrit :


Je coupe le reste...Tu n'as aucune notion de ce que AMD et NVidia veulent faire. Ta compréhension est limitée dans ce domaine et tu mélanges beaucoup de choses ensemble.
La mémoire unifiée est un artifice de programmation pour le développeur, jamais un GPU ne fera un calcul sur de la mémoire centrale, ce serait suicidaire en termes d'efficacité. Par contre, pour le programmeur, avoir cette mémoire unifiée lui permet de ne pas se limiter à une taille donnée et de décharger la responsabilité sur le GPU d'avoir les bonnes données au bon moment et au bon endroit. Ce n'est qu'un MMU pour GPU.


Par contre l'inverse est jouable non?
Je sais qu'il existe de la RAM en PCI 3 (PMC qui a sortie ça je crois) pour l'avenir peut t'on imaginé ce genre de techno adapté aux gaming avec de la ddr5(x) ou 6 en PCI 4 cela ne rendrais t'il pas la ram que l'on connais totalement obsolète avec a la clef un boost assez net des machines ?????
Ou l'idée est totalement irréalisable ?
Ça permettrais de surcroit a de "vieilles" machine d'avoir un up sans changé de mobale


---------------
"Toute voiture restant en un morceau pendant plus d'une course est trop lourde"  
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2
Page Suivante

Aller à :
Ajouter une réponse
 

Sujets relatifs
[HFR] Actu : La boutique HardWare.fr a un an ![HFR] Actu : Seagate vise 40 To en 2023 avec l'HAMR
PCI Express 3.0 16x (8x ou 4x)[HFR] Actu : Samsung annonce la qualification de son 8LPP
[HFR] Actu : Nouvelle offre AMD sur les RX Vega 
Plus de sujets relatifs à : [HFR] Actu : La norme PCI Express 4.0 finalisée


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR