Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3021 connectés 

 

 

Fin 2022, baisse des prix, Ada.L & RDNA3, envisagez-vous toujours d'acheter une carte Ampère


 
10.9 %
 16 votes
1.  Oui, d'occase à vil prix !
 
 
5.4 %
   8 votes
2.  Oui, neuve, à un tarif enfin proche du msrp
 
 
8.8 %
 13 votes
3.  Nan j'attends les nouvelles 4060 & 4070 en 2023
 
 
8.2 %
 12 votes
4.  Nan, j'ai pris/je vais prendre une 4090
 
 
6.8 %
  10 votes
5.  Nan, j'ai pris/je vais prendre une Radeon 7000
 
 
12.2 %
 18 votes
6.  Nan mais je profite des prix des Radeon 6000 eux aussi en baisse.
 
 
47.6 %
 70 votes
7.  J'ai déjà ma RTX 3000
 

Total : 183 votes (36 votes blancs)
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  238  239  240  ..  1883  1884  1885  1886  1887  1888
Auteur Sujet :

[TU] Nvidia Ampère - GeForce RTX 3000 - La Génération Ubuesque !

n°10816246
angelusdeu​s
BlobUmad
Posté le 04-09-2020 à 10:32:52  profilanswer
 

Reprise du message précédent :

bahamut49 a écrit :


Pas sur que la prochaine gen soit aussi interessante...


Si même gravure c'est sur oui

mood
Publicité
Posté le 04-09-2020 à 10:32:52  profilanswer
 

n°10816248
bahamut49
Posté le 04-09-2020 à 10:38:22  profilanswer
 

Pumpkins55 a écrit :


 
Le truc, c'est que ma Ti fait le taf et continuera à le faire quoi qu'il en soit. Elle ne va pas devenir mauvaise simplement parce que la new gen est meilleure. Je ne souhaite pas la changer, ni en septembre, ni en janvier. Je la garde jusqu'à la sortie des Hopper.


 
Sage attitude et sans doute la meilleure chose à faire pour ceux qui ont une 2080ti...

n°10816251
solix
Posté le 04-09-2020 à 10:40:14  profilanswer
 

Pour ceux qui pensent que le PCIe 4.0 va chambouler leurs débits et temps de chargement dans les jeux.
https://www.youtube.com/watch?v=LCro0m_NgbA

Message cité 3 fois
Message édité par solix le 04-09-2020 à 10:42:24

---------------
Topic Vente
n°10816252
qhyron90
Soyez pas vache adoptez un cha
Posté le 04-09-2020 à 10:42:36  profilanswer
 

solix a écrit :

Pour ceux qui pensent que le PCIe 4.0 va chambouler leurs débits
https://www.youtube.com/watch?v=LCro0m_NgbA


 
 
quel rapport avec la choucroute?  :??:

n°10816253
cyberfred
Posté le 04-09-2020 à 10:43:20  profilanswer
 

hieta a écrit :

Pas sur que le pcie 4.0 soit si inutile, il suffit de voir la 5500xt 4go, même si elle est câblée en 8x, la différence de performance entre pcie 3.0 et 4.0 est assez marquée (20%). Pas sur qu'avec une 3070/3080 qui ont peu de vram +rtx io, sa ne joue pas sur les performance, il faudra voir les tests.
 
Ce qui est assez flippant, c'est les connecteurs d'alim, 8 pin de la 3070 (soit 225w de conso max) pour 220w de conso, soit la conso est surestimée soit la carte à 0 OC possible, soit nvidia joue avec le feu, idem pour les 3080/3090 qui sont avec un connecteur 12 pins qui sont d’ailleurs plus petits que les pins standards.


 
comment tu peux avoir une différence perf sachant que la 5500xt est une carte pcie 3.0  :??:  

n°10816254
the_fennec
f3nn3cUs z3rd4
Posté le 04-09-2020 à 10:45:00  profilanswer
 

solix a écrit :

Pour ceux qui pensent que le PCIe 4.0 va chambouler leurs débits et temps de chargement dans les jeux.
https://www.youtube.com/watch?v=LCro0m_NgbA


 
C'est pas la question, la question est de savoir si ya une diff de perf pour un jeu entre RTX IO en PCIE4 et PCIE3


---------------
Faudra que je teste un jour :o
n°10816255
zouaf
Posté le 04-09-2020 à 10:45:17  profilanswer
 

bahamut49 a écrit :


Pas sur que la prochaine gen soit aussi interessante...


 
Tu rigoles, j'espère :D  
 
Ils ont le choix entre un 7nm et un 5nm et certainement avec une bien meilleure maturité qu'actuellement :heink:  
Ils ne font rien au hasard chez nvidia :jap:  
Il y aura forcément un gap comme à chaque changement de process.
En prenant leur temps et avec leur avance techno, ils ont maintenant une grosse marge d'amélioration même si la finesse de gravure ne fait pas tout.
 
Edit: il aurait pu passer directement au 7nm TSMC qui représente un gap par rapport au 8nm samsung, la conso aurait été certainement plus basse et/où plus de perf.
Ils ont préféré le rendement, baisser le prix et garder une bonne marge tout en étant compétitif (le genre de choix que tu fais bien en amont lors de la conception du chip).
Ils ont peu être sous estimé AMD qui lui est en 7nm TSMC et est compétitif avec Navi (la conception d'Ampere et le choix du process a du débuter avant la sortie de RDNA).  
 
On verra bien.

Message cité 1 fois
Message édité par zouaf le 04-09-2020 à 10:58:55
n°10816256
aurel
Fraggueur en liberté
Posté le 04-09-2020 à 10:45:43  profilanswer
 

chaced a écrit :


 
+150w en conso en gros pour la 3080
+40w pour la 3070


Okay, pour une 3070, ca pourrait ptete passer
J'attends les bench, prix etc pour voir, j'avaiserais.

n°10816257
kida
Posté le 04-09-2020 à 10:46:15  profilanswer
 

aurel a écrit :

Salut les geeks
simple question :
Ma config actuelle :
I7-7700k sur Asus PRIME Z-270A, 32Go de ram, 3 SSD (No HDD), MSI GTX 1080 Gaming X, Seasonic G-550 80PLUS Gold.
En vue de changement de la CG vers une 3070 OU 3080, dois je changer l'alim ?
Merci  :jap:


 
Je suis un peu dans le même cas que toi (I7-7700k @ stock undervolt avec une RM650W gold) mais j'ai une RTX2070 quasi équivalente à GTX1080 (5% de perf en +)...  
 
La GTX3080 est mon premier choix, un rapport prix/perf excellent. Sauf qu'avec mon alim, c'est peut être trop juste + la conso globale de la carte 350w de TDP. L'été ca va être difficile de jouer sans même parler du bruit potentiel.
 
Mais peut être que la 3070 est plus adaptée, déjà pas besoin de changer d'alim puis je joue en wide 2560*1080 donc pas une grosse résolution...
 
J'attends de voir les tests pour me décider  :jap:

Message cité 1 fois
Message édité par kida le 04-09-2020 à 10:47:24

---------------
.::| Feedback |::.
n°10816259
DDReaper
Posté le 04-09-2020 à 10:46:40  profilanswer
 

solix a écrit :

Pour ceux qui pensent que le PCIe 4.0 va chambouler leurs débits et temps de chargement dans les jeux.
https://www.youtube.com/watch?v=LCro0m_NgbA


Aucun rapport, ces tests n'utilisent pas DirectStorage.

mood
Publicité
Posté le 04-09-2020 à 10:46:40  profilanswer
 

n°10816260
chaced
Posté le 04-09-2020 à 10:48:12  profilanswer
 

the_fennec a écrit :


 
C'est pas la question, la question est de savoir si ya une diff de perf pour un jeu entre RTX IO en PCIE4 et PCIE3


 
il faudrait déja qu'un jeu utilise RTX IO :D
 
mais je pense que l'api de microsoft a plus de chance de percer que ce truc proprio.


---------------
CPU-Z | Timespy | Mes bd | Mon blog
n°10816261
chaced
Posté le 04-09-2020 à 10:48:32  profilanswer
 

aurel a écrit :


Okay, pour une 3070, ca pourrait ptete passer
J'attends les bench, prix etc pour voir, j'avaiserais.


 
oui pour la 3070 ça passe large :jap:


---------------
CPU-Z | Timespy | Mes bd | Mon blog
n°10816264
solix
Posté le 04-09-2020 à 10:54:07  profilanswer
 

the_fennec a écrit :


 
C'est pas la question, la question est de savoir si ya une diff de perf pour un jeu entre RTX IO en PCIE4 et PCIE3


 
Je vois pas comment ça pourrait rajouter des "perfs" (fps?). Et faudrait que ça sature le PCIE3, pour voir une amélioration en PCIE4, et ça c'est pas du tout prouvé.


---------------
Topic Vente
n°10816267
Miky 2001
N'y pense même pas !!!
Posté le 04-09-2020 à 10:59:15  profilanswer
 

zouaf a écrit :


 
Tu rigoles, j'espère :D  
 
Ils ont le choix entre un 7nm et un 5nm et certainement avec une bien meilleure maturité qu'actuellement :heink:  
Ils ne font rien au hasard chez nvidia :jap:  
Il y aura forcément un gap comme à chaque changement de process.
En prenant leur temps et avec leur avance techno, ils ont maintenant une grosse marge d'amélioration même si la finesse de gravure ne fait pas tout.


+1
quand tu vois la progression que serait le passage au 5nm en densité !!  Ils pourraient encore doublé le nombre de core sur la prochaine génération juste par le process de gravure !
https://fuse.wikichip.org/wp-content/uploads/2019/10/samsung-density-14nm-5nm.png

n°10816272
patouille7​3
Le ptit prince du rail
Posté le 04-09-2020 à 11:06:27  profilanswer
 

kida a écrit :


 
Je suis un peu dans le même cas que toi (I7-7700k @ stock undervolt avec une RM650W gold) mais j'ai une RTX2070 quasi équivalente à GTX1080 (5% de perf en +)...  
 
La GTX3080 est mon premier choix, un rapport prix/perf excellent. Sauf qu'avec mon alim, c'est peut être trop juste + la conso globale de la carte 350w de TDP. L'été ca va être difficile de jouer sans même parler du bruit potentiel.
 
Mais peut être que la 3070 est plus adaptée, déjà pas besoin de changer d'alim puis je joue en wide 2560*1080 donc pas une grosse résolution...
 
J'attends de voir les tests pour me décider  :jap:


 
Ton alimentation doit tenir facilement un couple 7700K stock + RTX 3080.
 
J'ai un 9600k@5.0 GHz qui pompe 100 W grand max mais avec une Be Quiet 10 CM 500W  , donc ça sera finalement une RTX 3070 qui suffira pour du 2560x1080.
 
La 2070 finira dans ma machine PCHC-simulateur de conduite , histoire de tenir un peu mieux en 1440p que la 1660Ti actuelle.
 
 
 

n°10816273
bahamut49
Posté le 04-09-2020 à 11:09:11  profilanswer
 

Miky 2001 a écrit :


+1
quand tu vois la progression que serait le passage au 5nm en densité !!  Ils pourraient encore doublé le nombre de core sur la prochaine génération juste par le process de gravure !
https://fuse.wikichip.org/wp-conten [...] nm-5nm.png


 
Le prix sera mignon amha...

n°10816277
El Paladin​ Malefik
Posté le 04-09-2020 à 11:21:25  profilanswer
 

Après une rtx 3080 avec un i7 7700k, va falloir sérieusement songer à changer de processeur tout de même...
Il risque de faire un bon cpu limited


---------------
Config: Ryzen 7 5800X3D/AMD RX 6900XT/32 Go DDR4 Gskill Trident Z B-DIE @3733 MHz CAS 14/ASUS TUF Gaming Plus B550/AIO Corsair H115i Pro RGB Platinum/Boitier Corsair 4000D Airflow/ Samsung Odyssey G7 4k 144 Hz
n°10816278
Toskilate
Posté le 04-09-2020 à 11:28:58  profilanswer
 

Bonjour,
je me pose des questions moi... J'aimerais acheter une RTX 3080 (quand elles seront dispo) pour remplacer ma GTX 1080.
Cependant, je me pose une question, 10 Go de VRAM pour du 1440p avec les jeux Next-Gen qui vont sortir l'année prochaine, ça vous parait suffisant ? Je me dis que ça va être juste, mais peut-être que je me trompe.

 

Merci :D


Message édité par Toskilate le 04-09-2020 à 11:35:04
n°10816280
ganon304
Posté le 04-09-2020 à 11:37:09  profilanswer
 

El Paladin Malefik a écrit :

Après une rtx 3080 avec un i7 7700k, va falloir sérieusement songer à changer de processeur tout de même...
Il risque de faire un bon cpu limited


 En 1080p surement mais 1440p et 2160p j’en doute fortement

Message cité 1 fois
Message édité par ganon304 le 04-09-2020 à 11:37:41

---------------
Mon topique achat/vente: http://forum.hardware.fr/forum2.ph [...] w=0&nojs=0
n°10816281
Activation
21:9 kill Surround Gaming
Posté le 04-09-2020 à 11:39:51  profilanswer
 

le problème avec les interrogations sur "direct storage" et plus loin "rtx io" (perso c'est plus direct storage sur lequel je me questionne)
 
c'est que bien la moitié ici prennent le problème par le mauvais bout en faisant
 
 [:haha] ma carte graphique PCIe m'apporte que 0,5% sur une mobo PCIe gen 4 comparé à une mobo PCIe gen 3
 
 [:jeanlucpicard] Vous ne voulez pas comprendre qu'il n'y a pas qu'une question de Gen mais également de nombre de ligne utilisé
 
une carte graphique utilise 16 lignes (voir 8)
le problème il est pas coté carte graphique
 
le problème il est coté stockage, votre SSD au maximum ne va avoir au mieux qu'un port M2 cablé gen4 cablé par 4 lignes contenu dans le cpu (comprendre ne pas passer par le southbridge qui interconnecte plein de trucs, port usb, port sata, etc... )
 
1/ c'est pas parceque la carte graphique et le SSD sur le dit port M2 utilise les lignes PCIe du contoleur inclu dans le cpu, que ça implique que les "core du cpu" interviennent dans l'histoire
2/ c'est pas la question des perf actuelle, AUCUN jeu actuel n'utilise direct storage, car direct storage ne sera dispo dans windows que l'année prochaine
 
 
un truc très simple
admettons que vous n'ayez qu'une carte graphique gen 3 qui n'utilise que 8 lignes (donc vraisemblablement une carte bas de gamme)
 
si on veut faire du 1 pour 1
8 lignes gen 3 = la bande passante de 4 lignes gen 4
 
dans l'hypothèse que tout le flux passe, rien qu'avec une telle carte graphique un SSD M2 gen 4 relié avec 4 lignes on en a du 1 pour 1 en bande passante  
donc LECTURES ET ECRITURES
et même là vous savez pertinemment que l'écriture est bien plus lente que la lecture sur des mémoire flash
fort heureusement c'est SURTOUT une LECTURE du stockage de masse qu'est le SSD que va vouloir faire la carte graphique
 
 
pour une carte graphique simple gen 3 avec 16 lignes c'est équivalent en bande passante totale à 8 lignes gen 4 (quasiment)
ah bas mince  :o on est déjà plus en rapport 1 pour 1... c'est balot [:pooogz]  
votre carte graphique haut de gamme gen 3 AVEC SES 16 LIGNES peu recevoir l'équivalent de 8 lignes gen 4 en terme bande passante
 
Pourquoi vous n'arrivez pas à comprendre que rien que là il y a déjà un goulot coté stockage
goulot qui sera 2 fois plus étroit si votre SSD n'est connecté qu'avec des lignes de gen3 au lieu de gen4
 
Vous êtes jamais allé sur une autoroute de votre vie  :??:  
de passer à 4 voies 130km/h puis après le péage de 1-2 voies à 90 km/h y a pas comme un truc qui vous a interpelez :o
 
si on suit votre logique pourquoi on c'est fait chier à pondre jusqu'à de la gddr6x
remettons de la gddr3 ça marchera pareil  :o

Message cité 2 fois
Message édité par Activation le 04-09-2020 à 11:45:35
n°10816283
Miky 2001
N'y pense même pas !!!
Posté le 04-09-2020 à 11:41:53  profilanswer
 

bahamut49 a écrit :


 
Le prix sera mignon amha...


On disait pareil pour Ampère...

n°10816284
Space
Profil: Maux des rateurs
Posté le 04-09-2020 à 11:43:34  profilanswer
 

Avez vous trouvé d'autres nouveaux tests RTX 2080 ti vs RTX 3080 sur Tutube ? [:glaurung]


---------------
Topic écran Asus 27" 1440p Oled XG27AQDMG - Ma cinémathèque
n°10816285
Le Profana​teur
Passéiste désincarné
Posté le 04-09-2020 à 11:45:07  profilanswer
 

:d  parfait pour un dredi [:hugeq:1]


Message édité par Le Profanateur le 04-09-2020 à 11:45:31

---------------
Abordez la pente du bon côté ! \o/ Let the light surround you \o/ To bleed or not to be...
n°10816287
Miky 2001
N'y pense même pas !!!
Posté le 04-09-2020 à 11:47:39  profilanswer
 

Activation a écrit :

le problème avec les interrogations sur "direct storage" et plus loin "rtx io" (perso c'est plus direct storage sur lequel je me questionne)
....

 

Il faut peut être remettre les choses dans leur contexte aussi :
   - déja on a pas de tests, donc difficile de dire si le nombre de ligne du stockage est vraiment un soucis.
   - ensuite si il faut du PCI Gen4 du SSD M2 gen4... avant que ça deviennent la norme, les devs sont pas près de l'intégrer et de l'exploiter au max sinon ils mettent de coté 90% des joueurs potentiels.

 

Technologiquement c'est une discussion intéressante. Concrètement c'est amha "du vent"... et baser sa futur config làdessus... :heink:

 

Edit : La communication de nvidia sur ce sujet n'a a mon avis pour seul (principale ?) intérêt que de surfer sur la vague PS5 SSD qui a bien fonctionné auprès des joueurs. nVidia c'est aussi le faire, mais en mieux ! vu que les nouvelles consoles font "peur" à nvidia d'ou la tarification. c'est logique... :jap:

Message cité 1 fois
Message édité par Miky 2001 le 04-09-2020 à 11:53:50
n°10816293
ben shinob​i
Posté le 04-09-2020 à 11:53:27  profilanswer
 

Activation a écrit :

le problème avec les interrogations sur "direct storage" et plus loin "rtx io" (perso c'est plus direct storage sur lequel je me questionne)
 
c'est que bien la moitié ici prennent le problème par le mauvais bout en faisant
 
 [:haha] ma carte graphique PCIe m'apporte que 0,5% sur une mobo PCIe gen 4 comparé à une mobo PCIe gen 3
 
 [:jeanlucpicard] Vous ne voulez pas comprendre qu'il n'y a pas qu'une question de Gen mais également de nombre de ligne utilisé
 
une carte graphique utilise 16 lignes (voir 8)
le problème il est pas coté carte graphique
 
le problème il est coté stockage, votre SSD au maximum ne va avoir au mieux qu'un port M2 cablé gen4 cablé par 4 lignes contenu dans le cpu (comprendre ne pas passer par le southbridge qui interconnecte plein de trucs, port usb, port sata, etc... )
 
1/ c'est pas parceque la carte graphique et le SSD sur le dit port M2 utilise les lignes PCIe du contoleur inclu dans le cpu, que ça implique que les "core du cpu" interviennent dans l'histoire
2/ c'est pas la question des perf actuelle, AUCUN jeu actuel n'utilise direct storage, car direct storage ne sera dispo dans windows que l'année prochaine
 
 
un truc très simple
admettons que vous n'ayez qu'une carte graphique gen 3 qui n'utilise que 8 lignes (donc vraisemblablement une carte bas de gamme)
 
si on veut faire du 1 pour 1
8 lignes gen 3 = la bande passante de 4 lignes gen 4
 
dans l'hypothèse que tout le flux passe, rien qu'avec une telle carte graphique un SSD M2 gen 4 relié avec 4 lignes on en a du 1 pour 1 en bande passante  
donc LECTURES ET ECRITURES
et même là vous savez pertinemment que l'écriture est bien plus lente que la lecture sur des mémoire flash
fort heureusement c'est SURTOUT une LECTURE du stockage de masse qu'est le SSD que va vouloir faire la carte graphique
 
 
pour une carte graphique simple gen 3 avec 16 lignes c'est équivalent en bande passante totale à 8 lignes gen 4 (quasiment)
ah bas mince  :o on est déjà plus en rapport 1 pour 1... c'est balot [:pooogz]  
votre carte graphique haut de gamme gen 3 AVEC SES 16 LIGNES peu recevoir l'équivalent de 8 lignes gen 4 en terme bande passante
 
Pourquoi vous n'arrivez pas à comprendre que rien que là il y a déjà un goulot coté stockage
goulot qui sera 2 fois plus étroit si votre SSD n'est connecté qu'avec des lignes de gen3 au lieu de gen4
 
Vous êtes jamais allé sur une autoroute de votre vie  :??:  
de passer à 4 voies 130km/h puis après le péage de 1-2 voies à 90 km/h y a pas comme un truc qui vous a interpelez :o
 
si on suit votre logique pourquoi on c'est fait chier à pondre jusqu'à de la gddr6x
remettons de la gddr3 ça marchera pareil  :o


Certes.
Seulement les voies ou lignes sont déjà largement assez larges, et 1x16, 2x8 ou 1x32 ou 2x16 ça ne change strictement rien (ou pas grand chose).
Des dizaines de tests le prouvent à chaque changement de gen.  
Aussi important que le nombre et la largeur des voies, est le nombre de voitures sur chaque= le traffic (quantité de données). Depuis pcie 2.0 on est oklm  :o  
Est ce dur à comprendre?

Message cité 1 fois
Message édité par ben shinobi le 04-09-2020 à 12:03:47
n°10816294
Activation
21:9 kill Surround Gaming
Posté le 04-09-2020 à 11:53:50  profilanswer
 

on est d'accord, mais voir déjà un gros paquet ne pas sembler comprendre comment ça marche le PCIe  
y a des fois de quoi se demander si on est bien sur un topic qui cible des "GEEK" :o
 
plus l'impression d'être sur un topic de zombie :o  
 
 [:cajoline]  [:thordax] ggggg pui ss aaaance  [:thordax]  [:cajoline]
 
 [:walaziz:1] ach  teeer  [:metal slug]


Message édité par Activation le 04-09-2020 à 11:56:31
n°10816296
chaced
Posté le 04-09-2020 à 11:56:30  profilanswer
 

ben shinobi a écrit :


Certes.
Seulement les voies ou lignes sont déjà largement assez larges, et 1x16, 2x8 ou 1x32 ou 2x16 ça ne change strictement rien.
Des dizaines de tests le prouvent à chaque changement de gen.  
Aussi important que le nombre et la largeur des voies, est le nombre de voitures sur chaque, le traffic. Depuis pcie 2.0 on est oklm  :o  
Est ce dur à comprendre?


 
pcie 2.0 il y a longtemps que l'on explose la bande passante quand meme.
 
rien que mon petit ssd dépase le max du 2.0 (ok pas de beaucoup) (sachant qu'un M2 n'a pas 16 liens :D )


---------------
CPU-Z | Timespy | Mes bd | Mon blog
n°10816298
Noz_
Posté le 04-09-2020 à 11:58:34  profilanswer
 

teiris a écrit :


 
 
J'ai un mp600. En bench pas de problème j'ai mes 5go+/sec.
 
En réel j'ai note aucune différence. D'ailleurs les chargements dans un jeu vidéo sont une grande énigme pour moi, aucun composant n'est jamais à 100%, loin de là et pourtant ça prend toujours 5 à 30 sec selon le jeu.


C'est simple : le chargement n'est pas ou peu multithreadé.
Il y a des bons élèves, comme Overwatch ou Warframe, mais ce n'est pas la norme malheureusement. Dans ces jeux, le chargement +- sature un 3900X un bref instant avec un SSD SATA, et les chargements sont très rapides.
C'est pourquoi aujourd'hui il est inutile d'investir dans un SSD HDG pour jouer, mais ça pourrait changer avec ces nouvelles technos.
 
Pour moi, cette techno et son intégration dans DirectX peut apporter une rupture (les demos ps5 sont éloquentes). Entre un chargement single thread limited et un chargement qui bypass le cpu m'est d'avis que ça va être la mega claque (du moins pour ceux pour qui ça compte).


Message édité par Noz_ le 04-09-2020 à 12:01:18
n°10816299
ol1v1er
Posté le 04-09-2020 à 11:59:10  profilanswer
 

Attendons les tests
 
pour qu'ils nous disent qu'il y a 1% de différence entre le pci-e 3.0 et 4.0 :o

n°10816300
ben shinob​i
Posté le 04-09-2020 à 11:59:39  profilanswer
 

chaced a écrit :


 
pcie 2.0 il y a longtemps que l'on explose la bande passante quand meme.
 
rien que mon petit ssd dépase le max du 2.0 (ok pas de beaucoup) (sachant qu'un M2 n'a pas 16 liens :D )


Oui, mais ça suffit :). La bande passante de la ddr3 suffit elle aussi. la bande passante c'est un des arguments marketing les plus bidons pour le grand public qui n'y comprend rien. Pour les pros et leurs usages spécifiques ça change tout. Mais là, on parle bien d'une carte graphique pour GaMeRz...Pas dans le cadre d'un datacenter .

Message cité 1 fois
Message édité par ben shinobi le 04-09-2020 à 11:59:56
n°10816301
chaced
Posté le 04-09-2020 à 12:00:59  profilanswer
 

ben shinobi a écrit :


Oui, mais ça suffit :). La bande passante de la ddr3 suffit elle aussi. la bande passante c'est un des arguments marketing les plus bidons pour le grand public qui n'y comprend rien. Pour les pros et leurs usages spécifiques ça change tout. Mais là, on parle bien d'une carte graphique pour GaMeRz...Pas dans le cadre d'un datacenter .


 
non mais on s'en fou des pcie4.0 sur la RTX 3000 de toute façon, nvidia a fait les test avec du intel pour rappel donc forcément en 3.0


---------------
CPU-Z | Timespy | Mes bd | Mon blog
n°10816302
ben shinob​i
Posté le 04-09-2020 à 12:01:11  profilanswer
 

ol1v1er a écrit :

Attendons les tests
 
pour qu'ils nous disent qu'il y a 1% de différence entre le pci-e 3.0 et 4.0 :o


1 ou 2% oui. Mais ça ira quand même beaucoup plus vite, c'est ça l'important. Le RT I/O c'est une révolution, le pcie 4.0 pour nous les péquins mainstream, non.

n°10816304
ben shinob​i
Posté le 04-09-2020 à 12:02:52  profilanswer
 

chaced a écrit :


 
non mais on s'en fou des pcie4.0 sur la RTX 3000 de toute façon, nvidia a fait les test avec du intel pour rappel donc forcément en 3.0


On s'en fout aussi sur la carte mère et le cpu  :o . That's the point  [:ojap]

n°10816305
the_fennec
f3nn3cUs z3rd4
Posté le 04-09-2020 à 12:03:58  profilanswer
 

solix a écrit :

Je vois pas comment ça pourrait rajouter des "perfs" (fps?). Et faudrait que ça sature le PCIE3, pour voir une amélioration en PCIE4, et ça c'est pas du tout prouvé.


C'est pour ça qu'on se pose la question ...
Si on est en jeu (comme dans la démo de ratchet & clank) et que ça charge des trucs du SSD a trouze GB/S en même temps, peut être que le PCIE4 pourrait faire une différence.


---------------
Faudra que je teste un jour :o
n°10816306
gallean
Posté le 04-09-2020 à 12:04:00  profilanswer
 

salut à tous, je tenais a m'excuser pour les nombreux hs.


---------------
LSD for Éthiopie BIOS en 1.2.0.7 pour les mobo MSI
n°10816307
El Paladin​ Malefik
Posté le 04-09-2020 à 12:05:51  profilanswer
 

ganon304 a écrit :


 En 1080p surement mais 1440p et 2160p j’en doute fortement


 
Même en 1440p, il y a qu'en 4k que ça passera à la rigueur. Mais le 4 coeurs/8 threads va pas faire encore long feu, le standard est plus à 6 coeurs/12 threads aujourd'hui et les futurs jeux vont de plus en plus exploiter encore plus de cœurs.
Donc bon un i7 7700k c'est déjà cpu limited avec une rtx 2080ti en 1080 voir 1440p sur certains jeux alors une RTX 3080 qui tablerait sur 60% de perfs en plus je te laisse imaginer...

Message cité 2 fois
Message édité par El Paladin Malefik le 04-09-2020 à 12:06:40

---------------
Config: Ryzen 7 5800X3D/AMD RX 6900XT/32 Go DDR4 Gskill Trident Z B-DIE @3733 MHz CAS 14/ASUS TUF Gaming Plus B550/AIO Corsair H115i Pro RGB Platinum/Boitier Corsair 4000D Airflow/ Samsung Odyssey G7 4k 144 Hz
n°10816308
ben shinob​i
Posté le 04-09-2020 à 12:06:54  profilanswer
 

the_fennec a écrit :


C'est pour ça qu'on se pose la question ...
Si on est en jeu (comme dans la démo de ratchet & clank) et que ça charge des trucs du SSD a trouze GB/S en même temps, peut être que le PCIE4 pourrait faire une différence.


Attention, le dx12 (probablement Vulkan aussi) écrit des infos en mémoire paginée en direct (in game) pour tout ce qui est DXR et shaders etc...ça peut jouer, un peu. En dx11, non, puisque toutes les ombres sont chargées avant de commencer à jouer. Donc dx12, gain en chargement et en direct (fps), dx11, uniquement en temps de chargement.
 
Si le direct x RT I/o n'utilise que le dx12 (ou vulkan), par contre là, c'est balot  [:clooney19] . 9/10 des jeux sur lequel ça n'aura strictement aucun impact (dx11). Et là, pcie zoubi.0 ou pas  [:fl4me]


Message édité par ben shinobi le 04-09-2020 à 12:14:29
n°10816309
angelusdeu​s
BlobUmad
Posté le 04-09-2020 à 12:08:01  profilanswer
 

aurel a écrit :

Salut les geeks
simple question :
Ma config actuelle :
I7-7700k sur Asus PRIME Z-270A, 32Go de ram, 3 SSD (No HDD), MSI GTX 1080 Gaming X, Seasonic G-550 80PLUS Gold.
En vue de changement de la CG vers une 3070 OU 3080, dois je changer l'alim ?
Merci :jap:


Bah oui, c'est quoi cette question...
550w ton alim  :sweat:

n°10816311
El Paladin​ Malefik
Posté le 04-09-2020 à 12:12:05  profilanswer
 

angelusdeus a écrit :


Bah oui, c'est quoi cette question...
550w ton alim  :sweat:


 
Et de cpu aussi si c'est pas pour du 4k^^


Message édité par El Paladin Malefik le 04-09-2020 à 12:12:19

---------------
Config: Ryzen 7 5800X3D/AMD RX 6900XT/32 Go DDR4 Gskill Trident Z B-DIE @3733 MHz CAS 14/ASUS TUF Gaming Plus B550/AIO Corsair H115i Pro RGB Platinum/Boitier Corsair 4000D Airflow/ Samsung Odyssey G7 4k 144 Hz
n°10816314
Space
Profil: Maux des rateurs
Posté le 04-09-2020 à 12:14:08  profilanswer
 

gallean a écrit :

salut à tous, je tenais a m'excuser pour les nombreux hs.

salut à toi,
 
Moi je tenais à m'excuser pour les vidéos youtube déja postés :o


---------------
Topic écran Asus 27" 1440p Oled XG27AQDMG - Ma cinémathèque
n°10816316
btbw03
Ailurophile plutôt qu'Humain
Posté le 04-09-2020 à 12:17:01  profilanswer
 

El Paladin Malefik a écrit :


 
Donc bon un i7 7700k c'est déjà cpu limited avec une rtx 2080ti en 1080 voir 1440p sur certains jeux...


 
Heuuu non

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  238  239  240  ..  1883  1884  1885  1886  1887  1888

Aller à :
Ajouter une réponse
 

Sujets relatifs
Faire tourner Catia avec une Nvidia gtx ?upgrade de win7 a Win10 impossible cause nvidia 7050 incompatible
Windows+Nvidia=Pas de HDR?[Topic unique] AMD Ryzen - Zen 3, 7nm, fin 2020
Coque télécommande NVIDIA ShieldCable Alim pcie NVidia 8 pins
nvidia quadro 600Pb NVIDIA Geforce GTX 1660 win10 et carte mère AZUS P8Z77-V
Changer ma rx 570 par une carte nvidia 
Plus de sujets relatifs à : [TU] Nvidia Ampère - GeForce RTX 3000 - La Génération Ubuesque !


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)