Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3242 connectés 

 

 

Fin 2022, baisse des prix, Ada.L & RDNA3, envisagez-vous toujours d'acheter une carte Ampère


 
10.9 %
 16 votes
1.  Oui, d'occase à vil prix !
 
 
5.4 %
   8 votes
2.  Oui, neuve, à un tarif enfin proche du msrp
 
 
8.8 %
 13 votes
3.  Nan j'attends les nouvelles 4060 & 4070 en 2023
 
 
8.2 %
 12 votes
4.  Nan, j'ai pris/je vais prendre une 4090
 
 
6.8 %
  10 votes
5.  Nan, j'ai pris/je vais prendre une Radeon 7000
 
 
12.2 %
 18 votes
6.  Nan mais je profite des prix des Radeon 6000 eux aussi en baisse.
 
 
47.6 %
 70 votes
7.  J'ai déjà ma RTX 3000
 

Total : 183 votes (36 votes blancs)
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  1753  1754  1755  ..  1884  1885  1886  1887  1888  1889
Auteur Sujet :

[TU] Nvidia Ampère - GeForce RTX 3000 - La Génération Ubuesque !

n°11108170
Ricard ou ​51
Posté le 23-03-2022 à 20:30:39  profilanswer
 

Reprise du message précédent :
Merci pour vos retours.
Qd vous parlez de "clock", cela concerne son potentiel d'oc?


---------------
Feed ||
mood
Publicité
Posté le 23-03-2022 à 20:30:39  profilanswer
 

n°11108177
drmanhatta​n31
aka innocent
Posté le 23-03-2022 à 20:46:28  profilanswer
 
n°11108205
KaneZe
Posté le 23-03-2022 à 22:40:25  profilanswer
 

Enfin pu tester cyberpunk 2077, pfiou, ca calme niveau graphisme. tout au max, raytracing on, and 1440P (encore heureux que ca ne rame pas).  
Niveau ambiance, j'avoue je suis bluffé. Et j'ai stabilisé les températures, plus rien ne dépasse 63° après une heure de jeu. Comme quoi un CPU qui chauffe et une 3090FE, même stock, ca a besoin de beaucoup de surface d'échange air/eau pour maintenir un niveau de température sympa.

n°11108208
Ricard ou ​51
Posté le 23-03-2022 à 23:06:07  profilanswer
 


 
Ok
Donc @stock, voir même avec plutôt un UV, ca le fera


---------------
Feed ||
n°11108223
orion0101
Tuono V4 Factory depuis 2017!
Posté le 24-03-2022 à 01:19:56  profilanswer
 

dax73 a écrit :


 
C’est un Asus Rog XG279Q-W


 
Merci de la confirmation :jap:
 

Ricard ou 51 a écrit :


 
Ok
Donc @stock, voir même avec plutôt un UV, ca le fera


 
Pour du jeu, l'overclocking donne des gains assez marginaux.
Pas la peine de trop se prendre la tête avec la recherche d'un "bon bin".
 
Ceux qui le font, c'est pour péter du bench et/ou par plaisir :jap:


---------------
"Peu importe s'il dit la vérité, ce n'est pas une défense valable" "Il faut interpréter le tweet en se mettant au niveau, à la portée du Français et de l'électeur moyen"
n°11108326
KaneZe
Posté le 24-03-2022 à 11:38:12  profilanswer
 

orion0101 a écrit :


 
J'ai une intuition concernant l'écran, mais tu pourrais me confirmer le modèle stp?
 


 

orion0101 a écrit :


 
Tu réviseras ton jugement quand tu auras testé tes jeux de courses/aventures/etc... en 4K 120hz sur un OLED, crois moi :D


Je plussois, j'ai testé sur un 4K oled 120hz, avec le câble HDMI qui va bien, et du coup jouer sur un 65'' ca change un peu tout dans l'immersion
Mais grosse contrainte, ca mobilise l'écran du salon, et même si c'est top de jouer en 5.1 etc etc, bonjour le bordel.
Du coup je suis repartit sur mon 32'' 1440P/240hz, et au casque (merci la SB X7, ca rend bien en spatialisation).
 
Mais clairement, un OLED de petite taille 4K/120hz, si les prix descendent un peu, ca deviendra une sacrée concurrence pour les écrans gamer de grande taille.
A date je crois que le ticket d'entrée en OLED 48'' hmdi 2.1, c'est 1300€. L'équivalent en écran PC, dans la gamme 32''/43", ca peut monter jusqu'à...3000€ pour le asus mini led o_O

n°11108333
KaneZe
Posté le 24-03-2022 à 11:50:30  profilanswer
 

drmanhattan31 a écrit :


je joue et je bench :o mais la plupart du temps j'en ai qu'une de plug car pas besoin des 2


Désolé d'être indiscret, mais tu bench sur un écran 4K, ou moins?  
Le peu que j'ai testé sur un 4K oled 120hz, la 3090 permet bien de jouer en 4K, mais loin d'assurer 60fps sur Cyberpunk avec le RT par exemple.

n°11108352
n0name
Etat nounou, Etat soeur.
Posté le 24-03-2022 à 12:15:34  profilanswer
 

Valaint67130 a écrit :

 

Un des meilleurs modèles de la gén, très silencieuse est très bien refroidie

 


J'en ai eu une dans le boîtier et ca reste quand même en dessous des hauts de gammes :o

 

Mais en milieu de gamme elle est top. Son intérêt c'est qu'elle est petite


Message édité par n0name le 24-03-2022 à 12:15:58

---------------
Mes ventes: https://forum.hardware.fr/forum2.ph [...] 851&page=1
n°11108369
Yopiyep
Posté le 24-03-2022 à 13:01:00  profilanswer
 

Les hauts de gamme sont en 3*8 pins, et la plupart des meilleurs scores de benchs l'étaient avec des Strix et quelques EVGA FTW3 Ultra sur 3d mark et une conso démesurée. (en tout cas en septembre 2021, ça a pu bouger depuis) :o  
Faut comparer ce qui reste comparable, au sein d'un même segment, les 2*8 pins d'un côté avec une Tuf qui domine (hors tarif avec une Fe) niveau bruit, temps (y compris mémoire, pas besoin de repad) et dimensions, et de l'autre côté les 3*8 pins, qui forcément seront plus performantes, mais plus chères, plus énergivores et dégageront plus de chaleur  :sarcastic:

n°11108372
n0name
Etat nounou, Etat soeur.
Posté le 24-03-2022 à 13:23:16  profilanswer
 

Yopiyep a écrit :

Les hauts de gamme sont en 3*8 pins, et la plupart des meilleurs scores de benchs l'étaient avec des Strix et quelques EVGA FTW3 Ultra sur 3d mark et une conso démesurée. (en tout cas en septembre 2021, ça a pu bouger depuis) :o
Faut comparer ce qui reste comparable, au sein d'un même segment, les 2*8 pins d'un côté avec une Tuf qui domine (hors tarif avec une Fe) niveau bruit, temps (y compris mémoire, pas besoin de repad) et dimensions, et de l'autre côté les 3*8 pins, qui forcément seront plus performantes, mais plus chères, plus énergivores et dégageront plus de chaleur  :sarcastic:

 


Elles seront aussi beaucoup moins bruyante à puissance-chauffe équivalente d'une TUF.


Message édité par n0name le 24-03-2022 à 13:25:22

---------------
Mes ventes: https://forum.hardware.fr/forum2.ph [...] 851&page=1
mood
Publicité
Posté le 24-03-2022 à 13:23:16  profilanswer
 

n°11108378
Vince@ESIE​E
Posté le 24-03-2022 à 13:52:04  profilanswer
 

KaneZe a écrit :


Je plussois, j'ai testé sur un 4K oled 120hz, avec le câble HDMI qui va bien, et du coup jouer sur un 65'' ca change un peu tout dans l'immersion
Mais grosse contrainte, ca mobilise l'écran du salon, et même si c'est top de jouer en 5.1 etc etc, bonjour le bordel.
Du coup je suis repartit sur mon 32'' 1440P/240hz, et au casque (merci la SB X7, ca rend bien en spatialisation).
 
Mais clairement, un OLED de petite taille 4K/120hz, si les prix descendent un peu, ca deviendra une sacrée concurrence pour les écrans gamer de grande taille.
A date je crois que le ticket d'entrée en OLED 48'' hmdi 2.1, c'est 1300€. L'équivalent en écran PC, dans la gamme 32''/43", ca peut monter jusqu'à...3000€ pour le asus mini led o_O


 
 
J'imagine  :sol:  
J'avais le projet de prendre un 65 CX pour tester cette expérience mais j'ai été freiné à cause des pb des câbles HDMI 2.1 grande longueurs (il me fallait 12,5m)
Puis ça ne s'est jamais fait car impossible de trouver un bon compromis pour être bien gaulé dans un salon en mode clavier/souris.
 
Pour en revenir aux modèles qui vont sortir sur PC, 42 pouces à moins de 80cm de la tronche ???


Message édité par Vince@ESIEE le 24-03-2022 à 13:52:21

---------------
http://forum.hardware.fr/hfr/Overc [...] 5290_1.htm
n°11108387
drmanhatta​n31
aka innocent
Posté le 24-03-2022 à 14:24:54  profilanswer
 

KaneZe a écrit :


Désolé d'être indiscret, mais tu bench sur un écran 4K, ou moins?  
Le peu que j'ai testé sur un 4K oled 120hz, la 3090 permet bien de jouer en 4K, mais loin d'assurer 60fps sur Cyberpunk avec le RT par exemple.


les benchs s'en foutent de la résolution (*presque*) mais oui je suis en 4k (mais ça change rien)

n°11108392
KaneZe
Posté le 24-03-2022 à 14:30:27  profilanswer
 

ca a évolué la gestion du SLI, en mieux je veux dire, avec win1, DX12? Non que je souhaite faire une usine à gaz, mais je suis curieux de voir si ca s'est améliorer vs une époque pas si lointaine :)

n°11108440
drmanhatta​n31
aka innocent
Posté le 24-03-2022 à 15:40:41  profilanswer
 

le SLI/NvLink ça restera toujours de la merde, hors bench ! :o

n°11108455
Profil sup​primé
Posté le 24-03-2022 à 15:57:42  answer
 

Du moment que tu sais que tout est dupliqué en mémoire, quelle perte !

n°11108457
Ill Nino
Love
Posté le 24-03-2022 à 16:34:48  profilanswer
 

Mais je croyais que le SLI n'existait plus. Il n'y a même plus de connecteurs sur les cartes.


---------------
Faut qu'on court comme des lions, des tigres et des ours!
n°11108459
Uriette
Ces koi se pouler ?
Posté le 24-03-2022 à 16:37:58  profilanswer
 

Les profils SLI sont morts oui.

 

Mais DX12 peut gérer le multiGPU. Mais les devs de jeux / logiciels doivent quand même taffer pour l'implémenter dans les programmes et jeux.

 

Regardez la vidéo de LinusTechTips sur YouTube où il fait un NVLink de 3090 ROG Strix et même que leur première alim se fou en sécurité car ça tire trop, il fait la liste de jeux qui gèrent le NVLink... Ça se compte les 10 doigts, c'est vous dire. :D


Message édité par Uriette le 24-03-2022 à 16:38:26

---------------
https://www.twitch.tv/uriette_ / Mon Topic Vente/Achat HFR
n°11108477
Profil sup​primé
Posté le 24-03-2022 à 17:25:55  answer
 

Le SLI, je l'avais testé sur des cartes d'entrée de gamme (des 9600 GT), pressentant que ça n'allait qu'avoir peu d'intérêt sur le haut de gamme
Je me trompais, c'est encore plus inintéressant :o
Et à l'époque, tout le monde me disait que j'avais tort de ne pas prendre du haut de gamme
Ils avaient raison :D
L'histoire m'a juste donné raison, l'essai n'a pas été transformé, merci [:anefail:2]  
En attendant je m'était bien amusé et la perf. était là (la consommation aussi)
 
https://www.techpowerup.com/img/08-01-29/9600sli7.png


Message édité par Profil supprimé le 24-03-2022 à 17:34:11
n°11108563
Profil sup​primé
Posté le 25-03-2022 à 08:07:33  answer
 

dax73 a écrit :


 
Merci pour ton retour,
Oui en effet sur le pcie A, led  rails 5 et 6 sont couplés.  ( 5 et 6)
J’en ai branché un sur le rail 3 et l’autre sur le port couplé  :jap:


 
j'ai fait pareil, un sur le V5 ou V6 à 40A (je ne sais plus trop lequel exactement) et l'autre sur un à 35A.
 
Et je trouve ça bien aussi de laisser à l'utilisateur de passer en monorail ou multi comme il le souhaite, avec un simple petit interrupteur sur une équerre pci,
 
ou pour ceux qui ne veulent que du monorail en permanence ils fournissent aussi une "clé" qui n'est rien de plus qu'un pontage à brancher sur le bloc, je trouve l'idée pas si mal.
 
Perso, après avoir testé les 2 modes, je reste en multirail, oui, c'est mon dernier mot Jean Pierre... ;)

n°11108564
Profil sup​primé
Posté le 25-03-2022 à 08:18:38  answer
 

Ill Nino a écrit :

Mais je croyais que le SLI n'existait plus. Il n'y a même plus de connecteurs sur les cartes.


Si j'en ai un sur ma RTX 3090, mais bon, je n'en vois pas l'utilité sauf pour les pros qui ont d'autres besoins peut être :??: ou ceux qui chassent les gros scores 3Dmark ou autres bench avec de gros oc
 
photo de la KFA2 GeForce RTX™ 3090 HOF (on voit bien le connecteur sli en haut à gauche) :
 
https://www.kfa2.com/media/catalog/product/cache/25/image/500x500/9df78eab33525d08d6e5fb8d27136e95/d/s/dsc_1490.png

Message cité 2 fois
Message édité par Profil supprimé le 25-03-2022 à 08:22:22
n°11108565
Ill Nino
Love
Posté le 25-03-2022 à 08:22:40  profilanswer
 


Oh merde je savais pas que ca existait. :jap:


---------------
Faut qu'on court comme des lions, des tigres et des ours!
n°11108566
Kroma X am​orK
Angel's demon
Posté le 25-03-2022 à 08:24:24  profilanswer
 

Y a plus que les 3090 où c'est possible.


---------------
Il y a la loi et il y a...le bien.
n°11108569
Profil sup​primé
Posté le 25-03-2022 à 08:40:37  answer
 

Comme quoi ;)
 
AMD serait sur un système multi gpu pour les futures cartes haut de gamme, série 7000, à prendre avec des pincettes, mais il semble que ça se confirme de plus en plus.
 
Certain parle même de 3 gpu dans une même carte, un gpu basse conso, et  2 autres pour le gaming, possible.  
 
Dans le style des cartes style 3DFX ou c'était chez un autre fabricant, me souvient plus trop, ça remonte, mais on a déjà vu ça.
 
Enfin pour l'instant, je reste sceptique, mais ça reste du possible vu l'expérience plutôt positive avec les CPU actuel. On verra bien, rumeur, rumeur quand tu nous tiens ^^
 
 
edit : (à prendre avec des pincettes)
 
https://www.notebookcheck.net/AMD-R [...] 993.0.html
 

Citation :

Les deux GPU devraient également comporter des modules multi-puces (MCM) avec deux matrices GPU


 
https://www.techadvisor.com/news/pc [...] s-3807283/


Message édité par Profil supprimé le 25-03-2022 à 09:44:45
n°11108590
Uriette
Ces koi se pouler ?
Posté le 25-03-2022 à 09:32:16  profilanswer
 

Oui ce serait la fameuse construction MCM (multi-Chip Module). :)
 
C'est effectivement ce qui semble être prévu pour RDNA3 du côté d'AMD (pas confirmé, rumeurs encore une fois mais ça semble de plus en plus probable effectivement), là où nVidia devrait rester sur un design monolithique pour Ada Lovelace.


---------------
https://www.twitch.tv/uriette_ / Mon Topic Vente/Achat HFR
n°11108620
WiiDS
20 titres en GC, 0 abandon, 0 DQ
Posté le 25-03-2022 à 10:38:19  profilanswer
 

C'est pas une approche très nouvelle, il y a déjà eu les 4870X2 par exemple :D

 

EDIT: Ah mais d'après l'article, ça serait plus un processeur avec deux modules GPU et non deux GPUs indépendants


Message édité par WiiDS le 25-03-2022 à 10:41:58

---------------
"I can cry like Roger. It's just a shame I can't play like him" - Andy Murray, 2010
n°11108621
Profil sup​primé
Posté le 25-03-2022 à 10:40:47  answer
 

Tout a déjà été +/- testé, les révolutions en hardware, c'est pas tous les matins
Et c'est tant mieux, car maintenant (que tout a été +/- testé :d), ils n'ont qu'à "piocher" dans la techno qui se marrie et/ou a le plus d'avenir ..
Le MCM ça sera pas du CrossX, la duplication des données en mémoire n'était pas une bonne idée :o

n°11108623
Uriette
Ces koi se pouler ?
Posté le 25-03-2022 à 10:44:00  profilanswer
 

Oui et non, car il me semble qu'à l'époque des cartes comme ça (GTX 590, GTX 690, HD 4870X2, HD 6990, HD 7990, ASUS ROG MARS 760) c'était bien vu comme un SLI/CrossFire X dans le système. (Et les inconvénient qui vont avec, ls profils spécifiques sur les jeux toussa. Et on sait que les SLI et CrossFire sont mort enterrés maintenant)

 

Je pense que la construction en MCM devrait être différent. Ça devra être vu comme un seul et unique GPU et non pas comme un SLI / CrossFire X dans le système même si ce sera de multiples puces sur le PCB. Car si c'est comme des cartes bi-GPU de l'époque, ce serait complètement contre-productif avec les inconvénients. Avis perso mais je me trompe peut être. :jap:


Message édité par Uriette le 25-03-2022 à 10:44:14

---------------
https://www.twitch.tv/uriette_ / Mon Topic Vente/Achat HFR
n°11108624
campi
V8 FTW
Posté le 25-03-2022 à 10:48:06  profilanswer
 

Le principe du MCM c'est déjà ce qu'ils font sur les ryzens, ça sera transparent pour l'utilisateur.


---------------
Aye aye aye, s'il va sur l'autoroute il est mort, on a plus de puiZZanZe!
n°11108629
aliss
Rhyme the Rhyme Well
Posté le 25-03-2022 à 11:06:42  profilanswer
 

campi a écrit :

Le principe du MCM c'est déjà ce qu'ils font sur les ryzens, ça sera transparent pour l'utilisateur.


 
Un meilleur exemple est CDNA2.
 
https://www.amd.com/fr/technologies/cdna2

n°11108630
Uriette
Ces koi se pouler ?
Posté le 25-03-2022 à 11:07:04  profilanswer
 

campi a écrit :

Le principe du MCM c'est déjà ce qu'ils font sur les ryzens, ça sera transparent pour l'utilisateur.


 
Oui voilà, pour nous sera juste un gros GPU. :jap:


---------------
https://www.twitch.tv/uriette_ / Mon Topic Vente/Achat HFR
n°11108662
campi
V8 FTW
Posté le 25-03-2022 à 12:15:49  profilanswer
 


 
ryzen parle à plus de monde je pense mais oui tu as raison  :jap:


---------------
Aye aye aye, s'il va sur l'autoroute il est mort, on a plus de puiZZanZe!
n°11108993
Activation
21:9 kill Surround Gaming
Posté le 26-03-2022 à 14:05:16  profilanswer
 

drmanhattan31 a écrit :

le SLI/NvLink ça restera toujours de la merde, hors bench ! :o


 
bah le truc c'est que l approche la plus utilisé a toujours été AFR et non le SFR
donc avec des moteur avec rendu temporel ..... c'était plié vu que ça n'était pas intégré au moteur du jeu
mais que c'était fait au niveau du pipeline 3D via les drivers
 
bref comme je l ai dit depuis des lustres vu que le multigpu n est pas utilisé par les dev pour la simple et bonne raison que les consoles sont monogpu (ils m auront toujours fait  [:striker eureka:1]  les journaleux et sony france à l'époque, à dire que la ps4pro avait 2 gpu bouah ah ah)
 
c'est aux carte graphique d être vu comme un mono gpu virtuel aux yeux des moteurs de jeux
> le mcm quoi


Message édité par Activation le 26-03-2022 à 14:09:19
n°11109002
Valaint671​30
Cinquième soleil
Posté le 26-03-2022 à 14:47:20  profilanswer
 

Pwoualala la gueule de la 3090 Ti Ftw3 :o
 
https://videocardz.com/newz/evga-an [...] wer-hungry

Message cité 1 fois
Message édité par Valaint67130 le 26-03-2022 à 14:58:33

---------------
Mon topic ~ EVGA✞ FANboy - Allergique à l'inaptocratie
n°11109011
Rayaki
Posté le 26-03-2022 à 15:35:58  profilanswer
 

La brique :D


---------------
Clan Torysss.
n°11109038
Profil sup​primé
Posté le 26-03-2022 à 18:52:25  answer
 

Hm, moins que la Colorful ..
 
https://cdn.videocardz.com/1/2022/03/COLORFUL-GeForce-RTX-3090-Ti-24GB-BattleAx-Deluxe-1.jpghttps://cdn.videocardz.com/1/2022/03/COLORFUL-GeForce-RTX-3090-Ti-24GB-BattleAx-Deluxe-2.jpg

n°11109043
chriskenob​y
Que la force soit avec vous
Posté le 26-03-2022 à 19:06:42  profilanswer
 

j'adore  :love:


---------------
Les créateurs de l'Electro, c'est eux KRAFTWERK http://www.kraftwerk.com/concerts/ [...] _robo.html - Mes Cartes https://drive.google.com/drive/fold [...] 0-vZPkdfoi
n°11109044
daaadou
o O ° O o Meggy le chat o O °
Posté le 26-03-2022 à 19:09:05  profilanswer
 


EDF aussi :o

n°11109070
Uriette
Ces koi se pouler ?
Posté le 26-03-2022 à 20:32:05  profilanswer
 

La RTX 3090 Ti SUPRIM X c'est un parpaing aussi le bordel. :o

 

Non mais ça devient ridicule à un moment, les CG 4 slots ça va devenir la norme bientôt. :o

 

EDIT: par contre mention spéciale pour la Colorful RTX 3090 Ti Neptune, elle est plutôt sexy.

Message cité 1 fois
Message édité par Uriette le 26-03-2022 à 20:33:09

---------------
https://www.twitch.tv/uriette_ / Mon Topic Vente/Achat HFR
n°11109093
Aqua-Niki
Posté le 26-03-2022 à 21:31:09  profilanswer
 

Et là j'ai envie de citer Coluche :o

n°11109152
Profil sup​primé
Posté le 27-03-2022 à 09:35:06  answer
 


 
 
Belle et moche en même temps, c'est possible ça :??:

n°11109153
Profil sup​primé
Posté le 27-03-2022 à 09:39:22  answer
 


 
 
Pour combler un trou dans le mur, c'est pas si mal.
 
Apres, sans dec, perso le coté brique me donne des idées pour faire une belle config, ou mod si vous voulez…  
 
Déjà la peindre couleur brique type Mario et faire un mod Mario..... non oubliez, la drogue, c'est mal  [:arank'thnar]

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  1753  1754  1755  ..  1884  1885  1886  1887  1888  1889

Aller à :
Ajouter une réponse
 

Sujets relatifs
Faire tourner Catia avec une Nvidia gtx ?upgrade de win7 a Win10 impossible cause nvidia 7050 incompatible
Windows+Nvidia=Pas de HDR?[Topic unique] AMD Ryzen - Zen 3, 7nm, fin 2020
Coque télécommande NVIDIA ShieldCable Alim pcie NVidia 8 pins
nvidia quadro 600Pb NVIDIA Geforce GTX 1660 win10 et carte mère AZUS P8Z77-V
Changer ma rx 570 par une carte nvidia 
Plus de sujets relatifs à : [TU] Nvidia Ampère - GeForce RTX 3000 - La Génération Ubuesque !


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)