Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2688 connectés 

 

 

Fin 2022, baisse des prix, Ada.L & RDNA3, envisagez-vous toujours d'acheter une carte Ampère


 
10.9 %
 16 votes
1.  Oui, d'occase à vil prix !
 
 
5.4 %
   8 votes
2.  Oui, neuve, à un tarif enfin proche du msrp
 
 
8.8 %
 13 votes
3.  Nan j'attends les nouvelles 4060 & 4070 en 2023
 
 
8.2 %
 12 votes
4.  Nan, j'ai pris/je vais prendre une 4090
 
 
6.8 %
  10 votes
5.  Nan, j'ai pris/je vais prendre une Radeon 7000
 
 
12.2 %
 18 votes
6.  Nan mais je profite des prix des Radeon 6000 eux aussi en baisse.
 
 
47.6 %
 70 votes
7.  J'ai déjà ma RTX 3000
 

Total : 183 votes (36 votes blancs)
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  388  389  390  ..  1883  1884  1885  1886  1887  1888
Auteur Sujet :

[TU] Nvidia Ampère - GeForce RTX 3000 - La Génération Ubuesque !

n°10827208
the_fennec
f3nn3cUs z3rd4
Posté le 16-09-2020 à 17:52:14  profilanswer
 

Reprise du message précédent :

failoverflow a écrit :


 
une connecteur 8 pin peux délivrer combien de watt max ?  


https://www.geeks3d.com/20101108/ti [...] onnectors/
150W


---------------
Faudra que je teste un jour :o
mood
Publicité
Posté le 16-09-2020 à 17:52:14  profilanswer
 

n°10827210
Uriette
Ces koi se pouler ?
Posté le 16-09-2020 à 17:52:25  profilanswer
 

Les gars,

 

Je viens d'aller sur le site de Gigabyte / Aorus pour voir si ils avaient ajouté des specs sur les fiche techniques des RTX 3000 Master et Xtreme, et les modèles Aorus RTX 3080 sont passées en 3x8 alors qu'elles étaient initialement prévues en 2x8.

 

Il semble qu'il y ait eu un changement de dernière minute...

 

Et AMHA, vu ce changement demain je pense pas qu'on va en voir dans les étals de RDC, ces modèles arriveront plus tard. :o
Il va y avoir un travail de modification à faire qui prendra un peu de temps.


Message édité par Uriette le 16-09-2020 à 17:54:10

---------------
https://www.twitch.tv/uriette_ / Mon Topic Vente/Achat HFR
n°10827211
jonokuchi
Posté le 16-09-2020 à 17:52:56  profilanswer
 

jeffk a écrit :


 
Non regarde bien le post d'origine, en gros il dit que c'est pas normal d'être content aujourd’hui en regarde le perf/watt alors qu'on trashait Vega qui était une horreur en perf/watt même pour l'époque versus les 1***.


 
Pourtant le message était clair, je parlais bien des remarques faites à l'époque quant à la consommation et la chauffe. C'était un trait d'humour.
 
Et toi tu t'enflammes direct en nous sortant un comparatif des performances et en me traitant de débile au passage.
 
Bref, zen mec!


Message édité par jonokuchi le 16-09-2020 à 17:54:51
n°10827212
jpb37
Choisis ton destin
Posté le 16-09-2020 à 17:52:58  profilanswer
 

" Les gains de performances très limités en 1440p/1080p c'est pas vraiment la faute de la 3080, mais du coté des processeurs qu'il faut voir "  ET la RAM .... :o

n°10827213
Klaw
Posté le 16-09-2020 à 17:52:59  profilanswer
 

jeffk a écrit :


 
Non regarde bien le post d'origine, en gros il dit que c'est pas normal d'être content aujourd’hui en regarde le perf/watt alors qu'on trashait Vega qui était une horreur en perf/watt même pour l'époque versus les 1***.


 
Personne n'est content que ça consomme plus. Mais enfin les perfs suivent derrière, ce qui n'était pas le cas à l'époque.
Perso je suis pas particulièrement content de la conso, mais je vais faire avec car niveau perfs c'est au pire 2x les perfs de ma 1080Ti.

n°10827214
olioops
Si jeune et déjà mabuse.
Posté le 16-09-2020 à 17:54:35  profilanswer
 

NeCrOm3nT a écrit :

C'est marrant comme tous les "génies" qui débarquent sur le topic depuis quelques jours ont tous environ 15 messages sur hfr :o
 
Quand je dis aucun gain de perf en 1440p, c'est aucun gain de perf en 1440p, en moyenne indice 3080 : 221, indice 2080ti strix : 205, donc aucune différence (la différence entre la 2080super et la 2080ti est plus importante :D :D :D )
 
Et please me sortez pas le fameux "mais tu compares une custom à une FE gnégnégné" :o
 
Donc bien aucun gain, on est loin du double de perf, on est loin du +50%, on est aussi bien loin des +25/+30% qu'on avait à chaque génération depuis un moment.
 
On a compris, vous avez besoin de justifier votre achat quitte à essayer de convaincre tout le monde, mais vous inquiétez pas personne vous en voudra si vous prenez une 3080/3090 pour jouer en 1080p, vous dépensez votre argent comme vous voulez !


Ou alors tu réfléchis [:clooney11] et tu prends conscience que plus les CG seront puissante, plus les basses réso apparaîtront comme CPU limited , et pour le coup en 1440p les cartes moulinent tellement que le proco a du mal à suivre, d'où le tassement des perfs ....tu percutes ? [:blinkgt]
 

jeffk a écrit :


 
C'est hallucinant les débiles qu'on se colle ici.
 
Je sais pas comment HFR a pu en arriver là.


C'est clair on a quelques beaux phénomènes [:trefledepique_w]


---------------
Ne pas confondre gisement épuisé et mine de rien !
n°10827215
Moutmout44
Posté le 16-09-2020 à 17:54:36  profilanswer
 

Hello  
La Fe semble le meilleur compromis ?
Ma 1080ti ftw3 ça devoir trouver un nouveau foyer ^^

n°10827217
calcifer
Posté le 16-09-2020 à 17:54:49  profilanswer
 

jpb37 a écrit :

" Les gains de performances très limités en 1440p/1080p c'est pas vraiment la faute de la 3080, mais du coté des processeurs qu'il faut voir "  ET la RAM .... :o


 
L'archi ampère a également une part important de responsabilité selon Steve de Gamers Nexus. Elle est plus optimisée pour les high res.

n°10827218
AllenMadis​on
Posté le 16-09-2020 à 17:55:09  profilanswer
 

jpb37 a écrit :

" Les gains de performances très limités en 1440p/1080p c'est pas vraiment la faute de la 3080, mais du coté des processeurs qu'il faut voir "  ET la RAM .... :o


 
La ram ? Celle qui monte a quasi 60° avec la 3080 ? :o :o


---------------
Nothing much to teach, man. There's ze high, there's ze low and yall still fucking miss.
n°10827219
lilendo13
Posté le 16-09-2020 à 17:55:44  profilanswer
 

Pour l'histoire de la conso, c'est carte au max quelle consomme, par ex sur wow à 60 fps et carte à 30% d'utisation la conso est normal.
 
Faut juste pas faire tourner la carte à fond pour rien et limiter vos fps avec la vsync.

Message cité 2 fois
Message édité par lilendo13 le 16-09-2020 à 17:56:13

---------------
Fallait agir, Gorman.
mood
Publicité
Posté le 16-09-2020 à 17:55:44  profilanswer
 

n°10827220
nikoft
Posté le 16-09-2020 à 17:55:56  profilanswer
 

Moi ça me va bien qu'il y ai plein de Jean Kevin frustré et déçu, ça m'assure un peu plus de pouvoir en commander une demain

n°10827221
valiran
Posté le 16-09-2020 à 17:56:01  profilanswer
 

jeffk a écrit :


 
Non regarde bien le post d'origine, en gros il dit que c'est pas normal d'être content aujourd’hui en regarde le perf/watt alors qu'on trashait Vega qui était une horreur en perf/watt même pour l'époque versus les 1***.
 
Et donc heureusement que ya une différence de traitement puisque la rendement est pas le même ?


 
Sauf que Vega ne poutrait pas la 1080Ti, il était donc normal de dire "tout ça pour ça".
Là la 3080 fait mieux que toutes les cartes nvidia mainstream précédemment sortie, du coup la conso passe en second plan.


---------------
Mes ventes:
n°10827222
Gremlin
Posté le 16-09-2020 à 17:56:03  profilanswer
 

NeCrOm3nT a écrit :


 
Oui exact, aucun gain :D
Tu penses vraiment que ça mérite de changer ? Soyons sérieux :)


 
C'est infernal de toujours revenir à la 2080 TI. Perso, votre délire basé sur un marché de niche je m'en contrefiche.
La question serait plutôt de savoir si ça vaut le coup de changer sa 980/1080/2080 pour la 3080.

n°10827223
Klaw
Posté le 16-09-2020 à 17:56:14  profilanswer
 

jeffk a écrit :


 
Donc tu préfères une voiture qui fait du 8l/100 et qui fait 100km, qu'une voiture qui fait du 16l/100 mais qui fait 300km.
 
Je vois.


 
Ah oui, la fameuse analogie totalement pertinente avec le monde automobile. Fallait le dire que vous vouliez pas du tout discuter mais juste rétablir LA VERITE, la seule et l'unique.

n°10827224
Yopfraize
Posté le 16-09-2020 à 17:56:18  profilanswer
 

Y'a t'il un testeur de qualitay qui ai pensé à faire une comparaison des performances à TDP égal ? :o
 
Non personne évidemment :o

n°10827225
Lestanquet
Posté le 16-09-2020 à 17:56:40  profilanswer
 

jeffk a écrit :

 

Non regarde bien le post d'origine, en gros il dit que c'est pas normal d'être content aujourd’hui en regarde le perf/watt alors qu'on trashait Vega qui était une horreur en perf/watt même pour l'époque versus les 1***.

 

Et donc heureusement que ya une différence de traitement puisque la rendement est pas le même ?


Ba ouais je confirme relis son post parce que tu n'as rien compris à son humour, il parle juste de conso pas de perfs.

 

300 watts = grille pain vs 300 watts = waw! "J'image" bien sûr.


---------------
Feedback et ventes http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°10827226
jeffk
Posté le 16-09-2020 à 17:56:51  profilanswer
 

valiran a écrit :

 

Sauf que Vega ne poutrait pas la 1080Ti, il était donc normal de dire "tout ça pour ça".
Là la 3080 fait mieux que toutes les cartes nvidia mainstream précédemment sortie, du coup la conso passe en second plan.

 

Merci captain c'est ce que j'essaye de faire piger.


Message édité par jeffk le 16-09-2020 à 17:57:20
n°10827227
genghis77
-_-'
Posté le 16-09-2020 à 17:56:52  profilanswer
 

Klaw a écrit :


 
Personne n'est content que ça consomme plus. Mais enfin les perfs suivent derrière, ce qui n'était pas le cas à l'époque.
Perso je suis pas particulièrement content de la conso, mais je vais faire avec car niveau perfs c'est au pire 2x les perfs de ma 1080Ti.


non mais la plupart des gens pas content sont des possesseurs de turing hein :jap:  
 
les composants seront toujours de plus en plus puissant, c'est ce qu'on demande mais une grande partie voudrait que ca consomme peu et ca marche pas comme ca.  
 
on veux toujours que la nouvelle gen eclate la precedente mais sans que ca coute quoi que ce soit
la ca coute une conso en hausse et une dissipation de chaleur supplémentaire :spamafote:
 
quoi qu'ils en disent, la 3080 explose la 2080 :spamafote: la 2080 est plus efficiente, la ti aussi... c'est bien gardez vos turing alors :jap:


---------------
Je sais que je plais pas à tout le monde... mais quand je vois à qui je plais pas... je me demande si ça me dérange vraiment
n°10827228
simracingp​assion
Posté le 16-09-2020 à 17:57:12  profilanswer
 

[:hugeq:1]

n°10827229
ben shinob​i
Posté le 16-09-2020 à 17:57:21  profilanswer
 

Yopfraize a écrit :

Y'a t'il un testeur de qualitay qui ai pensé à faire une comparaison des performances à TDP égal ? :o
 
Non personne évidemment :o

. Probablement un match nul.

n°10827230
triftrif
Posté le 16-09-2020 à 17:57:46  profilanswer
 

qwrty a écrit :


 
On va te dire que cest la faute des drivers  :o


 
non c'est le CPU maintenant

n°10827231
Lestanquet
Posté le 16-09-2020 à 17:57:58  profilanswer
 

calcifer a écrit :

 

LA VEGA S'EST FAIT DESCENDRE CAR ELLE AVAIT DES PERFS DE MERDE POUR SA CONSO A SA SORTIE

 

Ça va mieux là? C'est plus clair?


Relis punaise relis et évite les majuscules, parce que tu te pointes en faisant des leçons alors que t'as pas tout suivi.


---------------
Feedback et ventes http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°10827233
NeCrOm3nT
Posté le 16-09-2020 à 17:58:25  profilanswer
 

olioops a écrit :


Ou alors tu réfléchis [:clooney11] et tu prends conscience que plus les CG seront puissante, plus les basses réso apparaîtront comme CPU limited , et pour le coup en 1440p les cartes moulinent tellement que le proco a du mal à suivre, d'où le tassement des perfs ....tu percutes ? [:blinkgt]
 


 

olioops a écrit :


C'est clair on a quelques beaux phénomènes [:trefledepique_w]


 
J'y connais rien en termes d'usage CPU en jeu, mais va falloir m'expliquer comment je peux réussir à obtenir un Tarkov en 1440p@120+fps constants, parce qu'il me semblait pourtant que c'était coté GPU que ça ne suivait pas (en tout cas c'est ce que me dit mon moniteur de ressources...qui ne vaut peut être rien)

n°10827234
failoverfl​ow
Posté le 16-09-2020 à 17:58:39  profilanswer
 


 
J'avais en tete 125 watt va savoir pourquoi ...
 
merci  [:whiskas]


Message édité par failoverflow le 16-09-2020 à 17:59:43
n°10827235
jeffk
Posté le 16-09-2020 à 17:59:35  profilanswer
 

Lestanquet a écrit :


Ba ouais je confirme relis son post parce que tu n'as rien compris à son humour, il parle juste de conso pas de perfs.

 

300 watts = grille pain vs 300 watts = waw! "J'image" bien sûr.

 


Ah ouai c'était giga drôle pardon  :)  :)
:)  :)

Message cité 1 fois
Message édité par jeffk le 16-09-2020 à 17:59:53
n°10827236
AllenMadis​on
Posté le 16-09-2020 à 17:59:39  profilanswer
 

Gremlin a écrit :


 
C'est infernal de toujours revenir à la 2080 TI. Perso, votre délire basé sur un marché de niche je m'en contrefiche.
La question serait plutôt de savoir si ça vaut le coup de changer sa 980/1080/2080 pour la 3080.


 
Honnetement la voix de la sagesse me dirait d'attendre les cartes AMD.  
 
Moi le 4K bon, je suis en 3440x1440 donc légerement plus que 2K, mais aussi en triple screen du coup je me pose quand même de sérieuses questions... J'envisage la VR aussi.  
 
Je pense en vrai qu'il va falloir du recul dessus pour faire le meilleur choix, et ça implique aussi d'attendre AMD du coup.  
 
Les cartes FE vont rester à 719e y'aura pas d'envolée de prix donc je suis rassuré de ce point de vue là.


---------------
Nothing much to teach, man. There's ze high, there's ze low and yall still fucking miss.
n°10827237
calcifer
Posté le 16-09-2020 à 18:00:23  profilanswer
 

lilendo13 a écrit :

Pour l'histoire de la conso, c'est carte au max quelle consomme, par ex sur wow à 60 fps et carte à 30% d'utisation la conso est normal.
 
Faut juste pas faire tourner la carte à fond pour rien et limiter vos fps avec la vsync.


c'est d'ailleurs dans ce genre de situation que l'on a un gain de 90% d'efficience. Mais pour cela encore faut il savoir lire un graph ce que seulement 5% des gens ici savent faire apparemment.
https://www.techpowerup.com/review/nvidia-geforce-ampere-architecture-board-design-gaming-tech-software/images/performance-per-watt.jpg

n°10827238
Playaz
Le Justi-brouteur - Playnaze
Posté le 16-09-2020 à 18:00:28  profilanswer
 

Lestanquet a écrit :


Relis punaise relis et évite les majuscules, parce que tu te pointes en faisant des leçons alors que t'as pas tout suivi.


Bah pourtant il a raison hein

n°10827239
AllenMadis​on
Posté le 16-09-2020 à 18:00:58  profilanswer
 

calcifer a écrit :


c'est d'ailleurs dans ce genre de situation que l'on a un gain de 90% d'efficience. Mais pour cela encore faut il savoir lire un graph ce que seulement 5% des gens ici savent faire apparemment.
https://www.techpowerup.com/review/ [...] r-watt.jpg


 
Ton 5% c'est un bench crédible ou c'est un chiffre a la nvidia ? :o


---------------
Nothing much to teach, man. There's ze high, there's ze low and yall still fucking miss.
n°10827240
darkping
Aka Leojoebar
Posté le 16-09-2020 à 18:01:03  profilanswer
 


 
 
Sur le gpu ou sur l’alim ? Car du coup les alims ou tu as 2x8pin par câble ?


---------------
Nouveau pseudo vue que mon LEOJOEBAR et ses 100 feed positifs ont étaient ban!!
n°10827241
helyis
Choisir, c'est mourir un peu
Posté le 16-09-2020 à 18:01:09  profilanswer
 

lilendo13 a écrit :

Pour l'histoire de la conso, c'est carte au max quelle consomme, par ex sur wow à 60 fps et carte à 30% d'utisation la conso est normal.
 
Faut juste pas faire tourner la carte à fond pour rien et limiter vos fps avec la vsync.


 
 
 
Donc faut acheter une carte à 800e pour la limiter et faire tourner wow à 60 fps ? Intéressant, je vais en acheter une palette tient

n°10827242
calcifer
Posté le 16-09-2020 à 18:01:09  profilanswer
 

ben shinobi a écrit :

. Probablement un match nul.


 
non  
 
https://www.techpowerup.com/review/nvidia-geforce-ampere-architecture-board-design-gaming-tech-software/images/performance-per-watt.jpg

n°10827243
Lestanquet
Posté le 16-09-2020 à 18:01:43  profilanswer
 

jeffk a écrit :

 


Ah ouai c'était giga drôle pardon :) :)
:) :)


Ba fallait pas répondre alors et lancer dans un débat qui n'en est pas un en traitant l'autre de débilos.


---------------
Feedback et ventes http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°10827244
criquetbit​e
Posté le 16-09-2020 à 18:02:32  profilanswer
 

Messij a écrit :


Mais carrément :/
 
Et de plus comparer 2080Ti et 3080 c'est très con car c'est pas eu tout la même gamme de produits.  
 
La 3080 est à comparer à la 2080, et de ce côté là le gap generationnel est près de deux fois supérieur au gap 1080 -> 2080, sans augmentation de coût (alors que 2080 était vendu plus cher).


 
En même temps, la GTX 1080 était plus puissante que la 980ti, on revient à la normale...

n°10827245
Gremlin
Posté le 16-09-2020 à 18:02:36  profilanswer
 

AllenMadison a écrit :


 
Honnetement la voix de la sagesse me dirait d'attendre les cartes AMD.  
 
Moi le 4K bon, je suis en 3440x1440 donc légerement plus que 2K, mais aussi en triple screen du coup je me pose quand même de sérieuses questions... J'envisage la VR aussi.  
 
Je pense en vrai qu'il va falloir du recul dessus pour faire le meilleur choix, et ça implique aussi d'attendre AMD du coup.  
 
Les cartes FE vont rester à 719e y'aura pas d'envolée de prix donc je suis rassuré de ce point de vue là.


 
Je suis sceptique sur les futures cartes d'AMD, mais j'espère me tromper !

n°10827246
ben shinob​i
Posté le 16-09-2020 à 18:02:47  profilanswer
 


toute la presse a été unanime pour dire que le  gain/perf watt est de 7%.

Message cité 1 fois
Message édité par ben shinobi le 16-09-2020 à 18:03:17
n°10827247
Lestanquet
Posté le 16-09-2020 à 18:02:48  profilanswer
 

Playaz a écrit :


Bah pourtant il a raison hein


 [:hahaguy] j'en peux plus.... Faut lire depuis le début, évidemment que sur ce point il a raison et qu'il ne m'apprend rien.


---------------
Feedback et ventes http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°10827248
havoc_28
Posté le 16-09-2020 à 18:02:54  profilanswer
 

NeCrOm3nT a écrit :


 
J'y connais rien en termes d'usage CPU en jeu, mais va falloir m'expliquer comment je peux réussir à obtenir un Tarkov en 1440p@120+fps constants, parce qu'il me semblait pourtant que c'était coté GPU que ça ne suivait pas (en tout cas c'est ce que me dit mon moniteur de ressources...qui ne vaut peut être rien)


 
Beaucoup de jeux sont assez peu parallélisés niveau utilisation du processeur, après plus ou moins etc, coté Intel niveau architecture on a pas progressé depuis 2015, on a augmenté le nombre de cœurs / files d’exécutions et on a aussi gagné en fréquence avec le mûrissement du process, chez AMD on a finit par revenir au niveau (à peu près) d'intel, en applicatif on est devant, et en jeu on est légèrement derrière (dans l'absolu).  
 
Avoir le CPU à par exemple 45/60 % ne veut pas dire qu'on ne soit pas limité par le CPU (si le jeu en question ne tire pas parti de tous les cœurs / files d’exécutions à 100 %).

n°10827249
zenith
Là-haut perché dans la pensée.
Posté le 16-09-2020 à 18:03:03  profilanswer
 

J@Ck a écrit :


 
Même la-dessus?

Citation :

la 3070 sera en dessous de la 2080ti, non elle sera égale.


 
 :ange:  
 
En RTX/DLSS OFF j'y crois pas une seconde


 
bah la gamme 70 à toujours été chez nvidia équivalente à la 80 ti d'avant.  [:spamafote]  
 

NeCrOm3nT a écrit :

Ptin jvais me prendre une bonne 2080ti pas cher moi xD
 
De la merde ces 3080 ahahahahahah :D
Aucun gain de perf en 1440p ! C'est le délire complet, changement de finesse de gravure, explosion des cuda cores, et rien !
 
 
:D :D :D cette pure arnaque ^^
 
Franchement j'ai du mal à croire ce que je vois,


 
C'est un parti pris, il pousse le raytraycing donc un rendu plus réaliste pas la course au FPS qui reste un peu marketing au delà de 100-150 hz...

n°10827250
Playaz
Le Justi-brouteur - Playnaze
Posté le 16-09-2020 à 18:03:06  profilanswer
 

helyis a écrit :


 
 
 
Donc faut acheter une carte à 800e pour la limiter et faire tourner wow à 60 fps ? Intéressant, je vais en acheter une palette tient


Si t'as un écran 60Hz, oui.

n°10827251
calcifer
Posté le 16-09-2020 à 18:03:39  profilanswer
 

ben shinobi a écrit :


toute la presse a été unanime pour dire que le  gain/perf watt est de 7%.

 

tu fais donc partie des 95% qui savent pas lire un graph

Message cité 1 fois
Message édité par calcifer le 16-09-2020 à 18:03:49
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  388  389  390  ..  1883  1884  1885  1886  1887  1888

Aller à :
Ajouter une réponse
 

Sujets relatifs
Faire tourner Catia avec une Nvidia gtx ?upgrade de win7 a Win10 impossible cause nvidia 7050 incompatible
Windows+Nvidia=Pas de HDR?[Topic unique] AMD Ryzen - Zen 3, 7nm, fin 2020
Coque télécommande NVIDIA ShieldCable Alim pcie NVidia 8 pins
nvidia quadro 600Pb NVIDIA Geforce GTX 1660 win10 et carte mère AZUS P8Z77-V
Changer ma rx 570 par une carte nvidia 
Plus de sujets relatifs à : [TU] Nvidia Ampère - GeForce RTX 3000 - La Génération Ubuesque !


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)