Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2484 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  133  134  135  ..  1028  1029  1030  1031  1032  1033
Auteur Sujet :

[Topic Unique] NVIDIA GeForce GTX 660Ti/670/680/690/760/770 (GK104)

n°8245568
Gigathlon
Quad-neurones natif
Posté le 15-03-2012 à 15:14:46  profilanswer
 

Reprise du message précédent :

kaiser52 a écrit :

GT555M SDDR3 => 144@1180 MHz
GT555M DDR3 => 96@1506 MHz [:aloy]


Les perfs de ces 2 variantes sont quasi identiques.
 
Dans tous les cas, à part si c'est un GPU 64bits, c'est aussi mauvais si ce n'est plus que la génération GF100, en tenant compte du fait que Cape Verde est dans la tranche des ~130mm² et se retrouve 2x plus performant (c'est pas un ratio habituel entre portables et desktop, qui avoisine plutôt les 75/135%).

mood
Publicité
Posté le 15-03-2012 à 15:14:46  profilanswer
 

n°8245571
Kenshin011
Posté le 15-03-2012 à 15:17:39  profilanswer
 

EpinardsHachés a écrit :


 
 
pas besoin qu'il check les fps, t'en a des brouettes sur le net des benchs sur crysis à toutes les sauces, et tu verras comme il le dit faut un bon gpu pour bien exploiter le jeu.
Pareil pour bf3, dernier batman et d'autres : les hd79xx et les gtx 6xx ça sera pas de trop sur certains jeux.  
Ce n'est pas parceque toi t'en trouve pas l'utilité qu'il faut généraliser hein


 
 
Peut être qu'il lui disait plutot de check ces mps (message privé) ?  :)  
 
 
 


---------------
Mon Feedback ! => http://forum.hardware.fr/hfr/Achat [...] 7027_1.htm
n°8245572
Kenshin011
Posté le 15-03-2012 à 15:19:41  profilanswer
 

draale a écrit :

J'ai pas compris pourquoi certains disent que le GK110 sort dans 6 mois.
LA 680 doit sortir en premier non ? Et c'est bien du GK110 ? Comme dit en page 1 ? Et ce sera bien le haut de gamme de la prochaine génération j'ai bon ?
 
Moi je suis obligé de jouer en élévé a BF3 avec ma 5870 et mon 2500K donc ces précisions m'interressent si quelqu'un peut me renseigner merci :)


 
Tu mets le doigt en plein dedans  :p  
C'est le débat qui anime les dernières pages du forum.
Alors oui le GK110 est le fleuron de la génération Kepler. Mais non, ce n'est pas lui qui sortira en tant que GTX 680  :) ça sera du GK104


---------------
Mon Feedback ! => http://forum.hardware.fr/hfr/Achat [...] 7027_1.htm
n°8245576
Gigathlon
Quad-neurones natif
Posté le 15-03-2012 à 15:23:17  profilanswer
 

Kenshin011 a écrit :

Alors oui le GK110 est le fleuron de la génération Kepler. Mais non, ce n'est pas lui qui sortira en tant que GTX 680  :) ça sera du GK104


Ou alors il n'y aura pas de GTX680 et simplement des 660Ti et 670Ti...
 
Pour ma part, c'est comme ça que je le sens, avec peut-être même une 660 basée sur un GF106 histoire d'enfoncer le clou, comme un certain tableau l'indiquait il y a quelque temps.

n°8245577
badping
Posté le 15-03-2012 à 15:24:30  profilanswer
 

EpinardsHachés a écrit :


 
 
Ce n'est pas parceque toi t'en trouve pas l'utilité qu'il faut généraliser hein


 
je ne généralise pas, j'ai clairement indiqué mes critères d'achats ( et que ma question était potentiellement  hs ), je penses bien que ces cg intéressent un paquet de gens, je ne dis pas qu'elles sont useless, j'ai parlé juste de mon cas perso l'espace d'une question "achat"  
 
désolé d'avoir dérangé, tu peux continuer à rêver sur tes belles cg.
 

Kenshin011 a écrit :


 
 
Peut être qu'il lui disait plutot de check ces mps (message privé) ?  :)  
 
 
 


 
non mais même ça il a pas capté le kheops.
 

Message cité 1 fois
Message édité par badping le 15-03-2012 à 15:27:22
n°8245579
la_taupe
myope-la-boum
Posté le 15-03-2012 à 15:26:15  profilanswer
 

Rayaki a écrit :


 
le résultat de ce test a été le suivant:
 
 
Soit les jeux n'ont pas besoin d'autant de mémoire, soit la puissance de calcul demandée au GPU en parallèle à cette utilisation mémoire est trop importante

Le problème de ce petit test, c'est qu'il n'y a aucun relevé de la VRAM utilisée par chaque jeu...
De même Metro2033, qui apparemment était le titre du panel le plus sensible aux 3 Go, n'a été testé qu'avec des réglages injouables.
De là à conclure "3 Go ça sert à rien" il y a un *grand* pas. ;)
 

n°8245580
draale
Alex Kidd Génération
Posté le 15-03-2012 à 15:27:18  profilanswer
 

Kenshin011 a écrit :


 
Tu mets le doigt en plein dedans  :p  
C'est le débat qui anime les dernières pages du forum.
Alors oui le GK110 est le fleuron de la génération Kepler. Mais non, ce n'est pas lui qui sortira en tant que GTX 680  :) ça sera du GK104


 
 
Ah d'accord merci Kenshin, voila qui m'éclaire j'arrivais pas a trouver la source dans les dernières pages.
Alors  
1/ il va falloir corriger la premiere page si l'information est fiable :)
2/ il est clair que même à 6 mois près ma 5870 peut largement tenir le choc d'ici là si ele sort en GK104 la


---------------
I5-2500k@4,4GHZ WC/16Go Gskill PC12800/MSI GTX970/SSD Sandisk Extreme - Surface PRO 4  -  HP Proliant MicroServer  - Raspberry PI x3 -Fibre Orange
n°8245582
Invite_Sur​prise
Racaille de Shanghaï
Posté le 15-03-2012 à 15:27:58  profilanswer
 

Gigathlon a écrit :

Ou alors il n'y aura pas de GTX680 et simplement des 660Ti et 670Ti...


Et pourtant, l'appellation GTX 680 est acquise à 99,99% ...

n°8245584
Gigathlon
Quad-neurones natif
Posté le 15-03-2012 à 15:29:35  profilanswer
 

la_taupe a écrit :

Le problème de ce petit test, c'est qu'il n'y a aucun relevé de la VRAM utilisée par chaque jeu...
De même Metro2033, qui apparemment était le titre du panel le plus sensible aux 3 Go, n'a été testé qu'avec des réglages injouables.


3Go n'ont que très peu d'intérêt, à moins d'utiliser un moteur des années 90 et de bourrer la VRAM de textures en tous genres (lightmaps, bumps...) au lieu de shaders.

n°8245586
draale
Alex Kidd Génération
Posté le 15-03-2012 à 15:30:03  profilanswer
 

Gigathlon a écrit :


Ou alors il n'y aura pas de GTX680 et simplement des 660Ti et 670Ti...
 
Pour ma part, c'est comme ça que je le sens, avec peut-être même une 660 basée sur un GF106 histoire d'enfoncer le clou, comme un certain tableau l'indiquait il y a quelque temps.


 
 
Commercialement ce serait pas intelligent de la part de NVIDIA de doter les joueurs d'une carte new génération sur laquelle il ne font pas le plus de marge :)
 
Il serait plus intelligent de sortir la grosse d'entrée pour faire de l'argent et la maintenir au prix fort en lançant les moyennes/petites derrière pour les joueurs qui auront pas craqué à cause du prix.
 
Je pense que la génération Ti viendra après moi.


---------------
I5-2500k@4,4GHZ WC/16Go Gskill PC12800/MSI GTX970/SSD Sandisk Extreme - Surface PRO 4  -  HP Proliant MicroServer  - Raspberry PI x3 -Fibre Orange
mood
Publicité
Posté le 15-03-2012 à 15:30:03  profilanswer
 

n°8245588
Gigathlon
Quad-neurones natif
Posté le 15-03-2012 à 15:30:32  profilanswer
 

Invite_Surprise a écrit :

Et pourtant, l'appellation GTX 680 est acquise à 99,99% ...


T'as vu une tof avec une carte marquée "GTX 680", toi? Pour ma part je n'ai vu que "GTX 670Ti".

n°8245590
Kenshin011
Posté le 15-03-2012 à 15:31:14  profilanswer
 

Gigathlon a écrit :


Ou alors il n'y aura pas de GTX680 et simplement des 660Ti et 670Ti...
 
Pour ma part, c'est comme ça que je le sens, avec peut-être même une 660 basée sur un GF106 histoire d'enfoncer le clou, comme un certain tableau l'indiquait il y a quelque temps.


 
Honnètement, je préfèrerais ta version. Mais Marc écrivait hier :  

Citation :

Le 640M devrait être dévoilé officiellement - sous peu - par Nvidia, en même temps que la GeForce GTX 680.


 
J'aurais plutot du dire que ce n'est pas lui (le GK110) qui va être dévoilé très prochainement.


---------------
Mon Feedback ! => http://forum.hardware.fr/hfr/Achat [...] 7027_1.htm
n°8245592
MEI
|DarthPingoo(tm)|
Posté le 15-03-2012 à 15:33:11  profilanswer
 

Gigathlon a écrit :


3Go n'ont que très peu d'intérêt, à moins d'utiliser un moteur des années 90 et de bourrer la VRAM de textures en tous genres (lightmaps, bumps...) au lieu de shaders.


Ou bien de ne pas utiliser des compressions de textures de la mort et des textures Hi-Res... :o


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°8245593
Kenshin011
Posté le 15-03-2012 à 15:35:58  profilanswer
 

Quand on veut on peut :)


---------------
Mon Feedback ! => http://forum.hardware.fr/hfr/Achat [...] 7027_1.htm
n°8245607
Roth Welle​s
Posté le 15-03-2012 à 15:55:10  profilanswer
 

foksa37 a écrit :


 
Perso en ce moment je joue un peu au mod Casus belli sous Crysis wars, et je peux te dire que si tu veux y jouer en 1080p very high AA4X avec un framerate satisfaisant, il faut du gros GPU  :pt1cable:


 
il pompe pas mal oui.
en 1680*1050 avec mon Q9550, peux clairement pas tout mettre à fond, alors ne parlons même pas du FSAA*4

n°8245704
NoradII
Il y a 17 ans naquit un PC
Posté le 15-03-2012 à 17:25:07  profilanswer
 

TheRealObi-One a écrit :

C'est rare un Die aussi petit chez NV :eek:
:D

G92b avant le GT200 [:dream49]

vu le design des phases, cela confirme, maintenant, le TDP de 200W.

Agent heavy a écrit :

Si nvidia avait pu sortir son GK110 en premier, je crois qu'on aurait été impressioné @lafaçon G80 avec un bon gros 40/50% en plus de la 7970.
Ce Kepler semble prometteur.

Et un bon gros 750€ la CG, aussi [:h a w k]


Message édité par NoradII le 15-03-2012 à 17:25:52

---------------
valid.x86.fr/575505 /842925 /902578
n°8245713
kikou2419
Posté le 15-03-2012 à 17:29:42  profilanswer
 

Ils vont vendre au même prix ou plus simplement cher un gpu bien moins gros et donc (?)  bien moins cher à produire que celui de la gtx 580? Ah les traîtres...


---------------
TU Nvidia Shield Android TV
n°8245717
NoradII
Il y a 17 ans naquit un PC
Posté le 15-03-2012 à 17:33:22  profilanswer
 

non ils ont parfaitement raison : tu paye la performance.
Tu crée un GPU qui prend la tête du peloton Mono-GPU desktop ? donc tu toc le 600 nœuds le bout de plastique !

 

Pi C Tou [:cloud_]

Message cité 1 fois
Message édité par NoradII le 15-03-2012 à 17:34:24

---------------
valid.x86.fr/575505 /842925 /902578
n°8245721
wnorton
Je suis néerlandophone
Posté le 15-03-2012 à 17:37:47  profilanswer
 

NoradII a écrit :

non ils ont parfaitement raison : tu paye la performance.
Tu crée un GPU qui prend la tête du peloton Mono-GPU desktop ? donc tu toc le 600 nœuds le bout de plastique !
 
Pi C Tou [:cloud_]


http://t3.gstatic.com/images?q=tbn:ANd9GcTWcevXqwYct83O_4UvfkFYkv--a3tbKwjAKnBtVwtRlw6s0-9nFA


---------------
Je suis néerlandophone une fois
n°8245733
mukumi
RATATATA
Posté le 15-03-2012 à 17:43:46  profilanswer
 

Apparemment il est certain que nvidia va introduire un nouvel algorithme anti alliasing avec Kepler.
 

Citation :

Reliable sources indicate that NVIDIA could introduce a new anti-aliasing (AA) algorithm with its Kepler family of GPUs. There are already plenty of AA algorithms which have been introduced with recent generations of GPUs, including FXAA, which have enabled higher levels of image quality, while not being as taxing as MSAA. This leaves only one area in which a new AA algorithm can take shape: to raise the image quality bar higher, while lowering performance penalty.
 
In a screenshot, probably sourced from NVIDIA's GeForce Kepler press-deck, this new algorithm is compared to 8x MSAA, in which it appears to give superior image quality. We know that 8x MSAA can be taxing, the kind of image quality we're seeing with this mysterious AA algo 'looks' taxing with available technology, unless of course, NVIDIA developed a silver-bullet in its new algorithm, which provides stunning image quality while not being too taxing on the GPU's resources.


 
Source: http://www.techpowerup.com/162430/NVIDIA-Introducing-a-New-Anti-Aliasing-Algorithm-with-Kepler-.html
 
PS: si ça a déjà été dit pardon :'(


Message édité par mukumi le 15-03-2012 à 17:43:58
n°8245737
MEI
|DarthPingoo(tm)|
Posté le 15-03-2012 à 17:45:37  profilanswer
 

Si c'est un nouvel algo type FXAA c'est soit le SrAA soit le FXAA derniere release.
 
Mais bon ça reste du AA de post process donc inutilisable si ce n'est pas intégré aux jeux par les dev.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°8245743
EpinardsHa​chés
Posté le 15-03-2012 à 17:52:08  profilanswer
 

badping a écrit :


 
je ne généralise pas, j'ai clairement indiqué mes critères d'achats ( et que ma question était potentiellement  hs ), je penses bien que ces cg intéressent un paquet de gens, je ne dis pas qu'elles sont useless, j'ai parlé juste de mon cas perso l'espace d'une question "achat"  
 
désolé d'avoir dérangé, tu peux continuer à rêver sur tes belles cg.
 


 
tu généralises pas bien sur mais ça ne t'empeche pas de désigner les acquéreurs de ces cartes de "kéké"  :sarcastic:  


---------------
Ventes
n°8245754
NoradII
Il y a 17 ans naquit un PC
Posté le 15-03-2012 à 18:01:13  profilanswer
 

[:neostranger] dans certains cas, ne pas répondre, c'est mieux.

Message cité 1 fois
Message édité par NoradII le 15-03-2012 à 18:01:25

---------------
valid.x86.fr/575505 /842925 /902578
n°8245758
mukumi
RATATATA
Posté le 15-03-2012 à 18:04:22  profilanswer
 

NoradII a écrit :

[:neostranger] dans certains cas, ne pas répondre, c'est mieux.


 
Heureusement que tu ne la sors pas à chaque fois celle là, ces dernières pages t'aurais pu la sortir 45% du temps :D

n°8245761
Tomyoneken​oby91
en moto rien de moins probable
Posté le 15-03-2012 à 18:04:49  profilanswer
 

75% je rectifie :/


---------------
topic ventes: https://lc.cx/xnz7 - topic recherches: https://forum.hardware.fr/forum2.ph [...] w=0&nojs=0
n°8245788
badping
Posté le 15-03-2012 à 18:33:31  profilanswer
 

EpinardsHachés a écrit :


 
tu généralises pas bien sur mais ça ne t'empeche pas de désigner les acquéreurs de ces cartes de "kéké"  :sarcastic:  


 
 [:delarue5]  
 
 
 
je veux pas me prendre une cg à 550 roros juste pour faire mon kéké, il est où ton problème avec ça ? en quoi j'insulte les kéké, ou j'insulte qui que se soit de..."kéké" ? t'es membre du "kéké proud defense group " ou un truc du genre ?
 
bref, osef, me fait pas perdre mon temps.
 


Message édité par badping le 15-03-2012 à 18:34:30
n°8245794
budokai
Posté le 15-03-2012 à 18:38:11  profilanswer
 

et hop ma 5850 va souffler ses 4 bougies en attendant un vraie révolution, c'est quand même bien du foutage de gueule !!!

n°8245796
burnout62
Posté le 15-03-2012 à 18:39:39  profilanswer
 

budokai a écrit :

et hop ma 5850 va souffler ses 4 bougies en attendant un vraie révolution, c'est quand même bien du foutage de gueule !!!


Elle est sortie en 2009 ?! :heink:

n°8245797
Nestid
Posté le 15-03-2012 à 18:40:27  profilanswer
 

burnout62 a écrit :


Elle est sortie en 2009 ?! :heink:


il fête son anniversaire tous les 6 mois ;)

budokai a écrit :

et hop ma 5850 va souffler ses 4 bougies en attendant un vraie révolution, c'est quand même bien du foutage de gueule !!!


Tant mieux, non ?
La course à l'armement ça faisait plutôt mal au portefeuille.  
Avec cette politique on a le temps d'amortir nos cartes graphiques et elles ne perdent pas 50% de leur valeur en 3 mois !

Message cité 2 fois
Message édité par Nestid le 15-03-2012 à 18:42:16
n°8245799
havoc_28
Posté le 15-03-2012 à 18:41:50  profilanswer
 

budokai a écrit :

et hop ma 5850 va souffler ses 4 bougies en attendant un vraie révolution, c'est quand même bien du foutage de gueule !!!


 

burnout62 a écrit :


Elle est sortie en 2009 ?! :heink:


 
 :lol:


Message édité par havoc_28 le 15-03-2012 à 18:42:23
n°8245803
budokai
Posté le 15-03-2012 à 18:52:05  profilanswer
 

burnout62 a écrit :


Elle est sortie en 2009 ?! :heink:


 
oue fin 2009, j'ai eu une des première  :o  
 

Nestid a écrit :


il fête son anniversaire tous les 6 mois ;)


 
tous les 6 mois je désespère de m'en débarrasser  :cry:  
 

Nestid a écrit :


Tant mieux, non ?
La course à l'armement ça faisait plutôt mal au portefeuille.  
Avec cette politique on a le temps d'amortir nos cartes graphiques et elles ne perdent pas 50% de leur valeur en 3 mois !


 
oue c'est sure je me trimbale ma conf s775 depuis 2008 donc j'ai bien amorti le truc  :jap:  

n°8245831
actaruxs
Posté le 15-03-2012 à 19:16:38  profilanswer
 

hyksos_sowo a écrit :


 
La 3D passive peut être meilleur que la active, tout comme la active peut être meilleur que la active... ça dépend de l'implémentation, NVidia n'a pas inventé n'y un n'y l'autre et AMD ne fonctionne pas uniquement avec l'un ou l'autre....
 
Quand tu parle des début de ATI en 3D, tu parle de la stéréoscopie ou de la 3D normal rasterized?
 
Si tu parle de la stéréoscopie, tu saura qu'il y a plusieurs effet non compatible 3D, surtout lié aux effet d'ombre/lumière, les boites de jeux ont recours a plusieurs "hack" pour avoir un plus beau rendu sans être trop couteux en performance, NVidia est tout autant affecté par ce problème, les profiles 3D de Nvidia désactive donc tout les effet problématiques présent dans le jeux.
 
Si tu parlais de la "vieille" 3D, NVidia à un historique très peut reluisant à ce sujet également... dont plusieurs dirait bien pire que tout ce que ATI a pus faire, donc attention à ce que tu dis.
 
Ce n'est heureusement plus le cas de nos jours, dans les 2 cas.
 
Avant de ressortir une autre connerie du genre, fait un minimum de recherche.... car tes connaissances du domaine me semble très... approximative....


 
nn, je parlais d'ati... 1 ans après la sortie de winXP... par rapport au DirectX seulement... Et meme, il me semble encore bien avant ça.  
Pour gagner en perf, on avait la possibilité de baisser drastiquement les filtres (bilineaire, trilineaire, wbuffer, zbuffer... pour les principaux dont je me souviens encore). Et c'est toujours vrai avec atitraytool... Mais certaines options, avec les cg actuelles, font que ça peut bugguer en DX.  
J'ai pû gagner ainsi pres de 50% de perf... par rapport au ccc configuré en mode perf... Le probleme est que atitraytool ne commente pas vraiment chaque options (Et quand ça se met a bugguer... Pas d'autres choix que de désinstaller le driver + modif BdR), contrairement au soft que j'utilisais pour ma Radeon 8500 et 9600... Qui a disparu (je crois) depuis un bail.
Et puis, gagner en perf au détriment de la qualité... C'est plus de mon age.  
 
A l'époque, c'était utile en attendant la sortie des cg... 1 par an et par marque en moyenne. Là où ça s'est compliqué, c'est lorsque nVidia est arrivé sur le marché, pour conccurencer directement ati.
 
Maintenant, pour la 3D... J'ai préciser (bien) plus haut que j'ai pas encore testé... J'attend justement de pouvoir revenir chez nVidia... Malgres mes recherches... A part samsung, j'ai pas trouvé d'écran pour la 3D active compatible ATI... donc, je fonctionne en theorie (résultat de test + ce qui se dit sur certains topics).
 
 
 
Maintenant, Lorsque j'ai parler de ça... C'était plutot car le sujet partais en sucette (HDG, MDG... sujet qui a l'air de continuer).  
Je voulais simplement dire que je comprend que certains soient déçu (moi le 1er, je vais devoir attendre au moins les 1ers test sur le GK104): La sortie de la puce destinée au HDG Kepler (gk110) ayant été repoussée... Le nom du modele (GTX680) a été adopté par la puce qui devait a l'origine équipé les cartes MDG. A 500e la cg MDG, pas pour moi, je vais rien gagner en perf. A ce moment là, autant me prendre 1 cg @250€ tout les ans... ça reviendrai au meme pour moi.
 
Et j'ai tenté d'expliquer (donner mon point de vu) aussi (par l'absurde, je sais pas trop... Mais en caricaturant, oui) que la discution etait inutile et stérile, puisque visiblement ATI et NVIDIA ne ciblent pas , tout a fait, la meme clientele de joueurs... Faut juste réussir a trouvé la nuance ;)
 
Ainsi, si tu joue en multi-screens ou mono screen (avec 1 seul écran en tout) vaut mieux aller chez ATI. Ils se sont spé là dedans, puisque si tu joue sur 1 seul écran, avec 1 second écran en mode clone ou étendu, tu perd env 20% de perf en 1920x1xxx (et jusqu'a 30% avec les filtres poussés).  
 
Et pour revenir sur ma phrase concernant la gts450... Fallait aussi lire entre les lignes. Certe elle est pas assez puissante pour les jeux 3D (pour moi, hein. J'ai besoin de plus). Par contre, elle doit etre suffisante pour visionner des films 3D, et/ou pour se faire une opinion sur la 3D
 
:jap:
 
Maintenant, ça serait bien que l'on arrete de parler sur le HDG/MDG... ohhh ma mienne est mieux que ta tienneuuu... nn tu reve c'est ma mienne la mieuuuu  :heink:  :D

n°8245837
actaruxs
Posté le 15-03-2012 à 19:24:19  profilanswer
 

budokai a écrit :

et hop ma 5850 va souffler ses 4 bougies en attendant un vraie révolution, c'est quand même bien du foutage de gueule !!!


burnout62 a écrit :


Elle est sortie en 2009 ?! :heink:


Nestid a écrit :


il fête son anniversaire tous les 6 mois ;)


 
nn, probablement achetée en 2009... pas vu la réponse :D
les 4 bougie, c'est pour dire que lorsque la revolution sera là, la 5850 aura 4 ans, stout (comme mes 2 miennes, d'où mon choix de cg encore plus restreint)


Message édité par actaruxs le 15-03-2012 à 19:33:16
n°8245845
sasuke87
Posté le 15-03-2012 à 19:33:17  profilanswer
 

budokai a écrit :

et hop ma 5850 va souffler ses 4 bougies en attendant un vraie révolution, c'est quand même bien du foutage de gueule !!!


 
Ce n'est en aucun cas un problème. Les concepteurs de GPU que sont AMD et nvidia ont changé le rythme d'évolution des CG à nous de nous adapter et changer aussi notre manière de consommer.
 
Faut peut être acheter moins souvent mais plus intelligemment (viser le secteur 250€ uniquement vu qu'au dessus de ce budget les gains en perf ne semblent pas vraiment transcendants).

n°8245846
serioussam
Plouf
Posté le 15-03-2012 à 19:35:37  profilanswer
 

sasuke87 a écrit :


 
Ce n'est en aucun cas un problème. Les concepteurs de GPU que sont AMD et nvidia ont changé le rythme d'évolution des CG à nous de nous adapter et changer aussi notre manière de consommer.
 
Faut peut être acheter moins souvent mais plus intelligemment (viser le secteur 250€ uniquement vu qu'au dessus de ce budget les gains en perf ne semblent pas vraiment transcendants).


Donc si je comprends bien tu nous dis que la strategie d'AMD et de NVidia est de nous faire passer d'un modele ou on achete souvent des cartes a 500 boules a un modele ou on acheterait moins souvent des cartes moins cheres ?
 
[:onclecharlie:1]

n°8245847
actaruxs
Posté le 15-03-2012 à 19:36:13  profilanswer
 

Moi j'ai compris le contraire :D
 
quand tu achete une (ou plusieurs) cg pour 500€... normalement c'est pour la/les garder un bon moment... Mais pendant ce temps là, tu n'achete rien... Leur but est peut etre de nous pousser a consommer plus souvent.
La 670 pour remplacer la 5850 serait probablement un bon choix. La 570 baissera lors de la sortie de la 680 et 670... Mais le gain (avec la 570) sera quand meme un peu léger (pour presque le meme prix que la 670)... La 5850 n'a que 2ans, et encore un peu perf.

Message cité 2 fois
Message édité par actaruxs le 15-03-2012 à 19:40:39
n°8245853
wnorton
Je suis néerlandophone
Posté le 15-03-2012 à 19:41:59  profilanswer
 

actaruxs a écrit :


 
nn, je parlais d'ati... 1 ans après la sortie de winXP... par rapport au DirectX seulement... Et meme, il me semble encore bien avant ça.  
Pour gagner en perf, on avait la possibilité de baisser drastiquement les filtres (bilineaire, trilineaire, wbuffer, zbuffer... pour les principaux dont je me souviens encore). Et c'est toujours vrai avec atitraytool... Mais certaines options, avec les cg actuelles, font que ça peut bugguer en DX.  
J'ai pû gagner ainsi pres de 50% de perf... par rapport au ccc configuré en mode perf... Le probleme est que atitraytool ne commente pas vraiment chaque options (Et quand ça se met a bugguer... Pas d'autres choix que de désinstaller le driver + modif BdR), contrairement au soft que j'utilisais pour ma Radeon 8500 et 9600... Qui a disparu (je crois) depuis un bail.
Et puis, gagner en perf au détriment de la qualité... C'est plus de mon age.  
 
A l'époque, c'était utile en attendant la sortie des cg... 1 par an et par marque en moyenne. Là où ça s'est compliqué, c'est lorsque nVidia est arrivé sur le marché, pour conccurencer directement ati.
 
Maintenant, pour la 3D... J'ai préciser (bien) plus haut que j'ai pas encore testé... J'attend justement de pouvoir revenir chez nVidia... Malgres mes recherches... A part samsung, j'ai pas trouvé d'écran pour la 3D active compatible ATI... donc, je fonctionne en theorie (résultat de test + ce qui se dit sur certains topics).
 
 
 
Maintenant, Lorsque j'ai parler de ça... C'était plutot car le sujet partais en sucette (HDG, MDG... sujet qui a l'air de continuer).  
Je voulais simplement dire que je comprend que certains soient déçu (moi le 1er, je vais devoir attendre au moins les 1ers test sur le GK104): La sortie de la puce destinée au HDG Kepler (gk110) ayant été repoussée... Le nom du modele (GTX680) a été adopté par la puce qui devait a l'origine équipé les cartes MDG. A 500e la cg MDG, pas pour moi, je vais rien gagner en perf. A ce moment là, autant me prendre 1 cg @250€ tout les ans... ça reviendrai au meme pour moi.
 
Et j'ai tenté d'expliquer (donner mon point de vu) aussi (par l'absurde, je sais pas trop... Mais en caricaturant, oui) que la discution etait inutile et stérile, puisque visiblement ATI et NVIDIA ne ciblent pas , tout a fait, la meme clientele de joueurs... Faut juste réussir a trouvé la nuance ;)
 
Ainsi, si tu joue en multi-screens ou mono screen (avec 1 seul écran en tout) vaut mieux aller chez ATI. Ils se sont spé là dedans, puisque si tu joue sur 1 seul écran, avec 1 second écran en mode clone ou étendu, tu perd env 20% de perf en 1920x1xxx (et jusqu'a 30% avec les filtres poussés).  
 
Et pour revenir sur ma phrase concernant la gts450... Fallait aussi lire entre les lignes. Certe elle est pas assez puissante pour les jeux 3D (pour moi, hein. J'ai besoin de plus). Par contre, elle doit etre suffisante pour visionner des films 3D, et/ou pour se faire une opinion sur la 3D
 
:jap:
 
Maintenant, ça serait bien que l'on arrete de parler sur le HDG/MDG... ohhh ma mienne est mieux que ta tienneuuu... nn tu reve c'est ma mienne la mieuuuu  :heink:  :D


Tu as pas un lien parenté avec Activation (vue la taille de l’énoncé) :lol:


---------------
Je suis néerlandophone une fois
n°8245855
wnorton
Je suis néerlandophone
Posté le 15-03-2012 à 19:44:13  profilanswer
 

serioussam a écrit :


Donc si je comprends bien tu nous dis que la strategie d'AMD et de NVidia est de nous faire passer d'un modele ou on achete souvent des cartes a 500 boules a un modele ou on acheterait moins souvent des cartes moins cheres ?
 
[:onclecharlie:1]


Ben, sa va devenir une mode de changer son matos tout les 6 mois... :pt1cable:


---------------
Je suis néerlandophone une fois
n°8245856
actaruxs
Posté le 15-03-2012 à 19:44:22  profilanswer
 

wnorton a écrit :


Tu as pas un lien parenté avec Activation (vue la taille de l’énoncé) :lol:


euh... Je pense pas :lol:
 
Ps: Les idées se bouscule dans ma tete... une pensée en entrainant une autre.... Difficile de faire court, mais j'essai de faire un effort a chaque fois :D ;)


Message édité par actaruxs le 15-03-2012 à 19:45:02
n°8245864
actaruxs
Posté le 15-03-2012 à 19:50:51  profilanswer
 

wnorton a écrit :


Ben, sa va devenir une mode de changer son matos tout les 6 mois... :pt1cable:


 
je pense que pour ceux qui ont besoin de perf, ça ne le fera pas trop... Ainsi, pour moi, passer d'un équivalent 5970 a la 680... j'aurai pas un gain franc. avec certains jeux, oui et avec d'autres, ça serait moins "productif"
 
Par contre, avec le GK110, ça risque bien d'etre plus interressant. Si le prix est contenu 500/600e max.
 
Peut etre qu'il vaut mieux, dans le cas d'un gros gpu/cg, éviter la 1ere sortie du nouveau modele.
 
Faut voir comment ça s'est passé depuis 2.5ans:
- sortie 5850/5870... puis 6mois + tard (il me semble) -> sortie 5970.
- Sortie 4xx, puis 5xx l'année suivante... Mais là, chez nvidia, c'est pas trop flagrant je trouve, nivo différence de perf

Message cité 2 fois
Message édité par actaruxs le 15-03-2012 à 19:55:57
n°8245867
wnorton
Je suis néerlandophone
Posté le 15-03-2012 à 19:55:44  profilanswer
 

actaruxs a écrit :


 
je pense que pour ceux qui ont besoin de perf, ça ne le fera pas trop... Ainsi, pour moi, passer d'un équivalent 5970 a la 680... j'aurai pas un gain franc.
 
Par contre, avec le GK110, ça risque bien d'etre plus interressant. Si le prix est contenu 500/600e max.
 
Peut etre qu'il vaut mieux, dans le cas d'un gros gpu/cg, éviter la 1ere sortie du nouveau modele...  


Oui, mais les malades tu sais, les Américain avec leur config de fou heu oui, il change pour la nouvelle gamme du dessus.  :pt1cable:


---------------
Je suis néerlandophone une fois
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  133  134  135  ..  1028  1029  1030  1031  1032  1033

Aller à :
Ajouter une réponse
 

Sujets relatifs
Concours Nvidia / questions sur les... questionsCartes Mères Z68 GIGABYTE, laquelle choisir ?
Panneau de configuration NVIDIA ?[HFR] Actu : 5 cartes A75 FM1 pour ASRock
Probleme aprés installation carte NVIDIA GEFORCE 8400 GS[HFR] Actu : Nvidia lance les GTX 580M et 570M
[HFR] Actu : 4 cartes Socket FM1 pour Gigabyte[Topic Unique] Problème pour mettre à jour sa carte réseau
Gestion des ventilateurs 3 pins avec les cartes mères P67Configuration MCP73VE NVIDIA MCP73
Plus de sujets relatifs à : [Topic Unique] NVIDIA GeForce GTX 660Ti/670/680/690/760/770 (GK104)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)