Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3273 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  58  59  60  ..  536  537  538  539  540  541
Auteur Sujet :

[Topic Unique] GTX 465, 470, 480 - cartes Nvidia HDG - 40nm - DX11

n°7154354
dragonlore
Posté le 08-10-2009 à 21:38:31  profilanswer
 

Reprise du message précédent :

Kayanwan a écrit :


 
Alors toi, tu es un champion du monde  :pfff: .... je ne critique pas nvidia .. je critique le physX...
Je sors tout juste d'une nV 9800 GTX...  :lol:  
 
AMD n'est pas blanc comme neige et si je suis passé chez nvidia pour les g92, c'est pour cette raison ...
 
désolé, moi je ne suis pas marié à une marque.  
 
Bonen lune de miel  :hello:


moi non plus je ne suis pas marié avec une marque. J'ai à peu près eu toutes la plupart des marques de cg qui ont existé. J'ai une gtx280 mais juste avant j'avais une 9700pro d'ati.
 Mais critiquer le physx c'est absurde car le physx est un moteur physique open source comme le havok. Il offre juste en plus un support hardware réservé aux possesseurs de nvidia.
 
ATI avait qu'à faire de même avec un concurrent. Ils ne l'ont pas fait donc critiquer nvidia pour ça c'est juste ridicule surtout que jusqu'à maintenant à part le physx, faire de la physique accélérée c'était pas possible..

mood
Publicité
Posté le 08-10-2009 à 21:38:31  profilanswer
 

n°7154355
Profil sup​primé
Posté le 08-10-2009 à 21:38:53  answer
 

djffff a écrit :

Ca recommence a troll moi je dis !


Ce sont les adeptes qui reprennent la transe [:michaeldell]  
Laissons-les méditer, il en sortira bien quelque chose [:psywalk]  
Ou pas [:justin_bridou]

n°7154356
MEI
|DarthPingoo(tm)|
Posté le 08-10-2009 à 21:39:11  profilanswer
 

asmomo a écrit :


 
Je me demande comment le physx va pouvoir s'imposer alors que dans les prochains mois (au moins 6) il n'y aura aucune carte DX11 nvidia abordable.


P'tet parce que n'importe quel GPU NVIDIA 8xxx le supporte ? :o
 
Sans rire y'a plus de carte compatible CUDA/PhysX sur le marché que de carte DirectCompute... :o Et c'est là que NVIDIA a de la chance, vu qu'ATI a implementé DirectCompute pour peut de ses GPU.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7154359
dragonlore
Posté le 08-10-2009 à 21:40:49  profilanswer
 

Corleone_68 a écrit :


 
Useless peut etre pour toi mais pas pour tout le monde c'est ton avis  ;)  
 
Ok ca existe depuis longtemps (comme toutes innovations si tu vois ce que je veux dire...) mais a quel prix ? Le calcul est vite fait...


ah bon qui utilise 3 écrans parmi les joueurs? surement 0.3 % des joueurs
qui compte en utiliser plus de 3? surement même pas 0.1 %.
 
vu le prix d'un bon écran, en avoir 3 ça coute chère sauf si on achète des écrans pourris 1er prix comme j'ai vu proposer sur certains sites mais à quoi bon avoir une techno de luxe si c'est pour se trainer avec des écrans bas de gamme ratés.

n°7154360
dragonlore
Posté le 08-10-2009 à 21:41:32  profilanswer
 

djffff a écrit :

Ca recommence a troll moi je dis !


ça doit faire 30 pages que ça troll donc ça change pas grand chose

n°7154366
dragonlore
Posté le 08-10-2009 à 21:43:52  profilanswer
 

Kayanwan a écrit :


 
Je suis d'accord avec toi ... mais havok le faisait déjà très bien avec nos CPUs  :D et il le ferait encore mieux aujourd'hui avec nos multi-coeur...
 
bref .. on verra bien ;)


des multi coeur pour la physique? :lol:  :lol:  :lol:  
 
un cpu est juste innaproprié pour de la physique tellement c'est peu puissant.
 
la physique est un gouffre de puissance beaucoup plus que le graphisme. Déjà qu'un cpu est à la ramasse pour le graphisme, alors pour faire d ela physique un tant soit peu réaliste et poussée, les cpus même si on avait 10 coeurs, ne suffirait pas.

n°7154375
kangoorico
Posté le 08-10-2009 à 21:47:57  profilanswer
 

dragonlore a écrit :


des multi coeur pour la physique? :lol:  :lol:  :lol:  
 
un cpu est juste innaproprié pour de la physique tellement c'est peu puissant.
 
la physique est un gouffre de puissance beaucoup plus que le graphisme. Déjà qu'un cpu est à la ramasse pour le graphisme, alors pour faire d ela physique un tant soit peu réaliste et poussée, les cpus même si on avait 10 coeurs, ne suffirait pas.


ca depend de quel physique on parle ...
 
si tu simule la chute de 200 000 cailloux (ou bidons ou autre) avec les rebonds entre eux alors le GPU sera meilleur
si tu simule la chute d'un seul caillou (ou autre) avec les rebond sur un sol pas droit alors le CPU sera meilleur

n°7154380
bjone
Insert booze to continue
Posté le 08-10-2009 à 21:50:52  profilanswer
 

Ca dépends.
La physique des corps solides les CPU ont l'avantage sur les GPU dû à la machine à états.
PhysX ne fait pour le moment que les fluides & les tissus su GPU.

n°7154386
Corleone_6​8
Posté le 08-10-2009 à 21:51:59  profilanswer
 

dragonlore a écrit :


ah bon qui utilise 3 écrans parmi les joueurs? surement 0.3 % des joueurs
qui compte en utiliser plus de 3? surement même pas 0.1 %.
 
vu le prix d'un bon écran, en avoir 3 ça coute chère sauf si on achète des écrans pourris 1er prix comme j'ai vu proposer sur certains sites mais à quoi bon avoir une techno de luxe si c'est pour se trainer avec des écrans bas de gamme ratés.


 
Il n'y a pas que la France dans le monde... Perso moi pour le prix de mon 46 pouces si je ne l'avais pas acheté avant, j'y aurais refléchis.


---------------
Phanteks Enthoo Primo / Seasonic P-860 / Asus Strix B550 E/ Ryzen 5600X WC / 2*16 F4 3600C16 Gskill Ripjaws @3733 / 6900XT Red Devil / Crucial C300 128 Go / Sam 850 Evo 500 Go / Velociraptor 300 Go / Caviar Red 4 To / Caviar Black 1 To
n°7154388
dragonlore
Posté le 08-10-2009 à 21:52:15  profilanswer
 

asmomo a écrit :


 
Je me demande comment le physx va pouvoir s'imposer alors que dans les prochains mois (au moins 6) il n'y aura aucune carte DX11 nvidia abordable.


je savais bien que tu trollais depuis le début mais là j'en ai la preuve car dire que nvidia ne sortira pas de cartes dx11 abordable avant 6 mois est un troll pur et simple car tu n'en sais strictement rien tout comme nous.

mood
Publicité
Posté le 08-10-2009 à 21:52:15  profilanswer
 

n°7154394
kangoorico
Posté le 08-10-2009 à 21:53:46  profilanswer
 

bjone a écrit :

Ca dépends.
La physique des corps solides les CPU ont l'avantage sur les GPU dû à la machine à états.
PhysX ne fait pour le moment que les fluides & les tissus su GPU.


la physique des fluides par informatique est approché en considérant que ce sont des milliers/millions/milliards (suivant la taille de l'échantillon) de particule solide très petites

n°7154396
dragonlore
Posté le 08-10-2009 à 21:54:00  profilanswer
 

bjone a écrit :

Ca dépends.
La physique des corps solides les CPU ont l'avantage sur les GPU dû à la machine à états.
PhysX ne fait pour le moment que les fluides & les tissus su GPU.


quelque soit la physique, vu la faible puissance de calculs des cpus face à ce que demande la physique, un cpu ne fera jamais l'affaire à moins que ça soit ultra simplifié. mais on va au contraire vers de la physique plus complexe pour mieux simuler dans les jeux la physique réelle.

n°7154403
dragonlore
Posté le 08-10-2009 à 21:57:00  profilanswer
 

Corleone_68 a écrit :


 
Il n'y a pas que la France dans le monde... Perso moi pour le prix de mon 46 pouces si je ne l'avais pas acheté avant, j'y aurais refléchis.


france ou dans le monde, quelle différence.
 
il  ya déjà plus de 4 milliards de gens voir plus qui n'ont aucun intérêt dans cette etchno car pas le sou.
 
sur le reste, combien a besoin de 3 écrans parmi les joueurs surement 0.5 % et encore. combien ont la place de mettre 3 écrans? surement beaucoup moins.
 
bref c'est useless comme techno sauf pour les très riches et ceux qui ont beaucoup de place.

n°7154404
kangoorico
Posté le 08-10-2009 à 21:57:09  profilanswer
 

dragonlore a écrit :


quelque soit la physique, vu la faible puissance de calculs des cpus face à ce que demande la physique, un cpu ne fera jamais l'affaire à moins que ça soit ultra simplifié. mais on va au contraire vers de la physique plus complexe pour mieux simuler dans les jeux la physique réelle.


toujours pareil ca dépend de ce que tu étudie :
 
prend dans un jeu (qui n'existe pas encore :D ) de tir
 
tu prend le bazooka et tire dans un mur qui est démoli en brique il te faut 1000 brique max et le CPU tiens largement
maintenant refait la même chose dans une piscine, et le calcul pour l'eau qui va gicler dans tout les sens ne va pas tenir sur CPU.
 
donc suivant le style de jeu, alors oui ca pourrais tenir sur CPU
pour d'autre non,
 
tout depend le realisme voulu et la présence de nombreuses particules.

n°7154414
gliterr
Posté le 08-10-2009 à 22:02:17  profilanswer
 

dragonlore a écrit :

De toute façon physx est un plus et n'a que des côtés positifs que seuls les possesseurs de radeons envient et jalousent en critiquant.


Il faut se calmer mon bon petit monsieur, je ne connais pas, j'ai pas essayé, je ne jalouse pas  :non:  

n°7154421
dragonlore
Posté le 08-10-2009 à 22:06:11  profilanswer
 

gliterr a écrit :


Il faut se calmer mon bon petit monsieur, je ne connais pas, j'ai pas essayé, je ne jalouse pas  :non:  


est-ce que je me suis adressé à toi? non car je me suis adressé qu'à ceux qui critiquent :non:  
certains ici jalousent vu la virulence à laquelle ils critiquent le physx.


Message édité par dragonlore le 08-10-2009 à 22:07:29
n°7154422
Corleone_6​8
Posté le 08-10-2009 à 22:06:45  profilanswer
 

dragonlore a écrit :


france ou dans le monde, quelle différence.
 
il  ya déjà plus de 4 milliards de gens voir plus qui n'ont aucun intérêt dans cette etchno car pas le sou.
 
sur le reste, combien a besoin de 3 écrans parmi les joueurs surement 0.5 % et encore. combien ont la place de mettre 3 écrans? surement beaucoup moins.
 
bref c'est useless comme techno sauf pour les très riches et ceux qui ont beaucoup de place.


 
Bah oui forcement ca vient d'amd donc c'est usless quoi... Comme je l'ai deja dis c'est vos avis ça, comme moi mon avis est que physx est usless et je le pense. Et je ne mettrais pas ma 8800 gtx ou 260gtx avec ma future 5870 pour en profiter.


---------------
Phanteks Enthoo Primo / Seasonic P-860 / Asus Strix B550 E/ Ryzen 5600X WC / 2*16 F4 3600C16 Gskill Ripjaws @3733 / 6900XT Red Devil / Crucial C300 128 Go / Sam 850 Evo 500 Go / Velociraptor 300 Go / Caviar Red 4 To / Caviar Black 1 To
n°7154424
sasuke87
Posté le 08-10-2009 à 22:07:56  profilanswer
 

dragonlore a écrit :


si nvidia a au contraire apprit de 3dfx.
3dfx est mort pas à cause du glide qui était une véritable réussite mais à cause du fait qu'ils se sont reposés sur leurs lauriers de premier de la classe.
 
le glide avait beau être fermé, il s'est imposé comme standard pendant presque 3 ans quand 3dfx était leader dans le secteur. Quand 3dfx n'a plus évolué et a commencé à se faire rattraper par ces concurrents puis dépassés, le glide est devenu caduque naturellement.
 
les formats propriétaires ne fonctionnent qu'à la condition d'être largement dominant. 3dfx l'a été pendant près de 3 ans et a pu imposer son format comme stabdard. Nvidia essaie de le faire pour le physx.
 
De toute façon physx est un plus et n'a que des côtés positifs que seuls les possesseurs de radeons envient et jalousent en critiquant.
 


 
aaah c'est trop  :D

n°7154427
asmomo
Modérateur
Posté le 08-10-2009 à 22:09:23  profilanswer
 

MEI a écrit :

P'tet parce que n'importe quel GPU NVIDIA 8xxx le supporte ? :o
 
Sans rire y'a plus de carte compatible CUDA/PhysX sur le marché que de carte DirectCompute... :o Et c'est là que NVIDIA a de la chance, vu qu'ATI a implementé DirectCompute pour peut de ses GPU.


 
Les gens qui ont déjà une CG sans l'intention d'en changer sont hors sujet :o Avec le buzz que va faire 7, faudra acheter une carte DX11, et nvidia va être là "achetez mon physx c'est bon mangézen hein DX11 ? nan mais ça existe pas et puis de toute façon c'est nul allez prenez mon dérivé de G80 caydubon".


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°7154429
Corleone_6​8
Posté le 08-10-2009 à 22:11:10  profilanswer
 

asmomo a écrit :


 
Les gens qui ont déjà une CG sans l'intention d'en changer sont hors sujet :o Avec le buzz que va faire 7, faudra acheter une carte DX11, et nvidia va être là "achetez mon physx c'est bon mangézen hein DX11 ? nan mais ça existe pas et puis de toute façon c'est nul allez prenez mon dérivé de G80 caydubon".


 
+1000  :lol:


---------------
Phanteks Enthoo Primo / Seasonic P-860 / Asus Strix B550 E/ Ryzen 5600X WC / 2*16 F4 3600C16 Gskill Ripjaws @3733 / 6900XT Red Devil / Crucial C300 128 Go / Sam 850 Evo 500 Go / Velociraptor 300 Go / Caviar Red 4 To / Caviar Black 1 To
n°7154430
gliterr
Posté le 08-10-2009 à 22:11:18  profilanswer
 

dragonlore a écrit :

je savais bien que tu trollais depuis le début mais là j'en ai la preuve car dire que nvidia ne sortira pas de cartes dx11 abordable avant 6 mois est un troll pur et simple car tu n'en sais strictement rien tout comme nous.


Il faudrait nous dire de quelle carte tu parles alors.

n°7154432
asmomo
Modérateur
Posté le 08-10-2009 à 22:11:38  profilanswer
 

dragonlore a écrit :

je savais bien que tu trollais depuis le début mais là j'en ai la preuve car dire que nvidia ne sortira pas de cartes dx11 abordable avant 6 mois est un troll pur et simple car tu n'en sais strictement rien tout comme nous.


 
Tant mieux si je me trompe. Mais non seulement nvidia n'a pas annoncé de cartes DX11 autres que le Fermi, mais en plus ils ont annoncé des cartes DX10.1 qui finalement sont ratées et toujours pas là.


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°7154433
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 08-10-2009 à 22:11:41  profilanswer
 

Trop de hs tue le topic.
 
Y'a un graphical open bar, utilisez-le !  
 
En attendant plus d'infos sur fermi, ce topic est fermé

n°7163148
asmomo
Modérateur
Posté le 15-10-2009 à 02:58:56  profilanswer
 

Je pense que les 2 derniers posts de marllt2 sur le GOB ont leur place ici :

 
marllt2 a écrit :

Comme le topic fermi est fermé, je poste içi: http://www.comptoir-hardware.com/a [...] isee-.html

 
Citation :

Est-ce aussi une façon pour le caméléon de préparer le terrain pour cette nouvelle architecture qui sera lancée bientôt avec pas moins de trois modèles? Wait and see...


C'est quelle source qui affirme ça ? :??:

 

Sinon, l'avis de Dally sur le Fermi:  http://news.cnet.com/8301-13924_3- [...] 7-1_3-0-20

 
Citation :

Fermi is also going to be great at accelerating stuff in Snow Leopard and Windows 7--not to mention a great gaming chip, according to Bill Dally, chief scientist at Nvidia who spoke during a conference call with analysts on Thursday.


Citation :

We are paying a bit of a compute tax in that we launched a part where a lot of the consumer compute applications haven't really taken hold yet. But over time as more consumer computer applications are developed that take advantage of our compute (consumer) features...I think it's going to give us a big leg up," he said.

Citation :

And being an Nvidia chip, games are a big target market. "Fermi adds value to games by doing exactly the same kind of scientific simulations that we use to predict climate and to understand the genome and other things," according to Dally. "A great example of that is our PhysX package that basically does physical simulations to make games appear more real."


Citation :

He also explained why the chip was billed as a supercomputer chip initially and not a gaming chip. "It's a zero-sum game. You have a certain amount of die (chip) area, a certain power budget. It is the case that we put a bunch of die area into double-precision floating point, a bunch of die area into ECC. And for gaming graphics applications, those give less returns than they do for the scientific applications," he said. Double-precision floating point operations are used heavily in scientific computing. ECC, or error correcting code, is a technology that can correct data errors on the fly.

Citation :

And Dally explained how Fermi can be scaled down to lower-end chips used in the gaming and consumer segments. "We're not talking about other (chips) at this point in time but you can imagine that we can scale this part by having fewer than the 512 cores and by having these cores have fewer of the features, for example less double-precision," he said.

 

All the Fermi products, including gaming and professional workstation chips, will be announced "pretty close together." Chips are expected sometime in the coming few months.

 

Analyse de xbitlabs: http://www.xbitlabs.com/news/video [...] Cards.html

 
Citation :

Nvidia Corp. has confirmed in a brief media interview that it will be able to cut-down the Fermi-G300 graphics processors in order to address certain specific markets and price-points. The move is natural for all graphics chips designers, but this time Nvidia openly admits that many of implemented capabilities will hardly offer benefits for the consumer right away.


Citation :

At its GPU Technology Conference (GTC) last week Nvidia specifically noted that it paid a lot of attention on boosting double-precision floating point computational performance on its Fermi-G300 chip (about 750GFLOPs) and thus will be able to address new several new markets, e.g., high-performance computing. However, DP performance is rarely needed by average consumers on the desktop or laptop markets. Obviously, in order to create power efficient version of Fermi for notebooks or low-cost desktops, Nvidia will have to sacrifice some of its capabilities.


Citation :

Mr. Dally, who did not explain how it is possible to reduce double-precision floating point performance without decreasing single-precision point speed, something which is needed by video games. In fact, Mr. Dally’s comment may imply that non-flagship Fermi derivatives will have not only be slower in terms of performance, but will be seriously different in terms of implementation.


Citation :

Officially Nvidia promises to start sales of Fermi products in 2009.


 
marllt2 a écrit :

http://www.fudzilla.com/content/view/15954/1/

 
Citation :

Nvidia's mainstream Fermi arrives in late Q1

 

Launching in March if all goes well

 

Nvidia's mainstream market version of its GT300 / Fermi chip is scheduled for a Q1 2010 launch. This is not particularly good news for the company as ATI is already shipping its mainstream card based on the Juniper chip at pricing around €130 / $169 for the more expensive parts. Of course, we are talking about the HD 5770 and HD 5750 that both started shipping yesterday.

 

In perspective, Fermi will be released as a performance chip card, a high-end single chip card, and a dual-GPU card that might launch a few weeks later.

 

When it comes to entry level and mainstream segments, we will most likely have to wait until around March, if not even later. Despite the huge flexibility of Nvidia's Fermi GF100 architecture, it still takes time to derive slower performing chips from the original design.

 

We have a feeling that ATI might capture a much bigger piece of the DirectX 11 market than anyone expected due to being first to the market and shipping months before its competition. Both of these factors are very beneficial for raking in good sales numbers. While Nvidia’s mainstream cards might end up faster, they will unfortunately come a month behind the competition.

 

http://www.fudzilla.com/content/view/15955/1/

 
Citation :

Nvidia partners order huge quantities of Fermi chips

 

Partners anticipate high success rate

 

Nvidia partners have high hopes that the company's GF100 / "GT300" / Fermi chip will end up as the excellent seller many enthusiasts have been hoping for and have already ordered some huge quantities of it.

 

The reasons behind such risky decisions is quite clear. The GT200 family is not as widely available anymore and it seems probable that someone at Nvidia messed up with 55nm wafer orders. We assume this mainly because Nvidia didn’t expect to have such strong demand in Q3 and Q4 and therefore partners are hoping that Fermi can remedy the situation.

 

On another note, supply partners have to be the early birds with their orders because once Nvidia shows its Fermi supply to the entire seller market, the waiting line to get chips might already be too long. It is not that Nvidia partners have much of a choice though, as the GT200 series is slowly being discontinued and Fermi is supposed to fill the gap.

 

Nvidia and its partners believe that Fermi should destroy Radeon HD 5870 and HD 5850 sales, but this is only after it starts shipping. Not to mention, this strongly depends on the supply quantities that Nvidia can deliver. Until then, ATI will be making quite a lot of money on its 58x0 and 57x0 series.


 

Pas besoin de "je vous l'avais dit" et autres posts du même genre.


Message édité par asmomo le 15-10-2009 à 02:59:13

---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°7163163
olioops
Si jeune et déjà mabuse.
Posté le 15-10-2009 à 04:26:04  profilanswer
 

En tant que "gamers" et possesseurs d'une GTX275 je ne ressent par l'urgence de changer de carte graphique pour l'instant pour alimenter mon 26" , je ne joue pas aux benchs !!! et à moins que les jeux de cette fin d'années ne soient particulièrement attractifs et gourmand , j'attendrai tranquillement (  :bounce:  [:alandon][:dawabranir]:bounce: ) la relève du caméléon ...  :o  
 
je ne vois donc aucune raison de me prendre une CG d'une autre marque pour l'instant , ni de critiquer la politique d'NVidia ... le retard du Fermi est certainement un coup dur , mais pour un joueur lambda comme moi ça ne change pas grand chose  [:g43l] je m'inquiète d'avantage de la qualité des jeux à venir finalement  [:nbag]

Message cité 3 fois
Message édité par olioops le 15-10-2009 à 04:35:44

---------------
Ne pas confondre gisement épuisé et mine de rien !
n°7163172
manut2500
Posté le 15-10-2009 à 07:36:02  profilanswer
 

Tout a fait d'accord , il faut arreter, pour l'instant, avec une GTX260+, une GTX275 , un HD4870 1 Go ou HD4890, on joue parfaitement a tout les jeux en 1920*1200 avec aa sauf exceptions mal programmé ou trop ambitieux pour l'epoque, donc on peut tres bien attendre le fermi, moi j'attendrai meme le suivant.

n°7163183
djffff
Time's like ocean in storm.
Posté le 15-10-2009 à 08:19:32  profilanswer
 

En mm temps il ne s'agit que du mainstream... ca veux dire les cartes qui vont remplacer les actuel GTS 250 GTX 260... En ce qui concerne le HDG ca devrai bel et bien être dispo en 2009 (si tt se passe bien)
 
Attention a ne pas confondre mainstream et performance card

n°7163292
0b1
There's good in him
Posté le 15-10-2009 à 10:38:20  profilanswer
 

manut2500 a écrit :

Tout a fait d'accord , il faut arreter, pour l'instant, avec une GTX260+, une GTX275 , un HD4870 1 Go ou HD4890, on joue parfaitement a tout les jeux en 1920*1200 avec aa sauf exceptions mal programmé ou trop ambitieux pour l'epoque, donc on peut tres bien attendre le fermi, moi j'attendrai meme le suivant.


+1, je pense que je vais attendre l'année prochaine et le 32/28nm  :??:  

n°7163345
Profil sup​primé
Posté le 15-10-2009 à 11:39:17  answer
 

olioops a écrit :

En tant que "gamers" et possesseurs d'une GTX275 je ne ressent par l'urgence de changer de carte graphique pour l'instant pour alimenter mon 26" , je ne joue pas aux benchs !!! et à moins que les jeux de cette fin d'années ne soient particulièrement attractifs et gourmand , j'attendrai tranquillement (  :bounce:  [:alandon][:dawabranir]:bounce: ) la relève du caméléon ...  :o  
 
je ne vois donc aucune raison de me prendre une CG d'une autre marque pour l'instant , ni de critiquer la politique d'NVidia ... le retard du Fermi est certainement un coup dur , mais pour un joueur lambda comme moi ça ne change pas grand chose  [:g43l] je m'inquiète d'avantage de la qualité des jeux à venir finalement  [:nbag]


 
Même problème pour moi, mon sli de 8800gtx tien encore plutôt bien et pourtant au niveau puissance il est largement dépassé, mais la 8800gtx est une carte qui encaisse bien, un ovni dans le monde des CG, ma seul envi de changer serait dans un but de consommation électrique moindre pour plus de puissance, il faut dire que les hd5870 et leur mode 2d très peut consommatrice est pas mal, mais je vais quand même attendre Nvidia et leur "future bombe"
 
Mais j'ai aussi peur de la qualité des futures jeux, on ne peut pas dire que les jeux vidéo ont beaucoup évolué sur les 2 années qui viennent de s'écouler, enfin je trouve, peut être un jeu ou deux qui sort du lot, mais sinon ça ne bouge pas trop...on va pas s'en plaindre non plus ;)

n°7163351
gliterr
Posté le 15-10-2009 à 11:45:21  profilanswer
 

Si tu es demandeur d'une faible conso électrique, jette toi sur les 5800.
Avec autant de transistors, la GT300 pourra pas lutter.
 
Enfin, comme il est dis, les versions gamers seront certainement différentes du "monstre" présenté.

n°7163355
MEI
|DarthPingoo(tm)|
Posté le 15-10-2009 à 11:54:05  profilanswer
 

Le truc c'est que sans prendre en compte le gain du à la bande passante, a 1400MHz, le GT300 devrait n'avoir +/- que les memes perfs qu'une 5870. Sauf qu'à priori 1400MHz serait une frequence déjà pas trop mal.
 
Si on suit la rumeur de frequence cible de 1700MHz (mais ca semble vraiment être style je pousse au max), on ne serait encore que 20% plus perfs...
 
Meme en essayant de quantifié le gain du a la BP, si jamais le GT300 est rien que 33% plus perfs qu'une 5870 ça sera déjà un gros miracle.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7163402
B1LouTouF
PSN : Geo62280 / GT : Mr Geo
Posté le 15-10-2009 à 12:56:15  profilanswer
 

olioops a écrit :

En tant que "gamers" et possesseurs d'une GTX275 je ne ressent par l'urgence de changer de carte graphique pour l'instant pour alimenter mon 26" , je ne joue pas aux benchs !!! et à moins que les jeux de cette fin d'années ne soient particulièrement attractifs et gourmand , j'attendrai tranquillement (  :bounce:  [:alandon][:dawabranir]:bounce: ) la relève du caméléon ...  :o  
 
je ne vois donc aucune raison de me prendre une CG d'une autre marque pour l'instant , ni de critiquer la politique d'NVidia ... le retard du Fermi est certainement un coup dur , mais pour un joueur lambda comme moi ça ne change pas grand chose  [:g43l] je m'inquiète d'avantage de la qualité des jeux à venir finalement  [:nbag]


 
enfin quelqun d'intelligent :)


---------------
FeedBack
n°7163405
B1LouTouF
PSN : Geo62280 / GT : Mr Geo
Posté le 15-10-2009 à 12:58:25  profilanswer
 

MEI a écrit :

Le truc c'est que sans prendre en compte le gain du à la bande passante, a 1400MHz, le GT300 devrait n'avoir +/- que les memes perfs qu'une 5870. Sauf qu'à priori 1400MHz serait une frequence déjà pas trop mal.
 
Si on suit la rumeur de frequence cible de 1700MHz (mais ca semble vraiment être style je pousse au max), on ne serait encore que 20% plus perfs...
 
Meme en essayant de quantifié le gain du a la BP, si jamais le GT300 est rien que 33% plus perfs qu'une 5870 ça sera déjà un gros miracle.


 
elle serait superieur a la 295 deja si c'est du 33% enfin je pense


---------------
FeedBack
n°7163448
asmomo
Modérateur
Posté le 15-10-2009 à 13:25:47  profilanswer
 

olioops a écrit :

En tant que "gamers" et possesseurs d'une GTX275 je ne ressent par l'urgence de changer de carte graphique pour l'instant pour alimenter mon 26" , je ne joue pas aux benchs !!! et à moins que les jeux de cette fin d'années ne soient particulièrement attractifs et gourmand , j'attendrai tranquillement (  :bounce:  [:alandon][:dawabranir]:bounce: ) la relève du caméléon ...  :o

 

je ne vois donc aucune raison de me prendre une CG d'une autre marque pour l'instant , ni de critiquer la politique d'NVidia ... le retard du Fermi est certainement un coup dur , mais pour un joueur lambda comme moi ça ne change pas grand chose  [:g43l] je m'inquiète d'avantage de la qualité des jeux à venir finalement  [:nbag]

 
manut2500 a écrit :

Tout a fait d'accord , il faut arreter, pour l'instant, avec une GTX260+, une GTX275 , un HD4870 1 Go ou HD4890, on joue parfaitement a tout les jeux en 1920*1200 avec aa sauf exceptions mal programmé ou trop ambitieux pour l'epoque, donc on peut tres bien attendre le fermi, moi j'attendrai meme le suivant.

 

Je ne vois pas vraiment l'intérêt de vos posts, les 260+ et 275 sont des cartes milieu de haut de gamme de cette année. Pensez à ceux qui ont une 280 depuis 2 ans, il est temps de changer ! Si vous avez acheté une 260/275 c'est que de toute façon le Fermi n'est pas pour vous. Ses dérivés, peut-être, et eux c'est pas avant 6 mois. Idem pour ceux qui ont le milieu de gamme d'avant, genre 8800GTS/8800GT, pas très réjouissant de n'avoir aujourd'hui que des 260/275 (ne parlons même pas des 250), tandis qu'en face ATI a une floppée de cartes.

Message cité 2 fois
Message édité par asmomo le 15-10-2009 à 13:29:11

---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°7163468
olioops
Si jeune et déjà mabuse.
Posté le 15-10-2009 à 13:38:18  profilanswer
 

asmomo a écrit :


 
Je ne vois pas vraiment l'intérêt de vos posts, les 260+ et 275 sont des cartes milieu de haut de gamme de cette année. Pensez à ceux qui ont une 280 depuis 2 ans, il est temps de changer ! Si vous avez acheté une 260/275 c'est que de toute façon le Fermi n'est pas pour vous. Ses dérivés, peut-être, et eux c'est pas avant 6 mois.


pour être clair , je ne comprend toujours pas comment on peut placer les cartes BiGPU en façe des CG monoGPU .... jusqu'à preuve du contraire et sauf erreur de ma part les solutions BiGPU souffrent toujours de problèmes de microstutering !!!?
 
le jour ou on pourra obtenir la même " qualité d'utilisation " .... dite le moi vite que j'aille en acheter une !!!  
 
pour mon niveau d'exigence une GTX295 est juste bonne à faire des benchs .... donc le HDG NVidia c'est la GTX285 . La 275 étant très proche , mon post à tout son sens .

Message cité 1 fois
Message édité par olioops le 15-10-2009 à 13:47:04

---------------
Ne pas confondre gisement épuisé et mine de rien !
n°7163484
Zack38
Posté le 15-10-2009 à 13:44:28  profilanswer
 

Au rappel, une GTX295 est plus performante qu'une GTX285 . Et le Fermi sera encore plus performant que la GTX295 . Donc, tu devras définitivement te borner à la GTX275, parce que sinon, tu risquerais d'acheter une carte graphique juste bonne à faire des benchs  :o

n°7163489
Rafale06
Vive les Suisses (Neutre..)
Posté le 15-10-2009 à 13:47:47  profilanswer
 

Zack38 a écrit :

Au rappel, une GTX295 est plus performante qu'une GTX285 . Et le Fermi sera encore plus performant que la GTX295 . Donc, tu devras définitivement te borner à la GTX275, parce que sinon, tu risquerais d'acheter une carte graphique juste bonne à faire des benchs  :o


 
 
Tant qu'aucun jeu ne néçessite une puissance énorme poussant à changer de carte ........bref vivement la sortie de crysis 2 en DX11 ^^
 
 

olioops a écrit :


pour être clair , je ne comprend toujours pas comment on peut placer les cartes BiGPU en façe des CG monoGPU .... jusqu'à preuve du contraire et sauf erreur de ma part les solutions BiGPU souffre toujours de problèmes de microstutering !!!?
 
le jour ou on pourra obtenir la même " qualité d'utilisation " .... dite le moi vite que j'aille en acheter une !!!  
 
pour mon niveau d'exigence une GTX295 est juste bonne à faire des benchs .... donc le HDG NVidia c'est la GTX285 . La 275 étant très proche , mon post à tout son sens .


 
 
+1.............une GTX 275 suffit largement dans 98% (et au pire un bon OC) des cas pour un gamer, et elle est franchement trés proche d'une GT285 qui est le trés haut de gamme chez nvidia en mono gpu...
 
A l'heure actuelle pour ceux qui ont ce genre de carte avec leurs équivalents chez ATI je ne vois aucun jeu néçessitant de changer ....surtout que les premiers jeux natifs et non patch sortiront plus vers fin 2010.
 
Bref je comprends pas pk la réouverture du topic, vu qu'encore une fois y a rien à dire sur le Fermi....

Message cité 1 fois
Message édité par Rafale06 le 15-10-2009 à 13:51:04

---------------
Les kevin (j'ai 12ans lol) je les ignore......
n°7163511
asmomo
Modérateur
Posté le 15-10-2009 à 13:58:45  profilanswer
 

Si si, il y a le passage sur toutes les fonctions du Fermi totalement inutiles pour les joueurs. Ou alors vous avez zappé ? :d La "compute tax" toussa.

Message cité 1 fois
Message édité par asmomo le 15-10-2009 à 13:58:58

---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°7163529
Gein
Posté le 15-10-2009 à 14:09:05  profilanswer
 

Oh its' open  :whistle:

n°7163531
Gigathlon
Quad-neurones natif
Posté le 15-10-2009 à 14:10:31  profilanswer
 

Je peux déjà citer 6 jeux parmi les 11 du protocole de test HFR qui ne se contentent pas d'une GTX285... décidément, les exceptions deviennent sacrément fréquentes! :o
 
Parmi ces 6 jeux, 3 tournent indéniablement mieux sur une HD5870 que sur une GTX285 (+100%, +84%, +70%), les faisant passer de proprement injouable à vaguement jouable dans les réglages utilisés (Battleforge 22 -> 44fps, ArmA2 19 -> 35fps, STALKER CS 20 -> 34fps).
 
Alors on peut me dire "on peut baisser les détails pour y jouer", sauf que je doute qu'on puisse jouer avec les mêmes réglages dans les 2 cas avec de tels écarts, et dans ce cas autant dire qu'une GTX285 était inutile puisque insuffisante là où une 8800GTX l'était également, après tout sur la 8800GTX aussi on pouvait baisser les détails...

Message cité 3 fois
Message édité par Gigathlon le 15-10-2009 à 14:12:41
n°7163532
olioops
Si jeune et déjà mabuse.
Posté le 15-10-2009 à 14:11:36  profilanswer
 

asmomo a écrit :

Si si, il y a le passage sur toutes les fonctions du Fermi totalement inutiles pour les joueurs. Ou alors vous avez zappé ? :d La "compute tax" toussa.


Si si on avait bien compris , NVidia va épurer son archi de ce qui est inutile pour le jeu ... pour faire une CG dédié au jeu !!! étonnant non   [:minusplus]  
 
perso ça m'a tellement pas surpris que j'ai pas jugé utile de relever .


---------------
Ne pas confondre gisement épuisé et mine de rien !
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  58  59  60  ..  536  537  538  539  540  541

Aller à :
Ajouter une réponse
 

Sujets relatifs
Topic GT300 fermé, vous avez gagné!aide pour reglé ma nvidia gt240
Nvidia geforce 9800gt pilotes problemeGeForce 295 GTX MonoPCB
GTX 260 Grésillement[TOPIC UNIQUE] ASUSTeK EAH4890 FORMULA - **** Sondage Ventilateur ****
choix carte graphique nvidiaEt si on faisait une BDD/Topic unique sur nos benchs HD TUNE et ATTO ?
Plus de sujets relatifs à : [Topic Unique] GTX 465, 470, 480 - cartes Nvidia HDG - 40nm - DX11


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)