Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
6144 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  17  18  19  ..  536  537  538  539  540  541
Auteur Sujet :

[Topic Unique] GTX 465, 470, 480 - cartes Nvidia HDG - 40nm - DX11

n°7136906
globule
Posté le 27-09-2009 à 19:49:23  profilanswer
 

Reprise du message précédent :
 :sleep:

mood
Publicité
Posté le 27-09-2009 à 19:49:23  profilanswer
 

n°7136910
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 27-09-2009 à 19:50:00  profilanswer
 

fifi86 a écrit :

Oui et non.
Si Nvidia a réellement un monstre prêt à arriver, quel est l'intérêt pour lui de faire du blabla et des faux power point ?  
Aucun, autant arriver tranquillement, et jeter la surprise sur le marché.


Attendre dans le silence, sans rien faire, pendant qu'AMD en profite pour se remplir les poche et lui voler des parts de marché ?
 
Ne serait-ce pas plus intelligent de leaker des slides, des semblants de benchs, n'importe quoi pour semer le doute dans les esprits ?
Essayer tout ce qui est humainement faisable pour retenir ses clients, leur donner une raison de ne pas acheter de Radeon 5800.
Juste un petit graph qui montre que la GTX380 est 30% plus performante que la Radeon HD 5870 serait suffisant.
Mais, y'a rien, c'est le vide intersidéral, et ce n'est vraiment pas ce à quoi nous a habitué la division marketing du caméléon.

n°7136919
Rafale06
Vive les Suisses (Neutre..)
Posté le 27-09-2009 à 19:53:59  profilanswer
 

Ovan a écrit :


 
Ah non mais je vais pas te reprocher de l'avoir mis ici, au contraire mais bon ça fait quasi 40% de plus que la 295 sur ce panel (c'est une moyenne du panel), j'y crois pas trop donc.


 
 
 
Si tu pars du principe que la GTX 295 à un bus de 448bits et des fréquences faibles 576 le gpu.....et si on par d'une logique ou l'architecture est 2fois plus puissantes qu' un GT200 ;)


---------------
Les kevin (j'ai 12ans lol) je les ignore......
n°7136926
Rafale06
Vive les Suisses (Neutre..)
Posté le 27-09-2009 à 19:57:53  profilanswer
 

Pour Wirmish :
 
Si aucune nouvelle ne serait-ce qu'un slide à la con aprés le salon du GPU de nvidia fin du mois...voir au pire début octobre.
 
Alors j'irais dans ton sens ça fait un peu peur.......
 
Donc en attendant fait nous une analyse pk pas de HD 5870 2go sur l'autre topic ^^ merci........


---------------
Les kevin (j'ai 12ans lol) je les ignore......
n°7136929
Rafale06
Vive les Suisses (Neutre..)
Posté le 27-09-2009 à 20:00:14  profilanswer
 

hidetoo a écrit :

Je suis même pas sûr qu'une ait déjà été fabriquée :/


 
 
Je vois mal les partenaires Nvidia n'avoir aucun prototype (ne serait-ce qu'en démonstration) aprés la sortie effective (en magasin) des HD 58XX.........
 
Parce que s'ils veulent pas calmer les actionnaires, faudra faire gaffe de pas perdre des partenaires au niveau du marché de la carte graphique : exemple des constructeurs....


---------------
Les kevin (j'ai 12ans lol) je les ignore......
n°7136932
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 27-09-2009 à 20:04:46  profilanswer
 

Rafale06 a écrit :

Tiens j'ai envie de faire l'illuminati sauce Nvidia.....


Ça ne ressemble en rien à mes posts.  :non:  
 
Je n'ai jamais chiffré les perfs de la GT300.
 
Je parle essentiellement des problèmes que semble rencontrer nVidia.
J'analyse les infos provenant de son premier GPU en 40nm.
 
Je constate aussi qu'on a pas de photo de la GT300, alors qu'on en avait de la HD5870 avant son lancement.
Je vois aussi que les rumeurs ne s'entendent même pas sur la taille du bus, alors que celle du RV870 était connu depuis longtemps.
 
Bref, moi je regarde les faits, et je les appliquent au GT300 quand c'est pertinent.
Je ne cite pas des benchs qui viennent d'on ne sait d'où et qui ne veulent rien dire.
 
 
Si tu veux des rumeurs sur le GT300, en voici :
· 3 x computing power vs GT200
· 384 bit memory bus
· 2.2 TFlop
· Core frequency: 700 MHz
· 512 SP
· Shaders frequency: 1600 MHz
· GDDR5 frequency: 1100 MHz
· Launch date: november 27
· Perfs: P2xxxx in 3DMark Vantage
· Retail price: $499.
 

Citation :

My Nvidia representative is very excited about this product. The way she has been talking is that Nvidia is going to let ATi get comfortable with all the good press they are getting, and then they are going to drop the hammer with an amazing product line that is going to not only steal ATI's thunder, but put them to shame as well.
 
The thing she said that got me the most excited was exactly this: "Nvidia has held absoultely NOTHING back this go around, they are giving GT300 Enthusiast cards everything they've got."


 
 

Rafale06 a écrit :

Donc en attendant fait nous une analyse pk pas de HD 5870 2go sur l'autre topic ^^ merci........


"I'll be back!"
 http://bestuff.com/images/images_of_stuff/64x64crop/im-back--ill-be-back-136271.jpg

Message cité 1 fois
Message édité par Wirmish le 27-09-2009 à 20:33:12
n°7136991
dragonlore
Posté le 27-09-2009 à 20:35:05  profilanswer
 

Gigathlon a écrit :


 
 
Et si à cette époque (GF4 Ti) l'AA était si utilisé, faudra m'expliquer comment les gens jouaient aux 20fps que montrent ces tests...


 
et alors où est le problème?
 
Pendant près de 20 ans les jeux tournaient souvent entre 20 et 30 i/s, pas plus donc jouer à 20 i/s sur certains jeux ça ne génait personne. Je me souviens d'ef2000 qui tournait à 15-20 i/s en mode svga sur p90, ça ne l'empechait pas d'être jouable.  
Aujourd'hui on est trop assisté et trop habitué au 60/s mini.
 
sur quake 3 arena c'est 30 en 1600*aa4x avec la ti4600, 93 avec la 9700pro
24 sur rtcw ti4600 et 55 sur la 9700pro
http://www.hardware.fr/articles/43 [...] -9700.html
 
dungeon siege: 23 avec la ti4600, 77 avec la 9700pro
http://www.hardware.fr/articles/43 [...] -9700.html
 
on peut continuer longtemps comme ça.
 
je vois pas pourquoi tu ne veut pas reconnaitre la large supériorité de la 9700pro.

n°7136997
dragonlore
Posté le 27-09-2009 à 20:37:52  profilanswer
 

Wirmish a écrit :


Attendre dans le silence, sans rien faire, pendant qu'AMD en profite pour se remplir les poche et lui voler des parts de marché ?
 
Ne serait-ce pas plus intelligent de leaker des slides, des semblants de benchs, n'importe quoi pour semer le doute dans les esprits ?
Essayer tout ce qui est humainement faisable pour retenir ses clients, leur donner une raison de ne pas acheter de Radeon 5800.
Juste un petit graph qui montre que la GTX380 est 30% plus performante que la Radeon HD 5870 serait suffisant.
Mais, y'a rien, c'est le vide intersidéral, et ce n'est vraiment pas ce à quoi nous a habitué la division marketing du caméléon.


pourquoi faire?
 
les gens qui achètent des cg hdg soit s'informent et n'achètent pas n'importe quoi et peuvent donc attendre 2-3 mois, soit sont des fans de telle ou telle marque et donc n'en changeront que si grosse nécessité.
 
bref je ne vois pas l'intérêt d'infos leakés. Et des rumeurs il  y en a suffisament.
 

n°7137001
Gigathlon
Quad-neurones natif
Posté le 27-09-2009 à 20:39:37  profilanswer
 

dragonlore a écrit :

je vois pas pourquoi tu ne veut pas reconnaitre la large supériorité de la 9700pro.


Ce que je dis, c'est que je ne considère pas les cas où elle était très clairement avantagée alors que ça n'est pas du tout le cas de la 5870 face à la GTX285.

n°7137028
MEI
|DarthPingoo(tm)|
Posté le 27-09-2009 à 20:55:48  profilanswer
 

Gigathlon a écrit :


Ce que je dis, c'est que je ne considère pas les cas où elle était très clairement avantagée alors que ça n'est pas du tout le cas de la 5870 face à la GTX285.


De toutes facons c'est pas comparable les GF4 avait un AA largement moins evolué que les 9700 Pro, d'où les perfs en bernes. En plus y'avais sans doute encore un Aniso non adaptif chez NVIDIA alors que chez ATI depuis longtemps y'avais de l'aniso adaptif pas gégé en qualité. ;)


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
mood
Publicité
Posté le 27-09-2009 à 20:55:48  profilanswer
 

n°7137032
bigbenze
Posté le 27-09-2009 à 20:56:37  profilanswer
 

dragonlore a écrit :


pourquoi faire?
 
les gens qui achètent des cg hdg soit s'informent et n'achètent pas n'importe quoi et peuvent donc attendre 2-3 mois, soit sont des fans de telle ou telle marque et donc n'en changeront que si grosse nécessité.
 
bref je ne vois pas l'intérêt d'infos leakés. Et des rumeurs il  y en a suffisament.
 


 
 
je suis d'accord avec wirmish, j'ai toujours aimé nvidia et depuis la 4870x2 je suis passé chez ati. j'ai revendu cette dernière pour repartir sur du hdg mono gpu, peu importe la marque. si nvidia avait sortie une petite info pouvant me mettre le doute sur les perfs de cette carte j'aurais peu être retardé mon achat mais vu que rien n'a été annoncé et bien j'ai au final commandé une 5870.


---------------
Feed back / Ach-Vente
n°7137036
MEI
|DarthPingoo(tm)|
Posté le 27-09-2009 à 20:59:07  profilanswer
 

bigbenze a écrit :


 
 
je suis d'accord avec wirmish, j'ai toujours aimé nvidia et depuis la 4870x2 je suis passé chez ati. j'ai revendu cette dernière pour repartir sur du hdg mono gpu, peu importe la marque. si nvidia avait sortie une petite info pouvant me mettre le doute sur les perfs de cette carte j'aurais peu être retardé mon achat mais vu que rien n'a été annoncé et bien j'ai au final commandé une 5870.


Le doute c'est simple, la GTX 285 est quasi 15% plus perfs qu'une 4890, ça me suffit perso pour voir ce que peut faire NVIDIA en DX11. ;)


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7137039
dragonlore
Posté le 27-09-2009 à 21:01:56  profilanswer
 

bigbenze a écrit :

 


je suis d'accord avec wirmish, j'ai toujours aimé nvidia et depuis la 4870x2 je suis passé chez ati. j'ai revendu cette dernière pour repartir sur du hdg mono gpu, peu importe la marque. si nvidia avait sortie une petite info pouvant me mettre le doute sur les perfs de cette carte j'aurais peu être retardé mon achat mais vu que rien n'a été annoncé et bien j'ai au final commandé une 5870.


si tu es impatient tant pis pour toi. 3 mois c'est pas la mer à boire.

 

Si tu achètes juste parce que la concurrence n'a rien dit, je trouve ta réaction bizarre.

 

Et non nvidia n'a pas besoin de leaker quoique ce soit. Ils ne le font pas d'habitude (voir le g80 et autres cartes), je vois pas l'intérêt de le faire maintenant. Les rumeurs du monstre suffisent à attiser l'impatience des joueurs.

Message cité 3 fois
Message édité par dragonlore le 27-09-2009 à 21:02:55
n°7137050
Rafale06
Vive les Suisses (Neutre..)
Posté le 27-09-2009 à 21:10:17  profilanswer
 

dragonlore a écrit :


si tu es impatient tant pis pour toi. 3 mois c'est pas la mer à boire.
 
Si tu achètes juste parce que la concurrence n'a rien dit, je trouve ta réaction bizarre.
 
Et non nvidia n'a pas besoin de leaker quoique ce soit. Ils ne le font pas d'habitude (voir le g80 et autres cartes), je vois pas l'intérêt de le faire maintenant. Les rumeurs du monstre suffisent à attiser l'impatience des joueurs.


 
 
+ 1....
 
J'ai une GTX 275 et aucun interêt de changer now ^^ ou même dans 3 ou 4 mois ^^............
 
Quand y aura un Crysis 2 ou un jeu qui poutre mémé et qui nécessitera DX11 alors la oui sans problème je prendrais le meilleur rapport prix / perfs au moment voulu ;)
En attendant ce n'est pas stalker DX11 qui me donnera envie de changer  :whistle:  
 
Et pour Dirt 2 ben j'espere que le passage en DX11 sera plus glorieux que le jeu pré-cité


---------------
Les kevin (j'ai 12ans lol) je les ignore......
n°7137072
eldervador
Posté le 27-09-2009 à 21:24:02  profilanswer
 

Rafale06 a écrit :


 
 
+ 1....
 
J'ai une GTX 275 et aucun interêt de changer now ^^ ou même dans 3 ou 4 mois ^^............
 
Quand y aura un Crysis 2 ou un jeu qui poutre mémé et qui nécessitera DX11 alors la oui sans problème je prendrais le meilleur rapport prix / perfs au moment voulu ;)
En attendant ce n'est pas stalker DX11 qui me donnera envie de changer  :whistle:  
 
Et pour Dirt 2 ben j'espere que le passage en DX11 sera plus glorieux que le jeu pré-cité


 
Prépare toi a accueillir du rouge dans ton PC ! :)  
De plus tant mieux pour toi, les nouvelles HD5800 vont surement baisser d'ici 3~4 mois comme tu dis.
 

n°7137076
bigbenze
Posté le 27-09-2009 à 21:29:02  profilanswer
 

dragonlore a écrit :


si tu es impatient tant pis pour toi. 3 mois c'est pas la mer à boire.
 
Si tu achètes juste parce que la concurrence n'a rien dit, je trouve ta réaction bizarre.
 
Et non nvidia n'a pas besoin de leaker quoique ce soit. Ils ne le font pas d'habitude (voir le g80 et autres cartes), je vois pas l'intérêt de le faire maintenant. Les rumeurs du monstre suffisent à attiser l'impatience des joueurs.


 
ca fait déja 2 mois que j'ai revendu ma carte graphique donc encore attendre 3 mois alors qu'on sais rien de cette carte juste que ca doit être une bête, désolé mais c'est pas ce genre d'info qui peu me faire patienter


---------------
Feed back / Ach-Vente
n°7137078
hidetoo
J'ai mis un chapeau !
Posté le 27-09-2009 à 21:31:27  profilanswer
 

tu tournes avec quoi alors ? C'est courageux de se priver de cg pour attendre et ne pas perdre de sous :D


---------------
ACH/VDS Pornographie pour Geek !!! FEED
n°7137083
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 27-09-2009 à 21:36:42  profilanswer
 

Il a acheté une HD 5870.
Il va en profiter pendant 3 mois... ou plutôt pendant 2 ans.
Et quand la GTX380 sortira elle coûtera sûrement plus cher.
Donc, moi je crois que bigbenze a pris une bonne décision.
Au pire il pourra toujours la revendre pour s'acheter une GTX360.

Message cité 2 fois
Message édité par Wirmish le 27-09-2009 à 21:37:56
n°7137086
bigbenze
Posté le 27-09-2009 à 21:38:54  profilanswer
 

hidetoo a écrit :

tu tournes avec quoi alors ? C'est courageux de se priver de cg pour attendre et ne pas perdre de sous :D


 
7100 gs  :lol: je peu strictement pas joué et comme tu l'a dit c'est bien pour éviter de trop perdre d'argent du à la décote une fois que la next gen est sortie que j'ai anticipé la vente
 

Wirmish a écrit :

Il a acheté une HD 5870.
Il va en profiter pendant 3 mois... ou plutôt pendant 2 ans.
Et quand la GTX380 sortira elle coûtera sûrement plus cher.
Donc, moi je crois que bigbenze a pris une bonne décision.
Au pire il pourra toujours la revendre pour s'acheter une GTX360.


 
oui exact voir une gtx380 mais faudra vraiment que les perfs défonce la serie 5*** de ati car pour 10-15% de perf en plus je garde ma 5870 et j'en reprend une plus tard quand elles auront bien baissé.

Message cité 1 fois
Message édité par bigbenze le 27-09-2009 à 21:40:41

---------------
Feed back / Ach-Vente
n°7137093
hidetoo
J'ai mis un chapeau !
Posté le 27-09-2009 à 21:42:29  profilanswer
 

:jap:
 
Moi je sais pas quoi faire de ma 280, soit je lui achete une petite soeur, soit je me prend un cf de 5850 mais je risque de perdre pas mal a la sortie du GT300, là ATI me tente vraiment mais je sais que mon coeur chavire pour les Geforce, alors acheter un cf pour attendre le GT300 ... useless :lol:


---------------
ACH/VDS Pornographie pour Geek !!! FEED
n°7137112
dragonlore
Posté le 27-09-2009 à 21:56:19  profilanswer
 

Wirmish a écrit :

Il a acheté une HD 5870.
Il va en profiter pendant 3 mois... ou plutôt pendant 2 ans.
Et quand la GTX380 sortira elle coûtera sûrement plus cher.
Donc, moi je crois que bigbenze a pris une bonne décision.
Au pire il pourra toujours la revendre pour s'acheter une GTX360.


bonne décision?
c'est juste du hasard plutôt

n°7137115
dragonlore
Posté le 27-09-2009 à 21:57:57  profilanswer
 

bigbenze a écrit :


 
ca fait déja 2 mois que j'ai revendu ma carte graphique donc encore attendre 3 mois alors qu'on sais rien de cette carte juste que ca doit être une bête, désolé mais c'est pas ce genre d'info qui peu me faire patienter


pourquoi l'avoir vendu il y a 2 mois? tu pouvais pas la garder jusqu'à noel?
 
comme je dit ta décision est bizarre. tu as bien attendu 2 mois pour avoir la hd5870 alors qu'on ne connaissait rien d'elle non plus.

n°7137124
dragonlore
Posté le 27-09-2009 à 22:03:09  profilanswer
 

Rafale06 a écrit :


 
 
+ 1....
 
J'ai une GTX 275 et aucun interêt de changer now ^^ ou même dans 3 ou 4 mois ^^............
 
Quand y aura un Crysis 2 ou un jeu qui poutre mémé et qui nécessitera DX11 alors la oui sans problème je prendrais le meilleur rapport prix / perfs au moment voulu ;)
En attendant ce n'est pas stalker DX11 qui me donnera envie de changer  :whistle:  
 
Et pour Dirt 2 ben j'espere que le passage en DX11 sera plus glorieux que le jeu pré-cité


dans stalker il y a déjà énormément d'apports avec la version dx11. Ne serait-ce que la tesselation qui rend les contours ronds et plus anguleux, c'est déjà énorme. Et les screens diffusés le montre bien.
stalker dx11 apporte déjà bien plus de différence avec la version dx10 que tous les premiers jeux dx10 par rapport à leurs versions dx9.
 
Après bien sur, si tu n'aimes pas stalker c'est autre chose.
 
de toute façon avec dx11 et ne serait-ce que pour la tesselation, si c'est bien utilisé ça va être une énorme avancée visuelle dans les jeux.
Ati l'avait déjà démontré il y a 7-8 ans avec la tesselation (truform à cette époque) sous des jeux comme quak2, morrowind ou counter strike 1. Mais à cause de microsoft on a perdu 6 ans au moins

n°7137172
sapphire a​depte xd
Posté le 27-09-2009 à 22:40:34  profilanswer
 

Pour moi les changements DX11 dans stalker, c'est du minimidétail :/

n°7137182
MEI
|DarthPingoo(tm)|
Posté le 27-09-2009 à 22:43:20  profilanswer
 

dragonlore a écrit :


dans stalker il y a déjà énormément d'apports avec la version dx11. Ne serait-ce que la tesselation qui rend les contours ronds et plus anguleux, c'est déjà énorme. Et les screens diffusés le montre bien.
stalker dx11 apporte déjà bien plus de différence avec la version dx10 que tous les premiers jeux dx10 par rapport à leurs versions dx9.
 
Après bien sur, si tu n'aimes pas stalker c'est autre chose.
 
de toute façon avec dx11 et ne serait-ce que pour la tesselation, si c'est bien utilisé ça va être une énorme avancée visuelle dans les jeux.
Ati l'avait déjà démontré il y a 7-8 ans avec la tesselation (truform à cette époque) sous des jeux comme quak2, morrowind ou counter strike 1. Mais à cause de microsoft on a perdu 6 ans au moins


T'as pas vu Lost Planet DX9 vs DX10 ou quoi :??:


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7137204
wolfflyter
Posté le 27-09-2009 à 23:01:29  profilanswer
 

sapphire adepte xd a écrit :

Pour moi les changements DX11 dans stalker, c'est du minimidétail :/


 
 :hello: BisondAcieR
 
Pour l'instant l'histoire de DX11 ça sert pas a grand chose , j'ai vu un screen avec des ronds carrés DX? vs DX11
ronds bien ronds mais curieusement j'ai aucuns ronds carrés dans aucuns jeux alors qu'ils ne sont pas DX11.
 
Sinon ça Game bien ?  :D  
 
 :)  


---------------
該反思的是,往往有幫助
n°7137216
hifibuff
Posté le 27-09-2009 à 23:09:07  profilanswer
 

dragonlore a écrit :


dans stalker il y a déjà énormément d'apports avec la version dx11. Ne serait-ce que la tesselation qui rend les contours ronds et plus anguleux, c'est déjà énorme. Et les screens diffusés le montre bien.
stalker dx11 apporte déjà bien plus de différence avec la version dx10 que tous les premiers jeux dx10 par rapport à leurs versions dx9.

 

Après bien sur, si tu n'aimes pas stalker c'est autre chose.

 

de toute façon avec dx11 et ne serait-ce que pour la tesselation, si c'est bien utilisé ça va être une énorme avancée visuelle dans les jeux.
Ati l'avait déjà démontré il y a 7-8 ans avec la tesselation (truform à cette époque) sous des jeux comme quak2, morrowind ou counter strike 1. Mais à cause de microsoft on a perdu 6 ans au moins

 

J'avoue que ceux qui s'extasient sur les petits plus, certes sympathiques mais pas fondamentalement révolutionnaires de ce que l'on a pu en voir pour l'instant, de Stalker CoP DX11 et qui parfois sont les mêmes qui critiquent l'intégration du PhysX dans Batman AA me laissent songeur...Deux poids deux mesures? :whistle:

Message cité 1 fois
Message édité par hifibuff le 27-09-2009 à 23:09:51
n°7137234
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 27-09-2009 à 23:26:52  profilanswer
 

Ce qui va révolutionner les jeux avec le DX11 c'est le Depth-Adaptive Tessellation.
http://users.belgacom.net/xvox/technical_bestanden/image002.gif
 
Pour voir le résultat en pratique, c'est par ici que ça ce passe -> LIEN

n°7137290
bigbenze
Posté le 28-09-2009 à 00:01:31  profilanswer
 

dragonlore a écrit :


pourquoi l'avoir vendu il y a 2 mois? tu pouvais pas la garder jusqu'à noel?
 
comme je dit ta décision est bizarre. tu as bien attendu 2 mois pour avoir la hd5870 alors qu'on ne connaissait rien d'elle non plus.


 
lis tout les commentaires au lieu de dire des trucs qui n'ont pas de sens surtout que la 5870 je l'ai commandé le lendemain de sa sortie donc les tests étaient déja sortie et je savais à quoi m'attendre.
 

bigbenze a écrit :


 
7100 gs  :lol: je peu strictement pas joué et comme tu l'a dit c'est bien pour éviter de trop perdre d'argent du à la décote une fois que la next gen est sortie que j'ai anticipé la vente
 


 


---------------
Feed back / Ach-Vente
n°7137310
Gigathlon
Quad-neurones natif
Posté le 28-09-2009 à 00:15:04  profilanswer
 

hifibuff a écrit :

J'avoue que ceux qui s'extasient sur les petits plus, certes sympathiques mais pas fondamentalement révolutionnaires de ce que l'on a pu en voir pour l'instant, de Stalker CoP DX11 et qui parfois sont les mêmes qui critiquent l'intégration du PhysX dans Batman AA me laissent songeur...Deux poids deux mesures? :whistle:


Disons que les cartouches filtrantes du masque à gaz plus rondes me laissent un peu froid, par contre il y a bien d'autres utilisations potentielles.
 
Après, faire de la fumée qui bouge mal, des ragdolls ou tout simplement faire tournoyer des parpaings, mis là juste pour que "ça en jette" mais n'apportant strictement rien de réaliste, sincèrement c'est un peu... moyen, surtout quand c'est utilisé comme argument marketing pour une API propriétaire qui finalement n'est même pas nécessaire pour le faire.
 
Pour rappel, les ragdolls on en trouvait dans 3DMark 2003 par exemple, alors requérir l'accélération PhysX pour en plus mal les utiliser, ça ne mérite pas vraiment d'éloge, ou funèbre alors.

n°7137316
MEI
|DarthPingoo(tm)|
Posté le 28-09-2009 à 00:20:14  profilanswer
 

Gigathlon a écrit :


Disons que les cartouches filtrantes du masque à gaz plus rondes me laissent un peu froid, par contre il y a bien d'autres utilisations potentielles.
 
Après, faire de la fumée qui bouge mal, des ragdolls ou tout simplement faire tournoyer des parpaings, mis là juste pour que "ça en jette" mais n'apportant strictement rien de réaliste, sincèrement c'est un peu... moyen, surtout quand c'est utilisé comme argument marketing pour une API propriétaire qui finalement n'est même pas nécessaire pour le faire.
 
Pour rappel, les ragdolls on en trouvait dans 3DMark 2003 par exemple, alors requérir l'accélération PhysX pour en plus mal les utiliser, ça ne mérite pas vraiment d'éloge, ou funèbre alors.


 
Le PhysX simule bien plus que ça... :o


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7137320
marllt2
Posté le 28-09-2009 à 00:24:57  profilanswer
 

Wirmish a écrit :

De plus, le GT212 a été retiré de la roadmap, pourquoi ? Surement parce qu'il y avait trop de problèmes et trop de retard. Donc, je n'invente rien en disant que tout ne tourne pas rond chez le caméléon.


nV aurait pu maintenir le GT212, mais ça aurait fait un R520 vs R580 like. A la différence que ceux là étaient tous deux SM3.0.
 
TSMC n'était pas prêt pour graver un GPU tel que que le GT212. Et pendant que TSMC bossait à améliorer le 40nm, nV bossait aussi sur le GT300.
 
 

fifi86 a écrit :

Surtout en sachant que Nvidia ne livre plus de GTX285, et bientôt la même chose pour les GTX275 d'ici peu. C'est pas pour ne rien proposer (enfin j'espère).


 :heink:
 
 

Wirmish a écrit :

tu préfères jouer à l'autruche et croire que tout vas pour le mieux pour nVidia ?

wolfflyter a écrit :

je me fiche bien de savoir comment va nvidia ou ati du moment que ce que j'achète ou fait acheter réponds a une demande
précise.
 
je me fiche également de savoir le X du Z = B d'une carte vidéo qui n'a une durée de vie que de quelques mois.


En même temps si tu ne te préoccupes que de ce que tu achètes, je comprend pas bien l'intérêt de participer à un topic sur de la spéculation d'une carte pas commercialisée.  :??:

Message cité 1 fois
Message édité par marllt2 le 28-09-2009 à 00:45:54
n°7137321
Gigathlon
Quad-neurones natif
Posté le 28-09-2009 à 00:26:47  profilanswer
 

MEI a écrit :

Le PhysX simule bien plus que ça... :o


Sur le papier ou dans des demos avec juste un sol et un mur au fond?
 
Car jusqu'à présent c'est pas loin d'être ce qu'on trouve de mieux... (ah oui, on peut aussi voir des feuilles voler, excuse moi)

n°7137325
MEI
|DarthPingoo(tm)|
Posté le 28-09-2009 à 00:31:54  profilanswer
 

PhysX fait aussi que la mécanique des fluides. Par contre faut déjà en avoir besoin, et surtout le problème c'est que, et c'est là l'interet initial du PPU et de PhysX, ça consomme tellement de ressources que c'est genre soit 3fps en CPU, soit "realtime" sur PPU/GPU. Et comme les dev. ne sont pas fou, et comme ces effets influs sur le gameplay, y'a personne qui prends trop de risques.
 
Mais potentiellement PhysX reste, à priori, le moteur physique le plus avancé.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7137331
marllt2
Posté le 28-09-2009 à 00:36:21  profilanswer
 

trajouf a écrit :

Tout ce que je vois c'est que le marché des CG piétine, un G80 a besoin de venir remettre tout à plat.
 
Tous les 3 ans un monstre vient remettre tout le monde d'accord, souvenez-vous :
 
Geforce DDR en 2000
Radeon 9700 Pro en 2003
Geforce 8800 GTX en 2006
et ************ en 2009...
 
En gros seul le GT300 peut faire quelque chose, ce n'est pas le RV870 qui va faire une révolution :/


Les 3 révolutions dont tu parles on toutes été associées à des modifications majeures de DirectX.
 
Et pour les 3 ans, contrairement aux GeForce 1 et Radeon 9700, depuis fin 2006 on ne peut pas dire qu'il se soit passé grand chose sur le front DirectX...  
 
Consoles, Vista, specs de DX10 bridées, refus de DX10.1 par nV ... expliquez ça comme vous voulez, mais comme tu le dis ça piétine. Pas du côté perfs, mais du côté exploitation de DirectX.

n°7137332
Gigathlon
Quad-neurones natif
Posté le 28-09-2009 à 00:37:26  profilanswer
 

MEI a écrit :

PhysX fait aussi que la mécanique des fluides.


Si tu regardes le résultat de Batman AA, soit il le fait mal (peu probable), soit les paramètres utilisés sont complètement foireux... pour diminuer l'impact?
 
Après, on va éviter de trop causer de la lib CPU qui est volontairement bâclée, car ça serait pas super bon vu les perfs très honnêtes qu'on arrive quand même à en tirer sur un seul core d'i7... (qu'est-ce que ça donnerait sur 3, avec une utilisation des instructions SIMD accessoirement? A mon avis, ça serait pas joli à voir pour nVidia...)

n°7137341
MEI
|DarthPingoo(tm)|
Posté le 28-09-2009 à 00:48:16  profilanswer
 

Gigathlon a écrit :


Si tu regardes le résultat de Batman AA, soit il le fait mal (peu probable), soit les paramètres utilisés sont complètement foireux... pour diminuer l'impact?
 
Après, on va éviter de trop causer de la lib CPU qui est volontairement bâclée, car ça serait pas super bon vu les perfs très honnêtes qu'on arrive quand même à en tirer sur un seul core d'i7... (qu'est-ce que ça donnerait sur 3, avec une utilisation des instructions SIMD accessoirement? A mon avis, ça serait pas joli à voir pour nVidia...)


Bah ça depends ce qui est utilisé massivement comme opération, mais en FP32, même un Core i7 975 qui ne ferait que ça n'a largement pas assez de puissance pour concurrencer rien qu'un G92 en fait. ;)
 
Pour rappel un Cell @ 3,2GHz c'est que 100Gflops en FP32, et on sait tous qu'un Cell est intouchable comme CPU dans ce genre de boulot. Quand on vois qu'une GTX285 c'est déjà 1Tflops et une 5870 2Tflops, bon voila quoi... :D


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7137353
marllt2
Posté le 28-09-2009 à 01:03:39  profilanswer
 

hidetoo a écrit :

Je suis même pas sûr qu'une ait déjà été fabriquée

Rafale06 a écrit :

Je vois mal les partenaires Nvidia n'avoir aucun prototype (ne serait-ce qu'en démonstration) aprés la sortie effective (en magasin) des HD 58XX.........
 
Parce que s'ils veulent pas calmer les actionnaires, faudra faire gaffe de pas perdre des partenaires au niveau du marché de la carte graphique : exemple des constructeurs....


Qu'est-ce que le lancement des 5800 a avoir avec ça ? Ca a avoir avec le planning de nV ça.
 
Si nV a des samples dans ses labos, ok il peut en distribuer quelques autres à ses partenaires. Mais si nV n'a pas de sample dans ses labos, 5800 ou pas 5800, nV ne peut pas en distribuer.
 
 

Citation :

http://img29.imageshack.us/img29/7324/gtx380reference.png

Rafale06 a écrit :

Si tu pars du principe que la GTX 295 à un bus de 448bits et des fréquences faibles 576 le gpu.....et si on par d'une logique ou l'architecture est 2fois plus puissantes qu' un GT200 ;)


Pour avoir des résultats pareils, c'est bien plus que +100% de specs d'un GT200.
 
 

Rafale06 a écrit :

Pour Wirmish :
 
Si aucune nouvelle ne serait-ce qu'un slide à la con aprés le salon du GPU de nvidia fin du mois...voir au pire début octobre.
 
Alors j'irais dans ton sens ça fait un peu peur.......
 
Donc en attendant fait nous une analyse pk pas de HD 5870 2go sur l'autre topic ^^ merci........


Si c'est un slide de Batman avec PhysX où nV montre qu'une GTX 295 est 3x plus rapide qu'une 5800, ça compte ? :whistle:
 

dragonlore a écrit :


si tu es impatient tant pis pour toi. 3 mois c'est pas la mer à boire.
 
Si tu achètes juste parce que la concurrence n'a rien dit, je trouve ta réaction bizarre.
 
Et non nvidia n'a pas besoin de leaker quoique ce soit. Ils ne le font pas d'habitude (voir le g80 et autres cartes), je vois pas l'intérêt de le faire maintenant. Les rumeurs du monstre suffisent à attiser l'impatience des joueurs.


 
Et pour le cas GTX 295 ?  
 

Citation :

Un lancement papier en décembre
Nvidia a dévoilé son nouveau haut de gamme au milieu du mois de décembre. Une préannonce destinée à gêner AMD pour les ventes de Noël, ce qui est de bonne guerre. Nvidia en a cependant profité pour organiser des previews contrôlées de sa GeForce GTX 295 en offrant une exclusivité à une poignée de publications, en échange de quoi celles-ci acceptaient de tester la carte de la manière dont le service marketing de Nvidia l’avait décidé, c’est-à-dire en se concentrant autour de 5 jeux choisis par Nvidia, plus un jeu libre


 
Pour le G80, en même temps AMD n'avait pas lancé le R600. S'ils l'avaient lancé avant le G80, pour sûr nVidia aurait leaké

Message cité 1 fois
Message édité par marllt2 le 28-09-2009 à 01:20:53
n°7137355
bjone
Insert booze to continue
Posté le 28-09-2009 à 01:05:40  profilanswer
 

Gigathlon a écrit :


lib CPU qui est volontairement bâclée


Pas vraiment.
Après il y a des contraintes.  
La simulation des corps solide est automatiquement multi-threadée, mais le threading ne peut se faire que par "île de collision" (chaines d'objets en contact), et pour les fluides & tissus, je pense que c'est à la charge du moteur de faire de la répartition de charge via des threads.
Pour les corps solides tu as une isolation spaciale implicite qui permet de threader, mais pour les fluides/tissus rien d'implicite à première vue :/

n°7137359
Gigathlon
Quad-neurones natif
Posté le 28-09-2009 à 01:11:08  profilanswer
 

MEI a écrit :

Bah ça depends ce qui est utilisé massivement comme opération, mais en FP32, même un Core i7 975 qui ne ferait que ça n'a largement pas assez de puissance pour concurrencer rien qu'un G92 en fait. ;)
 
Pour rappel un Cell @ 3,2GHz c'est que 100Gflops en FP32, et on sait tous qu'un Cell est intouchable comme CPU dans ce genre de boulot. Quand on vois qu'une GTX285 c'est déjà 1Tflops et une 5870 2Tflops, bon voila quoi... :D


Un core d'i7 920 en FP32 c'est quand même du 21GFlops, là ils arrivent malgré une lib pourrie jusqu'à l'os à faire 16fps là où une 8600gt et ses 75GFlops en sort 49, une 9800gtx et ses 580GFlops en sortant elle 78.
 
En clair, si ils avaient conçu la lib CPU aussi bien que la lib GPU (multi-threading?), on en serait au niveau de la 8600gt, qui pour rappel permet à la 9800gtx de dépasser la GTX275 seule...

n°7137369
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 28-09-2009 à 01:22:54  profilanswer
 

Ils ont conçu la lib CPU bien mieux que la lib GPU, c'est évident puisque c'est bien plus facile de coder pour un CPU, mais dans Batman AA ils ont délibérément restreint l'exécution du PhysX sur CPU afin de faire mal paraître les Radeon, même si elles sont accompagnées d'un Core i7 à 4 GHz.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  17  18  19  ..  536  537  538  539  540  541

Aller à :
Ajouter une réponse
 

Sujets relatifs
Topic GT300 fermé, vous avez gagné!aide pour reglé ma nvidia gt240
Nvidia geforce 9800gt pilotes problemeGeForce 295 GTX MonoPCB
GTX 260 Grésillement[TOPIC UNIQUE] ASUSTeK EAH4890 FORMULA - **** Sondage Ventilateur ****
choix carte graphique nvidiaEt si on faisait une BDD/Topic unique sur nos benchs HD TUNE et ATTO ?
Plus de sujets relatifs à : [Topic Unique] GTX 465, 470, 480 - cartes Nvidia HDG - 40nm - DX11


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)