Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3019 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  371  372  373  ..  477  478  479  480  481  482
Auteur Sujet :

[Topic Unique] R600 - RV630/RV640 : la solution DX10 de AMD / ATI

n°5528197
god is dea​d
Demain, j'arrête de poster.
Posté le 15-05-2007 à 23:49:49  profilanswer
 

Reprise du message précédent :

sasuke87 a écrit :

je suis impatient de voir ce que donne le R600 avec de vrais drivers parce que là ça me fait pitié  :sweat:  Par contre ce qui disent qu'ATI a eu du temps pour faire des drivers me font bien marrer, non mais sèrieusement vous pensez que pendant depuis 6 mois, ils étaient entrai de faire des pilotes pour le R600  :pt1cable: Ils avaient d'autres préoccupations (Vista et les R580) et d'ailleurs le fait de ne pas avoir de carte DX10, leur a permis d'avoir de meilleurs drivers que la concurrence sur Vista (moins de chose à faire qu'nvidia). Mais maintenant le gros du travail reste à faire pour le R600.


Je ne vois pas le rapport entre les pilotes, qui se doivent d'être un minimum au point qd on lance une carte déjà retardée, et R580 / Vista.
Si AMD n'est pas capable de faire correctement les deux en même temps, ben tant pis pour eux, ils peuvent se lancer dans la vente de saucisses :d


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
mood
Publicité
Posté le 15-05-2007 à 23:49:49  profilanswer
 

n°5528200
the_bigboo
Posté le 15-05-2007 à 23:50:55  profilanswer
 

tuxerman12 a écrit :

Tu regrettes ton sli ?  :heink:  
Il pourrait t' être utile pour Crysis et les autres games Dx10  :D


LE probleme c'est que les pilotes ne sont pas optimisés pour le SLI sur l'architecture des geForce 8, il faut croire que nVidia a décidé de placer ses priorité ailleurs... :spamafote:

n°5528201
blob
In vino veritas
Posté le 15-05-2007 à 23:51:40  profilanswer
 

sasuke87 a écrit :

je suis impatient de voir ce que donne le R600 avec de vrais drivers parce que là ça me fait pitié  :sweat:  Par contre ce qui disent qu'ATI a eu du temps pour faire des drivers me font bien marrer, non mais sèrieusement vous pensez que pendant depuis 6 mois, ils étaient entrai de faire des pilotes pour le R600  :pt1cable: Ils avaient d'autres préoccupations (Vista et les R580) et d'ailleurs le fait de ne pas avoir de carte DX10, leur a permis d'avoir de meilleurs drivers que la concurrence sur Vista (moins de chose à faire qu'nvidia). Mais maintenant le gros du travail reste à faire pour le R600.


 
Au cas ou tu ne le saurais pas, il y a plusieurs équipes au sein d'AMD/ATI, tant pour les drivers que puces graphiques.
AMD/ATI c'est pas une cinquantaine de personnes hein ....

n°5528202
Marc
Chasseur de joce & sly
Posté le 15-05-2007 à 23:52:04  profilanswer
 

sasuke87 a écrit :

un peu comme ATI et son R300  :whistle:


On peut voir ca comme ceci. Je ne connais pas tous les détails mais je suppose que devoir dev une nouvelle archi pour la Xbox 360 a du avoir un gros impact sur les cycles de R&D chez ATI.

n°5528203
sasuke87
Posté le 15-05-2007 à 23:52:23  profilanswer
 

god is dead a écrit :

Je ne vois pas le rapport entre les pilotes, qui se doivent d'être un minimum au point qd on lance une carte déjà retardée, et R580 / Vista.
Si AMD n'est pas capable de faire correctement les deux en même temps, ben tant pis pour eux, ils peuvent se lancer dans la vente de saucisses :d


 
t'as bien vu les soucis de nvidia avec vista, ATI n'est pas non plus 100 fois plus fort pour faire des drivers, faut leur laisser le temps... (oups ça fait déjà 6 mois  :whistle: )

n°5528206
god is dea​d
Demain, j'arrête de poster.
Posté le 15-05-2007 à 23:53:03  profilanswer
 

aeryon a écrit :

j'en ai quelques unes mais c'est trop tot pour en parler sinon je me fais tuer dans la journee  :D  
je peux juste dire que sur le papier un R650 a 900Mhz, avec des Rops fonctionnels et 25% d'unites de texturing en plus serait encore 30-35% moins performant que le G92...


Hum, bien + qu'un die-shrink alors, mais tu bosses peut-être pour The Inq :d


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°5528210
aeryon
à 300km/h
Posté le 15-05-2007 à 23:54:14  profilanswer
 

vlad drac a écrit :

Oui mais rien ne dit qu'il sortira sous peu  :D  
 
En tout cas moi j'arrête de me focaliser sur des chiffres qui font baver, j'ai assez donné
 
Maintenant j'ai décidé de jouer  :D


normalement (sur le papier toujours) le G92 c'est environ +75% de perfs par rapport a une GTX
 
quant a la date de sortie, j'ai pas encore les infos. je cherche toujours a savoir si le tape out de fevrier a bien ete realise mais mon contact ne veut rien me dire  [:spamatounet] la prochaine fois je saurai si apres une bouteille de Hennessy XO il est plus bavard  :D

n°5528213
vlad drac
Posté le 15-05-2007 à 23:54:56  profilanswer
 


 
Ca fait plus de 9 mois que je ne joue plus, j'ai d'abord commencé avec une GF4MX (Geforce "4" .. je pouvais pas savoir  :sweat: ) puis terminé avec une X300.
 
Détrompe-toi j'en ai du temps à rattraper ;)

n°5528217
aeryon
à 300km/h
Posté le 15-05-2007 à 23:55:55  profilanswer
 

god is dead a écrit :

Hum, bien + qu'un die-shrink alors, mais tu bosses peut-être pour The Inq :d


ouais j'avoue fuad c'est moi  [:stefro]

n°5528219
god is dea​d
Demain, j'arrête de poster.
Posté le 15-05-2007 à 23:56:04  profilanswer
 

aeryon a écrit :

normalement (sur le papier toujours) le G92 c'est environ +75% de perfs par rapport a une GTX
 
quant a la date de sortie, j'ai pas encore les infos. je cherche toujours a savoir si le tape out de fevrier a bien ete realise mais mon contact ne veut rien me dire  [:spamatounet] la prochaine fois je saurai si apres une bouteille de Hennessy XO il est plus bavard  :D


75%, ça laisse rêveur  [:cobraphil8]


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
mood
Publicité
Posté le 15-05-2007 à 23:56:04  profilanswer
 

n°5528229
Naboyo Nac​kenyo
Posté le 15-05-2007 à 23:58:39  profilanswer
 

un crossfire de X1950XTX=un G80, un SLI de G80=un G92, etc...
 
J'aime bien ce genre d'évolution, la puissance explose, c'est cool  :lol:

n°5528236
vlad drac
Posté le 16-05-2007 à 00:00:05  profilanswer
 

aeryon a écrit :

normalement (sur le papier toujours) le G92 c'est environ +75% de perfs par rapport a une GTX
 
quant a la date de sortie, j'ai pas encore les infos. je cherche toujours a savoir si le tape out de fevrier a bien ete realise mais mon contact ne veut rien me dire  [:spamatounet] la prochaine fois je saurai si apres une bouteille de Hennessy XO il est plus bavard  :D


 
MultiGPU (enfin ?) ou pas ?  :D  

n°5528238
sasuke87
Posté le 16-05-2007 à 00:00:21  profilanswer
 

god is dead a écrit :

75%, ça laisse rêveur  [:cobraphil8]


 
ouai mais dommage pour nvidia, le R600 avec ses nouveaux drivers sera 50% plus perfs... alors un R650 revue et corrigé va faire qu'une bouché du G92  :o

n°5528239
marcus7484
Posté le 16-05-2007 à 00:00:34  profilanswer
 

en tout cas pour moi, la changement est radicale cette année, me vla INTEL/NVIDIA( gts 320mo commandée aujourdhui), alors que j'ai toujours juré par du ATI/AMD...
 
J'ai l'impression de bousiller des années de convictions la (certains trouveront cette remarque stupide et ils ont surement raison ;)), mais la avoir attendu 6 mois pour ca ... je suis vraiment décu :(
 
bref ma GTS 320 a 280euros restera en ce qui me concerne une carte de transition et surtout un bon rapport qualité prix, surtout pour jouer en 19", en attendant une hypothétique ATI qui répondra bien plus à mes attentes avec un niveau de bruit plus modéré, et surtout un UVD ou compagnie qui fonctionne dans la réalité et pas que sur le papier ...
 
en espérant ne pas regretter mon choix ... mais un pc sans CG, j'étais obligé de me lancer, même à contre coeur.

n°5528245
Jack_Power
Posté le 16-05-2007 à 00:01:16  profilanswer
 

vlad drac a écrit :

MultiGPU (enfin ?) ou pas ?  :D


 
Tu crois plus a une sortie fin année ?  :whistle:

n°5528247
god is dea​d
Demain, j'arrête de poster.
Posté le 16-05-2007 à 00:01:25  profilanswer
 

sasuke87 a écrit :

ouai mais dommage pour nvidia, le R600 avec ses nouveaux drivers sera 50% plus perfs... alors un R650 revue et corrigé va faire qu'une bouché du G92  :o


Ok Michel, t'as de l'espoir :o


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°5528249
sasuke87
Posté le 16-05-2007 à 00:01:43  profilanswer
 


 
on dirait pas en tout cas (d'après leurs résultats financier), je parie que le chip de wii rapporte plus à ATI  :lol:

n°5528252
vlad drac
Posté le 16-05-2007 à 00:02:52  profilanswer
 

Jack_Power a écrit :

Tu crois plus a une sortie fin année ?  :whistle:


 
Ma foi vasille  :whistle:  
 
Non plus sérieusement moi je vois une sortie plutôt pour octobre/novembre prochain.

n°5528268
fatgooz
GT : fatlegooz
Posté le 16-05-2007 à 00:08:36  profilanswer
 


 
 
Si je me rappelle de mes cours de marketing, on appelle ce genre de produit un produit "vache à lait". Que des avantages : R&D amorti, coûts de production moindres parce que plus une entreprise commandent de composants, moins ceux-ci coûtent. On voit ce dernier point dans le monde des consoles où les premières fournées sont vendues à perte. Les premiers bénéfices liés au hardware arrivant avec l'augmentation du volume des ventes, ce qui permet une renégociation des prix avec les fournisseurs. Bon il faut aussi dire que le monde des consoles est différent avec les royalties récupérées sur chaque jeu vendu, phénomène différent pour les constructeurs de cartes graphiques.
 
Cependant, il est toujours bon pour une compagnie, surtout dans le monde du high tech d'innover, image de marque et tout ça...
 
Donc oui, Nvidia peut envisager de rester sur ses bases et continuer à encaisser les dividendes d'un G80 amorti et performant par rapport à la concurrence mais on peut aussi avoir le cas contraire, Nvidia décidant d'enfoncer un peu plus le clou et asseoir sa domination du marché haut de gamme en sortant un G90 plus perf que la génération précédente. C'est bon pour les actions en bourse et ça met une pression énorme sur ATI.

n°5528269
sasuke87
Posté le 16-05-2007 à 00:08:39  profilanswer
 

ce topic était plus marrant quand le R600 n'était pas là [:pingupra]
 
Bon y a toujours les drivers qu'on peut attendre, le rêve n'est pas encore mort [:pr3-]

n°5528284
sasuke87
Posté le 16-05-2007 à 00:15:09  profilanswer
 


 
de la première Geforce à la Geforce 4, ils avaient pas trop l'air de souffrir de leur monopole  :whistle:

n°5528285
dricks2222
Posté le 16-05-2007 à 00:15:28  profilanswer
 

god is dead a écrit :

Non non, pas que les drivers.  
Le R580 est plus avancé que le G71, nettement meilleur dans la gestion des branchements et en puissance de calcul.
Le R580 est un GPU très équilibré et souple au final, le G71 est bien plus rigide et boiteux.
 
Tu peux pas faire grd chose contre ça, même avec des drivers opti de la mort :o
 
Le G71 est à la ramasse avec les pas mal des jeux récents, mais personne ne le voit, vu que le G80 est là :o
 
C'est d'ailleurs en partie pour ça pour ça que la différence R580 / R600 n'est pas aussi importante que celle G71 / G80.


 
Rofl.
 
La 7900GTX est sortit début MARS 2006 tandis que la X1950 est sortie FIN AOUT 2006.
Presque 6 mois d'écart entre les deux, comme par hasard.
 
Donc oui, pas surprenant, la 1950XT est > 7900GTX.
 
Hors, ici, la X2900XT sort 6 mois après la 8800GTX.
On s'attends donc à avoir X2900XT > 8800GTX
Mais non. C'est pas le cas, la 8800GTX caracole toujours en tête.  
 
La seule raison pour laquelle la X2900 ne bat pas la 8800 c'est qu'ATi a MERDE son coup. Ils se sont PLANTE. En beauté qui plus est. 6 mois de retard. Une carte qui consomme plus en faisant moins bien, qui fait un boucant d'enfer et qui a des drivers pourris jusqu'à l'os.
Jolie réussite, chapeau  :jap:  
Strike, je crois que rien ne manque.
 
Alors oui, ils rattrappent le coup en baissant le prix, mais ça laisse NVidia en position de monopole sur le THDG.
Et ça, c'est pas bon du tout (pour nous, consommateurs de THDG).
 
 :fou:

n°5528289
Naboyo Nac​kenyo
Posté le 16-05-2007 à 00:17:01  profilanswer
 

Ah moi aussi j'ai des bons souvenirs des cours de marketing! :pt1cable:  
 
Je qualifierais plutôt les 8800 (GTS et GTX) de produits stars, vu que les produits "vache à lait" correspondraient plus aux 8600 et 8800 GTS 320Mo qui doivent réaliser l'essentiel des bénéfices de Nvidia.  :jap:
 
edit: produits stars= prix élevé, coûts de R&D élevés, faible marge.
 
C'est la matrice BCG pour ceux que ça intéresse, mais cela reste un modèle simpliste difficilement applicable au marché des cartes graphiques.

Message cité 1 fois
Message édité par Naboyo Nackenyo le 16-05-2007 à 00:19:06
n°5528294
vlad drac
Posté le 16-05-2007 à 00:18:02  profilanswer
 

sasuke87 a écrit :

de la première Geforce à la Geforce 4, ils avaient pas trop l'air de souffrir de leur monopole  :whistle:


 
Justement si ça a donné les GF4 MX  :sweat:  

n°5528296
fatgooz
GT : fatlegooz
Posté le 16-05-2007 à 00:18:55  profilanswer
 

Comme je disais, c'est soit l'un, soit l'autre. Tout dépend de la stratégie décidée par les pontes de chez Nvidia et ça, on peut franchement pas le savoir.
 
En ce qui concerne la concurrence, cette dernière n'est bonne que pour le consommateur : baisse des prix, course au progrès technologique donc produits plus perf. Dans le business, il en est autrement. Pourquoi se contenter d'une part quand on peut avoir le gâteau tout entier. Il suffit juste de regarder la stratégie de microsoft avec ses OS.

n°5528298
sasuke87
Posté le 16-05-2007 à 00:19:20  profilanswer
 

dricks2222 a écrit :

Rofl.
 
La 7900GTX est sortit début MARS 2006 tandis que la X1950 est sortie FIN AOUT 2006.
Presque 6 mois d'écart entre les deux, comme par hasard.
 
Donc oui, pas surprenant, la 1950XT est > 7900GTX.
 
Hors, ici, la X2900XT sort 6 mois après la 8800GTX.
On s'attends donc à avoir X2900XT > 8800GTX
Mais non. C'est pas le cas, la 8800GTX caracole toujours en tête.  
 
La seule raison pour laquelle la X2900 ne bat pas la 8800 c'est qu'ATi a MERDE son coup. Ils se sont PLANTE. En beauté qui plus est. 6 mois de retard. Une carte qui consomme plus en faisant moins bien, qui fait un boucant d'enfer et qui a des drivers pourris jusqu'à l'os.
Jolie réussite, chapeau  :jap:  
Strike, je crois que rien ne manque.
 
Alors oui, ils rattrappent le coup en baissant le prix, mais ça laisse NVidia en position de monopole sur le THDG.
Et ça, c'est pas bon du tout (pour nous, consommateurs de THDG).
 
 :fou:


 
Oui enfin la x1900xt(x) est sortie avant la 7900GTX, ça ne l'empèche pas de la taper dans les benchs  :whistle:  et quand tu connais la différence entre une x1950xt(x) et une x1900xt(x)... y a de quoi être déçu du g71.

Message cité 1 fois
Message édité par sasuke87 le 16-05-2007 à 00:25:42
n°5528302
sasuke87
Posté le 16-05-2007 à 00:21:06  profilanswer
 

vlad drac a écrit :

Justement si ça a donné les GF4 MX  :sweat:


 
ben quoi ça prouve qu'il pouvait faire un peu ce qu'il voulait sans trop se casser la tête, tiens ça me fait penser aux 8600s  :D

n°5528306
god is dea​d
Demain, j'arrête de poster.
Posté le 16-05-2007 à 00:22:55  profilanswer
 

dricks2222 a écrit :

Rofl.
 
La 7900GTX est sortit début MARS 2006 tandis que la X1950 est sortie FIN AOUT 2006.
Presque 6 mois d'écart entre les deux, comme par hasard.
 
Donc oui, pas surprenant, la 1950XT est > 7900GTX.


Euh, X1950 = même spec que le R580.
 
X1950 XT = 256-512mo 48 / 16 @625/900
 
X1900 XT /XT = 256-512mo 48 / 16 @625-650 725-775
 
Les perfs sont les mêmes à quelques % près.
 
Par analogie, si la X1950 XT est devant la 7900gtx, alors la X1900 XT / XTX le sont également, car ce sont les mêmes GPU.
 
Et le R580 est de même génération que le G71.
 
:o


Message édité par god is dead le 16-05-2007 à 00:25:20

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°5528309
aeryon
à 300km/h
Posté le 16-05-2007 à 00:23:44  profilanswer
 


je ne connais pas le roadmap AMD, mais sur cette generation ils sont effectivement mals. Comme je l'ai dit plus haut (et parce que personne n'a percute) les RV630/610 ont le meme probleme de ROP AA bugge que le R600. Avec 1/4 des shaders du R600 et un bus memoire 128bits, ca va pas etre gai...

Message cité 3 fois
Message édité par aeryon le 16-05-2007 à 00:27:19
n°5528310
fatgooz
GT : fatlegooz
Posté le 16-05-2007 à 00:23:50  profilanswer
 

Naboyo Nackenyo a écrit :

Ah moi aussi j'ai des bons souvenirs des cours de marketing! :pt1cable:  
 
Je qualifierais plutôt les 8800 (GTS et GTX) de produits stars, vu que les produits "vache à lait" correspondraient plus aux 8600 et 8800 GTS 320Mo qui doivent réaliser l'essentiel des bénéfices de Nvidia.  :jap:
 
edit: produits stars= prix élevé, coûts de R&D élevés, faible marge.
 
C'est la matrice BCG pour ceux que ça intéresse, mais cela reste un modèle simpliste difficilement applicable au marché des cartes graphiques.


 
 
Oui mais un produit vache à lait est en général un produit qui a déjà un long cycle de vie, ce qui n'est pas le cas des 8600 et compagnie. Les G80 ont déjà 6 mois d'existence si je ne me trompe et dans le monde des CG, c'est déjà long, non ? Mais bon c'est vrai que je suis pas un expert en marché informatique et que mon analyse est peut-être fausse.
 
Je dirais juste que ce raté ou semi-raté d'ATI ne doit pas mener à une situation de monopole parce que quel que soit le secteur, une situation de monopole n'est jamais bonne pour le consommateur.

Message cité 1 fois
Message édité par fatgooz le 16-05-2007 à 00:28:03
n°5528317
god is dea​d
Demain, j'arrête de poster.
Posté le 16-05-2007 à 00:25:54  profilanswer
 

aeryon a écrit :

je ne connais pas le roadmap AMD, mais sur cette generation ils sont effectivement mals. Comme je l'ai dit plus haut (et parce que personne n'a percute) les RV630/610 ont le meme probleme de ROP AA bugge que le R600. Avec 1/4 de shaders en moins et un bus memoire 128bits, ca va pas etre gai...


Pire que les 8600 ?  [:roane]


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°5528323
Naboyo Nac​kenyo
Posté le 16-05-2007 à 00:27:09  profilanswer
 

fatgooz a écrit :

Oui mais un produit vache à lait est en général un produit qui a déjà un long cycle de vie, ce qui n'est pas le cas des 8600 et compagnie. Les G80 ont déjà 6 mois d'existence si je ne me trompe et dans le monde des CG, c'est déjà long, non ?


 
C'est vrai, mais après je ne connais pas les chiffres concernant les marges de Nvidia donc je ne sais pas pour quel pourcentage comptent les 8800 dans les bénéfices.
Maintenant, ça reste un modèle trop simple pour expliquer la complexité de certains marchés. :jap:

n°5528324
Marc
Chasseur de joce & sly
Posté le 16-05-2007 à 00:27:11  profilanswer
 

aeryon a écrit :

je ne connais pas le roadmap AMD, mais sur cette generation ils sont effectivement mals. Comme je l'ai dit plus haut (et parce que personne n'a percute) les RV630/610 ont le meme probleme de ROP AA bugge que le R600. Avec 1/4 de shaders en moins et un bus memoire 128bits, ca va pas etre gai...

De toute facon sur ce type de cartes moisies à moins d'avoir un 15" l'AA c'est moyen maintenant :o

n°5528327
sasuke87
Posté le 16-05-2007 à 00:29:35  profilanswer
 

aeryon a écrit :

je ne connais pas le roadmap AMD, mais sur cette generation ils sont effectivement mals. Comme je l'ai dit plus haut (et parce que personne n'a percute) les RV630/610 ont le meme probleme de ROP AA bugge que le R600. Avec 1/4 des shaders du R600 et un bus memoire 128bits, ca va pas etre gai...


 
mais t'inquiète pas pour le FSAA, ATI va nous faire un bon petit truc comme pour Serious Sam, mais pour tous les jeux  :D ,  
 
justement ils ont pas retardé le RV610/RV630 pour corriger le problème???  :??:


Message édité par sasuke87 le 16-05-2007 à 00:30:52
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  371  372  373  ..  477  478  479  480  481  482

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Topic Unique] Seasonic M12 / La "M12II" est là !! Nouveau SondageVotre avis -> GeForce 7600 GT + AMD DUAL CORE X2 3800+
Questions fréquence CPU AMD / IntelAti 9700pro HS, par quoi la remplacer ?
passage à AMDje ve savoire une chose avec une carte ATI
Ati depasser les 75 hzPate thermique sur AMD 3800+ x2 -> Origine ou autre ?
Problème ralentissements ATI Radeon 9550 [résolu]Pilotes ATI
Plus de sujets relatifs à : [Topic Unique] R600 - RV630/RV640 : la solution DX10 de AMD / ATI


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)