Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3186 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  49  50  51  ..  73  74  75  76  77  78
Auteur Sujet :

[Topic Unique] GT300 // La nouvelle bête de combat nvidia en 40nm

n°7058014
Dyphen
Pull the trigger
Posté le 01-08-2009 à 22:05:12  profilanswer
 

Reprise du message précédent :

Activation a écrit :


 
 
je pense que tu te trompe sur MW2
même si je suis d accord sur le fait que c est pas comparable à un crysis (moins warhead)
son moteur a bien evolué depuis le premier opus, et il risque d'être un bon test pour les nouvelles carte
avec tout plein de particules et explosions
framerate en dent de scie à prevoir si pas de carte assez costaux


 
9 min de MW2 en HD
 
-> http://ve3d.ign.com/videos/play/53 [...] lash-Video
 
et j'ai pas la net impression que ca a evolué beaucoup, regarde par toi même :)
 

marllt2 a écrit :


Pas de bi-GPU pout le GT300. Et lancement paper-launch en Décembre pour une dispo début 2010.
 
Pour les perfs, on mise sur pareil ou plus perf qu'une GTX 295


 
comment tu peux etre sûr que nvidia fera pas de multi GPU sur le GT300  ? :heink:

Message cité 1 fois
Message édité par Dyphen le 01-08-2009 à 22:07:53
mood
Publicité
Posté le 01-08-2009 à 22:05:12  profilanswer
 

n°7058026
White Sh4d​ow
GHz-O-Meter !
Posté le 01-08-2009 à 22:23:46  profilanswer
 

Dyphen a écrit :


 
comment tu peux etre sûr que nvidia fera pas de multi GPU sur le GT300  ? :heink:


J'allais dire la même chose... au début tout le monde pensait qu'nvidia n'arriverait jamais à nous sortir un dual gpu à base de gt200, bah ils ont fait un die shrink, l'ont un peu castré, et ils l'ont sorti quand même  :o
 

Dyphen a écrit :


 
9 min de MW2 en HD
 
-> http://ve3d.ign.com/videos/play/53 [...] lash-Video
 
et j'ai pas la net impression que ca a evolué beaucoup, regarde par toi même :)
 


 
C'est la version xboite... rien à voir avec PC (du moins je l'espère...)  [:canaille]


Message édité par White Sh4dow le 01-08-2009 à 22:35:17
n°7058071
ilo34
Posté le 01-08-2009 à 23:12:37  profilanswer
 

nvidia ne pourra pas faire de bi-gpu tout du moins ds l'imedia, la GT295 est sortie longtemps pares la GT280 et il a fallu faire un die shrink qui a du leur couté beaucoup pour des vente qui ne sont pas a la hauteur (a mon avi) car je voi plus de monde avec une 4870X2 qu'avec une GT295, de plus la gt295 a pu sortir car nvidia avait une finesse de gravure de retard qu'ils ont pu rattraper mais cette fois non car le 40 nm est la derniere en datte et la prochaine n'est pas attendu avant fin 2010 et comme d'aprés les derniere rumeur le gt300 fait plus de 500mn² c'est beaucoup trop gros pour faire un bi-GPU puisque pour arriver a faire la gt295 il a fallu faire un die de 21.75 mn soir environ 470 mn²
de plus on peut penser que nvidia voulait sortir a la base la gt295 qu'on trouve en rayon avec un seul pcb et non avec 2 pcb en samdwish comme celle qui est sortie a la base qu'ils ont du sortir pour contrer la 4870X2 sortie depuis de long mois donc 5 mois pour sortir la gtx 295 et plus de 3 plus tard pour sortir un V2

Message cité 2 fois
Message édité par ilo34 le 01-08-2009 à 23:16:11
n°7058080
White Sh4d​ow
GHz-O-Meter !
Posté le 01-08-2009 à 23:22:20  profilanswer
 

Personne n'a dit que le bi gpu sortira le jour d'après, ou sinon, j'ai mal lu.
Y a toujours des gens pour payer 1000 euros/dollars/francs suisses pour avoir la meilleur carte graphique au monde, alors même si elle sort 1 an après, pour avoir accès à la finesse de gravure suivante, y'aura des acheteurs.  
 
Le bi gpu est sorti à chaque génération depuis la série 7 (la 8800 n'a pas connu de bi gpu mais comme le g92 est un dérivé du g80, pour moi la série 9 et la série 8 font globalement partie de la même génération, comme le gt200 et le gt200b):
série 7 : 7950gx2
série 8/9 : 9800gx2
série gt200(b) : gtx295
série "gtx300"? : gtx395 ?  
 
Après ce ne sont que des suppositions/hypothèses non fondées, à prendre à la louche avec une pincée de sel, qui ne sont issues que de mes pensées personnelles, ca vaut ce que ca vaut


Message édité par White Sh4dow le 01-08-2009 à 23:23:40
n°7058090
Dyphen
Pull the trigger
Posté le 01-08-2009 à 23:29:44  profilanswer
 

ilo34 a écrit :

nvidia ne pourra pas faire de bi-gpu tout du moins ds l'imedia, la GT295 est sortie longtemps pares la GT280 et il a fallu faire un die shrink qui a du leur couté beaucoup pour des vente qui ne sont pas a la hauteur (a mon avi) car je voi plus de monde avec une 4870X2 qu'avec une GT295, de plus la gt295 a pu sortir car nvidia avait une finesse de gravure de retard qu'ils ont pu rattraper mais cette fois non car le 40 nm est la derniere en datte et la prochaine n'est pas attendu avant fin 2010 et comme d'aprés les derniere rumeur le gt300 fait plus de 500mn² c'est beaucoup trop gros pour faire un bi-GPU puisque pour arriver a faire la gt295 il a fallu faire un die de 21.75 mn soir environ 470 mn²  
de plus on peut penser que nvidia voulait sortir a la base la gt295 qu'on trouve en rayon avec un seul pcb et non avec 2 pcb en samdwish comme celle qui est sortie a la base qu'ils ont du sortir pour contrer la 4870X2 sortie depuis de long mois donc 5 mois pour sortir la gtx 295 et plus de 3 plus tard pour sortir un V2


 
ouais pas faux ce que tu dis, ils se sont presser de sortir une carte double GPU pour contrer la 4870 x2 et seulement 3 mois plus tard, il sorte la " version finale/potable " de la 295  
 
et je pense que nvidia sortira une GTX395 sinon comment ils vont contrer la 5870 x2 ?? :)
un seul GPU sera pas suffisant pour arriver a la cheville d'une tel carte..

n°7058091
White Sh4d​ow
GHz-O-Meter !
Posté le 01-08-2009 à 23:30:35  profilanswer
 

bah... +1 quoi dyphen :)

n°7058092
Profil sup​primé
Posté le 01-08-2009 à 23:31:53  answer
 

C'est surtout que les perfs. d'une seule de ces cartes (dotée d'un seul GT300 entendons-nous bien :d) seront très nettement insuffisantes [:mike hoksbiger]

n°7058110
Activation
21:9 kill Surround Gaming
Posté le 01-08-2009 à 23:50:06  profilanswer
 

marllt2 a écrit :


Il veut plutôt parler de DIRT 2. :o  
 
Pour Crysis 2, si Crytek refait comme pour Crysis, ça va être du lourd. Par contre si le jeu est saboté par les consoles... :o


 
 
non Mr :O
 
je parle bien de grid 2
 
je m en tape de dirt beurk 2 et ses bas coté de la route digne d un papier peint en béton
 
au moins sur grid 2 c est des circuits donc on a moins l impression que heurter un arbre ou un poteau = mur beton armé
 
car sur un circuit y a pas d arbre ni de poteau  :o
 
quand je conduit une bagnole de rally j aime pas qu'une branche de buisson stop net ma bagnole de 180 à 0km/s en 1millième de seconde comme si j avais heurter le paquebot queen mary II

Message cité 1 fois
Message édité par Activation le 01-08-2009 à 23:53:27
n°7058111
Dyphen
Pull the trigger
Posté le 01-08-2009 à 23:51:12  profilanswer
 

Activation a écrit :


 
 
non Mr :O
 
je parle bien de grid 2
 
je m en tape de dirt beurk 2 et ses bas coté de la route digne d un papier peint en béton
 
au moins sur grid 2 c est des circuits donc on a moins l impression que heurter un arbre ou un poteau = mur beton armé
 
car sur un circuit y a pas d arbre ni de poteau  :o
 
quand je conduit une bagnole de rally j aime pas qu'une branche de buisson stop net ma bagnole de 180 à 0km/s en 1millième de seconde comme si j avais heurter le paquebot queen mary II


 
MDR  :lol:  
 
t'aurais un lien concernant GRID 2 que je vois ce qui en dise ou ce que ca donne ? j'adore ce jeu :)


Message édité par Dyphen le 01-08-2009 à 23:56:39
n°7058118
Activation
21:9 kill Surround Gaming
Posté le 01-08-2009 à 23:56:26  profilanswer
 

là comme ça j ai pas de lien (mais ça doit pas être dur à trouver)
 
de souvenir c est prévu 1semestre 2010
(oui dirt 2 c est prévu avant la fin de l année... mais comme dit plus haut moi j aime pas dirtbeurk :O )
 
pour l instant y a pas de video de dispo pour grid 2 .... après des screens... je me souviens plus  
je crois que c était juste une annonce mais sans screen pour le moment
 
enfin bref dit toi qu'en gros ça va sortir dans les même eaux que split second de disney dont le gameplay à l air intéressant (mais je craint un peu un nombre de circuit restreint pour split second)

Message cité 1 fois
Message édité par Activation le 02-08-2009 à 00:03:26
mood
Publicité
Posté le 01-08-2009 à 23:56:26  profilanswer
 

n°7058155
White Sh4d​ow
GHz-O-Meter !
Posté le 02-08-2009 à 00:41:52  profilanswer
 


 

marllt2 a écrit :


Sauf que le G80 était en 90nm, contre 65nm pour un G92.


Et alors ? Le gt200 était en 65nm et le gt200b en 55nm  :??:
 

Activation a écrit :

là comme ça j ai pas de lien (mais ça doit pas être dur à trouver)
 
de souvenir c est prévu 1semestre 2010
(oui dirt 2 c est prévu avant la fin de l année... mais comme dit plus haut moi j aime pas dirtbeurk :O )
 
pour l instant y a pas de video de dispo pour grid 2 .... après des screens... je me souviens plus  
je crois que c était juste une annonce mais sans screen pour le moment
 
enfin bref dit toi qu'en gros ça va sortir dans les même eaux que split second de disney dont le gameplay à l air intéressant (mais je craint un peu un nombre de circuit restreint pour split second)


 
Tu parles de ce screen là ? http://www.planet-xbox.de/img/news/18202/Race-Driver-One-wird-Race-Driver-Grid-2.jpg
 
EDIT : Je me pose quelque questions d'ordre générale concernant les cartes graphiques :
Comment on calcule la bande passante ? Fréquence Mém x Bus x  ???
Comment on calcule la puissance en gigaflops ? Fréquence GPU x SP x ???
 
Merci  :jap:
 
EDIT 2 : après quelque calculs savants j'ai trouvé la réponse :
BP = (fréquence Mémoire DDR x bus) / 8    résultat en [GB/s]
Puissance = fréquence Shaders x nbr de SP x 3    résultat en [GFlops] (valable pour les cg ati aussi??)  (je sais pas d'ou vient le "x3" par contre... )

Message cité 2 fois
Message édité par White Sh4dow le 02-08-2009 à 01:12:32
n°7058193
Yoyo_5
Posté le 02-08-2009 à 01:45:43  profilanswer
 
n°7058210
marllt2
Posté le 02-08-2009 à 02:15:50  profilanswer
 

Suite à un foirage de post, et après avoir pris un café bien (trop ?) serré pour remettre mes idées en place:
 

White Sh4dow a écrit :

Citation :

White Sh4dow a écrit:
 
Le bi gpu est sorti à chaque génération depuis la série 7 (la 8800 n'a pas connu de bi gpu mais comme le g92 est un dérivé du g80, pour moi la série 9 et la série 8 font globalement partie de la même génération, comme le gt200 et le gt200b)

Citation :

marllt2 a écrit:
 
Sauf que le G80 était en 90nm, contre 65nm pour un G92.

Et alors ? Le gt200 était en 65nm et le gt200b en 55nm  :??:


Pour ton 1er post, ce n'est pas une question de génération, mais de possibilité technico-économique.
 
Un bi-G80 ou un bi-R600 ne l'étaient pas selon nV et AMD, alors qu'un bi-G92 ou un bi-RV670 l'étaient. Pourtant G80 vs G92 et R600 vs RV670 étaient grosso modo pareils. Chacun un shrink avec +/- le même nombre d'unités et de perfs.
 
Ensuite techniquement oui, NVidia "pourrait" lancer un bi-GT300 comme il aurait pu lancer un bi-GT200.
 
La question est: Pourquoi nV a laissé la HD 4870 X2 reigner sur le THDG pendant 5 mois ? (même 7 en comptant le moment où ils connaissaient les perfs du RV770 et qu'il y allait avoir un bi-RV770). Designer un PCB pour y loger deux GT200 ne prend pas 6 mois.
 
Répondre à cette question c'est déjà avoir une piste pour dire pourquoi un bi-GT300 n'est pas viable technico-économiquement. Même si encore pour un prototype de labo ça pose aucun problème technique. Mais commercialsier une carte ce n'est pas que de la technique.
 
A moins bien sûr que le GT300 soit un "petit" GPU de 400mm² maximum. Mais ça ne semble pas l'orientation de nVidia, contrairement au G71 par exemple.
 

ilo34 a écrit :

de plus on peut penser que nvidia voulait sortir a la base la gt295 qu'on trouve en rayon avec un seul pcb et non avec 2 pcb en samdwish comme celle qui est sortie a la base


Le sandwich a été opté pour je ne sais quelle raison, même si c'est sans doute la facilité/rapidité de développement.
 
Mais à la base nVidia comptait seulement le commercialiser en tant que vitrine technologique, pour ne pas perdre la face face à AMD. Même si ça impliquait des prix élevés et une faible dispo.
 
Or la carte se vendait bien mieux que nVidia l'avait prévu. Ce n'était pas plus une démo technologique façon GF2 Ultra, mais une carte qui se vendait en assez "grande" quantité pour le marché ciblé.
 
Et les différents AIB (eVGA, BFG...) se sont plaints qu'ils ne recevaient pas assez de GTX 295 de nVidia par rapport aux demandes de leurs clients. Parfois il y avait des semaines où il ne recevaient aucune carte. Pourquoi ? La carte est trop chère à fabriquer. nV n'a aucun intérêt à la fournir en volume alors que leur but est atteint (prendre la place de la carte la plus rapide).
 
Comme la demande était là, nVidia a modifié le PCB pour diminuer les coûts et en faire une carte qu'ils peuvent vendre en "volume" sans perdre de $.
 
De plus le GT212 étant annulé et le GT300 repoussé, la GTX 295 allait rester la carte nV la plus rapide jusqu'à ce que le GT300 soit dispo. Il fallait donc des GTX 295 dispo toute l'année, et pas seulement pendant 2 mois après le lancement.


Message édité par marllt2 le 02-08-2009 à 02:38:12
n°7058216
White Sh4d​ow
GHz-O-Meter !
Posté le 02-08-2009 à 02:41:43  profilanswer
 

Je suis tout à fait d'accord avec toi marllt2.
 
Je penses aussi que les gpu venant d'être produits, ne sont pas destinés à la base à être produits sur des cartes bi gpus (le bi gpu est plus une réponse au bi gpu d'ati ).Le cout de chaque gpu en début de fabrication est aussi à chaque fois relativement élevé, ce qui impliquerait une clientèle trop élitiste.  
Le die shrink permet "d'optimiser" la puce, augmenter les yields, diminuer la consommation mais surtout le prix de production et est donc plus apte au bi gpu. Ce sont des problèmes que maintenant nvidia doit faire face étant donné l'ampleur des gpus de nos jours.


Message édité par White Sh4dow le 02-08-2009 à 02:42:36
n°7058224
marllt2
Posté le 02-08-2009 à 03:02:13  profilanswer
 

Pour les spécialistes, j'ai une question dont je n'ai pas trouvé de réponse:  
 
De quelle manière les jeux DX11 vont-ils tourner sur XP ?  :??:  Compatible avec la compatilité DX9 de DX11, ou alors les devs devront aussi coder un mode DX9c natif (en plus du mode DX11 natif) ?
 
Les specs de DX11 disent qu'il est rétro-compatible DX10.1/DX10/DX9, mais comme XP n'a pas accès à DX11 pas de possibilité de faire tourner des jeux DX11 only dessus.  
 
A moins d'un patch pour XP qui rajouterait la compatibilité avec les applications DX11 (mais évidemment limité au mode DX9)...

Message cité 1 fois
Message édité par marllt2 le 02-08-2009 à 03:06:10
n°7058227
White Sh4d​ow
GHz-O-Meter !
Posté le 02-08-2009 à 03:12:29  profilanswer
 

Je ne sais pas comment c'était à l'époque de la "transition"  DX8-DX9 mais toi très probablement : ce n'est pas pareil ?
 
EDIT : Je sais que dx ce met à jour, même sur les anciens OS pour etre compatible avec les jeux dx plus récents.

Message cité 1 fois
Message édité par White Sh4dow le 02-08-2009 à 03:21:09
n°7058232
bjone
Insert booze to continue
Posté le 02-08-2009 à 03:34:54  profilanswer
 

marllt2 a écrit :

Pour les spécialistes, j'ai une question dont je n'ai pas trouvé de réponse:  
 
De quelle manière les jeux DX11 vont-ils tourner sur XP ?  :??:  Compatible avec la compatilité DX9 de DX11, ou alors les devs devront aussi coder un mode DX9c natif (en plus du mode DX11 natif) ?
 
Les specs de DX11 disent qu'il est rétro-compatible DX10.1/DX10/DX9, mais comme XP n'a pas accès à DX11 pas de possibilité de faire tourner des jeux DX11 only dessus.  
 
A moins d'un patch pour XP qui rajouterait la compatibilité avec les applications DX11 (mais évidemment limité au mode DX9)...


 
Ils ne tourneront pas.
 
Le SDK du D3D11 expose une rétrocompatibilité D3D9. Mais ce SDK se liera a un runtime qui ne sera pas dispo sous Xp.
C'est pour qu'un moteur moderne puisse offrir une compatibilité avec du vieux hardware.


Message édité par bjone le 02-08-2009 à 03:35:32
n°7058238
marllt2
Posté le 02-08-2009 à 04:11:42  profilanswer
 

:jap:  
 
Hum, donc c'est ce que je pensais, les devs devront coder un mode DX9c natif en plus du mode DX11 s'ils veulent que leur jeu tourne sur XP. :/
 

White Sh4dow a écrit :

Je ne sais pas comment c'était à l'époque de la "transition"  DX8-DX9 mais toi très probablement : ce n'est pas pareil ?


Non, puisque XP qui était au départ DX8.1 a été patché par MS, et donc eu les runtime DX9.
 
Là MS a décité que XP n'aurait pas les runtime DX10 et supérieurs, et donc XP ne pourra pas faire tourner d'applis DX10 et supérieurs.
 
 

White Sh4dow a écrit :

EDIT : Je sais que dx ce met à jour, même sur les anciens OS pour etre compatible avec les jeux dx plus récents.


Oui, ce sont de petites mises à jour du runtime. Genre DX 9.10 à 9.15.
 
 
Sinon pour revenir au GT300: http://www.theinquirer.net/inquire [...] chitecture
 
Selon Charlie, le GT300 n'aura pas de tessellator dédié, mais utilisera ses SPU. [:tinostar]

Message cité 1 fois
Message édité par marllt2 le 02-08-2009 à 04:35:49
n°7058296
Ramichou
Posté le 02-08-2009 à 10:27:58  profilanswer
 

L'article avait très mal commencé en prenant tout le monde de haut, mais par la suite semble assez censé.
Cependant dire que le marché du GPGPU n'existe pas ? Je suis étonné de ce genre d'affirmations !
 
Je me demande si les capacités en GPGPU des cartes ATI seront comparables aux Nvidia, ou si l'archi Nvidia sera très supérieure sur ce point, ce qu'elle a intérêt à être.
 
Allé, pour le fun :

Spoiler :

if you buy a $400-600 GPU for ripping DVDs to your Ipod, Nvidia has a card for you. Maybe.

n°7058328
Activation
21:9 kill Surround Gaming
Posté le 02-08-2009 à 11:11:23  profilanswer
 

manque une variable au raisonnement plus haut à propos du gtx295
 
c est que nvidia c est foutu lui meme dans la merde  
 
d un coté ati peut vendre des HD4870X2 ou meme des HD4870 et HD4890
 
donc bonjour le crossfire et donc le "HD4890X2"
 
nvidia et sa connerie de ne proposer sur plateforme AM2, AM3, S775 le sli que sur du nforce se ferme tout le marché du sli
 
donc son beau discours solution sli comme "upgrade" il se l'es prit grave dans le cul vu que juste valable pour ceux qui ont du S1366 et du core i7 vu la présence infime de nforce sur tout le reste du marché notamment s775 bien sur et maintenant am3 pas trop am2)
 
là gtx295 est aussi là pour faire suite à sa politique foireuse de fermeture du sli qui n'avait que trop duré
ça il se l'es bien prit dans la gueule et c est bien fait pour lui nvidia

Message cité 1 fois
Message édité par Activation le 02-08-2009 à 11:12:44
n°7058456
djffff
Time's like ocean in storm.
Posté le 02-08-2009 à 13:23:07  profilanswer
 

Ce problème de SLI sera definitivement reglé avec l'arrive des I3 / I5 et avec les actules et à venir I7
 
le sli ne se cantone plus à la seul plateforme nvidia mais est et sera bel et bien disponible sur les chipset Intel I3 I5 I7

n°7058503
Activation
21:9 kill Surround Gaming
Posté le 02-08-2009 à 14:19:23  profilanswer
 

oui normalement (quoi que je trouve que les fabricant de mobo S1156 s avance bien vite)
donc sur la génération gt300 ça sera plus un problème de refourguer vendre 2 carte de 27cm de long :D


Message édité par Activation le 02-08-2009 à 14:21:13
n°7058519
White Sh4d​ow
GHz-O-Meter !
Posté le 02-08-2009 à 14:45:12  profilanswer
 

Activation a écrit :

manque une variable au raisonnement plus haut à propos du gtx295
 
c est que nvidia c est foutu lui meme dans la merde  
 
d un coté ati peut vendre des HD4870X2 ou meme des HD4870 et HD4890
 
donc bonjour le crossfire et donc le "HD4890X2"
 
nvidia et sa connerie de ne proposer sur plateforme AM2, AM3, S775 le sli que sur du nforce se ferme tout le marché du sli
 
donc son beau discours solution sli comme "upgrade" il se l'es prit grave dans le cul vu que juste valable pour ceux qui ont du S1366 et du core i7 vu la présence infime de nforce sur tout le reste du marché notamment s775 bien sur et maintenant am3 pas trop am2)
 
là gtx295 est aussi là pour faire suite à sa politique foireuse de fermeture du sli qui n'avait que trop duré
ça il se l'es bien prit dans la gueule et c est bien fait pour lui nvidia


Excuse moi, je suis peut être un peu à l'amasse (dimanche "matin"...) mais tu veux bien me réexpliquer ceci ? Je ne suis pas sûr d'avoir tout compris  [:canaille]
 
EDIT : Est-ce que tu veux dire que le sli d'nvidia n'est pas une solution compétitive au CF d'ati parce que n'est valable que sur les puces nforces ? mais qu'heureusement (c'est pas trop tot) sera disponible pour les futurs sockets 1156 et 1366 actuel ? Dans ce cas, confirme moi  :jap:
(Je ne vois pas trop ou tu veux en venir avec la gtx295 parce que c'est une carte graphique qui fonctionne sur carte mères non nforces ?)


Message édité par White Sh4dow le 02-08-2009 à 14:47:21
n°7058528
Activation
21:9 kill Surround Gaming
Posté le 02-08-2009 à 14:52:44  profilanswer
 

simple d un coté gtx295 de l autre marché crossfire (aussi bien à un niveau milieu que haut de gamme chez ati)
 
à tout un marché crossfire du fait des limitation de plateforme  
nvidia ne peut opposer que le gtx295
 
bien sur que la gtx295 à du succès vu qu il y a aucune autre vrai alternative chez nvidia (hors plateforme s1366)
 
90% si ce n'est plus du marché s775 ou Am2/am3 est trusté par des plateforme non compatible sli acctuellement
 
qui par exemple irait se faire chier à troquer sa mobo intel X38 pour acheter une mobo nforce s775 pour ensuite acheter une 2eme geforce gtx260/280 par exemple si il en a déjà une
avec tout le fourbit de réinstallé le systeme si vous etes sous xp
 
autant revendre sa gtx260/280 pour reprendre la gtx295 derriere
c'est des complique en moins
 
chez ati t as une HD4870 hop t en rachète une 2eme et basta pour peu que t ai au moins un deuxieme slot 16x clablé 8x minimum (et là y en a un paquet de mobo à le proposer)
 
alors peu etre que ça fait chier nvidia de vendre plus de gtx295 que prevu mais ça découle directement de sa statégie foireuse qu il a eu avec le sli du temps du s775 (et meme avant) ou il obligeait d avoir du nforce pour que ça marche


Message édité par Activation le 02-08-2009 à 14:56:47
n°7058555
White Sh4d​ow
GHz-O-Meter !
Posté le 02-08-2009 à 15:09:32  profilanswer
 

Ouais je vois ce que tu veux dire... enfait chui un peu dans la situation que tu décris... j'ai une P5Q PRO et une 8800 GTS 512... je peux pas acheter de 2è cg parce que ca marche pas, et je veux pas changer de mobo juste pour ca, ou sinon faudrai changer de cpu aussi, alors c'est presque que la gtx295 qui s'impose en upgrade...
 
les cartes mères à base d'nforce ne sont pas super, ou si elles sont biens, elles sont surtout extrêmement cher !
 
EDIT : le prochain upgrade sera bien entendu suivi d'un changement de socket et tout le tralala qui va avec, et une petite cg dx11 de dernière génération

Message cité 2 fois
Message édité par White Sh4dow le 02-08-2009 à 15:10:21
n°7058568
Profil sup​primé
Posté le 02-08-2009 à 15:19:28  answer
 

C'est (déjà) un grand écart de perfs. entre une GTS512 et, disons une 275
Les nForce 780i ne sont plus aussi chères qu'il y a ne serait-ce 4/5 mois...

Message cité 1 fois
Message édité par Profil supprimé le 02-08-2009 à 15:20:14
n°7058689
ftp381
ça fûme!
Posté le 02-08-2009 à 17:18:09  profilanswer
 

White Sh4dow a écrit :

Ouais je vois ce que tu veux dire... enfait chui un peu dans la situation que tu décris... j'ai une P5Q PRO et une 8800 GTS 512... je peux pas acheter de 2è cg parce que ca marche pas, et je veux pas changer de mobo juste pour ca, ou sinon faudrai changer de cpu aussi, alors c'est presque que la gtx295 qui s'impose en upgrade...
 
les cartes mères à base d'nforce ne sont pas super, ou si elles sont biens, elles sont surtout extrêmement cher !
 
EDIT : le prochain upgrade sera bien entendu suivi d'un changement de socket et tout le tralala qui va avec, et une petite cg dx11 de dernière génération


et un  CF de 4870 1Go à 250€ ?
et un CF de 4890 à 340€ ?
 
le 1er étant déjà bien perf et le second étant sans doute plus perf qu'une GTX495
 
eb tout cas la GTX295 n'est pas le choix le plus économique... d'autant que l'actu CG va bouger à la rentrée.


---------------
"Bite my shiny metal ass."
n°7058693
White Sh4d​ow
GHz-O-Meter !
Posté le 02-08-2009 à 17:21:18  profilanswer
 

ftp381 a écrit :


et un  CF de 4870 1Go à 250€ ?
et un CF de 4890 à 340€ ?
 
le 1er étant déjà bien perf et le second étant sans doute plus perf qu'une GTX495
 
eb tout cas la GTX295 n'est pas le choix le plus économique... d'autant que l'actu CG va bouger à la rentrée.


Merci des conseils, mais je joues sur un 19Pouces, et pour l'instant ma carte graphique me suffit  :)  
Je suis tout d'abord curieux de voir les prochaines cartes graphiques DX11 à sortir, et même si je n'en prends pas une mais que je souhaite upgrader quand même, je resterais gagnant car le prix des cartes graphiques actuelles baissera inévitablement.
Pour le crossfire, à voir car j'ai toujours été sceptique face a la solution multigpu : si je peux, je prends toujours le monogpu à performance équivalente, choix personnel. Le crossfire je le vois plutot comme une solution d'upgrade et pas un choix imminant.
 
De toute facon, je n'ai pas de jeux actuellement qui nécéssite de changer de carte graphique. Peut être quand j'aurai changé d'écran pour un full-HD ?
 

marllt2 a écrit :


Sinon pour revenir au GT300: http://www.theinquirer.net/inquire [...] chitecture
 
Selon Charlie, le GT300 n'aura pas de tessellator dédié, mais utilisera ses SPU. [:tinostar]


Cet article à été écrit le 14 mai 2009... il a déjà fait l'objet de nombreuses contreverses sur ce forum, parce que charli est pro ati... et tout le monde le sait  [:fa-tt92]


Message édité par White Sh4dow le 02-08-2009 à 17:56:45
n°7058749
Activation
21:9 kill Surround Gaming
Posté le 02-08-2009 à 18:14:54  profilanswer
 

ftp381 a écrit :


et un  CF de 4870 1Go à 250€ ?
et un CF de 4890 à 340€ ?
 
le 1er étant déjà bien perf et le second étant sans doute plus perf qu'une GTX495
 
eb tout cas la GTX295 n'est pas le choix le plus économique... d'autant que l'actu CG va bouger à la rentrée.


 
 
en choix economique certe pas
en choix la plus grosse perf ou marié avec nvidia oui
 
mais là on parle pas de la situation en octobre on parle de la situation actuelle et d il y a qqs mois
 
donc que nvidia soit "étonné" de vendre autant de gtx295 d'ou devoir sortir la V2... la bonne blague
il se trouve dans la situation qu'il c est lui même créé
 
au passage les premiere mobo pour i5 et i7 s1156 sont franchement pas top
en gros pour l instant c est en comparaison du S775 du "P45" sauce s1156 qu on nous balance
pas vraiment du x38 ou x48

Message cité 2 fois
Message édité par Activation le 02-08-2009 à 18:20:01
n°7058838
Ramichou
Posté le 02-08-2009 à 19:29:51  profilanswer
 

White Sh4dow a écrit :

Ouais je vois ce que tu veux dire... enfait chui un peu dans la situation que tu décris... j'ai une P5Q PRO et une 8800 GTS 512...


 
La même, j'ai une EP45-DS3R (une bonne carte mère quand même !), avec 2 ports PCI-Express, une 8800GTS512 et je suis bloqué. Si ils n'avaient pas fait les cons avec leur stratégie marketing j'aurais déja une 2éme GTS250. Pis pourquoi on peux pas mettre des GTS250 en SLI avec des 8800GTS512... va savoir, ca doit être difficile d'écrire 3 lignes de code pour ajuster les fréquence surement !
 
A coté de ça, le cross chez ATI est bien plus flexible.

Message cité 1 fois
Message édité par Ramichou le 02-08-2009 à 19:30:25
n°7058864
White Sh4d​ow
GHz-O-Meter !
Posté le 02-08-2009 à 19:44:22  profilanswer
 

Ramichou a écrit :


 
La même, j'ai une EP45-DS3R (une bonne carte mère quand même !), avec 2 ports PCI-Express, une 8800GTS512 et je suis bloqué. Si ils n'avaient pas fait les cons avec leur stratégie marketing j'aurais déja une 2éme GTS250. Pis pourquoi on peux pas mettre des GTS250 en SLI avec des 8800GTS512... va savoir, ca doit être difficile d'écrire 3 lignes de code pour ajuster les fréquence surement !
 
A coté de ça, le cross chez ATI est bien plus flexible.


c'est même pas une question de fréquence parce que chez ati on peut mettre une 4850 avec une 4870...
c'est juste du "non-vouloir" (je sais pas si ca ce dit)

n°7058885
couillesho​t
Les bouboules et la boubouche
Posté le 02-08-2009 à 20:04:44  profilanswer
 

Activation a écrit :


 
 
en choix economique certe pas
en choix la plus grosse perf ou marié avec nvidia oui
 
mais là on parle pas de la situation en octobre on parle de la situation actuelle et d il y a qqs mois
 
donc que nvidia soit "étonné" de vendre autant de gtx295 d'ou devoir sortir la V2... la bonne blague
il se trouve dans la situation qu'il c est lui même créé
 
au passage les premiere mobo pour i5 et i7 s1156 sont franchement pas top
en gros pour l instant c est en comparaison du S775 du "P45" sauce s1156 qu on nous balance
pas vraiment du x38 ou x48


 
Rien d'étonnant  

n°7058893
Profil sup​primé
Posté le 02-08-2009 à 20:10:38  answer
 

La comparaison tient car au final, les perfs. en situation sont proches au 1% près :spamafote:

n°7059169
ilo34
Posté le 03-08-2009 à 01:06:17  profilanswer
 

le x58 ne supporte pas tout le temps le sli  
http://www.pcinpact.com/actu/news/ [...] gabyte.htm (sa date mais je croi pas que sa est changer)

n°7059170
White Sh4d​ow
GHz-O-Meter !
Posté le 03-08-2009 à 01:07:44  profilanswer
 

ilo34 a écrit :

le x58 ne supporte pas tout le temps le sli  
http://www.pcinpact.com/actu/news/ [...] gabyte.htm (sa date mais je croi pas que sa est changer)


certaines cartes mères ont des updates de bios pour intégrer le support sli je crois, mais c'est à confirmer :)
Après c'est vrai que la license sli a un prix, et pas toutes les carte mères X58 les moins chères intègrent le support du dit sli


Message édité par White Sh4dow le 03-08-2009 à 01:08:02
n°7059183
ilo34
Posté le 03-08-2009 à 01:31:20  profilanswer
 

donc je pense que les carte mère pour core i3/5 ne supporteront pas les sli puisque ces processeur sont fait pour du bas/milieu de gamme donc les carte mère ne doivent pas dépasser les 120€ pour la plupart des cas voir les 50€ pour les oem et quand on voit le prix des carte mere core i7 je me demande comment avoir la licence tout en étant pas cher car la licence doit etre dans les 20€ par carte

Message cité 1 fois
Message édité par ilo34 le 03-08-2009 à 01:39:42
n°7059200
marllt2
Posté le 03-08-2009 à 03:25:56  profilanswer
 


nForce 780 et son faux PCI-E 2.0...  
 

ilo34 a écrit :

donc je pense que les carte mère pour core i3/5 ne supporteront pas les sli


Si, certaines mobos LGA 1156 supporteront le SLI. Même que certaines auront droit à un ... NF200. [:tinostar]  
 
Histoire de marketer du 2* 16x, au lieu du 2* 8x sans NF200. Mais bien sûr c'est encore une filouterie marketing.
 

ilo34 a écrit :

puisque ces processeur sont fait pour du bas/milieu de gamme donc les carte mère ne doivent pas dépasser les 120€ pour la plupart des cas voir les 50€ pour les oem et quand on voit le prix des carte mere core i7 je me demande comment avoir la licence tout en étant pas cher car la licence doit etre dans les 20€ par carte

Activation a écrit :

au passage les premiere mobo pour i5 et i7 s1156 sont franchement pas top
en gros pour l instant c est en comparaison du S775 du "P45" sauce s1156 qu on nous balance
pas vraiment du x38 ou x48


 
C'est pas que pour du BDG/MDG. Les mobos P45 vont de 80€ à 220€ en gros.  
 
Ca sera pareil pour les LGA 1156, il y aura des mobos cheap, et des Maximus et autres ROG à > 200€.

Message cité 3 fois
Message édité par marllt2 le 03-08-2009 à 03:28:48
n°7059202
mikestewar​t
Air Roll Spinnin'
Posté le 03-08-2009 à 03:43:13  profilanswer
 

marllt2 a écrit :

Si, certaines mobos LGA 1156 supporteront le SLI. Même que certaines auront droit à un ... NF200. [:tinostar]

 

Histoire de marketer du 2* 16x, au lieu du 2* 8x sans NF200. Mais bien sûr c'est encore une filouterie marketing.

 

Le NF200, qui transforme 16 lignes PCI-E 2.0 en 2 x "16 lignes PCI-E" ?  :whistle:

 

Oui elles pourront gérer le SLI comme leur copines X58, la différence se situera dans le nombre de lignes PCI-E (16 vs. 36).

 

Ce qui fait que le X58 est théoriquement (à voir dans les tests) plus adapté à un SLI (ou XFire) de 2 cartes qu'une plateforme LGA1156 (donc Lynnfiled + P55 dans un mois).

 

Par contre avec 3 cartes, c'est "no-match", du LGA1156 c'est pas fait pour ça, le troisième port PCI-E 16x (physiquement) visible sur certaines cartes mères ne dispose que de 4 lignes PCI-E gérées par le PCH P55. Du coup ce troisième port ne peut avoir aucune certification SLI ou XFire.


Message édité par mikestewart le 03-08-2009 à 03:49:56
n°7059290
Profil sup​primé
Posté le 03-08-2009 à 10:51:00  answer
 

La ligne Pci-E 2.0 16x du 780i est overclockée, einh

n°7059295
White Sh4d​ow
GHz-O-Meter !
Posté le 03-08-2009 à 10:53:11  profilanswer
 

mais y a pas des carte mères qui supportent le sli sans pour autant avoir le NF200 ??

n°7059325
ftp381
ça fûme!
Posté le 03-08-2009 à 11:15:57  profilanswer
 

White Sh4dow a écrit :

mais y a pas des carte mères qui supportent le sli sans pour autant avoir le NF200 ??


comme évoqué plus haut et bien avant, NVidia a commencé à lâcher du lest avec le X58 moyennant royalties.
 
Ati rend les CM "naturellement" compatibles CF.
 
NVidia finira par le faire pour le SLI... le X58 étant un début :)


---------------
"Bite my shiny metal ass."
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  49  50  51  ..  73  74  75  76  77  78

Aller à :
 

Sujets relatifs
[Topic Unique] ATI Radeon HD 4800 Series (RV790 inside)[Topic Unique] ATI Radeon 4700 Series (RV740 inside)
question sur nouvelle configComment réduire le bruit d'une nouvelle configuration ?
Nouvelle config pour bien débuter l'année :)[ topic unique ] les alimentations be quiet!
cherche conseils pour nouvelle config[HELP!] Cherche un magasin d'info sur Annecy !
[Topic Unique] Boîtier Silverstone Raven RV01 : mobo orientée à 90° ! 
Plus de sujets relatifs à : [Topic Unique] GT300 // La nouvelle bête de combat nvidia en 40nm


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)