Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2252 connectés 

 

 

Vous allez vous payer...




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  138  139  140  ..  391  392  393  394  395  396
Auteur Sujet :

[Topic Unique] GeForce 9 : dernière màj le 19/03/08

n°6088754
$crounz
Désolé, c'est de la merde.
Posté le 15-12-2007 à 17:07:27  profilanswer
 

Reprise du message précédent :
C'est pas le sujet mais l'invasion de l'Iran n'irait surement pas dans le sens des Bush, vu qu'ils sont toujours en Irak et que ça ne plait pas beaucoup.


---------------
>>Feedback<< Topic ACH/VTE
mood
Publicité
Posté le 15-12-2007 à 17:07:27  profilanswer
 

n°6088761
jesaipacki
Posté le 15-12-2007 à 17:10:02  profilanswer
 

Ils ont trop peur de l'Iran car ce pays est très bien armé et avec tout le peuple derrière son gouvernement contrairement à l'Irak. A tous les coups c'est une défaite des États-Unis et ça sera pire que le Vietnam.

n°6088951
marllt2
Posté le 15-12-2007 à 18:32:43  profilanswer
 

Pour revenir à nVidia, la seule info venant d'un officiel (Stephane Quentin):  http://www.01net.com/editorial/365 [...] -(nvidia)/
 

Citation :

Une 8950 GTX II est-elle toujours d'actualité, comme le laissait encore supposer il y a quelques mois le « waterblock » adapté, ou bien est-ce abandonné ? Ce G92 entre-t-il dans ce contexte ?  
 
Comme toujours, nous ne pouvons pas évoquer des produits non annoncés. Toutefois, nous avons effectivement un projet de ce type qui devrait voir le jour dans les semaines qui viennent, en sachant qu un SLI de 8800 GT est déjà une plate-forme extrêmement performante.


 [:cosmoschtroumpf]


Message édité par marllt2 le 15-12-2007 à 18:36:48
n°6088967
jesaipacki
Posté le 15-12-2007 à 18:36:55  profilanswer
 

Tout ça on le sait déjà mais rien de concret depuis. On attendra Février je penses pour avoir du concret.

n°6089034
Gr4phX
PSN: Hard_Khor
Posté le 15-12-2007 à 18:58:54  profilanswer
 

La vrai surprise serait un HDG entre 300 et 400 euros


---------------
Muscle or Nuthin'
n°6089036
marllt2
Posté le 15-12-2007 à 18:59:57  profilanswer
 

Un vrai HDG à 400€ c'est pas possible  :o : http://www.clubic.com/actualite-88 [...] vidia.html
 
Et puis nVidia n'aime pas faire des surprises. :o


Message édité par marllt2 le 15-12-2007 à 19:00:20
n°6089055
Gr4phX
PSN: Hard_Khor
Posté le 15-12-2007 à 19:09:39  profilanswer
 

laissez moi rêver c'est Noël...  :D  :lol:  :D


---------------
Muscle or Nuthin'
n°6089778
Activation
21:9 kill Surround Gaming
Posté le 15-12-2007 à 23:52:06  profilanswer
 

elbandito11 a écrit :

Idem me suis pas tappé les 140 pages  :ange:  
Y a t'il des infos plus précises sur la nouvelle carte de nvidia qui sort en fevrier ? à savoir déjà est ce que ça sera une carte bi GPU (2*G92) comme le disent certaines rumeurs ou bien un mono GPU flambant neuf ?


 
etant donné quelles seront dx10.1 les cartes de février
comment ça pourrait etre un bi-gpu de g92 (D8P) uniquement dx10.0  :whistle:  
 
faut vous faire à l idée que le G92 c est juste le G80+puce i/o qu on trouve sur 8800gtx/ultra/gts320-640
+ purevideo hd 2 dans une meme puce
 
le G98 (D8M) entrée de gamme récupère déjà un purevideo hd version 3
 
enfin bon le R700 de amd sort qu en 2009 bref dans le camps adverse à nvidia il n y aura qu'un RV680 bref un crossfire monocarte de RV670 (meme pas sur le même die... appeler ça un rv680 la blague)
donc en gros pour faire face à une HD3870X2 faut arriver à faire  
 
1) grimper de 40% les perf d une gtx actuelle
2) trouver une solution pour la conso au moins en idle (ou alors ils nous pondent du sli hybride monocarte...  :D  ) car la 8800gts512 y a pas de quoi s extasier...  
3) mais aussi en charge
 
alors apres bi gpu ou pas la carte de nvidia en fevrier je sais pas mais ça pourra pas etre du G92
 
après le G92 est avant tout une puce economique elle est volontairement limité à 128SP et etc... pour pouvoir en fabriquer plus par wafer
 
en fevrier si nvidia veut vraiment sortir une carte tres haut de gamme  
à mon sens faut mieux gonfler un peu le nombre de SP avec pourquoi pas 32ROPs 1Go de memoire le purevideo HD 3
ok on augmente la taille de la puce ... mais on peut l augmenter sans pour autant atteindre la taille d un g80 ni meme de 2 g92 reunit
 
les drivers sli et crossfire reste encore problématique sous vista dx10 offre beaucoup de possibilité avec les shader unifié en terme de drivers
à mon sens c est plus viable de gérer un tres haut de gamme mono gpu pour le moment que bi gpu
 
derriere faut bien voir que ceux qui vont acheter du sli et du tri sli sont tout de meme des gros beta testeurs  :D  
ils ont tout de meme pas mal galéré au debut sous xp et là c est rebelote sous vista
 
enfin moi ce que j en dit si je veux pas me prendre des trempes à cause de drivers pour un nouveau tres haut de gamme dx10.1 je le fait monogpu sa limite les risques
de meme sur les gpu actuel y a tout de meme un beau gachi de memoire en sli ou crossfire
en monogpu foutre 1Go de memoire pour les effet fsaa 4x mini demandé par dx10.1 ça va pas etre un mal
 
en carte bi gpu c est pas 1Go c'est 2*512Mo c est pas la meme chose (après sur le R700 et le G100 y aura surement une combine de "ringbus" pour "unifier" la memoire de toutes les cartes graphique lié par le sli ou le crossfire en tout cas pour le R700 c est sur... mais 2009 quoi)
 
si on y regarde bien la 8800gts512 si elle est aussi maladroite c est surtout à mon sens parcequ on gonfle maladroitement son moteur
on force le moteur à allez au dela des tours limite conseillé
un "D9E" avec plus de SP et plus de ROP et de memoire ferait qu on augmenterait son "couple"
à vitesse egal il enverrais plus de charbon à la fois
ok ça entraine une gpu plus gros... et alors.. y aura plus de surface de contact pour le refroidir  :D  
et on est plus dans le cas de figure "puce economique"
 
 
[folie mode OFF]

Message cité 2 fois
Message édité par Activation le 16-12-2007 à 00:01:40
n°6089819
marllt2
Posté le 16-12-2007 à 00:10:13  profilanswer
 

Activation a écrit :

etant donné quelles seront dx10.1 les cartes de février
comment ça pourrait etre un bi-gpu de g92 (D8P) uniquement dx10.0  :whistle]


Fonction du G92 non activée sur les GF8. [:cosmoschtroumpf]

n°6089862
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 16-12-2007 à 00:39:07  profilanswer
 

RDV en Juillet pour le successeur du 8800GT. Avec un peu de chance, ça devrait concorder avec une baisse des prix d'intel vers Avril/Mai, donc un créneau idéal pour une nouvelle config vers Juillet, de quoi profiter de ses vacances :D


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
mood
Publicité
Posté le 16-12-2007 à 00:39:07  profilanswer
 

n°6089863
Cyber-sola​ris
Posté le 16-12-2007 à 00:39:30  profilanswer
 

Vivement que la relève sorte car ma GTX ne me permet plus de jouer aux derniers jeux correctement.
 
Je suis sur un 27" (1920*1200) et j'aime bien jouer tout à fond avec un AA*4.


---------------
Mon Feed-back
n°6089914
marllt2
Posté le 16-12-2007 à 01:37:52  profilanswer
 

Cyber-solaris a écrit :

Je suis sur un 27" (1920*1200) et j'aime bien jouer tout à fond avec un AA*4.


Prends la GTX de cdiscount à 378€ pour faire un SLI. [:cosmoschtroumpf]

n°6089921
mac fly
Posté le 16-12-2007 à 01:50:37  profilanswer
 

Activation a écrit :


 
etant donné quelles seront dx10.1 les cartes de février
comment ça pourrait etre un bi-gpu de g92 (D8P) uniquement dx10.0  :whistle:  
 
faut vous faire à l idée que le G92 c est juste le G80+puce i/o qu on trouve sur 8800gtx/ultra/gts320-640
+ purevideo hd 2 dans une meme puce
......
si on y regarde bien la 8800gts512 si elle est aussi maladroite c est surtout à mon sens parcequ on gonfle maladroitement son moteur
on force le moteur à allez au dela des tours limite conseillé
un "D9E" avec plus de SP et plus de ROP et de memoire ferait qu on augmenterait son "couple"
à vitesse egal il enverrais plus de charbon à la fois
ok ça entraine une gpu plus gros... et alors.. y aura plus de surface de contact pour le refroidir  :D  
et on est plus dans le cas de figure "puce economique"
 
 
[folie mode OFF]


Pas vraiment d'accord ...
Le G92 n'est pas "simplement" un G80 avec purevidéo 2 et gravé + finement  :pt1cable: .Pour le réaliser il suffit de regarder le nbr de transistors bien plus élevé sur les g92 que sur les G80 (t'as pas tilté que Nvidia n'est surement pas si stupide pour bosser tout ce temps et sortir un G92 plus complexe avec bcp + de transistors qu'une 8800ultra mais qui est inférieure dans sa version 8800gts v2 ? .Ca laisse surtout présager que le futur haut de gamme sera une base G92 bien débridée et que les G92 que l'on a sur le marché sont probablement des "rebus" volontairement bridés de ce que sera le futur haut de gamme )
 
Je vois pas ce qui te permet de dire que les 8800gts sont "maladroites"... ce sont de pures monstres bien bridés par leur bande passante mémoire, faut pas chercher plus loin  :pt1cable: .Nvidia aurait collé de la gddr4 (mais ils ne veulent pas pour des raisons dont eux seuls ont la réponse), la gts v2 se serait retrouvée sans grande difficulté a la hauteur de la 8800 ultra.Finalement on pourrait meme aller jusqu'à s'imaginer que ça aurait donné une gamme avec une puissance trop élevée d'entrée de jeux et que ça aurait été probablement néfaste au niveau grille tarifaire vis à vis du futur haut de gamme

Message cité 1 fois
Message édité par mac fly le 16-12-2007 à 01:58:06
n°6089927
olioops
Si jeune et déjà mabuse.
Posté le 16-12-2007 à 02:00:15  profilanswer
 

oui ça serait vraiment surprenant qu'ils ne sortent pas un G92 débridé ( à mon avis facilement 20% devant l'ultra )


---------------
Ne pas confondre gisement épuisé et mine de rien !
n°6089933
arito667
Posté le 16-12-2007 à 02:05:38  profilanswer
 

Oue voir un X2 de G92 debride ...

n°6089950
johnny-vul​ture
Wesh wesh ma poule !
Posté le 16-12-2007 à 02:51:41  profilanswer
 

Cyber-solaris a écrit :

Vivement que la relève sorte car ma GTX ne me permet plus de jouer aux derniers jeux correctement.
 
Je suis sur un 27" (1920*1200) et j'aime bien jouer tout à fond avec un AA*4.


2 X HD 3870  :whistle:


---------------
http://forum.hardware.fr/hfr/Discu [...] 2237_1.htm
n°6090014
Cyber-sola​ris
Posté le 16-12-2007 à 09:28:29  profilanswer
 

Je préfère éviter le SLI ou le crossfire.
 
Dommage que les cartes les plus puissantes ne permettent pas d'être à l'aise avec les derniers jeux dans des résolutions HD.


---------------
Mon Feed-back
n°6090475
Activation
21:9 kill Surround Gaming
Posté le 16-12-2007 à 13:02:49  profilanswer
 

mac fly a écrit :


Pas vraiment d'accord ...
Le G92 n'est pas "simplement" un G80 avec purevidéo 2 et gravé + finement  :pt1cable: .Pour le réaliser il suffit de regarder le nbr de transistors bien plus élevé sur les g92 que sur les G80 (t'as pas tilté que Nvidia n'est surement pas si stupide pour bosser tout ce temps et sortir un G92 plus complexe avec bcp + de transistors qu'une 8800ultra mais qui est inférieure dans sa version 8800gts v2 ? .Ca laisse surtout présager que le futur haut de gamme sera une base G92 bien débridée et que les G92 que l'on a sur le marché sont probablement des "rebus" volontairement bridés de ce que sera le futur haut de gamme )
 
Je vois pas ce qui te permet de dire que les 8800gts sont "maladroites"... ce sont de pures monstres bien bridés par leur bande passante mémoire, faut pas chercher plus loin  :pt1cable: .Nvidia aurait collé de la gddr4 (mais ils ne veulent pas pour des raisons dont eux seuls ont la réponse), la gts v2 se serait retrouvée sans grande difficulté a la hauteur de la 8800 ultra.Finalement on pourrait meme aller jusqu'à s'imaginer que ça aurait donné une gamme avec une puissance trop élevée d'entrée de jeux et que ça aurait été probablement néfaste au niveau grille tarifaire vis à vis du futur haut de gamme


 
 
je vois pas trop comment on peu dire que la 8800gts512 est bien consu quand on sait qu elle consomme autant qu une gtx
alors quelle profite des dernier rafinement  
1 puce au lieu de 2 (puce des i/o)
65nm au lieu de 90nm
 
et si le g92 est bridé de nombreuses fonction désactivé... de telles fonction ne peuvent entrer en ligne de compte dans la consommation
 
et franchement je veux bien croire que le g92 a plus ou moins des unité shader 4.1 maquillé en 4.0 (quoi que la en fait c est juste la precision des unité "caché" pour la gamme quadro hein  :D  )
 
mais c est pas pour autant un "G90" avec 80SP de plus de planqué dans un coin
 
c est comme si vous me disiez que la puce d une Geforce 8600 cache une 8800gts 320 ultra bridé de la mort
 
faut arreter de penser que les gpu c est le meme pour toutes les famille de la "génération" plus ou moins bridé
 
faudrait etre con pour fabriquer une puce pour brider à 50% son contenu
 
le G92 reste une puce ciblé "économique" on s emmerde pas à y mettre plein de registre juste pour le plaisir de les désactiver
 
y a des presample de tests pour le futur modele de fevrier 2008 on fabrique pas en masse des gpu avec tout plein de registre désactivé
 
c est comme si qqun avait un V8 sous le capot de sa voiture mais en fait vous lui disiez que le bloc c est un bloc de V12 auquel on a enlevé 4 piston... faut arreter la theorie du complot à tout bout de chance pour certains
 
y a pas de G100 caché dans votre G92, le but de nvidia c est de faire aussi du fric
faudrait vraiment etre debile pour gaché des plaque de silicium comme ça en desactivant sur des millions de gpu une si importante partie de registre
 
il y a certe des registres désactivé (là c est 16SP pour la diff GT/GTS) mais au max en général ça dépasse guere 15-20% du tout
on peut l assimiler des fois à une marge de manoeuvre du constructeur soit en cas de bug soit en cas de concurrent feroce
 
un peu comme le cell des PS3 qui ne demande pas que la totalité des unité soit bonne (1 unité autorisé deffectueuse) pour repondre au cahier des charge pour etre intégré à une ps3 avant d etre déclassé pour d autres usage
 
là le rendement de fabrication des G92 c est avéré excellent hop on voit tres vite apparaitre la gts512 car toutes les unité SP sont opérationnel sur la majorité des die (et du coup le gpu est vendu plus cher par nvidia... après c est les oems qui voit si prefere vendre de la gt ou de la gts)

Message cité 1 fois
Message édité par Activation le 16-12-2007 à 13:12:06
n°6090485
olioops
Si jeune et déjà mabuse.
Posté le 16-12-2007 à 13:09:03  profilanswer
 

déjà >> le bus bride , la ram bride .... [:airforceone]
-ça chauffe autant que le G80 , mais avec 70 millions de transistors supp et des unités surcadencées
-le G92 est bridé pour ne pas sploiler les possesseurs de 8800 Ultra et GTX qui auraient vu d'un sale oeuil l'arriver de carte plus puissante et moitié moins cher !!! l'achat prioritaire du futur HDG en aurait souffert...
 
Ce qui est certain , c'est que NVidia a le champ libre ,et plusieurs stratégies possible dans les prochains mois ;
- laisser les choses en l'état  
- sortir un BiGPU
- sortir un G92 débridé
- sortir un nouveau HDG  
 
c'est pas AMD au bord du gouffre qui leur met la pression !

Message cité 1 fois
Message édité par olioops le 16-12-2007 à 14:05:43

---------------
Ne pas confondre gisement épuisé et mine de rien !
n°6090618
mac fly
Posté le 16-12-2007 à 14:03:25  profilanswer
 

Activation a écrit :


 
 
je vois pas trop comment on peu dire que la 8800gts512 est bien consu quand on sait qu elle consomme autant qu une gtx
alors quelle profite des dernier rafinement  
1 puce au lieu de 2 (puce des i/o)
65nm au lieu de 90nm
 
et si le g92 est bridé de nombreuses fonction désactivé... de telles fonction ne peuvent entrer en ligne de compte dans la consommation
 
et franchement je veux bien croire que le g92 a plus ou moins des unité shader 4.1 maquillé en 4.0 (quoi que la en fait c est juste la precision des unité "caché" pour la gamme quadro hein  :D  )
 
mais c est pas pour autant un "G90" avec 80SP de plus de planqué dans un coin
 
c est comme si vous me disiez que la puce d une Geforce 8600 cache une 8800gts 320 ultra bridé de la mort
 
faut arreter de penser que les gpu c est le meme pour toutes les famille de la "génération" plus ou moins bridé
 
faudrait etre con pour fabriquer une puce pour brider à 50% son contenu
 
le G92 reste une puce ciblé "économique" on s emmerde pas à y mettre plein de registre juste pour le plaisir de les désactiver
 
y a des presample de tests pour le futur modele de fevrier 2008 on fabrique pas en masse des gpu avec tout plein de registre désactivé
 
c est comme si qqun avait un V8 sous le capot de sa voiture mais en fait vous lui disiez que le bloc c est un bloc de V12 auquel on a enlevé 4 piston... faut arreter la theorie du complot à tout bout de chance pour certains
 
y a pas de G100 caché dans votre G92, le but de nvidia c est de faire aussi du fric
faudrait vraiment etre debile pour gaché des plaque de silicium comme ça en desactivant sur des millions de gpu une si importante partie de registre
 
il y a certe des registres désactivé (là c est 16SP pour la diff GT/GTS) mais au max en général ça dépasse guere 15-20% du tout
on peut l assimiler des fois à une marge de manoeuvre du constructeur soit en cas de bug soit en cas de concurrent feroce
 
un peu comme le cell des PS3 qui ne demande pas que la totalité des unité soit bonne (1 unité autorisé deffectueuse) pour repondre au cahier des charge pour etre intégré à une ps3 avant d etre déclassé pour d autres usage
 
là le rendement de fabrication des G92 c est avéré excellent hop on voit tres vite apparaitre la gts512 car toutes les unité SP sont opérationnel sur la majorité des die (et du coup le gpu est vendu plus cher par nvidia... après c est les oems qui voit si prefere vendre de la gt ou de la gts)


Tu n'as visiblement rien compri de ce que je racontais  :sweat:  
Regarde la réponse de olioops , ça résume ce que j'ai développé... tu piges pas que Nvidia ne s'est surement pas emmerdé a sortir un g92 avec autant de transistors pour ce résultat  :sleep: .L'expliquation est que le G92 est probablement un 1er essai de l'archi qui sera le futur haut de gamme.Et ils l'ont volontairement bridé pour ne pas faire de l'ombre à leur prochain haut de gamme -c'est pas nouveau, ça a toujours été le cas dans les divers gammes nvidia et Amd ou des modèles sont volontairement bridés pour avoir une gamme complète pour tous les budgets meme si parfois on a affaire exactement au meme gpu à la base- (c'est meme assez surprenant qu'une simple 8800gt arrive à ce résultat avec une bande passante mémoire autant réduite ! ça ne te viens meme pas à l'esprit  :pt1cable: ....Avec une b.passante mémoire proche de la gtx il ne fait aucun doute que cette carte aurait suffit à rivaliser avec la 8800ultra, et en condition d'overclock réciproque elle l'aurait dépassé.Ca le fait pas pour une carte qui n'est pas prévu pour etre le haut de gamme, mais juste pour couper l'herbe sous le pied de Amd !!! )-> ce qui est fort logique vu que Amd n'a rien à mettre en face pour détroner ne serait ce que les 8800gt ...


Message édité par mac fly le 16-12-2007 à 14:25:08
n°6092171
Gigathlon
Quad-neurones natif
Posté le 17-12-2007 à 00:02:34  profilanswer
 

olioops a écrit :

- sortir un G92 débridé


C'est la 8800GTS 512 ça, je sais pas où vous voulez qu'ils aient puisé pour ajouter des unités...
 
Le G92 consomme plus de transistors dans ses unités de texturing que le G80 (64 unités vs 32 SIMD x2) et en prime intègre le décodage HD et les I/O autrefois déportées.
 
Si nVidia sort une nouvelle carte de cette génération, ça sera plutôt un G90 d'environ 1M de transistors, suffisamment plus pour passer à un bus 384bits, 192 SP et 24 ROPs.
 
D'ailleurs, si on reprend les rumeurs et chiffres marketing:
 
- la 8800GTX avait une puissance brute de 518GFlops/s
- nVidia a annoncé "près de 1TFlops/s pour son prochain gpu "enthusiast"
 
Si on considère que le D9E serait un "G90" tel qu'exposé ci-dessus aux fréquences d'une GTS 512, ça nous donnerait 933GFlops/s.

Message cité 2 fois
Message édité par Gigathlon le 17-12-2007 à 00:16:55
n°6092236
noobzed
Where is Brian ? DTC !
Posté le 17-12-2007 à 02:27:01  profilanswer
 

Gigathlon a écrit :


C'est la 8800GTS 512 ça, je sais pas où vous voulez qu'ils aient puisé pour ajouter des unités...
 
Le G92 consomme plus de transistors dans ses unités de texturing que le G80 (64 unités vs 32 SIMD x2) et en prime intègre le décodage HD et les I/O autrefois déportées.
 
Si nVidia sort une nouvelle carte de cette génération, ça sera plutôt un G90 d'environ 1M de transistors, suffisamment plus pour passer à un bus 384bits, 192 SP et 24 ROPs.
 
D'ailleurs, si on reprend les rumeurs et chiffres marketing:
 
- la 8800GTX avait une puissance brute de 518GFlops/s
- nVidia a annoncé "près de 1TFlops/s pour son prochain gpu "enthusiast"
 
Si on considère que le D9E serait un "G90" tel qu'exposé ci-dessus aux fréquences d'une GTS 512, ça nous donnerait 933GFlops/s.


 
ca donnerai cb niveaqu score 3dmou ac un quad a 3.6 ?


---------------
FEEDBACK HFR  
n°6092284
mac fly
Posté le 17-12-2007 à 08:11:47  profilanswer
 

Gigathlon a écrit :


C'est la 8800GTS 512 ça, je sais pas où vous voulez qu'ils aient puisé pour ajouter des unités...
 
Le G92 consomme plus de transistors dans ses unités de texturing que le G80 (64 unités vs 32 SIMD x2) et en prime intègre le décodage HD et les I/O autrefois déportées.
 
Si nVidia sort une nouvelle carte de cette génération, ça sera plutôt un G90 d'environ 1M de transistors, suffisamment plus pour passer à un bus 384bits, 192 SP et 24 ROPs.
 
D'ailleurs, si on reprend les rumeurs et chiffres marketing:
 
- la 8800GTX avait une puissance brute de 518GFlops/s
- nVidia a annoncé "près de 1TFlops/s pour son prochain gpu "enthusiast"
 
Si on considère que le D9E serait un "G90" tel qu'exposé ci-dessus aux fréquences d'une GTS 512, ça nous donnerait 933GFlops/s.


Non , je ne pense pas car (je n'ai pas dit qu'il y avait des unités ou autres encore cachées, je n'en sais rien personnellement) il y a un truc qui me chiffone.
Nvidia n'a pas sortit les 8800gt/gts (donc le G92) dans le but de consommer plus de transistors, chauffer autant pour des perfs au final qui sont les memes que du G80  :pt1cable:
Je pense surtout que la base G92 est l'archi qui préfigure le futur haut de gamme et que c'était donc un essai qu'ils ont volontairement limitté car les 8800gt/gts n'ont pas pour vocation d'etre le futur haut de gamme capable de détroner les 8800 ultra -c'est mauvais pour le prochain haut de gamme si on se retrouve au final avec un "faible" écart de perfs pour un prix bcp + élevé- (rien qu'en limitant la b.passante mémoire du G92 ça suffit -le bridage volontaire de Nvidia de ces cartes vient surtout de là- , et on le voit en regardant la différence 8800gt/8800gts v2 -> c'est bel et bien la b.passante mémoire qui bride un max )
Pour débrider le potentiel du G92 et qu'il explose meme les 8800 ultra, il aurait suffit d'un bus mémoire + large, ou meme de la simple ddr4 aurait boosté la 8800gt dans la zone de la 8800 ultra
Voilà ce que "je" pense, faut pas chercher plus loin  ;)

Message cité 1 fois
Message édité par mac fly le 17-12-2007 à 08:25:44
n°6092344
cyberfred
Posté le 17-12-2007 à 09:37:39  profilanswer
 

Cyber-solaris a écrit :

Je préfère éviter le SLI ou le crossfire.
 
Dommage que les cartes les plus puissantes ne permettent pas d'être à l'aise avec les derniers jeux dans des résolutions HD.


 
tou dépend ce que tu appelles Reso HD.
je joue avec ma gtx tout à fond en 1680 AA4x à tout les derniers jeux  (nfs pro , bioshock , wic ,etc...) sauf crysis c'est vrai.
Aprés c'est sur peut etre que le 1920 AA4x est un peu juste pour la gtx sur ces derniers jeux.

n°6092349
joss69
Posté le 17-12-2007 à 09:41:37  profilanswer
 

Non ça passe tranquille avec une GT en 1920 AA 4x donc avec une GTX c'est encore mieux ;)  
Y a vraiment que Crysis qui pose problème mais tous les autres jeux auxquels je joue et j'ai joué passent sans pb sur mon 24p (Stalker, Bioshock, NFS pro...)  :)

n°6092352
Profil sup​primé
Posté le 17-12-2007 à 09:43:46  answer
 

cyberfred a écrit :



tou dépend ce que tu appelles Reso HD
.
je joue avec ma gtx tout à fond en 1680 AA4x à tout les derniers jeux  (nfs pro , bioshock , wic ,etc...) sauf crysis c'est vrai.
Aprés c'est sur peut etre que le 1920 AA4x est un peu juste pour la gtx sur ces derniers jeux.

Réso full HD c'es fixe hein, c'est une norme.

n°6092356
cyberfred
Posté le 17-12-2007 à 09:47:48  profilanswer
 


on est d'accord full HD c'est bien 1920.
Mais réso HD ca peut aussi etre du 1280 , 1680 etc.... enfin je sais plus qu'elle est la réso des tv hd ready.
Et comme le dit joss69 y a vraiment que crysis qui pose souci avec l'AA activé à partir du 1680.
 
edit : reso HD : "pour la  Haute Définition (HD), deux formats existent pour le moment : le premier en résolution 1280x720 et le second en 1920x1080"
source http://www.toutelahd.com/


Message édité par cyberfred le 17-12-2007 à 09:53:04
n°6092398
kaiser52
Posté le 17-12-2007 à 10:06:22  profilanswer
 

mac fly a écrit :


Non , je ne pense pas car (je n'ai pas dit qu'il y avait des unités ou autres encore cachées, je n'en sais rien personnellement) il y a un truc qui me chiffone.
Nvidia n'a pas sortit les 8800gt/gts (donc le G92) dans le but de consommer plus de transistors, chauffer autant pour des perfs au final qui sont les memes que du G80  :pt1cable:
Je pense surtout que la base G92 est l'archi qui préfigure le futur haut de gamme et que c'était donc un essai qu'ils ont volontairement limitté car les 8800gt/gts n'ont pas pour vocation d'etre le futur haut de gamme capable de détroner les 8800 ultra -c'est mauvais pour le prochain haut de gamme si on se retrouve au final avec un "faible" écart de perfs pour un prix bcp + élevé- (rien qu'en limitant la b.passante mémoire du G92 ça suffit -le bridage volontaire de Nvidia de ces cartes vient surtout de là- , et on le voit en regardant la différence 8800gt/8800gts v2 -> c'est bel et bien la b.passante mémoire qui bride un max )
Pour débrider le potentiel du G92 et qu'il explose meme les 8800 ultra, il aurait suffit d'un bus mémoire + large, ou meme de la simple ddr4 aurait boosté la 8800gt dans la zone de la 8800 ultra
Voilà ce que "je" pense, faut pas chercher plus loin  ;)


 
Ils avaient fait ca avec les FX5900, la même archi que le FX5800 et pas des perfs de plus, avec des petits détails en plus comme les G80 -> G92.  :pt1cable:


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°6092459
mac fly
Posté le 17-12-2007 à 10:40:42  profilanswer
 

kaiser52 a écrit :


 
Ils avaient fait ca avec les FX5900, la même archi que le FX5800 et pas des perfs de plus, avec des petits détails en plus comme les G80 -> G92.  :pt1cable:


Oui mais non, aucun interet aujourd'hui dans le sens ou ils ont le leadership ils n'étaient meme pas obligé de sortir une carte avant le prochain haut de gamme... ça n'a strictement rien de comparable justement  :pt1cable:

n°6092473
Spazmatazz
Posté le 17-12-2007 à 10:49:50  profilanswer
 

Malgré leur leadership incontestable actuellement, nouveau haut de gamme en février ou encore un resucé amélioré ?

n°6092476
marllt2
Posté le 17-12-2007 à 10:50:58  profilanswer
 

G91 inside [:moundir]

n°6092486
mac fly
Posté le 17-12-2007 à 10:54:23  profilanswer
 

Personne ne peut vraiment s'avancer sur quoi que ce soit dans la stratégie qu'ils adoptent.
Vu que Amd ne leur met pas vraiment la pression, dans l'absolu ils n'ont pas forcément interet à trop se presser...

n°6092497
marllt2
Posté le 17-12-2007 à 11:00:05  profilanswer
 

Avec la HD3870 X2, un peu si. :o

n°6092511
mac fly
Posté le 17-12-2007 à 11:10:26  profilanswer
 

Oui enfin il vaut mieux prendre son temps et sortir une solution monogpu clockée aux fréquences adéquates qui rafle la mise et s'assure de battre d'entrée de jeux la 3870 x2 ... et ça ne sera pas bien difficile vu que la 8800 ultra n'est pas bien loin derrière la 3870 x2

n°6092517
god is dea​d
Demain, j'arrête de poster.
Posté le 17-12-2007 à 11:12:45  profilanswer
 

C'est une blague cette X2, c'est juste un cf de hd 3870 sur une seule carte, d'ailleurs vendue sans doute plus chère que 2 hd 3870. Avec la souplesse d'utilisation liée au cf (:o), les perfs aléatoires, la durée de vie restreinte qu'on connait et la longueur de la carte, ça fait une solution bricolage pas vraiment intéressante. La seule contrainte en moins c'est qu'une cm pcie 16x suffira. Nvidia peut faire la même chose avec son g92.
 
Bref, ces solutions "GX2 like" c'est de la poudre aux yeux. C'est cher, ça marche pas tout le temps, ça consomme pas mal, ça nécessite des drivers au point et au bout de même pas 1 an ça ne vaut plus rien.


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°6092522
angela-pcs
Posté le 17-12-2007 à 11:17:42  profilanswer
 

Si une 3870 ^^

n°6092675
Profil sup​primé
Posté le 17-12-2007 à 12:31:33  answer
 

http://www.fudzilla.com/index.php? [...] &Itemid=34
 

Citation :

According to current plans, Nvidia plans to introduce its Geforce 9 series high end part codenamed G100 around march 2008.
 
We don’t know many details, but we do know that the chip should end up faster than two G92 D8E dual PCB card which is scheduled for launch in late January.
 
It will be on time to launch with G96 which is a mainstream part.

n°6092679
Lmao
Posté le 17-12-2007 à 12:32:36  profilanswer
 

Si c'est vrai c'est génial :)

n°6092681
Gr4phX
PSN: Hard_Khor
Posté le 17-12-2007 à 12:33:21  profilanswer
 

eh bah voilà !


---------------
Muscle or Nuthin'
n°6092710
ANViL
yep...definitely ♫
Posté le 17-12-2007 à 12:41:45  profilanswer
 


 
1 G100 = 4 G92....................... :sarcastic:  
 
Sur papier, ça fait classe  [:fitterashes] (Les ingés de chez AMD doivent être morts de trouille)

Message cité 2 fois
Message édité par ANViL le 17-12-2007 à 12:42:54
n°6092721
Lmao
Posté le 17-12-2007 à 12:44:28  profilanswer
 

En tout cas une sortie en mars ça se tient je trouve, apres les perfs on verra bien

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  138  139  140  ..  391  392  393  394  395  396

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Préhistoire] Problème avec ma GeForce 4200 tibfg Geforce 8800gts 640Mo pci-e oc1 ou oc2 ?
Check-up de dernière minutey a t-il une sonde dans la asus geforce 8600 GT
Quelle quantite de memoire pour GeForce 8800GTS ?[Topic Unique] Thermaltake SwordM : le top du boitier!
[Topic Unique] Nvidua Geforce 9800GTS/9800GTXdifférence entre GeForce 2Mx et radeon 9200 ?
Plus de sujets relatifs à : [Topic Unique] GeForce 9 : dernière màj le 19/03/08


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)