Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1277 connectés 

  FORUM HardWare.fr
  Hardware
  Carte graphique

  [Topic Unique] GeForce 8800

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  895  896  897  898  899  900
Page Précédente
Auteur Sujet :

[Topic Unique] GeForce 8800

n°4984730
renardin6
vieux geek
Posté le 13-08-2006 à 00:27:30  profilanswer
 

http://www.nvidia.fr/docs/TEMPLATE/446/header_nvidia_0806_445px.jpg
 
 
Geforce 8800 GTS 320 MB
Geforce 8800 GTS 640 MB
Geforce 8800 GTX (il est possible d'en trouver à moins de 480 euros en Belgique.)
Geforce 8800 ULTRA
 
http://www.hardware.fr/medias/photos_news/00/18/IMG0018438.jpg
G80 : Une architecture unifiée pour DirectX 10
 
Ce G80, contrairement à tout ce que l'on pensait au départ, dispose bien d'une architecture unifiée. Ainsi, les unités de pixels et de vertex disparaissent, et laissent place à des "Streams processors".
 
Ces derniers peuvent être alloués dynamiquement pour effectuer des calculs sur les pixels, les vertex, la géométrie et même la physique.
 
Pas moins de 681 millions de transistors gravés en 90 nm.  
 
http://www.hardware.fr/medias/photos_news/00/18/IMG0018437.jpg
 
Une qualité sans reproche ?
 
Les GeForce 7 ont été critiquées régulièrement pour leur qualité de rendu inférieure à celle de la concurrence. Avec les GeForce 8, Nvidia a bien l´intention de reléguer ces affirmations au passé. Le principal reproche fait à Nvidia concernant le filtrage des textures qui souffrait d´optimisations trop poussées qui ont fini par nuire à la qualité. Comment résoudre le problème ? La solution de Nvidia est "simple" : augmenter la puissance de calcul des textures d´une manière telle qu´il ne soit plus nécessaire d´avoir recours à ces optimisations. Alors qu´un GeForce 7900 dispose de 24 unités de texturing, le GeForce 8800 en contient 64. Un bond énorme, d´autant plus que le GPU actuel le plus performant d´ATI, le X1950, n´en dispose que de 16. Nvidia peut donc se permettre d´appliquer un filtrage de premier ordre et c´est le cas.
 
L´antialiasing est lui aussi en progression puisque Nvidia a entièrement retravaillé sa gestion. De nouveaux modes font leur apparition avec une technologie nommée Coverage Sample antialiasing qui permet d´en appliquer un niveau supérieur sans faire baisser les performances dans des proportions trop importantes. Enfin les GeForce 8 supportent l´antialiasing avec tous les modes de rendu HDR. Oblivion, Far Cry, Serious Sam2 etc. peuvent donc maintenant fonctionner en mode haute qualité avec antialiasing.
 
 
Par défaut, le G80 en embarque 128, rien que ça. Ils sont accompagnés de 24 ROP, et d'une interface mémoire de 384 bits, le tout au sein d'une puce de pas moins de 681 millions de transistors, gravée en 90 nm.
 
Petite nouveauté, si la fréquence du GPU est annoncée à 575 MHz pour le modèle GTX, ses "Stream processors" disposent d'une fréquence environ 2.4x supérieure puisqu'elle est de 1350 MHz pour ce même modèle.
 
Mémoire : Des chiffres bâtards et de la GDDR-3
 
Côté mémoire, par contre, on fait dans le conservatisme puisque la GDDR-3 est toujours de la partie. NVIDIA souhaitant apparemment utiliser la GDDR-4 une fois qu'elle sera un peu plus disponible et sûrement moins coûteuse.
Afin d'augmenter sa bande passante, le caméléon a ainsi décidé de chercher du côté de l'interface mémoire, qui passe de 256 bits à 384 bits sur le modèle GTX.
 
GTX embarque pas 512 Mo ni 1 Go mais... 768 Mo de mémoire.
 
Gestion de la 2D externalisée et retour de l'appellation GTS !
 
L'économie de transistors... c'est aussi ce qui a motivé l'attribution de la gestion de la 2D (RAMDAC, TMDS...) à une puce externe dont on ne sait que peu de choses : le NVIO.
Ce dernier est présent sur le modèle haut de gamme, la GTX, mais aussi sur sa petite soeur : la GeForce 8800GTS.
 
Pour la GTS:  
Au programme, des fréquences revues à la baisse puisque le GPU affiche 500 MHz, les SP, eux, tournent à 1.2 GHz, alors que les 640 Mo de mémoire reliés à une interface de 320 bits sont cadencés à 800 MHz.
Pour autant, la puce n'est pas différente, les unités seraient donc seulement désactivées ?
 
Consommation et Niveau Sonore:
 
Et le doublement des performances ne semble pas aller de pair avec le doublement de la consommation ou de la nuisance sonore.
Bruit et consommation : des points forts de ces nouvelles cartes
Les cartes seraient relativement silencieuses et offrent une consommation au repos au niveau de leur concurrente de chez ATI.
 
Qualité d'image : AF revu, HDR + AA, CSAA, 10 bits...
 
Ainsi, le filtrage anisotropique a entièrement été revu et offre des résultats meilleurs que ce qu'offre la gamme X1k.
L'anti-crénelage a lui aussi subi une petite refonte avec l'arrivée d'un nouveau mode, le CSAA, sorte de filtrage partiel, mais qui ne semble pas convaincant selon nos confrères.
 
Reste qu'avec la puissance de calcul de ces monstres, des filtrages de 8x ou 16x ne devraient pas être un énorme problème...
Le traitement sur 10 bits en interne et l'HDR + AA arrivent aussi, rattrapant le retard du caméléon sur ATI.
De plus, l'HDR est désormais au niveau de ce que demande DirectX 10 et se fait sur 128 bits (FP32) contre 64 bits (FP16) précédemment.
 
Futur du G80 : la physique et l'utilisation de trois cartes
 
NVIDIA semble aussi nous réserver quelques surprises, au niveau du SLi notamment, puisque la GTX dispose de deux ponts, dont un est "réservé à une utilisation future de la technologie SLi" selon les documents que nous avons pu nous fournir.
D'après d'autres documents, il s'agit sans aucun doute de la gestion physique sur trois cartes.
 
Sur ce sujet, NVIDIA affirme que son GPU est paré pour offrir des performances "trop de la balle" sans pour autant nous en dire plus... puisqu'aucune application n'en tire partie pour le moment.
 
Pure Video : on ne change pas une équipe qui gagne
 
Dernier point, la vidéo avec Pure Video qui n'a pas été amélioré , espérons que l'encodage aidé par le GPU soit un jour de la partie.
 
Officiellement, les tarifs annoncés sont de 450 € pour la GTS et de 600 € pour la GTX, ce qui est important, mais sans aucun doute à la hauteur de la performance offerte.
 
http://light.pcinpact.com/actu/news/32615-G80-GeForce-8800.htm
 
[b]Les cartes

 
Ce premier GPU issu de l´architecture GeForce 8, est énorme puisqu´il contient plus de 670 millions de transistors (contre 278 millions pour un GeForce 7900). La consommation est bien entendu en forte hausse également et il faudra s´équiper d´une alimentation puissante pour pouvoir l´alimenter. La première carte qui l´embarque, la GeForce 8800 GTX nécessite ainsi une alimentation de 450 Watts et Nvidia parle d´alimentations de 750 à 1000 Watts pour les systèmes équipés de 2 de ces cartes en SLI ! Cette GeForce 8800 GTX emploie un GPU cadencé à 575 MHz (mais avec les processeurs de shaders à 1350 MHz) et de la mémoire 384 bits à 900 MHz, ce qui lui procure une bande passante confortable. Il faudra par contre débourser un peu plus de 650€ pour acquérir ce monstre de 27 cm de long et qui nécessite l´utilisation de 2 connecteurs d´alimentation.
 
http://www.hardware.fr/medias/photos_news/00/18/IMG0018434.jpg
 
La seconde carte, la GeForce 8800 GTS utilise un GPU bridé puisque les processeurs de shaders passent de 128 à 96 et les unités de texturing de 64 à 48. Parallèlement, la fréquence du GPU est abaissée à 500 MHz (et 1200 MHz pour les processeurs de shaders) et la mémoire à 800 MHz mais cette fois en 320 bits. La puissance de calcul baisse donc de 33% et la bande passante mémoire de 25% mais le prix devrait cette fois se situer entre 450 et 500 €.
 
http://www.hardware.fr/medias/photos_news/00/18/IMG0018435.jpg
 
Consommation, en tableau ça nous donne:
 
http://www.hardware.fr/medias/photos_news/00/18/IMG0018436.gif
 
CPU Limited ?
 
Comme pour chaque nouvelle carte graphique haut de gamme, on entendra souvent à propos du GeForce 8800 qu’il est « CPU limited » et qu’il faut absolument un très gros processeur pour en tirer partie. Ces propos ne sont qu’une généralisation abusive régulièrement colportée et à laquelle 3DMark n’est pas étranger, que ce soit de part sa résolution par défaut qui semble trop dure à changer pour certains ou de part le fait que la dernière version intègre dans le score global la puissance processeur.  
 
Autant être clair tout de suite, la GeForce 8800 ne consomme pas plus de ressource processeur qu’une autre GeForce moins puissante ! Par contre, avec des réglages graphiques peu élevés comparativement à la puissance de la carte, il y’aura de plus forte chance d’avoir un framerate qui ne sera plus limité par la carte graphique mais par le processeur.  
 
Est-ce pour autant un mal ? Pas vraiment, puisque cela signifie simplement qu’il vous sera alors possible d’augmenter la résolution ou les réglages graphiques impactant essentiellement la carte graphique sans baisse notable du framerate. Le seul cas ou le fait d’être « CPU limited » est gênant, c’est lorsque cette limite liée au CPU fait que votre jeu n’est pas fluide, mais il n’y a alors pas de lien direct avec la carte graphique.  
 
Ainsi, si vous êtes doté d’un processeur considéré comme moyen de gamme mais qui satisfait pleinement vos attentes dans vos jeux, vous pouvez sans complexe acquérir une carte haut de gamme afin de profiter par exemple de votre dernier écran 24". Plus que le couple CPU / Carte 3D, c’est bien le couple Carte 3D / Ecran qui nécessite le plus d’être équilibré.  
 
Pour rappel, si vous voulez savoir sur votre configuration, dans vos jeux, dans vos passages préférés, avec vos réglages, qui de votre carte graphique ou de votre cpu fait que vous n’avez pas la fluidité attendue, nous vous conseillons un test simple : baissez la résolution à 800*600 voir 640*480 ! Si vous n’observez pas de gain notable de fluidité, vous êtes limité par le CPU, voir par la mémoire si votre disque se met à gratter spécifiquement lors des lags, sinon c’est la carte graphique qui vous limite.  
 
Le test
 
Comme d´habitude, nous activons le filtrage anisotrope pour tous les tests puisque nous estimons qu´il n´y a plus de raison de s´en passer, surtout sur des cartes haut de gamme. Il est activé dans le jeu lorsque c´est possible et dans les drivers si ce n´est pas le cas. Par ailleurs nous avons également décidé d´activer systématiquement le Transparency Antialiasing qui permet de filtrer les objets simulés à partir de tests alpha tels que les grillages. Dans certains jeux l´impact sur les performances est important, mais si il l´est c´est que l´impact visuel l´est tout autant et puisqu´il s´agit ici de cartes haut de gamme il n´y a pas de raison de les ménager !
Configuration de test :
eVGA nForce 680i
Intel D975XBX (Bad Axe)
Intel Core 2 Extreme X6800
2 x 1 Go  
Western Digital Raptor 74 Go
Enermax 535W
Windows XP SP2
Catalyst 6.10
ForceWare 96.94

 
http://www.hardware.fr/medias/photos_news/00/18/IMG0018390.gif
 
http://www.hardware.fr/medias/photos_news/00/18/IMG0018392.gif
 
http://www.hardware.fr/medias/photos_news/00/18/IMG0018396.gif
 
http://www.hardware.fr/medias/photos_news/00/18/IMG0018400.gif
 
http://www.hardware.fr/medias/photos_news/00/18/IMG0018399.gif
 
http://www.hardware.fr/medias/photos_news/00/18/IMG0018431.gif
 
http://www.hardware.fr/medias/photos_news/00/18/IMG0018432.gif
 
http://www.hardware.fr/medias/photos_news/00/18/IMG0018405.gif
 
http://www.hardware.fr/medias/photos_news/00/18/IMG0018408.gif
 
http://www.hardware.fr/medias/photos_news/00/18/IMG0018412.gif
 
http://www.hardware.fr/medias/photos_news/00/18/IMG0018415.gif
 
http://www.hardware.fr/medias/photos_news/00/18/IMG0018414.gif
 
http://www.hardware.fr/medias/photos_news/00/18/IMG0018416.gif
 
http://www.hardware.fr/medias/photos_news/00/18/IMG0018424.gif
 
Récapitulatif des performances
Nous avons calculé un indice moyen des performances obtenues dans tous les modes pour chaque carte en donnant le même poids à chaque jeu et en donnant l’indice 100 à la GeForce 7900 GTX en 1600x1200.

 
http://www.hardware.fr/medias/photos_news/00/18/IMG0018425.gif
 
En rendu classique, les GeForce 8 surprennent déjà par leurs performances alors qu´elles étaient annoncées limitées par le processeur. En moyenne, la GeForce 8800 GTX est plus de 70% plus performant que la GeForce 7900 GTX ! Elle se place également devant tous les précédents systèmes multi-cartes.  
 
La GeForce 8800 GTS se place quand à elle légèrement devant la GeForce 7950 GX2.  
 
Les GeForce 8800 GTX en SLI ne peuvent cependant pas réellement s´exprimer dans ces conditions.  
 
http://www.hardware.fr/medias/photos_news/00/18/IMG0018426.gif
 
Une fois l´antialiasing activé, le système CrossFire passe devant la GeForce 8800 GTX mais vraiment d´une courte tête. Les 8800 GTX e SLI peuvent cette fois s´exprimer et s´affichent sans concurrence.  
 
Concernant les cartes simples, les 8800 confortent leur avance.  
 
http://www.hardware.fr/medias/photos_news/00/18/IMG0018427.gif
 
En HDR, la puissance de calcul est beaucoup plus sollicitée, ce qui fait les affaires des GeForce 8800 qui creusent encore un peu plus l´écart.  
 
http://www.hardware.fr/medias/photos_news/00/18/IMG0018428.gif
 
Une fois HDR et antialiasing activés simultanément, les GeForce 8 s´en donnent à coeur joie puisque la GeForce 8800 GTX, malgré des drivers très jeunes, est presque 2x plus performante que la Radeon X1950 XTX qui était habituée à écraser la concurrence dans ces tests. En effet, les GeForce 7 sont incapables de faire tourner les jeux qui utilisent un format de rendu à base de FP16 (64 bits) dans ces conditions et obtiennent donc un 0 dans plusieurs tests.  
 
 
Comme vous pouvez le constater à travers ces indices de performances basés sur plus de 700 tests à travers 12 jeux, les GeForce 8800 sont très performantes et ce déjà dans les jeux actuels pour lesquels elles permettent de ne faire aucun compromis sur les options graphiques. La GeForce 8800 GTX est clairement une carte sans concurrence. La GeForce 8800 GTS est cependant un gros cran en dessous, les unités désactivées ainsi que la fréquence en baisse jouant bien entendu un rôle important.  A suivre...
 
http://www.hardware.fr/html/articl [...] 4a3&type=1

Message cité 1 fois
Message édité par renardin6 le 07-06-2007 à 09:30:20
mood
Publicité
Posté le 13-08-2006 à 00:27:30  profilanswer
 

n°4991235
Paul-Hewso​n
C'est-y pas mignon ?
Posté le 16-08-2006 à 10:21:56  profilanswer
 

Le support des shaders unifiés est total par la programmation mais pas par l'architecture (donc pas physiquement sur la carte).


---------------
Vds rien (pour l'instant)|Vds rien (pour l'instant)
n°4995878
mycks
Posté le 18-08-2006 à 07:42:28  profilanswer
 
n°4996493
Paul-Hewso​n
C'est-y pas mignon ?
Posté le 18-08-2006 à 13:26:01  profilanswer
 

Il a été fermé d'ailleurs, donc c'est un bon retour sur un nouveau topic.
 
Pour un produit qui doit sortir dans à peine quelques mois nVidia restent bien discret. (c'est valable pour ATI et son R600 remarquez)


---------------
Vds rien (pour l'instant)|Vds rien (pour l'instant)
n°4996814
renardin6
vieux geek
Posté le 18-08-2006 à 15:07:13  profilanswer
 

Oui en effet. Je ferai des update du post 1 sur demande en cas d'info fiable. Je suis impatient de voir ces cartes!

n°5002296
renardin6
vieux geek
Posté le 21-08-2006 à 09:51:07  profilanswer
 

Alors, qui a des news?

n°5002300
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 21-08-2006 à 09:52:58  profilanswer
 

Renardin6 > Si c'est pour faire comme le topic du Core2, c'est à dire y parler tous les jours pour après disparaitre quand tu l'as, ca ne sert à rien de créer un "topic unique" ;)

n°5002381
AKA44
YGBSM
Posté le 21-08-2006 à 10:34:51  profilanswer
 

18/08/06 THE INQUIRER : Nvidia remains tight lipped on G80.
 
"WE tried to find more details about Nvidia's G80 but no one knows a lot about the chip. Possibly not even Nvidia, because it's telling its partners nada.
 
We know it's a 90 nanometre chip and that it is taped out but a release date is an enigma caught in a graphics processor engine dilemma.
 
One single source suggested that the chip might show up later than expected, by the end of ammo domini 2006. We found out that the chip will actually alight on the face of the earth a little bit later than we expected. Nvidia wants to fight the upcoming Radeon 1950 XTX with its Geforce 1950 GX2 double chip card. It won't have G80 out at least by the end of September. And it is more tight lipped than a tight lipped Tightlip.
 
G80 now looks like a late 2006 chip and it will fight the R600 beast also scheduled for a very late 2006, when even the mice slumber.  
 
Another source claimed that it's all on schedule. We reported that G80 is a 90 nanometre chip with GDDR 4 support and that it is diss-unified marchitecture. We guess Nvidia is now paranoid about AMD, Intel, S3 and everyone else. µ"
 
[:firebird2]


Message édité par AKA44 le 21-08-2006 à 10:47:04
n°5002750
blue_dwarf
Posté le 21-08-2006 à 13:20:06  profilanswer
 

Paul-Hewson a écrit :

Le support des shaders unifiés est total par la programmation mais pas par l'architecture (donc pas physiquement sur la carte).


 
c'est une carte de transition, nvidia là dit dès le départ que y aurait pas de réel changement avant la génération suivante (donc surement pas avant printemps 2007 quand crysis par exemple aura fait parlé de lui)
 
ce qui risque de faire du mal à nvidia et du bien à ati
 
c'est que ati pour sont prochain R600 va peut être pouvoir compter sur du 65nm avec des usine AMD
 
alors que les fondeurs qui bosse avec nvidia sont les même que ceux qui bosse avec ati pour le moment et en sont à du 80nm moyennement bien/mal maitrisé

n°5002889
god is dea​d
Demain, j'arrête de poster.
Posté le 21-08-2006 à 13:57:38  profilanswer
 

http://www.matbe.com/actualites/14115/nvidia-g80/
:o


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
mood
Publicité
Posté le 21-08-2006 à 13:57:38  profilanswer
 

n°5002927
blue_dwarf
Posté le 21-08-2006 à 14:07:22  profilanswer
 


 
je sais pas ou ils ont été cherché le "prevu pour moi de septembre"
 
à ma connaissance le g80 était annoncé pour fin octobre début nov
 
alorsd leur "mois de septembre" de matbe je pige pas y a jamais eu d annonce officiel du g80 pour dispo en magasin en sept
 
de souvenir c est plutot le nforce5 qui était à la base prévu pour septembre et qui pourrait être repoussé

n°5002998
renardin6
vieux geek
Posté le 21-08-2006 à 14:29:22  profilanswer
 

Marc a écrit :

Renardin6 > Si c'est pour faire comme le topic du Core2, c'est à dire y parler tous les jours pour après disparaitre quand tu l'as, ca ne sert à rien de créer un "topic unique" ;)


 
lol, ça va. je suis revenu répondre aux questions des gens.  

n°5004927
Paul-Hewso​n
C'est-y pas mignon ?
Posté le 22-08-2006 à 11:40:25  profilanswer
 

blue_dwarf a écrit :

c'est une carte de transition, nvidia là dit dès le départ que y aurait pas de réel changement avant la génération suivante (donc surement pas avant printemps 2007 quand crysis par exemple aura fait parlé de lui)
 
ce qui risque de faire du mal à nvidia et du bien à ati
 
c'est que ati pour sont prochain R600 va peut être pouvoir compter sur du 65nm avec des usine AMD
 
alors que les fondeurs qui bosse avec nvidia sont les même que ceux qui bosse avec ati pour le moment et en sont à du 80nm moyennement bien/mal maitrisé


 
On ne connaît toujours pas les performances d'une architecture totalement unifiée. Mieux vaut attendre plutôt que de se lancer dans des rumeurs.
 
De même que je ne suis pas certains qu'AMD soit d'une grande utilité à ATI (côté production). Il a déjà sa propre production à faire et croit moi ils ont bien besoin de ces nouvelles usines pour eux.
 
Les Taïwanais resteront les producteurs principaux d'ATI et nVidia c'est certain.


---------------
Vds rien (pour l'instant)|Vds rien (pour l'instant)
n°5005062
blue_dwarf
Posté le 22-08-2006 à 12:36:09  profilanswer
 

bah après niveau architecture je sais pas ce qu il en ressortira... derriere on verra bien sur les jeux
 
mais là y a une opportunité en terme d usine de fabrication pour graver les ati plus finement  
hors le gros problème chez ati (qui va pas s arranger avec le r600) c est compte tenu du nombre enorme de transistor la puce est gigantesque et chauffe enormement (et est un gouffre en terme d alimentation)
 
après tout unifié ou pas tout unifié en hard... dans un premier temps ça compte pas vraiment
car si vous regardez les spec de directx10 certains on un bon symbole "infini" alors y a de la marge avant directx10.1 qui sera surtout là en 2008 pour dépasser le 8 bits par composante dans le traitement de l image et "peut être" (même si microsoft dément) qqs ebauche d api pour la physique


Message édité par blue_dwarf le 22-08-2006 à 12:37:02
n°5005148
Paul-Hewso​n
C'est-y pas mignon ?
Posté le 22-08-2006 à 13:11:29  profilanswer
 

Je pense pas.
Amd a besoin de ses usines 65nm pour produire ses futurs processeur.
 
D'ailleurs est-ce que les usines de fabrication d'un processeur sont adaptées à la réalisation de gpu sans effectuer quelques changements ?


---------------
Vds rien (pour l'instant)|Vds rien (pour l'instant)
n°5005290
F-Boisier
Kipetrovitchi !
Posté le 22-08-2006 à 14:00:47  profilanswer
 

iL ya des procèdés similaires pour fabriquer un CPU et un GPU, mais sinon, OUI, les usines AMD subiront des modifications dans la chaine de production (ce qui aura un coût, forcément) pour fabriquer des GPU ATI par AMD.
 
C'est pour cela qu'on est pas prêt d'entendre parler de GPUs ATI fabriqués par les usines AMD, pendant les 6 prochains mois encore, facile (contrairement à ce que laissent entendre les communiqués officiels qui parlent de début de production dès la fin de l'année 2006).


Message édité par F-Boisier le 22-08-2006 à 14:01:49
n°5009971
renardin6
vieux geek
Posté le 24-08-2006 à 14:13:46  profilanswer
 

Bon on ne sait toujours pas plus... Et avec la sortie du GF7950, on doit pas s'attendre à une nouvelle carte en septembre...

n°5010071
joejinis
Posté le 24-08-2006 à 14:50:41  profilanswer
 

En tous cas ils ont intérêt à grave baisser leur prix car la ATI leur met une volée -.-


---------------
Faster,Stronger,Better
n°5010632
blue_dwarf
Posté le 24-08-2006 à 18:29:19  profilanswer
 

surtout qu une bonne vague de gamer à lors du cebit y a tout au plus 6 mois basculé sur 7900gt et gtx
donc je pense pas que 6 mois après il change déjà pour une x1900xtx (faut refourguer la 7900 d occase) si le G80 se pointe en oct/nov
 
encore ceux qui ont des 24 ou 30 pouces je dit pas (et encore à part oblivion sur mon 24 la 7900 tiend bien et pour l instant moi perso je change pas)
 
alors sur un "même" 20" wide tranquille déjà avec les 79xx

n°5021490
renardin6
vieux geek
Posté le 29-08-2006 à 14:19:46  profilanswer
 

Moi je suis "en attente" avec une 7300GS , ok ça fait tourner HL2 en high graphics avec 1280*1024 avec un fps de 30 (ce qui est correct quand on sait que au delà de 24 images secondes, on ne le voit plus à l'oeil nu... :p)
 
Mais quand même, je voudrais pouvoir jouer à Ghost Recon Advanced War Fighter... Et une 7300 GS sur ma config, ça fait tâche... Je sais plus trop quoi faire... :S
 
Une 7950GX2? 7900GT? un G80? (je ne suis pas du tout ATI...donc pas me conseiller une carte ATI...)
 
PS: Ma config actuelle:
 
Core 2 Duo E6700  
ASUS P5W DH DELUXE  
4GB DDR2 CORSAIR PC6400  
2 x 300 GB SATA2  
1 x 250 GB USB 2.0  
TOUR ANTEC P180  
SONY LCD HDTV 32" et MONITEUR PROVIEW 19"

Message cité 4 fois
Message édité par renardin6 le 29-08-2006 à 14:22:01
n°5021498
god is dea​d
Demain, j'arrête de poster.
Posté le 29-08-2006 à 14:22:17  profilanswer
 

7900gt tu peux oublier.
7950gx² si t'as un écran qui fait du 1600 au moins (et pas un cpu pourris, genre pd ou celeron d :p).
g80 ben personne n'est medium.
 
Sinon ATI propose les meilleurs choix dans le moyen/haut de gamme, mais bon, libre à toi payer + pour avoir le plaisir de voir l'étiquette Nvidia :o

n°5022498
mycks
Posté le 29-08-2006 à 20:49:14  profilanswer
 

renardin6 a écrit :

(ce qui est correct quand on sait que au delà de 24 images secondes, on ne le voit plus à l'oeil nu... :p)


 :non:  
http://www.nofrag.com/2003/nov/24/8629/

n°5022507
god is dea​d
Demain, j'arrête de poster.
Posté le 29-08-2006 à 20:51:55  profilanswer
 

Classique, le fameux débat...débat qui n'a pas lieu d'être, qui peut affirmer sincérement que la plupart des jeux sont fluides à 24fps.
A 24fps ça rame grave :o

Message cité 1 fois
Message édité par god is dead le 29-08-2006 à 20:52:08
n°5023331
Paul-Hewso​n
C'est-y pas mignon ?
Posté le 30-08-2006 à 10:31:14  profilanswer
 

Le sujet ! Le sujet.. (c'est à cause de ça que l'autre topic a été fermé.. vous allez pas recommencer ici !!!)


---------------
Vds rien (pour l'instant)|Vds rien (pour l'instant)
n°5023643
730
Posté le 30-08-2006 à 12:12:28  profilanswer
 

Pourquoi tu "n'es pas du tout ATI" Renardin6 ?...

n°5023794
blue_dwarf
Posté le 30-08-2006 à 13:09:06  profilanswer
 

renardin6 a écrit :

Moi je suis "en attente" avec une 7300GS , ok ça fait tourner HL2 en high graphics avec 1280*1024 avec un fps de 30 (ce qui est correct quand on sait que au delà de 24 images secondes, on ne le voit plus à l'oeil nu... :p)
 
Mais quand même, je voudrais pouvoir jouer à Ghost Recon Advanced War Fighter... Et une 7300 GS sur ma config, ça fait tâche... Je sais plus trop quoi faire... :S
 
Une 7950GX2? 7900GT? un G80? (je ne suis pas du tout ATI...donc pas me conseiller une carte ATI...)
 
PS: Ma config actuelle:
 
Core 2 Duo E6700  
ASUS P5W DH DELUXE  
4GB DDR2 CORSAIR PC6400  
2 x 300 GB SATA2  
1 x 250 GB USB 2.0  
TOUR ANTEC P180  
SONY LCD HDTV 32" et MONITEUR PROVIEW 19"


 
clair y a un sacré déséquilibre.... m enfin c est un peu bete de claquer 200€ pour une carte si tu veux acheter une g80 dans 2mois
 
essai de trouver une 7600gt d occase ça fera meilleur mesure qu une 7300 en attendant
 
das un premier temps le g80 sortira en version haut de gamme (donc au bas mot 450€)
 
en fonction tu vois tout depend de ton budget et de ta patience savant melange
sachant que le g80 sera directx9 & 10


Message édité par blue_dwarf le 30-08-2006 à 13:13:31
n°5050470
cali75
Posté le 11-09-2006 à 21:21:09  profilanswer
 

un petit up pour savoir si de nouvels news sont disponibles sur le G80:
date de dispo
specs??
 
cela sent la dispo en meme temps de vista tout cela
 
bonne soiree
 
cali

n°5051399
ANViL
yep...definitely ♫
Posté le 12-09-2006 à 12:32:35  profilanswer
 

renardin6 a écrit :

... avec un fps de 30 (ce qui est correct quand on sait que au delà de 24 images secondes, on ne le voit plus à l'oeil nu... :p)
 
...


 
T'as encore beaucoup d'anneries dans le genre ..... ?  :sarcastic:  
 
Je te suggère d'aller lire ça:
 
http://www.nofrag.com/2003/nov/24/8629/
 
Sinon pour en revenir au sujet principal du topic, on peut se douter que le G80 ne verra pas le jour avant fin 2006, étant donné les multiples déclinaisons des GeForce 7, il semble qu'Nvidia veuille rentabiliser au maximum l'architecure du G71.

n°5064837
aeryon
à 300km/h
Posté le 19-09-2006 à 16:12:23  profilanswer
 

petit update  :sol:  
 
http://www.vr-zone.com/?i=4007
 

Citation :

G80 De-Mystified; GeForce 8800GTX/GT
 
Date:   September 19, 2006, 6:21 pm
 
    * Unified Shader Architecture
    * Support FP16 HDR+MSAA
    * Support GDDR4 memories  :jap:  
    * Close to 700M transistors (G71 - 278M / G70 - 302M)  :pt1cable:  
    * New AA mode : VCAA
    * Core clock scalable up to 1.5GHz  :pt1cable:  
    * Shader Peformance : 2x Pixel / 12x Vertex over G71  :jap:  
    * 8 TCPs & 128 stream processors  :love:  
    * Much more efficient than traditional architecture
    * 384-bit memory interface (256-bit+128-bit)  :love:  
    * 768MB memory size (512MB+256MB)
    * Two models at launch : GeForce 8800GTX and GeForce 8800GT
    * GeForce 8800GTX : 7 TCPs chip, 384-bit memory interface, hybrid water/fan cooler, water cooling for overclocking. US$649
    * GeForce 8800GT : 6 TCPs chip, 320-bit memory interface, fan cooler. US$449-499
 
Our friends have gotten some information of the upcoming NVIDIA G80 and it appears that G80 gonna be unified shader after all. It should be pretty close to the truth and it explained the mystery of the strange DRAM capacities that INQ reported previously. Expect G80 to be out somewhere in mid November along with Kentsfield.


 
bon bah marc il est pour quand le test  :ange:

n°5064942
Matth002
Posté le 19-09-2006 à 17:20:00  profilanswer
 

Par contre, tu devrait faire un titre dans ton 1er post: le coin des rumeurs. Qu'on aie une tptit idée quand même...

n°5064973
joejinis
Posté le 19-09-2006 à 17:34:00  profilanswer
 

Need la 8800GTX =D


---------------
Faster,Stronger,Better
n°5065020
Gigathlon
Quad-neurones natif
Posté le 19-09-2006 à 18:00:20  profilanswer
 

Pas top cette niouze...
 
Qu'est-ce qu'un TCP?
Qu'est-ce que ces "stream processors"?
A quoi correspondent les 256+128bits? (le "+" indiquant que les 2 banques sont destinées à des usages différents)
Qu'est-ce que le "VCAA"?
 
Si ces infos ont une vraie source, ça doit bien être marqué quelque part non?

n°5065032
ANViL
yep...definitely ♫
Posté le 19-09-2006 à 18:07:42  profilanswer
 

700M de transistors et le tout cadencé @ 1.5Ghz !
 
On sait que ce GPU sera gravé en 80nm, même avec cette finesse la consommation par carte sera énorme  :ouch:

Message cité 1 fois
Message édité par ANViL le 19-09-2006 à 18:12:46
n°5065047
aeryon
à 300km/h
Posté le 19-09-2006 à 18:16:44  profilanswer
 

Gigathlon a écrit :

Pas top cette niouze...


bah au contraire ce sont les premières infos qu'on a avec des des noms marketing que les fabricants de GPU aiment bien utiliser, ce qui prouve peut-être qu'on a enfin quelque chose de concret et que l'anonce/sortie n'est plus si éloignée  :jap:  
 
et au jeu des devinettes...
 

Gigathlon a écrit :

Qu'est-ce qu'un TCP?


Texture Control Processor ? Transform Command Processor ?  
 

Gigathlon a écrit :

Qu'est-ce que ces "stream processors"?


ALUs pour PS / VS ?  
 

Gigathlon a écrit :

A quoi correspondent les 256+128bits? (le "+" indiquant que les 2 banques sont destinées à des usages différents)

 
128 bits pour les TCPs (geometry) et 256 bits pour les ALUs    
 

Gigathlon a écrit :

Qu'est-ce que le "VCAA"?

 
Variable Centered AA ? Very Cool AA ?  :whistle:  
 

Gigathlon a écrit :

Si ces infos ont une vraie source, ça doit bien être marqué quelque part non?


c'est peut-être des specs prises sur un beta design de boite retail ou une fiche marketing...
 
 
en tout cas, ça bouge enfin et mon petit doigt me dit que les prochains jours vont être riches en rumeurs  :sol:

Message cité 1 fois
Message édité par aeryon le 19-09-2006 à 18:17:33
n°5065054
aeryon
à 300km/h
Posté le 19-09-2006 à 18:20:27  profilanswer
 

ANViL a écrit :

700M de transistors et le tout cadencé @ 1.5Ghz !
 
On sait que ce GPU sera gravé en 80nm, même avec cette finesse la consommation par carte sera énorme  :ouch:


 
à mon avis les 1,5gHz, c'est l'estimation maxi que peut supporter l'architecture, on les verra que sur les secondes générations/refresh en 35nm. Au lancement en 80nm, ce devrait se situer entre 500 et 700Mhz, pas plus...

n°5065354
Gigathlon
Quad-neurones natif
Posté le 19-09-2006 à 20:37:46  profilanswer
 

aeryon a écrit :

Texture Control Processor ? Transform Command Processor ?  


 
Ca me semble peu probable vu que seules 6 ou 7 seraient activés à l'image du Cell de la PS3...


Message édité par Gigathlon le 19-09-2006 à 20:37:55
n°5065378
vofou
Posté le 19-09-2006 à 20:46:35  profilanswer
 

drapal

n°5065989
Paul-Hewso​n
C'est-y pas mignon ?
Posté le 20-09-2006 à 09:45:14  profilanswer
 

aeryon a écrit :

à mon avis les 1,5gHz, c'est l'estimation maxi que peut supporter l'architecture, on les verra que sur les secondes générations/refresh en 35nm. Au lancement en 80nm, ce devrait se situer entre 500 et 700Mhz, pas plus...


 
On est déjà entre 500 et 700  :lol:


---------------
Vds rien (pour l'instant)|Vds rien (pour l'instant)
n°5066028
C13-Fury
FurySanctuary sur YT
Posté le 20-09-2006 à 10:14:24  profilanswer
 

C'est pas mieux en fr ?

Citation :

Vu sur Matbe
Nos confrères de VR-Zone semblent avoir mis la main sur les caractéristiques du futur processeur DirectX 10 de la société NVIDIA. Le G80 serait donc composé :
    * d'une architecture unifiée comme le R600
    * de 700 millions de transistors (278 millions pour le G71 de la GeForce 7900GTX)
    * d'une fréquence maximale de fonctionnement de 1 500 MHz
    * de deux fois plus de pixels pipelines, soit 48 pipelines
    * de douze fois plus d'unités de vertex, soit 96 Vertex Shaders
    * du support de la mémoire GDDR4
    * de 768 Mo de mémoire (512 Mo + 256 Mo)
    * d'une interface mémoire 384 bits (256 bits +128 bits)
    * du support des FP16 HDR + MSAA
    * d'un nouveau mode AA, le VCAA
    * de 8 TCP et de 128 co-processeurs
 
Le nom commercial serait GeForce 8800. La carte serait déclinée en deux versions :
    * la GeForce 8800 GTX avec 7 puces TCP, une interface mémoire 384 bits, un refroidissement hydride air/liquide avec un prix d'environ 650 euros
    * la GeForce 8800 Gt avec 6 puces TCP, d'une interface mémoire 320 bits (256 +64), d'un refroidissement à air classique pour un prix d'environ 500 euros
 
Ces spécifications semblent prometteuses sauf pour le système de refroidissement qui annonce clairement la couleur : le processeur va relativement chauffer et donc consommer pas mal d'énergie. NVIDIA ne devrait pas être loin des 180 Watts annoncés pour le R600 d'ATI. Il n'y a toujours aucune information sur la date de sortie...


 
Il faudra un Noctua pour refroidir le gpu ?
J'oubliais l'alim dédié de 600W aussi ...
 
Y'aura une version AGP :whistle:  :lol: ==> [ ]


Message édité par C13-Fury le 20-09-2006 à 10:20:52

---------------
Reviews Jouets et Figurines - Fulguropop, culture pop - Toyzmag, actu' jouets et figurines -
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  895  896  897  898  899  900
Page Précédente

Aller à :
Ajouter une réponse
  FORUM HardWare.fr
  Hardware
  Carte graphique

  [Topic Unique] GeForce 8800

 

Sujets relatifs
Probleme artefact avec nvidia geforce 6800geforce 6600gt qui déconne(encore une..)
Carte Geforce 7600 GT : problème de busPoint Of View Nvidia GeForce 7800GTX 256 Mo GDDR3
Probleme Pilote Geforce MX 200Une GeForce et une Radeon... sur un meme PC ?!
[Topic Unique]Radeon X850XT / PEgros probleme Freeze Geforce 6800 GS
Plus de sujets relatifs à : [Topic Unique] GeForce 8800


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR