Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1757 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  895  896  897  898  899  900
Auteur Sujet :

[Topic Unique] GeForce 8800

n°5084198
ANViL
yep...definitely ♫
Posté le 01-10-2006 à 10:57:45  profilanswer
 

Reprise du message précédent :

Fouge a écrit :

1Go de DDR4 avec 12 puces, cherchez l'erreur... :sarcastic:


 
Je ne sais pas où tu as lu que la carte disposait d'1Go de RAM :heink: , les specs annonçaient 768Mo, et là ça colle: 12 x 64Mo = 768Mo
 

denester a écrit :

si le G8O sort bien avant la fin d'année, ce sera avec un driver dx9 puis une possible mise a jour quand vista sera sorti. Qu'en pensez vous?


 
On sait que MS ne proposera pas WGF pour XP, finement déduit  :sarcastic:

Message cité 1 fois
Message édité par ANViL le 01-10-2006 à 10:58:06
mood
Publicité
Posté le 01-10-2006 à 10:57:45  profilanswer
 

n°5084394
Fouge
Posté le 01-10-2006 à 13:08:13  profilanswer
 

ANViL a écrit :

Je ne sais pas où tu as lu que la carte disposait d'1Go de RAM :heink:

Au même endroit que les photos :

Citation :

There are 2 power connectors on the card and has 1GB of GDDR4 memories onboard.


n°5087743
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 03-10-2006 à 08:25:57  profilanswer
 

Fouge a écrit :

1Go de DDR4 avec 12 puces, cherchez l'erreur... :sarcastic:

8x64 +4x128 [:dawa]


---------------
Moi, j'aime pas les signatures
n°5087777
Gigathlon
Quad-neurones natif
Posté le 03-10-2006 à 09:29:35  profilanswer
 

Marc a écrit :

8x64 +4x128 [:dawa]


Comme je disais: possible mais peu crédible (coût).

n°5088458
narf
Posté le 03-10-2006 à 16:19:16  profilanswer
 

matbe.com souligne dans sa news que le G80 est uniquement compatible DX10, sous-entendu qu'il ne marche pas sous DX9c... c'est illogique non?

n°5088465
Fouge
Posté le 03-10-2006 à 16:23:41  profilanswer
 

Il faudra DX10 pour l'exploiter (sous-entendu "pleinement" ) mais la carte est compatible avec DX9 et précédants.

n°5089091
dextrogyre
Posté le 03-10-2006 à 20:23:15  profilanswer
 

Ca se fera par une sorte d' émulation il me semble.

n°5089110
solx
All in the game
Posté le 03-10-2006 à 20:27:56  profilanswer
 

dextrogyre a écrit :

Ca se fera par une sorte d' émulation il me semble.


La compatibilité dx 9 ?
Une carte nouvelle génréation est toujours compatible avec les précédentes versions de directx  :heink:

n°5089138
Fouge
Posté le 03-10-2006 à 20:36:15  profilanswer
 

dextrogyre a écrit :

Ca se fera par une sorte d' émulation il me semble.

Sauf erreur de ma part, il n'y aura pas d'émulation en DX9, ni du coté dATI ni du coté d'nVidia. Le hardware a tout pour gérer les fonctions DX9. Seul l'archi, "classqiue" chez nVidia, "unifiée" chez ATI, risque de se comporter différemment en terme de performances.


Message édité par Fouge le 03-10-2006 à 20:37:22
n°5089141
vofou
Posté le 03-10-2006 à 20:36:32  profilanswer
 

Je suis plutot d'accord... Directx10 rajoute des effets supplémentaires par rapport à directx9, mais les anciens effets sont toujours supportés, non ? ou alors je dis des conneries ?

mood
Publicité
Posté le 03-10-2006 à 20:36:32  profilanswer
 

n°5089150
Fouge
Posté le 03-10-2006 à 20:40:14  profilanswer
 

Mieux vaut jeter un oeil à cet article :
http://www.hardware.fr/articles/63 [...] -gpus.html
 
http://www.hardware.fr/medias/photos_news/00/17/IMG0017574_1.jpg

n°5089168
ANViL
yep...definitely ♫
Posté le 03-10-2006 à 20:47:17  profilanswer
 

- Arrêtez de parler de DirectX 10 bourdel, on sait depuis maintenant plus d'un an que le prochain API 3D de MS se nommera WGF, autant s'y habituer maintenant
 
- WGF sera forcément rétro compatible avec les anciennes version (DX 9 et < ), ça tombe sous le sens (un CPU x86 sait toujours manipuler les instructions 16bits pourtant abandonnées depuis presque 10 ans...)
 
- A noter que Vista sortira tout d'abord avec DirectX 9 en natif et se verra proposer WGF par la suite sous forme de MAJ, donc vous avez encore le temps ...
 
- Concernant l'émulation, elle sera uniquement effective pour la partie OpenGL, MS ayant décidé de ne plus maintenir les drivers OpenGL.

n°5089180
dextrogyre
Posté le 03-10-2006 à 20:54:53  profilanswer
 

Pas la peine de prendre un tel ton, désolé si je me suis trompé, c' est pour celà que j' ai précisé : "il me semble".
 
Car certes il s' agit de dx10, oui le 10 suit le 9, mais ne pas oublier que l' API est totalement remaniée on remet les compteurs à 0.Et il avait été à l' epoque question d' une telle émulation pour dx9, je ne l' ai pas inventé.
 
Maintenant il se peut que ça ait changé ...
 
Sur ce bon appétit à toutes et à tous :)


Message édité par dextrogyre le 03-10-2006 à 20:55:15
n°5089202
Fouge
Posté le 03-10-2006 à 21:03:50  profilanswer
 

ANViL a écrit :

- Arrêtez de parler de DirectX 10 bourdel, on sait depuis maintenant plus d'un an que le prochain API 3D de MS se nommera WGF, autant s'y habituer maintenant
 
- WGF sera forcément rétro compatible avec les anciennes version (DX 9 et < ), ça tombe sous le sens (un CPU x86 sait toujours manipuler les instructions 16bits pourtant abandonnées depuis presque 10 ans...)
 
- A noter que Vista sortira tout d'abord avec DirectX 9 en natif et se verra proposer WGF par la suite sous forme de MAJ, donc vous avez encore le temps ...
 
- Concernant l'émulation, elle sera uniquement effective pour la partie OpenGL, MS ayant décidé de ne plus maintenir les drivers OpenGL.

- T'es sûr que WGF=DX10 ? Il me semblait que DX9 a été renommé en WGF et que WGF 2.0 est "DX10".
 
- Il me semble que justement, DX10 fait table rase du passé, ce qui le rend plus "léger" (moins de consommation CPU). De ce fait, il ne peut fonctionner que sur des CG DX10. Mais Vista pourras faire tourne les jeux DX9 et moins car cette version de l'API sera également intégrée. Un peu à la manière du Framework .Net où les versions 1.1 et 2.0 cohabitent...
 
- Concernant OpenGL, les contructeur (ATI, nVidia...) continuront à faire des driver OpenGL, comme ils l'ont toujours fait.
 
Non ?

n°5089277
Nestid
Posté le 03-10-2006 à 21:39:12  profilanswer
 

ANViL a écrit :

- Concernant l'émulation, elle sera uniquement effective pour la partie OpenGL, MS ayant décidé de ne plus maintenir les drivers OpenGL.


 

Fouge a écrit :

- Concernant OpenGL, les contructeur (ATI, nVidia...) continuront à faire des driver OpenGL, comme ils l'ont toujours fait.
 
Non ?


C'est peut-être les nouvelles fonctionnalités, non accessibles sous OpenGL 2.0, qui seront émulées.
Par contre MS n'a jamais "maintenu" ni même mis à disposition des drivers OpenGL. OpenGL est un concurrent de Direct3D, donc un "ennemi" de MS ;)

n°5089392
Fouge
Posté le 03-10-2006 à 22:37:42  profilanswer
 

Il me semble que MS a implémenté OpenGL 1.2 (fichier opengl32.dll) mais c'est du 100% software.
A partir du moment où t'as installé les driver de ta CG, tu as des driver OpenGL plus récent (2.0 chez nVidia) utilisant l'accélération hard de la carte.
Bref, qu'MS n'offre plus de driver OpenGL dans Vista, ça ne gènera personne.


Message édité par Fouge le 03-10-2006 à 22:38:05
n°5089441
LeGreg
Posté le 03-10-2006 à 22:58:54  profilanswer
 

ANViL a écrit :

- Arrêtez de parler de DirectX 10 bourdel, on sait depuis maintenant plus d'un an que le prochain API 3D de MS se nommera WGF, autant s'y habituer maintenant


 
Sauf que le nom WGF (dx10 était wgf2.0, wgf référait à direct3d9 pour Longhorn/vista) a été abandonné depuis bientot un an et que les documents Microsoft ne réfèrent plus qu'à Direct3D10 ou DirectX10.  
 

ANViL a écrit :

- WGF sera forcément rétro compatible avec les anciennes version (DX 9 et < ), ça tombe sous le sens (un CPU x86 sait toujours manipuler les instructions 16bits pourtant abandonnées depuis presque 10 ans...)


 
Non il n'y a pas de compatibilité binaire.  
1 - il n'existe pas de compilation native pour les GPUs, tout se fait via le biais d'une interface haut niveau comme Direct3D ou OpenGL, et  
2 - Direct3D10 n'implantera aucune des vieilles méthodes disponibles sur Geforce 1 ou 2, ou Voodoo. C'est une toute nouvelle interface qui par ailleurs ne fonctionera que sur les nouveaux GPUs à venir.
3 - Les "vieilles" interfaces d3d9/d3d8/d3d7 ou ddraw, fonctionneront encore sur les cartes capables de faire tourner d3d10 mais il n'y aura pas d'émulation à proprement parler, mais bien un driver complet qui implémentera toutes ces vieilles méthodes (*) (de la même façon qu'elles auront besoin d'un driver complet sous XP). De toute façon c'est une nécessité puisque toutes les apps actuelles y compris le desktop accéléré fonctionnent uniquement en mode D3D9.
4 - la manière dont le driver fonctionne est secret, donc inutile de sortir les boules de cristal pour prédire comment ça se passe en interne.
 

ANViL a écrit :

- A noter que Vista sortira tout d'abord avec DirectX 9 en natif et se verra proposer WGF par la suite sous forme de MAJ, donc vous avez encore le temps ...
- Concernant l'émulation, elle sera uniquement effective pour la partie OpenGL, MS ayant décidé de ne plus maintenir les drivers OpenGL.


 
OpenGL sera toujours possible sans émulation, Microsoft ayant meme fourni des hooks pour permettre au driver OpenGL de fonctionner en parallèle avec le desktop accéléré aéro glass.
 
LeGreg
(*) : en fait c'est pas tout à fait vrai parce que le runtime va transformer toutes les méthodes fixed function en pixel shader 2.0 pour simplifier le travail du driver. Mais cela sera transparent pour l'application (et ce n'est pas une obligation technique, juste politique, en fait le runtime va simplement faire une partie du travail du driver..).


Message édité par LeGreg le 04-10-2006 à 00:10:38

---------------
voxel terrain render engine | animation mentor
n°5089723
renardin6
vieux geek
Posté le 04-10-2006 à 09:58:55  profilanswer
 

WGF ce sont les initiales de quoi?
 
Sinon, pensez-vous que Nvidia lancera une carte quad gpu sur un seul pcb? (une 8800 GX4 en somme...)

n°5089745
Fouge
Posté le 04-10-2006 à 10:28:04  profilanswer
 

WGF = Windows Graphics Foundation
 
Et vu comme se présentent les cartes monoGPU, il n'y aura même pas de modèle biGPU, enfin pas dans l'immédiat et sans doute avec un dérivé du G80.
Quand au quad GPU (sur un seul PCB), je vois pas comment ça peut tenir... sans compter les pb de performances.

n°5089950
renardin6
vieux geek
Posté le 04-10-2006 à 12:33:47  profilanswer
 

Citation :

Suite à notre actualité sur les soucis d'approvisionnement du haut de gamme actuel, nous avons interrogé tous nos petits doigts (on est beaucoup chez PCi, ça fait une flopée de mains) afin d'en savoir un peu plus sur les générations à venir du petit monde de la 3D.
 
http://www.pcinpact.com/images/bd/news/32901_mini.jpg
 
Et il nous est venu à l'oreille que la nouvelle bête de NVIDIA, le G80, serait lancée dès le mois prochain, le 8 novembre plus précisément. Le lancement presse aurait, lui, lieu vers la fin octobre, certains parlent du 30... comme par hasard ?
 
Une telle annonce, trois semaines après l'arrivée de la X1950Pro et une dizaine de jours seulement après la X1650XT pourrait ainsi permettre aux "Green boys" de reprendre la première place du podium tout en étant les premiers à sortir un produit compatible DirectX 10.
 
Reste à savoir si cette date ne sera pas modifiée comme c'est parfois le cas. Quoi qu'il en soit les jours à venir devraient être remplis de détails croustillants, parlant de MHz, de bits et de Go/s... et même de quelques benchmarks, alors n'oubliez pas de surveiller votre site préféré ;)


 
http://www.pcinpact.com/actu/news/ [...] t-8800.htm
 

n°5090251
Le Profana​teur
Passéiste désincarné
Posté le 04-10-2006 à 14:35:23  profilanswer
 

:lol:

n°5091760
renardin6
vieux geek
Posté le 05-10-2006 à 10:08:42  profilanswer
 

ça sent l'annonce... Aujourd'hui? :p

n°5091779
Paul-Hewso​n
C'est-y pas mignon ?
Posté le 05-10-2006 à 10:17:01  profilanswer
 

renardin6 a écrit :

ça sent l'annonce... Aujourd'hui? :p


 
Oui une annonce sur Daily Tech, reprise en plus français sur Clubic :)


---------------
Vds rien (pour l'instant)|Vds rien (pour l'instant)
n°5091908
aeryon
à 300km/h
Posté le 05-10-2006 à 11:40:12  profilanswer
 

résumé :
 
8800GTX
 
    * 575MHz Core Clock
    * 900MHz Mem Clock
    * 768MB GDDR3 memory
    * 384-bit memory interface (86GB/s)
    * 128 unified shaders clocked at 1350 MHz
    * 38.4 billion pixels per second theoretical texture fill-rate
    * 450W PSU Recommended
    * Hard launch in second week of November  
 
 
8800GTS
 
    * 500MHz Core Clock
    * 900MHz Mem Clock
    * 640MB GDDR3 memory
    * 320-bit memory interface (64GB/s)
    * 96 unified shaders clocked at 1200 MHz
    * ?? billion pixels per second theoretical texture fill-rate
    * 400W PSU Recommended
    * Hard launch in second week of November  
 
et en plus, vu sur dailytech : http://www.dailytech.com/article.aspx?newsid=4444

Citation :

Documents Leak NVIDIA's Quantum Physics Engine
Kristopher Kubicki  - October 5, 2006 1:21 AM
 
NVIDIA is ready to counter the Triple Play
 
With the release of the G80, NVIDIA will also release a new engine dubbed Quantum physics engine.  Quantum Effects Technology is similar (at least in spirit) to NVIDIA's PureVideo Technology -- a dedicated layer on the GPU for physics calculations.  A few documents alluding to this new engine appeared on public FTP mirrors late last week.
 
Quantum utilizes some of the shaders from NVIDIA's G80 processor specifically for physics calculations.  Physics calculations on GPUs are nothing new; ATI totes similar technology for its Stream Computing initiative and for the Triple Play physics.  
 
NVIDIA and Havok partnered up this year claiming that SLI systems would get massive performance gains by utilizing additional GeForce GPUs as physics processors.  Quantum may be the fruits of that partnership, though NVIDIA documentation clearly states that Quantum will work just fine without SLI.
 
NVIDIA's documentation claims Quantum will specifically compete with AGEIA's PhysX, yet does not mention who is providing the middleware.  Given that there are only two acts in town right now, it would be safe to say Havok has a hand in the Quantum engine.


vivement le 8 novembre  :pt1cable:

n°5091938
sasuke87
Posté le 05-10-2006 à 11:57:10  profilanswer
 

c'est bizare, pourquoi on parle de shader unifié maintenant??? nvidia a changé ses plans???

n°5091939
Paul-Hewso​n
C'est-y pas mignon ?
Posté le 05-10-2006 à 11:58:31  profilanswer
 

Apparemment oui, puisqu'ils n'en ont rien dit avant.. on en saura plus à la fin du mois lors de la présentation à la presse.
 
Etonnant aussi le nombre d'unité est le double de chez ATI en unifié.. :s
 
M'enfin ça ne veut rien dire non plus pour l'instant, tout dépend de l'efficacité des unités.


Message édité par Paul-Hewson le 05-10-2006 à 11:58:41

---------------
Vds rien (pour l'instant)|Vds rien (pour l'instant)
n°5091964
sasuke87
Posté le 05-10-2006 à 12:17:27  profilanswer
 

Effectivement je vois pas comment ATI  va faire avec un R600 qui n'a que 64 shaders unifiés et qui sortira plus tard en plus!!!!  
Mais bon le g80 n'est pas encore sorti, on aura peut etre la meme surprise qu'avec la 7900GTX qui devait avoir 32 pipelining, et au final y en avait que 24.

n°5091977
renardin6
vieux geek
Posté le 05-10-2006 à 12:29:20  profilanswer
 

Citation :

Comme prévu, les détails du G80 commencent à se livrer
 Le strip tease débute (1914 lectures)  
Alors que nous vous dévoilions hier que le G80, désormais connu sous le nom de GeForce 8800, serait officialisé dès le mois prochain, les premiers détails commencent à sortir et à se confirmer.
 
Ainsi, Daily Tech affirme aujourd'hui savoir qu'il y aura deux versions de la nouvelle puce DirectX 10 du caméléon mise sur le marché. L'une sera estampillée GTX, et l'autre GTS. NVIDIA renouerait donc avec ses vieilles amours ?
 
Niveau caractéristiques, la GTX disposerait d'un GPU cadencé à 575 MHz, de 768 Mo de GDDR3 (pas de GDDR4, donc, pour le moment) @ 900 MHz, et d'une interface mémoire de 384 bits. La bande passante serait donc de 86.4 Go/s, rien que cela. Pour référence, une X1950XTX dispose, elle, de 64 Go/s. Le gain serait donc de 35%, reste à savoir si cela pourra être correctement exploité.
 
GeForce 8800GTX : 128 shaders unifiés, 768 Mo de mémoire, 84.2 Go/s de BP
 
En interne, le GPU disposerait de 128 shaders unifiés. Exit donc la solution de l'unification partielle, promue par David Kirk ? Notre confrère parle d'une fréquence de 1350 MHz pour ces unités, soit plus du double de celle du GPU. La DDR du shader vient-elle d'être inventée ?
 
La GTS, sera une version allégée, bien entendu. Il est question d'un GPU @ 500 MHz, de 640 Mo de GDDR3 reliés à une interface mémoire de 320 bits, et cadencés aussi @ 900 MHz. La bande passante totale serait donc de 72 Go/s. Mais comme nos confrères font état de 64 Go/s seulement, on peut penser qu'une erreur sur la fréquence s'est glissée et qu'il ne serait donc question que de 800 MHz ?
 
GeForce 8800GTS : 96 shaders unifiés, 640 Mo de mémoire, 64 Go/s de BP
 
Les shaders, eux, seront au nombre de 96, et cadencés à 1200 MHz. Une fois de plus on note un rapport de fréquence de 2.3/2.4 par rapport à celle du GPU... affaire à suivre.
 
Ces deux cartes disposeront des puces nécessaires à la gestion de l'HDCP, de deux ports DVI dual link, de ViVo (grande première pour NVIDIA) et d'au moins une sortie HDTV. Son système de refroidissement sera double slot, sans précisions concernant un éventuel système de watercooling.
 
La consommation, ne devrait pas être un point fort de la bête, comme prévu, le caméléon recommandant des alimentations de 400 watts pour un système à base de GS et de 450 watts pour un système à base de GTX.
   
HDCP et ViVo, mais une consommation qui se voudra extrême
 
Pour du SLi, on parle d'une alimentation recommandée de 800 watts, ce qui semble aussi improbable que démesurée, puisque doubler la carte graphique n'a jamais fait doubler la consommation globale du système... Marketing mercantile, quand tu nous tiens...
 
Le lancement des cartes devrait s'effectuer en "hard launch" dès le 8 novembre prochain selon nos propres sources, les fabricants disposant d'ores et déjà des premières cartes... On ne devrait donc plus tarder à savoir quelles seront les performances de la bête.


 
http://www.pcinpact.com/actu/news/ [...] ecture.htm

n°5092082
Paul-Hewso​n
C'est-y pas mignon ?
Posté le 05-10-2006 à 13:30:32  profilanswer
 

Tiens j'ai vu une rumeur comme quoi le G80 intégré un moteur gérant la physique, baptisé Quantum il serait intégré dans le G80 et fonctionnerait grâce à des shaders.
 
Ca pourrait expliquer le nombre hallucinant d'unité unifié (si on a la confirmation officielle d'nVidia pour les chiffres donnés partout sur le net ;) ), ainsi que la chaleur/système de refroidissement et le nombre de transistor.
 
En espérant qu'nVidia lâche un peu le morceau avant le 30 octobre :)


---------------
Vds rien (pour l'instant)|Vds rien (pour l'instant)
n°5092120
renardin6
vieux geek
Posté le 05-10-2006 à 13:48:49  profilanswer
 

en tout cas, décidé, je me paie la 8800 GTX dès sa sortie... J'avais fait cela pour la 6800 GT, je l'ai gardée jusque juillet 2006. J'aime bien les séries Paires (je m'explique: je suis passé de la TNT2 à la Geforce 2 GTS à la Geforce 4 TI 4200 et ensuite à la 6800 GT... J'ai loupé les Geforce 1, 3, 5(FX de merde) et les 7 sorte de 6 boostées..)
 
Mais le prix? Ils vont oser aller plus haut que 600 euros pour un seul GPU?  
 
Et vous pensez qu'ils vont sortir une 8800 GX2? (ça me ferait bien chier si ils font ça dans les mois qui suivent la 8800 GTX)

Message cité 1 fois
Message édité par renardin6 le 05-10-2006 à 13:51:11
n°5092123
--faithnom​ore--
The Real Thing
Posté le 05-10-2006 à 13:50:12  profilanswer
 

Les 64 shaders unifiés (ou les spécifications de la carte en genérales) du R600 sont présumés d'une rumeur qui date de plus d'un an maintenant ..
 
Attendons  :jap:

n°5092130
--faithnom​ore--
The Real Thing
Posté le 05-10-2006 à 13:55:03  profilanswer
 

Renardin6 :

Citation :

Bon voilà, j'ai acquis une Geforce 7300 GS. (ne me lancer pas de pierres siouplait)


 
Renardin6 :

Citation :

J'ai loupé les Geforce 1, 3, 5(FX de merde) et les 7 sorte de 6 boostées..)


 
[:aha]
 
 
Ps : Les Geforce 7 sont loin d'être des GF 6 boostées .. prends une 6800 ultra et une 7950X2 ou plus simplement une 6800 ultra et une 7900GTX et dis-moi qu'il y a peu de différence en terme de perf.

Message cité 1 fois
Message édité par --faithnomore-- le 05-10-2006 à 14:01:12
n°5092146
Nilujedood
Posté le 05-10-2006 à 14:06:05  profilanswer
 

oui mais les 7 ne sont qu'une évolution des 6, il n'y pas eu de révoltion comme avec le passage à la série 8 où il y une comptaibilité dx10 et la 6 une compatibilité dx9, shaders 3.0 etc.


Message édité par Nilujedood le 05-10-2006 à 14:06:26

---------------
http://www.canardplus.com/
n°5092153
renardin6
vieux geek
Posté le 05-10-2006 à 14:08:57  profilanswer
 

--faithnomore-- a écrit :

Renardin6 :

Citation :

Bon voilà, j'ai acquis une Geforce 7300 GS. (ne me lancer pas de pierres siouplait)


 
Renardin6 :

Citation :

J'ai loupé les Geforce 1, 3, 5(FX de merde) et les 7 sorte de 6 boostées..)


 
[:aha]
 
 
Ps : Les Geforce 7 sont loin d'être des GF 6 boostées .. prends une 6800 ultra et une 7950X2 ou plus simplement une 6800 ultra et une 7900GTX et dis-moi qu'il y a peu de différence en terme de perf.


 
Je confirme, mes gros achats de carte sont dans les Geforce Paire. La 7 que j'ai n'est qu'un remplacement... :p
Je ne pouvais garder ma chère 6800 GT AGP avec mon core 2 duo et ma P5WDH... Il me fallait une carte temporaire en PCIE. La moins chère possible et qui faisait tourner un minimum de choses...


Message édité par renardin6 le 05-10-2006 à 14:10:32
n°5092156
--faithnom​ore--
The Real Thing
Posté le 05-10-2006 à 14:09:07  profilanswer
 


 

Citation :

oui mais les 7 ne sont qu'une évolution des 6, il n'y pas eu de révoltion comme avec le passage à la série 8 où il y une comptaibilité dx10 et la 6 une compatibilité dx9, shaders 3.0 etc.


 
 
 
Tout dépend de quel point de vu on se place, en terme de performance ou en terme d'architecture, en l'occurence il parlait de perf .. (enfin je crois)
 
Sinon je suis d'accord (et comment ne pas l'être) du fossé qui sépare la génération GF6 à 7 des GF7 à 8 ..


Message édité par --faithnomore-- le 05-10-2006 à 14:16:16
n°5092169
--faithnom​ore--
The Real Thing
Posté le 05-10-2006 à 14:14:24  profilanswer
 

Citation :

Je confirme, mes gros achats de carte sont dans les Geforce Paire. La 7 que j'ai n'est qu'un remplacement... :p


 
Ce qui montre bien mon assiduité quotidien et perpetuel envers l'enivrance extrême de ton Topic [:androids974]


Message édité par --faithnomore-- le 05-10-2006 à 14:14:51
n°5092185
bobbyto
Posté le 05-10-2006 à 14:26:08  profilanswer
 

renardin6 a écrit :

en tout cas, décidé, je me paie la 8800 GTX dès sa sortie... J'avais fait cela pour la 6800 GT, je l'ai gardée jusque juillet 2006. J'aime bien les séries Paires (je m'explique: je suis passé de la TNT2 à la Geforce 2 GTS à la Geforce 4 TI 4200 et ensuite à la 6800 GT... J'ai loupé les Geforce 1, 3, 5(FX de merde) et les 7 sorte de 6 boostées..)


Je le faisait aussi jusqu'a la 6800GT. Exactement les mêmes cartes sauf la TNT2 car j'était chez ATI...
J'ai quand même franchi le pas pour les 7900GT, qui confirme plus ma "constatation" que je change de CG tous les 1an 1/2, que celle de toutes les 2 générations. Les perfs sont vraiments plus importantes que la 6800GT, mais bon ca je penses que tu le sait ;)

n°5092346
renardin6
vieux geek
Posté le 05-10-2006 à 15:57:36  profilanswer
 

Je sais tout sauf ce que je ne sais pas!  
 
( merchi Faith, :) )

n°5093842
renardin6
vieux geek
Posté le 06-10-2006 à 13:42:16  profilanswer
 

Citation :

G80 : HDR 128 Bits et anti-aliasing 16x pour un seul GPU
 Préparez les lunettes de soleil ! (5529 lectures)  
Information sur le G80... suite. Alors que nos confrères de Daily Tech nous en apprenaient un peu plus hier sur l'architecture de la bête, ce sont ses capacités qui semblent aujourd'hui être au programme.
 
Comme on peut s'en douter, la qualité d'image et le filtrage seront sans aucun doute parmi les terrains de bataille les plus importants des produits de cette nouvelle génération. Et NVIDIA, après l'arrivée de l'HDR + AA chez ATI, ainsi que les soucis de shimmering et les optimisations de ses GeForce 7, ne pourra pas se permettre de refaire les mêmes erreurs que précédemment.
 
L'HDR aurait donc été amélioré, et passe d'une précision de 64 bits actuellement à une précision de 128 bits en virgule flottante qui se base sur OpenEXR, un format de fichier développé par Industrial Light and Magic.
 
Côté filtrage, l'anti-aliasing 16x, supporté actuellement dans les configurations SLi uniquement, fera son entrée dans le monde du mono GPU. Les GeForce 8800 pourront ainsi l'activer, reste à savoir si les performances seront au rendez-vous.  
 
L'histoire ne dit pas si ces deux modes pourront être utilisés de manière simultanée, et si le mystérieux VCAA sera bel et bien de la partie... la suite au prochain épisode ;)


 
http://www.pcinpact.com/actu/news/31884-G80-HDR-AA.htm
 
et sinon :
 
http://www.pcinpact.com/actu/news/ [...] uantum.htm
 

Citation :

Parmis les rumeurs qui entourent le futur G80 de NVIDIA, il est bien entendu question de physique, le truc "hype" du moment. Il serait question d'un moteur intégré à la manière de Pure Video permettant d'utiliser les shaders du G80 pour effectuer de tels calculs, connu sous le nom de code "Quantum".
 
Dans une présentation le caméléon aurait affirmé que cette technologie rentrerait en compétition directe avec la solution d'Ageia. Havok et son fameux moteur seraient impliqués dans ce projet, sans que l'on sache s'il est, ou non, ouvert à d'autres développeurs.
 
Reste à savoir si cette solution s'avère réellement efficace, surtout lorsque l'on voit les ratés du lancement de la PhysX, mais surtout si l'ouverture de bas niveau d'ATI n'est pas une solution préférable pour les développeurs... Affaire à suivre.


Message édité par renardin6 le 06-10-2006 à 13:43:27
n°5094159
ikarad
Posté le 06-10-2006 à 16:07:37  profilanswer
 

drapal

n°5094237
kaizel
vive aubade ;)
Posté le 06-10-2006 à 16:43:55  profilanswer
 

et bin cela a l'air d'etre une sacrée monstre :eek:

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  895  896  897  898  899  900

Aller à :
Ajouter une réponse
 

Sujets relatifs
Probleme artefact avec nvidia geforce 6800geforce 6600gt qui déconne(encore une..)
Carte Geforce 7600 GT : problème de busPoint Of View Nvidia GeForce 7800GTX 256 Mo GDDR3
Probleme Pilote Geforce MX 200Une GeForce et une Radeon... sur un meme PC ?!
[Topic Unique]Radeon X850XT / PEgros probleme Freeze Geforce 6800 GS
Plus de sujets relatifs à : [Topic Unique] GeForce 8800


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR