Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1570 connectés 

 

 

Aprés un GT200 consommant et chauffant énormément, pariez-vous sur la révision GT200B en :


 
62.3 %
 415 votes
1.  55nm (nouveau standard)
 
 
22.7 %
 151 votes
2.  45nm (Aucun GPU de produit à cette finesse - coût plus élevé (nouveauté))
 
 
15.0 %
 100 votes
3.  40nm (Aucun GPU de produit à cette finesse - coût bien plus élevé (nouveauté ultime) Dispo pour eux depuis le 2T. 2008)
 

Total : 942 votes (276 votes blancs)
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  833  834  835  836  837  838
Auteur Sujet :

[Topic Unique] GT200 et GT200b - GTX295, 285, 280, 275, 260, 250

n°6291811
Rayaki
Posté le 22-03-2008 à 15:13:48  profilanswer
 

Reprise du message précédent :


 
drapal pas du tout déguisé ?!  :whistle:  

mood
Publicité
Posté le 22-03-2008 à 15:13:48  profilanswer
 

n°6292167
Eldem
Posté le 22-03-2008 à 18:43:34  profilanswer
 

Maxaks a écrit :

[:drapal]  
 
sinon, ces cartes seront compatibles avec les cm à bus PCI Express 1.0?


j'espere pour nvidia, vont pas en vendre beaucoup sinon  :lol: nan serieusement, le pci-ex2 est retrocompatible pci-ex1, donc pas de soucis. en plus ca joue pas beaucoup sur les perfs.  ;)


---------------
"There have always been ghosts in the machine. Random segments of code that have grouped together to form unexpected protocols"  
n°6292835
Rayaki
Posté le 23-03-2008 à 04:30:01  profilanswer
 

Pour le moment, je n'ai vu dans les tests un interet pour le pci-ex2 que pour les cartes avec tres peu de ram graphiques (256Mo)

n°6294260
Golden Div​a
Posté le 23-03-2008 à 23:58:30  profilanswer
 

Heu, faut faire gaffe quand-même ; parfois la rétro-compatibilité ne concerne que le PCI-E 1.1 et pas le 1.0 !

n°6295034
Niamor59
Posté le 24-03-2008 à 14:18:34  profilanswer
 

[:drap]


---------------
@Niamor59 | Channel Youtube | SteamID | Feed-Back
n°6296409
marllt2
Posté le 25-03-2008 à 02:08:15  profilanswer
 

http://www.marketwatch.com/news/st [...] D3E8CEC%7D
 

Citation :

Huang says that graphics processors are better suited to some computation-intensive tasks, like computational finance, astrophysics, biology and flow dynamics.  
 
In fact, he thinks Nvidia eventually can eat into one of Intel's key markets -- high-end servers -- as software developers take advantage of the "many-core" architecture. (Intel takes a multi-core approach, with two or four core processors; Nvidia graphics processors have as many as 240 cores.)


240 SP pour le GT200 ?  :whistle:

n°6296413
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 25-03-2008 à 02:12:33  profilanswer
 

A titre de comparaison il y en a combien dans les geforce 9 ? (9800GTX par exemple)


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°6296415
marllt2
Posté le 25-03-2008 à 02:22:19  profilanswer
 

128 pour les 8800 GTX, 8800 GTS 512, et 9800 GTX.

n°6296514
kenshin00
Posté le 25-03-2008 à 09:12:23  profilanswer
 

bah 240 ca fait pas bcp alors car au debut pour les gforce 10 on tablais sur 384 sp

n°6296568
Gigathlon
Quad-neurones natif
Posté le 25-03-2008 à 10:17:18  profilanswer
 

marllt2 a écrit :

128 pour les 8800 GTX, 8800 GTS 512, et 9800 GTX.


160 si on compte comme eux :whistle:  
 
128 -> 160, donc 240 -> 192, ça serait donc bien un G90 et non un G100 [:yamusha]
 
Un truc que j'ai toujours pas compris par contre c'est l'inflation niveau transistors... un R580 avait quand même 48 Vec4 + 8 Vec5 soit 232 SP en simplifiant à peine, et pourtant il tournait à ~400M de transistors contre ~700M pour un G80/G92 qui n'en a que 128, en plus lourdement simplifiés (SIMD 16x donc en réalité l'équivalent de 8 indépendants)

Message cité 1 fois
Message édité par Gigathlon le 25-03-2008 à 10:21:14
mood
Publicité
Posté le 25-03-2008 à 10:17:18  profilanswer
 

n°6296733
sasuke87
Posté le 25-03-2008 à 12:10:28  profilanswer
 

Gigathlon a écrit :


160 si on compte comme eux :whistle:  
 
128 -> 160, donc 240 -> 192, ça serait donc bien un G90 et non un G100 [:yamusha]
 
Un truc que j'ai toujours pas compris par contre c'est l'inflation niveau transistors... un R580 avait quand même 48 Vec4 + 8 Vec5 soit 232 SP en simplifiant à peine, et pourtant il tournait à ~400M de transistors contre ~700M pour un G80/G92 qui n'en a que 128, en plus lourdement simplifiés (SIMD 16x donc en réalité l'équivalent de 8 indépendants)


 
ouai mais bon ce ne sont pas des transistors en plus pour la déco, vu comment le g80 fait mal au r580  :whistle:

n°6296758
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 25-03-2008 à 12:31:25  profilanswer
 

Ah ben merde alors :
 
Selon plusieurs de nos informations, NVIDIA, qui est en train d'effectuer la transition de sa gamme GeFore 8 en GeForce 9, aurait prévu de finir en beauté d'ici le mois d'août prochain.
 
En effet, une puce dénommée D10 selon la nouvelle nomenclature du constructeur vient de faire son apparition, et serait au coeur de la GeForce 9900GTX.
 
Très peu d'éléments nous sont parvenus pour le moment, mais son lancement aurait lieu avant la fin de l'été. Tout laisse à penser qu'il s'agirait d'une nouvelle architecture, bien que nous ne puissions pas l'affirmer pour l'heure.
 
NVIDIA renouvellerait ainsi son offre, qui se base sur le G80 et ses dérivés depuis novembre 2006, certainement afin de faire face à AMD qui prépare son R700.
 
De plus amples renseignements devraient nous parvenir sous peu.
source : http://www.pcinpact.com/actu/news/ [...] eForce.htm


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°6296790
Eldem
Posté le 25-03-2008 à 12:46:08  profilanswer
 

ca confirme la rumeur qui parlait de la fin de l'été. par contre le nom est encore bien bizarre.. 9900gtx.  :pfff: histoire que tout le monde s'y perde, ou pour pas trop degouter ceux qui viennent d'acheter des 9800gtx/gx2 ?  
 
en tout cas nvidia aura pressé le g80 jusqu'au bout.


---------------
"There have always been ghosts in the machine. Random segments of code that have grouped together to form unexpected protocols"  
n°6296829
angela-pcs
Posté le 25-03-2008 à 13:06:26  profilanswer
 

Ca va surtout etre le fameux g92 gravé plus fin ( d'ou le fait qu'il reste en serie 9 ) et un oc usine plus haut c'est tout ( m'enfin c'est un avis mais je pense pas être trop loin de la verité )

n°6296834
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 25-03-2008 à 13:08:29  profilanswer
 

bon et bien ça fera un peu plus de temps à attendre pour la sortie du G100... et un peu plus de temps pour économiser ^^


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°6296967
etharos
Posté le 25-03-2008 à 14:25:26  profilanswer
 

Quand même, au bout de deux ans, ils finiront bien par sortir quelque chose de mieux qu'une gravure plus fine non ? Parce que là, je ne vois pas de raison de quitter ma gts 320 overclockée si ce n'est que pour gagner une dizaine de fps sur Crysis (surtout que j'y joue même pas à ce jeu :D)

n°6296968
Eldem
Posté le 25-03-2008 à 14:27:56  profilanswer
 

angela-pcs a écrit :

Ca va surtout etre le fameux g92 gravé plus fin ( d'ou le fait qu'il reste en serie 9 ) et un oc usine plus haut c'est tout ( m'enfin c'est un avis mais je pense pas être trop loin de la verité )


ah ok.  :jap: parce que dans la news ils parlent d'une nouvelle archi, mais ca colle pas avec le nom 9900...


---------------
"There have always been ghosts in the machine. Random segments of code that have grouped together to form unexpected protocols"  
n°6297122
jujuro38
Posté le 25-03-2008 à 15:48:19  profilanswer
 

marllt2 a écrit :


C'est parce que FSX utilise peu de shaders, mais énormément de géométrie. :o Forcément le CPU est vite débordé, alors que le GPU se tourne les pouces.  [:spamafote]  
 
DX10 introduisait les Geometry Shaders et devait en partie résoudre ce problème (c'est sur cette base que le fameux photoshop de FSX DX10 a été fait), mais comme le G80 est totalement à la ramasse dans ce domaine, et ben les développeurs n'ont pas du tout inclus de GS dans le patch DX10.
 
Le patch SP2 améliore quand même les choses en supportant bien le multithreading. 2 cores minimum, 4 recommandés, et jusqu'à 8 cores pour les gros add-ons.
 
http://pix.nofrag.com/3/4/0/ffa053 [...] a11b5f.png
 
Par contre FSX ne fait pas de calcul de portance. Tout est figé dans un fichier de config assez simple. D'où parfois des modèles de vol aléatoires. ;)  
C'est X-Plane qui calcule en temps réel la portance et tout ce qui va avec, ce qui fait que les sensations de vol sont bien + réalistes (assez proche de Flight Unlimited 3). Mais bien sûr les graphismes restent en retrait de FSX (quoique ça s'améliore avec les versions...)
 
http://pix.nofrag.com/4/d/7/c07fae [...] c64741.jpg


 
 
ui c'est vrai c'est X-plane qui fait les calculs avioniques en live. J'ai mélangé un peu les 2 jeux dans mon post. :jap:


Message édité par jujuro38 le 25-03-2008 à 15:48:55
n°6297124
Otan beauv​al
c'est clair rainette...
Posté le 25-03-2008 à 15:50:29  profilanswer
 

Golden Diva a écrit :

Heu, faut faire gaffe quand-même ; parfois la rétro-compatibilité ne concerne que le PCI-E 1.1 et pas le 1.0 !


 
+1 incompatibilité entre ma GTS² et mon asrock VIA PCI-E 1.0 [:prodigy]
 
 
et drapal  :o


---------------
L'homme qui marche sur les mains n'a pas besoin de tongs  -  À vaincre sans péril, on triomphe sans gloire
n°6297383
marllt2
Posté le 25-03-2008 à 18:33:35  profilanswer
 

Otan beauval a écrit :

+1 incompatibilité entre ma GTS² et mon asrock VIA PCI-E 1.0

Chipset Via en carton.  :o  
 
Pourtant il parait que ça marche avec une HD3870. :o
 

super_newbie_pro a écrit :

Ah ben merde alors :
 
Selon plusieurs de nos informations, NVIDIA, qui est en train d'effectuer la transition de sa gamme GeFore 8 en GeForce 9, aurait prévu de finir en beauté d'ici le mois d'août prochain.
 
En effet, une puce dénommée D10 selon la nouvelle nomenclature du constructeur vient de faire son apparition, et serait au coeur de la GeForce 9900GTX.
 
Très peu d'éléments nous sont parvenus pour le moment, mais son lancement aurait lieu avant la fin de l'été. Tout laisse à penser qu'il s'agirait d'une nouvelle architecture, bien que nous ne puissions pas l'affirmer pour l'heure.
 
NVIDIA renouvellerait ainsi son offre, qui se base sur le G80 et ses dérivés depuis novembre 2006, certainement afin de faire face à AMD qui prépare son R700.
 
De plus amples renseignements devraient nous parvenir sous peu.
source : http://www.pcinpact.com/actu/news/ [...] eForce.htm

angela-pcs a écrit :

Ca va surtout etre le fameux g92 gravé plus fin ( d'ou le fait qu'il reste en serie 9 ) et un oc usine plus haut c'est tout ( m'enfin c'est un avis mais je pense pas être trop loin de la verité )


 
 
Ca voudrait dire que le G92B serais à la fois utilisé sur la "9900 GTX" et la prochaine génération... :whistle:

Message cité 1 fois
Message édité par marllt2 le 25-03-2008 à 18:43:44
n°6297489
jesaipacki
Posté le 25-03-2008 à 19:39:43  profilanswer
 

9900GTX, pas jolie comme nom  :kaola:  
Sinon c'est dans la continuité que de mettre le même GPU dans 2 générations.  
Mr nVidia a du tellement kiffé le G92 qu'il rêverait son intégration dans le GF11...Qui sait? :pfff:

n°6297500
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 25-03-2008 à 19:44:50  profilanswer
 

EXptdrrrr jesaipacki ! :D ce doit être ça mdr


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°6297501
Flo7516
Posté le 25-03-2008 à 19:44:51  profilanswer
 

marllt2 a écrit :


 
 
Ca voudrait dire que le G92B serais à la fois utilisé sur la "9900 GTX" et la prochaine génération... :whistle:


Comme le G92 a été utilisé sur la 8800GT/S 512 et la prochiane génération (9600 & 9800GX2) [:fez666]


---------------
| {Mes ventes} | Hébergement images rémunéré | E-mails & Sondages rémunérés |
n°6297507
jesaipacki
Posté le 25-03-2008 à 19:46:10  profilanswer
 

Flo7516 a écrit :


Comme le G92 a été utilisé sur la 8800GT/S 512 et la prochiane génération (9600 & 9800GX2) [:fez666]


 
 :non: Ce n'est pas du G92 dans les 9600 mais du G94!

n°6297509
marllt2
Posté le 25-03-2008 à 19:47:25  profilanswer
 

Peu importe, la G92 a été utilisé dans la 8800 GTS 512 et la 9800 GTX. :o

n°6297511
Flo7516
Posté le 25-03-2008 à 19:47:34  profilanswer
 

jesaipacki a écrit :


 
 :non: Ce n'est pas du G92 dans les 9600 mais du G94!


C'est pas faux :whistle:
Reste la 9800GX2 :D

 

Edit : et la 9800GTX
Edit 2 : Alors pas dans la 9800GTX, mais dans la 9800GX2 :o


Message édité par Flo7516 le 25-03-2008 à 19:51:48

---------------
| {Mes ventes} | Hébergement images rémunéré | E-mails & Sondages rémunérés |
n°6297517
jesaipacki
Posté le 25-03-2008 à 19:49:51  profilanswer
 

marllt2 a écrit :

Peu importe, la G92 a été utilisé dans la 8800 GTS 512 et la 9800 GTX. :o


 
 :non: C'est du G92-400 dans la 9800GTX...
 
Ok, j'arrête de jouer le relou  :sarcastic:

n°6299774
marllt2
Posté le 26-03-2008 à 22:01:51  profilanswer
 

Du FUD bien frais à consommer sans modération  [:aloy] : http://www.presence-pc.com/actuali [...] 200-28534/

n°6300124
ebola2
ah ah ah
Posté le 27-03-2008 à 07:46:38  profilanswer
 

Les GeForceMarque utilisée par nVidia pour désigner ses puces graphiques depuis 1999. La première série nVidia à porter le nom de GeForce était la GeForce 256... 9800 GTX ne sont pas encore sorties que déjà les premières rumeurs concernant la prochaine génération de cartes graphiques de Nvidia commencent à apparaître sur la toile. Si les GeForce 9 actuelles ne sont que des versions mises à jour de certaines GeForce 8, les prochains G100/GT200 devraient bénéficier d’une toute nouvelle architecture.
Carte bi-GPUGraphical Processing Unit, unité de traitement graphique. Terme utilisé pour désigner les puces 3D.... ou GPU dual-coreUnité principale de calcul dans un processeur. Les principaux processeurs actuels regroupent désormais deux ou même quatre unités gravées dans la même... ?

 

Toutefois, les informations les concernant sont à l’heure actuelle encore confuses, voire contradictoires. Si certaines rumeurs laissent jusqu’à présent supposer que le GT200 correspondait à une carte graphique dotée de deux chipsetsEnsemble de puces électroniques destinées à remplir des fonctions essentielles sur une carte-mère. Il s'agit généralement de deux puces étroitement as... graphiques, il semblerait plus vraisemblablement qu’il ne s’agisse en réalité que du nom de code de la prochaine puce graphique haut de gamme chez Nvidia. A moins que ce ne soit un GPU « dual-core » ?

 

Le GT200 (ou D10E) possèderait donc 200 stream processors, serait gravé en 65nm et afficherait un TDPThermal Design Power. Spécification associée à une puce qui indique la quantité de chaleur à disperser par un système de refroidissement. La totali... très élevé (on parle de 250 Watts, soit plus que le R600 d’ATi, recordman en la matière). Cette puce afficherait en outre des performances en virgule flottante près de deux fois plus élevées que celles de l’actuel G92. Bref, un véritable monstre…
Infos, ou intox ?

 

Bien entendu, ces informations sont à prendre avec les plus grandes pincettes que vous pourrez trouver dans vos placards. En effet, quelques caractéristiques sont pour le moins curieuses : l’idée d’un dual-core par exemple en parlant d’un GPU (un terme mieux adapté aux CPU), le TDP extrêmement élevé, quasiment improbable ou encore les 200 stream processors (192 ou 256 seraient des nombres plus logiques).

 

Bref, il ne reste plus qu’à patienter jusqu’au troisième (voire quatrième) trimestre 2008 pour confirmer ou infirmer toutes ces hypothèses…

 

Pour ceux qui n'ont pas envie de cliquer sur le lien :D

 

bref pas gégé leur truc...

 

donc à consommer avec une extrême modération :jap:


Message édité par ebola2 le 27-03-2008 à 07:49:09
n°6300627
vodnok
Le meilleur reste à venir
Posté le 27-03-2008 à 13:35:43  profilanswer
 

drapalisation engagée

n°6304105
marllt2
Posté le 28-03-2008 à 21:25:34  profilanswer
 

Y'a un site de news qui a déjà parlé du bus 512 bits GDDR3 ?  [:fredoloco]


Message édité par marllt2 le 28-03-2008 à 21:25:41
n°6304918
dragonlore
Posté le 29-03-2008 à 12:14:06  profilanswer
 

info
http://www.presence-pc.com/actuali [...] 200-28534/


Message édité par dragonlore le 29-03-2008 à 12:14:19
n°6305016
ebola2
ah ah ah
Posté le 29-03-2008 à 13:04:13  profilanswer
 

tu es doublement grilled marllt2 a déjà donné le lien, et j'ai fait un copié collé plus haut pour ceux qui n'avaient pas envie de cliquer sur le lien :D

n°6305098
soufkad
Posté le 29-03-2008 à 13:53:44  profilanswer
 

faut bien remplir ce topic en attendant des news :D


---------------
Evga680i | E6700@3,5 | 4Go800@933 | SLI 8800GTX | RAID0 RAPTORX150 | 400Go SATAII |Audigy4Pro | Tagan900W | CRT21" |
n°6305236
Profil sup​primé
Posté le 29-03-2008 à 14:44:42  answer
 

soufkad a écrit :

faut bien remplir ce topic en attendant des news :D

Ou pas :ange:

n°6309023
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 31-03-2008 à 17:44:23  profilanswer
 

4 news : 1 en Frenchy, 3 en english...
 
Selon le site VR-Zone, la prochaine génération de puces NVIDIA devrait être associée au nom de code GT200. Cette génération devrait être initiée avec deux solutions très haut de gamme : une solution mono-GPU et une solution bi-GPU. Ce couple devrait remplacer les actuelles GeForce 9800 GTX et 9800 GX2 pendant le troisième trimestre 2008.
 
http://img.clubic.com/photo/015E000000971276.jpg
 
Si tout va bien, ces deux solutions seront officiellement baptisées GeForce 9900. Ces informations, confirmées par d'autres sources, indiquent aussi que la solution mono-GPU devrait offrir des performances supérieures à une GeForce 9800 GX2. Pour le moment, les spécifications précisent de ces nouvelles cartes et puces restent encore floues. VR-Zone affirme qu'elles pourraient cependant être officialisées d'ici juillet. A suivre donc ...  
source : http://www.clubic.com/actualite-13 [...] vidia.html
 
===========
 
No it is not some April Fool jokes. VR-Zone has learned that there will be two high end parts from Nvidia to replace the current GeForce 9800 GX2 and 9800 GTX in Q3. These two parts are GeForce 9900 GTX and GeForce 9900 GT based on the new GT200 architecture. GeForce 9800 GX2 and GTX will have a short lifespan since they will be replaced in a couple of months time. Nvidia has positioned GeForce 9900 GTX to replace 9800 GX2 and this gave a clue that a single GT200 card will actually outperform a dual G92 card. Likewise for GeForce 9900 GT, outperforming and replacing 9800 GTX. CJ revealed to us that Nvidia will have a hard time fitting GT200 onto the PCB since the GPU is gonna be large and very power hungry so we can probably assume it is still 65nm based. The PCB for GT200 will be P651.
 
source : http://www.vr-zone.com/articles/NV [...] /5684.html
 
===========
 
http://www.expreview.com/img/topic/8800gt/8800gt_512mb_core01.jpg
 
According to our sources, GT200’s final product name and launch day have been set. Two NVIDIA GeForce card will use the core, they are 9900GX2 and 9900GTX.
 
It is similar to today’s NV tactic: 9900GX2 just like todays 9800GX2, it is a two GPU product, and 9900GTX is a conventional single GPU product. Source mentions that both cards will be announce in July. In previous rumors, words have it that NV will improve G9X core by rolling out GT200. But detailed information still unknown.
 
source : http://en.expreview.com/2008/03/31 [...] t-to-july/
 
===========
VOus aimez le bordel ? Voici une new sur DirectX 11 aux aspects stratégiques non négligeables :
 
--------
According to a confidential source, Microsoft has decided to switch to ray-tracing in DirectX 11. They also plan to have DirectX 11 ready in time to debut with Windows Vista Service Pack 2. To do that, they have also decided to base it on the x86 architecture and Intel's ray-tracing engine. There are rumours that Intel did more than just "suggest" it to Microsoft, but that's another story altogether.  
 
As DirectX 11 is a work in progress, Microsoft does not have an exact timeline. But the source claims that DirectX 11 could be part of Windows Vista by late 2008. Development is expected to be very short as much of the work had already been done by Intel. Coincidence?  
 
You need not worry about your old raster-based DirectX 10 or older games or graphics cards. DirectX 11 will continue to support rasterization. It just includes support for ray-tracing as well. There will be two DirectX 11 modes, based on support by the application and the hardware (see table on the right).
 
Obviously, DirectX 11 would be a great boon to everyone, especially Microsoft and Intel. AMD and ATI would come out pretty well too. But NVIDIA might be in some trouble.
 
As the ray-tracing component of DirectX 11 will be designed around the x86 architecture, Intel and even AMD-ATI would have no problem coming up with processors and graphics cards that support DirectX 11. NVIDIA, on the other hand, will have to start from ground up or licence some technologies from Intel or buy up VIA's x86 team (ex-Cyrix). Obviously, they cannot do any business with AMD!
 
What will NVIDIA do? Well, that's something to watch out for. We are pretty sure that NVIDIA would have heard of Microsoft's decision to use Intel's work as the basis for DirectX 11 by now. We bet those guys are scrambling to come up with a solution. With that said, DirectX 11 and ray-tracing are still months away from reality. NVIDIA may have been caught with their pants down, but one can still do a pretty good shuffle even if one is not fast enough to pull up the pants to run.  
 
Let's take a look at what some industry reps have to say about DirectX 11 and its support for ray-tracing.
 
Microsoft
 
Who told you this? We have been monitoring your articles based on leaked Microsoft information and like this one, they are ALL incorrect. Please let us know who your source is so we can correct him. (Editor : Or fire him???)
 
Note that we have notified our legal department and the FBI as all Microsoft internal documents are not meant to be taken out of the building. They will be in touch shortly. Please extend all courtesies in cooperating with their investigation. (Editor : Good luck! We are in Malaysia! )  
 
Intel
 
This is a great day for Intel. For too long, those wannabes in Santa Clara and Ontario have basked in all the attention. Come November, the CPU will reign supreme again! Why buy graphics cards when all you need is an Intel multi-core processor?
 
I can't give you guys much more details than this. NDA restrictions and all that, but we have been running Crysis on Nehalem samples and some Core 2 processors. I can't quote exact numbers but the QX9650 is getting frame rates in the upper 30s. Nehalem samples are currently 50-60% faster but we think it will be closer to twice the performance at launch. Eat that, GPU!  
 
AMD
 
Our Phenoms have no problem supporting DirectX 11 when it launches. What we fear is the inclusion of some codes that strongly favour Intel's microarchitecture. They are getting close to 100% scalability while we are hitting much lower percentages. We will be lobbying Microsoft to remove such blatantly anti-competitive actions by Intel or we may have to come up with a much better processor. In the meantime, I hope you will tell your readers to buy more AMD and ATI products. Times are tough for us.  
 
ATI
 
Our merger with AMD is finally vindicated. The press may have derided that decision time and time again, but we are now well-placed to benefit from the switch to ray-tracing. In the meantime, our DirectX 10.1 advantage will see us well till DirectX 11 emerges. NVIDIA will finally get their just desserts for being so rude to us in your NVIDIA-AGEIA interview. We may be Canadians, but we are not stupid.  
 
By the way, we are aware we have not been always responsive to smaller websites like Tech ARP but with our future successes with DirectX 10.1 and DirectX 11, we promise to hire more staff to reply e-mails and we may even allocate some budget for review samples. Just ask your readers to buy more ATI graphics cards! NVIDIA is screwed.  
 
NVIDIA
 
No comment. (First try)
 
Again, we have no comment or knowledge of the matter. (Second try)
 
This is our final word on the matter. No comment. (Editor : Crap, they removed our login for their press documents!)  
 
S3
 
Where did you hear this??? We have been working on a new series of high-end DirectX 10 graphics cards, and now they are shifting to ray-tracing?????  
 
VIA
 
It is not relevant. Our customers do not play games. Neither should you.
source : http://www.techarp.com/showarticle [...] 526&pgno=1


Message édité par super_newbie_pro le 31-03-2008 à 18:02:06

---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°6309122
marllt2
Posté le 31-03-2008 à 18:26:58  profilanswer
 

Mouais, à tous les coups c'est du G92B ces 9900. :o Mais de l'autre côté ils parlent d'un mono-GPU qui surpasse la GX2. [:gratgrat]  
 
Et ma source qui me donne plus d'infos depuis quelques temps. :fou:

Message cité 1 fois
Message édité par marllt2 le 31-03-2008 à 18:31:04
n°6309124
Eldem
Posté le 31-03-2008 à 18:28:43  profilanswer
 

ca ressemble pas a la "revolution" annoncée.. d'ailleurs le nom, 9900.. :/ enfin, on verra bien d'ici la.


---------------
"There have always been ghosts in the machine. Random segments of code that have grouped together to form unexpected protocols"  
n°6309131
Gigathlon
Quad-neurones natif
Posté le 31-03-2008 à 18:33:16  profilanswer
 

marllt2 a écrit :

Mouais, à tous les coups c'est du G92B ces 9900. :o Mais de l'autre côté ils parlent d'un mono-GPU qui surpasse la GX2. [:gratgrat]  
 
Et ma source qui me donne plus d'infos depuis quelques temps. :fou:


Pas dur en même temps si tu considères que la GX2 fait péniblement 50% de mieux qu'une GTS...
 
Ajoute à ça que la GTS est sévèrement BW limited, si on compare à la 9600GT, et un G92 aux hormones de croissance, avec un bus 384bits, +50% d'unités de calcul et de la GDDR5 sera inévitablement plus perf qu'une GX2.
 
Grosso modo, on a:
 
9600GT: GPU 3 RAM 2
8800GTS/9800GTX: GPU 6 RAM 2
 
Si la 9900GTX se retrouve à GPU 9 RAM 6 (192SP, GDDR5 384bits @2GHz) on récupère le même équilibre que la 9600GT.


Message édité par Gigathlon le 31-03-2008 à 18:38:19
n°6309181
marllt2
Posté le 31-03-2008 à 18:56:21  profilanswer
 

La GDDR5 n'intéresse pas encore nVidia. [:spamafote]  
 
Si une augmentation de BP est nécessaire, ce sera avec un bus 512 bits GDDR3 0.8ns. Soit quand même dans les 145Go/s. :whistle:

n°6309221
Gigathlon
Quad-neurones natif
Posté le 31-03-2008 à 19:17:01  profilanswer
 

marllt2 a écrit :

La GDDR5 n'intéresse pas encore nVidia. [:spamafote]


Tu confonds avec la GDDR4 :o  
 
Au contraire, ils avaient annoncé qu'ils sauteraient sur la GDDR5 car la GDDR4 n'apportait selon eux pas assez d'avantages pour les inconvénients qu'elle posait (prefetch, inchangé avec la GDDR5 mais la fréquence est double elle...)


Message édité par Gigathlon le 31-03-2008 à 19:17:33
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  833  834  835  836  837  838

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Topic Unique] Intel Core 2 Duo E4700[Topic Unique] Silverstone FT01
[Topic Unique] Bluetooth / Bluesoleil / test de dongle des membres[Topic unique] Nvidia 9600 GT
Plus de sujets relatifs à : [Topic Unique] GT200 et GT200b - GTX295, 285, 280, 275, 260, 250


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR