Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2939 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  600  601  602  ..  1004  1005  1006  1007  1008  1009
Auteur Sujet :

Graphical open bar (des infos, des intox, aux extraits de TheInq)

n°4081299
le_noob
Posté le 18-05-2005 à 15:53:26  profilanswer
 

Reprise du message précédent :

Oxygen3 a écrit :

b'en perso un triple core ppc970 ca me surprends plus qu'un simple core pp970 + 7 puces dedies aux streams


c'est quoi la diff entre ppc et pp ?

mood
Publicité
Posté le 18-05-2005 à 15:53:26  profilanswer
 

n°4081300
Oxygen3
Tears from the moon
Posté le 18-05-2005 à 15:53:48  profilanswer
 

oui bon d'accord c'est pas faux
 
... derives ... donc [:joce]


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°4081302
Oxygen3
Tears from the moon
Posté le 18-05-2005 à 15:54:10  profilanswer
 

le_noob a écrit :

c'est quoi la diff entre ppc et pp ?


un c en moins ?


Message édité par Oxygen3 le 18-05-2005 à 15:54:22

---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°4081303
le_noob
Posté le 18-05-2005 à 15:54:52  profilanswer
 

Oxygen3 a écrit :

un c en moins ?


ben c'était une faute de frappe ou y a une différence fondamentale entre les 2 ?

n°4081311
asmomo
Modérateur
Posté le 18-05-2005 à 15:57:26  profilanswer
 

Le Cell a l'air bien plus révolutionnaire.

n°4081317
Oxygen3
Tears from the moon
Posté le 18-05-2005 à 15:59:59  profilanswer
 

asmomo a écrit :

Le Cell a l'air bien plus révolutionnaire.


 
Sur son archi globale oui, maintenant j'attends de voir ce qui en sera fait rellement :)
On sait trop peu sur les 7 cores additionels pour pouvoir vraiment savoir ce qu'ils feront dans la console.
 
btw, j'ai trouve comment nintendo ou MS vont depasser les 3Tflops, il vont compter le flops des circuits son, bluetooth, wifi et de toutes les autres puces alakon qui sont presentes dans la boiboite :D


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°4081323
magic-sim
Attention, pougnat radioactif
Posté le 18-05-2005 à 16:01:31  profilanswer
 

Me demande ce que donnera la révo, plus que les specs, c'est les jeux qui sont le plus intéressant....
 
Si en plus elle a vraiment une sortie VGA.... MIAM !  
 
Vi, j'ai une deuxième entrée sur mon principal :D

n°4081363
kao98
...
Posté le 18-05-2005 à 16:17:53  profilanswer
 

Je comprend pas : vous n'arrêtiez pas de dire "XBox 360, 512Mo partagé caynul caypasassez", or là, pire : on a 256 pour le CPU et 256 pour la CG (donc certainement un grand nombre d'infos seront dupliquée), mais spagrave !?


Message édité par kao98 le 18-05-2005 à 16:18:18
n°4081380
Zeross
Posté le 18-05-2005 à 16:26:58  profilanswer
 

kao98 a écrit :

Je comprend pas : vous n'arrêtiez pas de dire "XBox 360, 512Mo partagé caynul caypasassez", or là, pire : on a 256 pour le CPU et 256 pour la CG (donc certainement un grand nombre d'infos seront dupliquée), mais spagrave !?


 
Pour une console une archi à mémoire unifiée (Xbox) ou pseudo unifiée (PS2, GC) ça reste ce qu'il y a de mieux à mon avis

n°4081394
zoldrag
Posté le 18-05-2005 à 16:34:03  profilanswer
 

c pas pire vur la que xdr a 3200 mhz est beaucoup plus rapide que la ddr3 a 700 mhz + que le double
256 de ram pour la carte c suffisant et 256 de xdr pour le proco aussis
 
 
donc meme si ca passe en 1er par la ram principale xdr ca fera pas de latence supplementaire pour la carte graphique
ca en fera meme moin si je comprend bien que si c'etait que de la ddr pour tout


Message édité par zoldrag le 18-05-2005 à 16:36:11
mood
Publicité
Posté le 18-05-2005 à 16:34:03  profilanswer
 

n°4081415
blazkowicz
Posté le 18-05-2005 à 16:50:57  profilanswer
 

3200mhz pour la XDR c'est le data rate -> la DDR3 est alors à "1400mhz".
la XDR va sur le controlleur 64bits du Cell, la DDR3 sur le controlleur 128bits du chipset de la x360
 
-> 204800mhz pour la XDR contre 179200mhz pour la DDR3 [:zytrafumay]
(sympa cette façon de compter les mhz non? :o)

n°4081416
zoldrag
Posté le 18-05-2005 à 16:55:03  profilanswer
 

et le bus du proco de la xbox est de combien? 128?

n°4081429
le_noob
Posté le 18-05-2005 à 17:02:26  profilanswer
 

Bon je vais pas m'acheter d'X800XL, je vais garder mes sous pour une 7800.

n°4081434
papours
Posté le 18-05-2005 à 17:03:38  profilanswer
 

le_noob a écrit :

Bon je vais pas m'acheter d'X800XL, je vais garder mes sous pour une 7800.


 
T es fou, la 8800 sera bien mieux !

n°4081435
le_noob
Posté le 18-05-2005 à 17:04:19  profilanswer
 

blazkowicz a écrit :

3200mhz pour la XDR c'est le data rate -> la DDR3 est alors à "1400mhz".
la XDR va sur le controlleur 64bits du Cell, la DDR3 sur le controlleur 128bits du chipset de la x360
 
-> 204800mhz pour la XDR contre 179200mhz pour la DDR3 [:zytrafumay]
(sympa cette façon de compter les mhz non? :o)


[HS]
Ca t'interesse pas une voodoo2 pour ta collection ?
[/HS]
 
edit : je dirais plûtot 16 bits pour la xdr, du coup :
 
XDR : 400MHz*8*2 octets = 6,4 Go/s et 25,6 Go/s
DDR : 700MHz*2*16 octets = 22,4 Go/s
 :whistle:


Message édité par le_noob le 18-05-2005 à 17:29:54
n°4081436
zoldrag
Posté le 18-05-2005 à 17:04:40  profilanswer
 

de toute facon l'avantage de la xdr va bien + loin que la bande passante  
http://www.onversity.com/cgi-bin/d [...] &P=030&T=0

n°4081495
tridam
Profil : Equipe HardWare.fr
Posté le 18-05-2005 à 17:28:58  profilanswer
 

le_noob a écrit :

[HS]
Ca t'interesse pas une voodoo2 pour ta collection ?
[/HS]
 
edit : je dirais plûtot 16 bits pour la xdr, du coup :
 
XDR : 400MHz*8*2 octets = 6,4 Go/s
DDR : 700MHz*2*16 octets = 22,4 Go/s
 :whistle:


 
Non 64. -> 25.6 Go/s

n°4081545
syntaxx_er​ror
Posté le 18-05-2005 à 17:43:57  profilanswer
 

le_noob a écrit :

oops  :D , mais je ne disais pas ça par rapport au texte.
Bon c'est quoi la différence entre les 3 cpu de la xbox et celui de la PS3.
 
 
Ca m'enerve on n'a jamais d'infos assez détaillées sur les consoles. Toujours des chiffres de performances abstraits qui ne veulent rien dire, et aucune info sur l'archi matériel.

+1  :sweat: ...Je comprends pas ce black out sur les spec console alors qu'on sait tout sur les GPU PC... :o


Message édité par syntaxx_error le 18-05-2005 à 17:44:11
n°4081604
Fouge
Posté le 18-05-2005 à 18:03:42  profilanswer
 

Les GeForce FX, c'est une archi 4*2 ou 8*1?

n°4081612
nick_olas
Antiquaire en VGA :o
Posté le 18-05-2005 à 18:05:57  profilanswer
 

Si tu parles des NV30 (5800): 4*2 http://www.hardware.fr/html/news/?date=14-02-2003#5559
Même si NVIDIA parle de 8*1 :whistle:


Message édité par nick_olas le 18-05-2005 à 18:09:19
n°4081688
le_noob
Posté le 18-05-2005 à 18:26:10  profilanswer
 

nick_olas a écrit :

Si tu parles des NV30 (5800): 4*2 http://www.hardware.fr/html/news/?date=14-02-2003#5559
Même si NVIDIA parle de 8*1 :whistle:


les 5900 c'était 4*2 aussi

n°4081693
Fouge
Posté le 18-05-2005 à 18:26:58  profilanswer
 

Il n'y a pas que le monde des consoles qui est obscurt alors :D
Et le NV35 ?
 
edit: j'ai même lu des tests/articles qui expliquait que la GeForce FX était capable de passer de 4*2 à 8*1 et inversement. Qu'en pense syntaxx_error ? :whistle:


Message édité par Fouge le 18-05-2005 à 18:28:38
n°4081728
blazkowicz
Posté le 18-05-2005 à 18:35:04  profilanswer
 

ben en fait c'est 4x2 ou 8x0 [:aloy]

n°4081733
le_noob
Posté le 18-05-2005 à 18:36:51  profilanswer
 

Fouge a écrit :

Il n'y a pas que le monde des consoles qui est obscurt alors :D
Et le NV35 ?
 
edit: j'ai même lu des tests/articles qui expliquait que la GeForce FX était capable de passer de 4*2 à 8*1 et inversement. Qu'en pense syntaxx_error ? :whistle:


C'est détaillé (même si parfois c'est faux) contrairement aux consoles, sur les consoles on ne sait rien.

n°4081741
Fouge
Posté le 18-05-2005 à 18:39:52  profilanswer
 

Faudrait que je retrouve ça : ils parlaient bien de permutation 4*2/8*1 mais à mon avis c'était une tentative d'explication car la théorie (8*1 annoncé par nVidia) ne correspondait pas à la réalité (4*2).
A moins qu'il y ait eu mauvaise interprétation (volontaire ou non) du 8*0.


Message édité par Fouge le 18-05-2005 à 18:40:49
n°4081772
viGnoS
..tu n'auras pas mes impôts !
Posté le 18-05-2005 à 18:50:58  profilanswer
 

Fouge a écrit :

Faudrait que je retrouve ça : ils parlaient bien de permutation 4*2/8*1 mais à mon avis c'était une tentative d'explication car la théorie (8*1 annoncé par nVidia) ne correspondait pas à la réalité (4*2).
A moins qu'il y ait eu mauvaise interprétation (volontaire ou non) du 8*0.


ya eu tellement de mensonge de dit à propos du nv30 que maintenant c'est normal que tout le monde s'embrouille... :sarcastic:


---------------
P@F deathlist
n°4081793
le_noob
Posté le 18-05-2005 à 18:58:28  profilanswer
 

Fouge a écrit :

Faudrait que je retrouve ça : ils parlaient bien de permutation 4*2/8*1 mais à mon avis c'était une tentative d'explication car la théorie (8*1 annoncé par nVidia) ne correspondait pas à la réalité (4*2).
A moins qu'il y ait eu mauvaise interprétation (volontaire ou non) du 8*0.


8*0 c'est pour le Z rendering, y'a pas de 8*1 sur les Fx, c'était ce que prétendait nvidia au début mais ct juste un gros mensonge : http://www.hardware.fr/news/5559/4 [...] ce-FX.html
 
http://www.hardware.fr/medias/photos_news/00/07/IMG0007678.gif

Citation :

Ce test rapide, dont les résultats sont exprimés en Mpixels /s, montre clairement que tout comme les GeForce FX 5800 et 5900, le GeForce 6800 est capable de calculer les passes ne s´occupant que des données Z avec un débit double. Un jeu comme Doom III devrait en profiter, reste à voir dans quelle mesure exactement.


 
http://www.hardware.fr/articles/453/page10.html
Avec le recul cette phrase est marrante :

Citation :

Bien entendu, les drivers du GeForce FX sont encore jeunes, comme le montrent certains résultats de benchs qui nous ont parus incohérents, et NVIDIA devrait améliorer les performances de son bébé au fil des mises à jours.


Message édité par le_noob le 01-06-2005 à 14:52:38
n°4081837
mareek
Et de 3 \o/
Posté le 18-05-2005 à 19:20:44  profilanswer
 

le_noob a écrit :

Je vois pas ce qui reste à la PS3 face à la Xbox, vous croyez que ce sera la fin de Sony sur le marché des consoles ?


La puissance d'une console n'est pas le facteur principal de sa réussite, c'est la logithèque qui fait tout (ou presque). il n'y a qu'à voir le succès de la PS2 face à la XBox alors que cette dernière est beaucoup plus puissante (il n'y a qu'à regarder des jeux comme splinter cell 3 par ex.).

kao98 a écrit :

Je comprend pas : vous n'arrêtiez pas de dire "XBox 360, 512Mo partagé caynul caypasassez", or là, pire : on a 256 pour le CPU et 256 pour la CG (donc certainement un grand nombre d'infos seront dupliquée), mais spagrave !?


C'est principalement moi qui était déçu à propos de la RAM de la XBox 360 donc vu que je n'était pas là pour la sortie de la PS3, ça rale forcement moins.  
Si tu veux mon avis sur la PS3, je pense qu'elle a une mauvaise architecture: 2x256Mo de RAM non partagée C'est moins bien que 512Mo partagée au niveau taille (moins flexible, redondance des données) mais mieux au niveau BP donc ça peut se comprendre. Par contre, je doute que le Cell soit vraiment adapté pour une console de jeux, j'ai plus l'impression d'avoir à faire  à un CPU mono core avec plein de DSP à coté qui serait très bien dans un studio mais dont je ne vois pas l'intéret dans une playstation.


---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
n°4081861
tridam
Profil : Equipe HardWare.fr
Posté le 18-05-2005 à 19:32:55  profilanswer
 

Fouge a écrit :

Faudrait que je retrouve ça : ils parlaient bien de permutation 4*2/8*1 mais à mon avis c'était une tentative d'explication car la théorie (8*1 annoncé par nVidia) ne correspondait pas à la réalité (4*2).
A moins qu'il y ait eu mauvaise interprétation (volontaire ou non) du 8*0.


 
C'est ce que NVIDIA racontait à la presse en se disant "on peut leur raconter n'importe quelle connerie, de toute manière ils voient pas la différence", ce qui est vrai pour la majorité. Après le 8 x 0 ça a été inventé par des gens qui avaient envie d'être les inventeurs d'une nouvelles manière de noter.
 
Quand on dit X x Y, X c'est le nombre de pixel pipelines, et Y le nombre d'unités de texturing. Une valeur Z c'est pas un pixel pour moi donc 8 x 0 c'est n'importe quoi.


Message édité par tridam le 18-05-2005 à 19:34:34
n°4081863
nick_olas
Antiquaire en VGA :o
Posté le 18-05-2005 à 19:33:10  profilanswer
 

le_noob a écrit :

les 5900 c'était 4*2 aussi


 

Fouge a écrit :

Il n'y a pas que le monde des consoles qui est obscurt alors :D
Et le NV35 ?


 
5900=NV35 http://forum-images.hardware.fr/images/perso/aloy.gif

n°4081960
le_noob
Posté le 18-05-2005 à 20:09:21  profilanswer
 

mareek a écrit :

La puissance d'une console n'est pas le facteur principal de sa réussite, c'est la logithèque qui fait tout (ou presque). il n'y a qu'à voir le succès de la PS2 face à la XBox alors que cette dernière est beaucoup plus puissante (il n'y a qu'à regarder des jeux comme splinter cell 3 par ex.).


Tu oublies que la PS2 était sortie 2 ans avant la xbox et que MS était nouveau sur le secteur.
Je suis près à parier que tout le monde va se jeter sur la xbox, du coup il restera moins de place pour la PS3.
 
SC3 il est pas sortie sur les 2 consoles ?? (ah ok je viens de comprendre, c'est pour comparer la puissance)


Message édité par le_noob le 18-05-2005 à 20:10:36
n°4081966
Fouge
Posté le 18-05-2005 à 20:11:52  profilanswer
 

C'était à toi que je répondais mais le_noob m'a devancé :o

n°4082153
zoldrag
Posté le 18-05-2005 à 21:15:07  profilanswer
 

on s'en fou des 5900 et des 5800 de toute facon.
des cartes sans interret pour moi, surtout now
puis les 6800 on bien rattrappé le retard de nvidia sur ati
now c ati qui est a la traine
 
personnelement la serie 5800 et son evolution 5900 c pas tres bon je trouve meme si elles se defendent bien dans certain cas
 
alors pkois parler sans arret de c putain de carte c lourd

n°4082155
Fouge
Posté le 18-05-2005 à 21:16:53  profilanswer
 

On parle de transparence architecturale PC et console :o

n°4082196
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 18-05-2005 à 21:33:10  profilanswer
 

zoldrag a écrit :

now c ati qui est a la traine

Ah ? Quand on voit le nombre de X800 XL vendue pour 1 6800 GT ...

n°4082254
nick_olas
Antiquaire en VGA :o
Posté le 18-05-2005 à 21:50:48  profilanswer
 

Mode troll/noob/nvidiot ON
now c'est ati qui est a la traine!
ils n'ont ni HDR ni SM3.0 ni SLI

n°4082351
Oceanborn
Posté le 18-05-2005 à 22:29:09  profilanswer
 

Marc a écrit :

Ah ? Quand on voit le nombre de X800 XL vendue pour 1 6800 GT ...


 
C'est de quel ordre ? (par pure curiosite :)) J'avais vu récemment que Nvidia a eu de bons résultats avec ses 6x00.

n°4082372
tridam
Profil : Equipe HardWare.fr
Posté le 18-05-2005 à 22:36:21  profilanswer
 

C'est la 6600GT qui se vend bien.

n°4082433
latif18
Posté le 18-05-2005 à 23:02:58  profilanswer
 

Marc a écrit :

Ah ? Quand on voit le nombre de X800 XL vendue pour 1 6800 GT ...


 
 
On veut des chiffres  :o

n°4082455
PlayTime
Posté le 18-05-2005 à 23:14:01  profilanswer
 

Et moi qui pensait que le marketing de ATI était à la traine. Heuresement, ce sont donc ceux qui ne parle pas qui achètent logiquement (x800xl, meilleur rapport q/p dans le milieu/haut de gamme).
 
Enfin heuresement aussi qu'il existe nvidia avec la 6600gt sur l'entrée de gamme (j'entend entrée de gamme par "qui permet de profiter réellement de tous les derniers jeux convenablement" )

n°4082480
zoldrag
Posté le 18-05-2005 à 23:25:53  profilanswer
 

Marc a écrit :

Ah ? Quand on voit le nombre de X800 XL vendue pour 1 6800 GT ...

je parle pas de perf brute ni de vente meme si on me traite de nvidiot parce que je suis pro sli
et que tout simplement je ne nie pas l'evidence que nvidia a une avance technologique sur son concurant
aussis banalisé soit elle est neanmoin bien la
 
puis la x800 xl est venue bien apres la GT c'est comme quant la x800 pro est sortie il n'y avait pas de diff avec la 6800 GT  :lol: et nvidia n'a pas reelement riposté.
le seul point fort de la x800 xl face a la gt c le prix et ca se reduit de plus en plus.
 
dite moi si je me trompe  :)  
 
puis l'avantage reel des sm 3.0 (que ati n'a pas reussis a integré dans son architecture en 0.13 parce que trop gros alors qu'en 0.9 oui) c'est les vertex shader et l'instruction supplementaire qui permettra de standardiser le displacement mapping et ce n'est pas rien car ca sera utilisé
un high dynamic range ou le jeu est jouable une fois activé  
et un sli pour l'upgrade de son pc et le sli ne se limitera plus a 2 cartes selon nvidia et c'est pour bientot
et d'autre trucl encore sur la limitation des shader,le geometry instancing (le vrai)
 
vous allez me dire c qu'une instruction pour les vertex mais dans unreal engine 2006 ca va se sentir cf ce epic disait pour l'avoir testé sur les 2 cartes.
 
et le reste c que des babiole ...
 
mon point de vue a moi c qu'une 4200 suffit pour tout mais quant il sagit de renouveler son matos je prend le plus avancer technologiquement.


Message édité par zoldrag le 18-05-2005 à 23:34:21
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  600  601  602  ..  1004  1005  1006  1007  1008  1009

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Demande infos] Top AchatComment imprimer les infos du bios ?
Quel carte Open Gl la mieux adapte a 3dsMAXBesion d'infos sur les Graveur de DVD chui perdu
couldn't load open glNEC ND-1300: cherche infos
Mise a jour bios KT7A, prob direct x et open gl geforce 2 pro!!Salut je voudrait des infos sur l'instalation d'un processeur
Rech infos sur le nouveau graveur de DVD liteon multiformat !!!![INFOS a la con] si vous avez des PB avec votre ABIT NF7-S REV2.0
Plus de sujets relatifs à : Graphical open bar (des infos, des intox, aux extraits de TheInq)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)