Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3642 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  603  604  605  ..  1004  1005  1006  1007  1008  1009
Auteur Sujet :

Graphical open bar (des infos, des intox, aux extraits de TheInq)

n°4084032
Oxygen3
Tears from the moon
Posté le 19-05-2005 à 20:03:10  profilanswer
 

Reprise du message précédent :

kao98 a écrit :

Moi, c'est tout le contraire [:joce]


 
J'ai jamais compris les critiques qui sont portes a l'egard du control pannel de ATI. Les onglets sont clairs et il n'y a pas a chercher partout pour trouver ce qu'il faut.
 
A l'inverse chez nv, y'a des options dans tous les coins, planques au fond d'une liste a item a derouler pour voir au fond des options.
et la lisibilite du *fameux* menu qui apparait est totalement a chier.
 
Bref je comprends pas  :heink:


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
mood
Publicité
Posté le 19-05-2005 à 20:03:10  profilanswer
 

n°4084070
rycky
Posté le 19-05-2005 à 20:19:16  profilanswer
 

Tu dois avoir des pb avec l'informatique en général non?  :o  ;)  En fait les goût les couleurs ...


Message édité par rycky le 19-05-2005 à 20:25:00
n°4084076
zoldrag
Posté le 19-05-2005 à 20:22:04  profilanswer
 

je suis pas d'accord non plus personnelement je trouve le panel ati assé claire mais celui de nvidia encore plus
 
mais je cherche toujours mon option pour le doublescan moi dans les catalyst , personne peut me repondre ?
avec mon 21 en 800/600 ca chie alors me faut cette option


Message édité par zoldrag le 19-05-2005 à 20:22:28
n°4084077
zycker
Posté le 19-05-2005 à 20:22:26  profilanswer
 

Je crois pas que ça a été dit plus haut dans le topic, mais j'ai vu ça tout à l'heure, dans la review de Anandtech sur la Xbox 360 (dispo ici):
 

Citation :

But the console itself wasn't on, looking at the right of the kiosk you get to see the actual power behind the demos:
http://images.anandtech.com/reviews/tradeshows/2005/E3/day1/xbox360/G5s-3.jpg
A pair of Apple Powermac G5 systems were actually running the Xbox 360 demos, not the 360 console. The consoles in the kiosks weren't actually running, they were just for show - now you know why all the controllers were wired.
 
Because the G5 systems can only use a GeForce 6800 Ultra or an ATI Radeon X800 XT, developers had to significantly reduce the image quality of their demos - which explains their lack luster appearance. Anti-aliasing wasn't enabled on any of the demos, while the final Xbox 360 console will have 4X AA enabled on all titles.
 
We are disappointed that all of Microsoft's Xbox 360 kiosks were running G5 systems as we wanted to see real hardware in action, not behind glass, but Apple should be quite happy.


 
Microsoft qui fait "tourner sa console" avec des Mac G5  :lol:

n°4084084
zoldrag
Posté le 19-05-2005 à 20:24:49  profilanswer
 

zycker a écrit :

Je crois pas que ça a été dit plus haut dans le topic, mais j'ai vu ça tout à l'heure, dans la review de Anandtech sur la Xbox 360 (dispo ici):
 

Citation :

But the console itself wasn't on, looking at the right of the kiosk you get to see the actual power behind the demos:
http://images.anandtech.com/review [...] /G5s-3.jpg
A pair of Apple Powermac G5 systems were actually running the Xbox 360 demos, not the 360 console. The consoles in the kiosks weren't actually running, they were just for show - now you know why all the controllers were wired.
 
Because the G5 systems can only use a GeForce 6800 Ultra or an ATI Radeon X800 XT, developers had to significantly reduce the image quality of their demos - which explains their lack luster appearance. Anti-aliasing wasn't enabled on any of the demos, while the final Xbox 360 console will have 4X AA enabled on all titles.
 
We are disappointed that all of Microsoft's Xbox 360 kiosks were running G5 systems as we wanted to see real hardware in action, not behind glass, but Apple should be quite happy.


 
Microsoft qui fait "tourner sa console" avec des Mac G5  :lol:


 
 
c fort ca  :lol:

n°4084085
Oxygen3
Tears from the moon
Posté le 19-05-2005 à 20:25:21  profilanswer
 

rycky a écrit :

Tu dois avoir des pb avec l'informatique en général non?  :o  ;)  En fait les goût les couleurs ...


 
non pas vraiment (au contraire meme)


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°4084086
mimychatmi​aou
Building Better Worlds
Posté le 19-05-2005 à 20:26:36  profilanswer
 

Mais LOL :lol:
 
Au fait, l'E3 c'est le moment de choper des hotesses, regardez Fuad abazotruc de theInq
 
http://www.the-inquirer.net/images/articles/playboyz.jpg
 
[:neuf] celle de gauche, a droite c'est synthetique a poitrine SLI :D


Message édité par mimychatmiaou le 19-05-2005 à 20:27:21

---------------
Le Luxembourg c'est comme le Mordor, plus tu t'en approches plus le ciel s'assombrit.
n°4084159
asmomo
Posté le 19-05-2005 à 20:49:09  profilanswer
 

Oxygen3 a écrit :

J'ai jamais compris les critiques qui sont portes a l'egard du control pannel de ATI. Les onglets sont clairs et il n'y a pas a chercher partout pour trouver ce qu'il faut.
 
A l'inverse chez nv, y'a des options dans tous les coins, planques au fond d'une liste a item a derouler pour voir au fond des options.
et la lisibilite du *fameux* menu qui apparait est totalement a chier.
 
Bref je comprends pas  :heink:


 
Je suis assez d'accord, même le dépaysement passé quand je veux faire un truc avec le driver nvidia je mets toujours plus de temps à trouver qu'avec l'ati (de base, jamais mis le CCC). Et en plus ça marche pas (notamment le réglage perso de la fréquence du moniteur, si qq1 y arrive qu'il m'explique).

n°4084166
rycky
Posté le 19-05-2005 à 20:50:17  profilanswer
 

Oxygen3 a écrit :

non pas vraiment (au contraire meme)

C'était une plaisanterie... Mais comme dit les gouts et les couleurs, moi j'utilise régulièrement les 2 et je trouve les nv bien plus ergonomiques mais je comprends parfaitement que d'autres ne partagent pas ce point de vue  ;)


Message édité par rycky le 19-05-2005 à 20:53:47
n°4084170
kao98
...
Posté le 19-05-2005 à 20:52:43  profilanswer
 

rycky a écrit :

C'était une plaisanterie... Mais comme dit les gouts et les couleurs, moi j'utilise régulièrement les 2 et je trouve les nv bien plus ergonomiques mais je comprends parfaitment que d'autre ne partage pas ce point de vue  ;)


+1
C'est aussi mon cas !

mood
Publicité
Posté le 19-05-2005 à 20:52:43  profilanswer
 

n°4084175
asmomo
Posté le 19-05-2005 à 20:54:48  profilanswer
 


 
AA 4X sur tous les jeux ? En 1920*1080 ? J'ai comme un doute. Voire même 2  :whistle:

n°4084199
tridam
Profil : Equipe HardWare.fr
Posté le 19-05-2005 à 21:08:18  profilanswer
 

asmomo a écrit :

AA 4X sur tous les jeux ? En 1920*1080 ? J'ai comme un doute. Voire même 2  :whistle:


 
L'archi est faite pour ça.
 
Sinon c'est le 720p qui sera principalement utilisé pour les jeux.

n°4084384
moggbomber
War, war never changes
Posté le 19-05-2005 à 22:35:49  profilanswer
 

ca a bien trollé :D j'ai cru que c'etait reparti sur la magnificence des optis des drivers nividia :lol:
 
heureusement que Zycker nous a appris qqchose sur la fin :jap:
 
mais encore plus merci pour ton image mimychatmiaou [:nafou]. je prefere carrement une fille comme ca (meme celle de droite) qu'une config meme SLI ultra trucmuche avec 8 gpu :lol:

n°4084415
zycker
Posté le 19-05-2005 à 22:47:28  profilanswer
 

Oh oui, flattez moi Blaize  :D
 
Sinon, est-ce que l'on doit avoir peur quand on voit que des jeux Xbox "rament" sur un G5 avec une gf6800 ultra/X800xt (apparement Anandtech ne sait pas vraiment) ?
 
Ou est-ce qu'il faut tenir compte du fait que ce n'est qu'un émulateur, donc n'exploite pas à fond le matériel, tenir compte du fait que la console n'est pas encore sortie et que les jeux ne sont peut-être pas des version définitive ?
 
En tout cas, cela s'annonce bien pour la prochaine génération de jeux :)

n°4084427
LeGreg
Posté le 19-05-2005 à 22:55:20  profilanswer
 

asmomo a écrit :

AA 4X sur tous les jeux ? En 1920*1080 ?


 
1080 c'est 1080 entrelacé donc du temporal antialiasing ;)

n°4084460
magic-sim
Attention, pougnat radioactif
Posté le 19-05-2005 à 23:11:48  profilanswer
 

Marc a écrit :

Ah ben c'est sûr, et personne n'oblige non plus à changer la configuration de sa cg [:petrus75]
 
Mais bon tout de même, niveau ergonomie je trouve qu'il n'y a pas (plus ?) photo


 
Ah ben moi, je la règle quand j'installe les pilotes, et j'y touche plus pendant un mois :D
 
Sinon, niveau ergonomie, c'est sûr, ils sont mieux, même si Oxygen3 a pas tord non plus ;)


---------------
Recueille pougnats islandais suite à éruption volcanique.
n°4084481
Marc
Chasseur de joce & sly
Posté le 19-05-2005 à 23:27:41  profilanswer
 

Je suis pas convaincu du tout. Rien que le mode Theater faut savoir ou il est c'est pas intuitif :o

n°4084522
Oxygen3
Tears from the moon
Posté le 19-05-2005 à 23:58:46  profilanswer
 

Marc a écrit :

Je suis pas convaincu du tout. Rien que le mode Theater faut savoir ou il est c'est pas intuitif :o


 
comment ca c'est pas logique que ca soit dans 'Supperposition'>'Option du mode Clone' ? [:joce]


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°4084587
krumli
Posté le 20-05-2005 à 01:25:50  profilanswer
 

kao98 a écrit :

Heureusement que The Inq passe pas par ce topic ! Sinon, demain, on aurait eu droit à un joli "nVidia à l'agonie !"  :lol:  


 
Nvidia a inventé le SLI ?
Merci pour l'info  :whistle:

n°4084623
blazkowicz
Posté le 20-05-2005 à 03:08:08  profilanswer
 

pilotes NV ou ATI avec panneau de contrôle "normal", qu'est-ce que c'est naze comparés aux 3dfx tools :o

n°4084724
evildeus
Posté le 20-05-2005 à 09:20:48  profilanswer
 

Pour ceux que cela intéresse, une première photo du R520 en action:
http://www.beyond3d.com/news/image [...] mment=R520

n°4084767
syntaxx_er​ror
Posté le 20-05-2005 à 10:08:15  profilanswer
 

Details of ATI's Xbox 360 GPU unveiled : a peek inside the monster new console GPU
 
http://www.techreport.com/etc/2005 [...] dex.x?pg=1
 

Citation :

WITH MICROSOFT'S OFFICIAL announcement of the next-generation Xbox 360 console this week, ATI has decided to disclose some of the architectural details of the graphics processor that it created for the system. I had a brief but enlightening conversation with Bob Feldstein, Vice President of Engineering at ATI, who helped oversee the Xbox 360 GPU project. He spelled out some of the GPU's details for me, and they're definitely intriguing.
 
Feldstein said that ATI and Microsoft developed this chip together in the span of two years, and that they worked "from the ground up" to do a console product. He said that Microsoft was a very good partner with some good chip engineers who understood the problems of doing a non-PC system design. Also, because the part was custom created for a game console, it could be designed specifically for delivering a good gaming experience as part of the Xbox 360 system.  
 
Unified shaders
 
Feldstein cited several major areas of innovation where the Xbox 360 GPU breaks new ground. The first of those is the chip's unified shader array, which does away with separate vertex and pixel shaders in favor of 48 parallel shaders capable of operating on data for both pixels and vertices. The GPU can dynamically allocate shader resources as necessary in order to best address a computational constraint, whether that constraint is vertex- or pixel-related.  
 
This sort of graphics architecture has been rumored as a future possibility for some time, but ATI worried that using unified shaders might cause some efficiency loss. To keep all of the shader units utilized as fully as possible, the design team created a complex system of hardware threading inside the chip itself. In this case, each thread is a program associated with the shader arrays. The Xbox 360 GPU can manage and maintain state information on 64 separate threads in hardware. There's a thread buffer inside the chip, and the GPU can switch between threads instantaneously in order to keep the shader arrays busy at all times.  
 
This internal complexity allows for efficient use of the GPU's computational resources, but it's also completely hidden from software developers, who need only to write their shader programs without worrying about the details of the chip's internal thread scheduling.  
 
http://www.techreport.com/etc/2005q2/xbox360-gpu/block.gif
A block diagram of the Xbox 360 GPU. Source: ATI.
 
On chip, the shaders are organized in three SIMD engines with 16 processors per unit, for a total of 48 shaders. Each of these shaders is comprised of four ALUs that can execute a single operation per cycle, so that each shader unit can execute four floating-point ops per cycle.  
 
These shaders execute a new unified instruction set that incorporates instructions for both vertex and pixel operations. In fact, Feldstein called it a "very general purpose instruction set" with some of the same roots as the DirectX instruction set. Necessarily, the shader language that developers will use to program these shader units will be distinct from the shader models currently used in DirectX 9, including Shader Model 3.0. Feldstein described it as "beyond 3.0." This new shader language allows for programs to contain an "infinite" number of instructions with features such as branching, looping, indirect branching, and predicated indirect. He said developers are already using shader programs with hundreds of instructions in them.  
 
I asked Feldstein whether the shaders themselves are, at the hardware level, actually more general than those in current graphics chips, because I expected that they would still contain a similar amount of custom logic to speed up common graphics operations. To my surprise, he said that the shaders are more general in hardware. At the outset of the project, he said, ATI hired a number of compiler experts in order to make sure everything would work right, and he noted that Microsoft is no slouch when it comes to compilers, either. Feldstein said Microsoft "made a great compiler for it."  
 
At this point, Feldstein paused quickly to note that this GPU was not a VLIW machine, apparently reminded of all of the compiler talk surrounding a certain past competitor. (The GeForce FX was, infamously, a VLIW machine with some less-than-desirable performance characteristics, including an extreme sensitivity to compiler instruction tuning.) He was quite confident that the Xbox 360 GPU will not suffer from similar problems, and he claimed the relative abundance of vertex processing power in this GPU should allow objects like fur, feathers, hair, and cloth to look much better than past technology had allowed. Feldstein also said that character skin should look great, and he confirmed to me that real-time subsurface scattering effects should be possible on the Xbox 360.  
 
The Xbox 360 GPU's unified shader model pays dividends in other places, as well. In traditional pixel shaders, he noted, any shader output is generally treated as a pixel, and it's fed through the rest of the graphics pipeline after being operated on by the shader. By contrast, the Xbox 360 GPU can take data output by the shaders, unaltered by the rest of the graphics pipeline, and reprocess it. This more efficient flow of data, combined with a unified instruction set for vertex and pixel manipulation, allows easier implementation of some important graphics algorithms in real time, including higher-order surfaces and global illumination. I would expect to see fluid animation of complex terrain and extensive use of displacement mapping in Xbox 360 games. Feldstein also pointed out that this GPU should have sufficient muscle to enable the real-time use of other complex shader algorithms as they're invented.
 
System architecture
 
Now that we've delved into the shaders a bit, we should take a step back and look at the bigger picture. The Xbox 360 GPU not only packs a lot of shader power, but it's also the central hub in the Xbox 360 system, acting as the main memory controller as well as the GPU. The Xbox 360 has 512MB of GDDR3 memory onboard running at 700MHz, with a 128-bit interface to ATI's memory controller. The ATI GPU, in turn, has a very low latency path to the Xbox 360's three IBM CPU cores. This link has about 25GB/s of bandwidth. Feldstein said the graphics portion of the chip has something of a crossbar arrangement for getting to memory, but he didn't know whether the CPU uses a similar scheme.  
 
Embedded DRAM for "free" antialiasing
 
The GPU won't be using system memory itself quite as much as one might expect, because it packs 10MB of embedded DRAM right on the package. In fact, the Xbox 360 GPU is really a two-die design, with two chips in a single package on a single substrate. The parent die contains the GPU and memory controller, while the daughter die consists of the 10MB of eDRAM and some additional logic. There's a high-speed 2GHz link between the parent and daughter dies, and Feldstein noted that future revisions of the GPU might incorporate both dies on a single piece of silicon for cost savings.  
 
The really fascinating thing here is the design of that daughter die. Feldstein called it a continuation of the traditional graphics pipeline into memory. Basically, there's a 10MB pool of embedded DRAM, designed by NEC, in the center of the die. Around the outside is a ring of logic designed by ATI. This logic is made up of 192 component processors capable of doing the basic math necessary for multisampled antialiasing. If I have it right, the component processors should be able to process 32 pixels at once by operating on six components per pixel: red, green, blue, alpha, stencil, and depth. This logic can do the resolve pass for multisample antialiasing right there on the eDRAM die, giving the Xbox 360 the ability to do 4X antialiasing on a high-definition (1280x768) image essentially for "free"—i.e., with no appreciable performance penalty. The eDRAM holds the contents of all of the back buffers, does the resolve, and hands off the resulting image into main system memory for scan-out to the display.  
 
Feldstein noted that this design is efficient from a power-savings standpoint, as well, because there's much less memory I/O required when antialiasing can be handled on the chip. He said ATI was very power-conscious in the design of the chip, so that the Xbox 360 could be a decent citizen in the living room.  
 
Conclusions
 
My conversation with Bob Feldstein about the Xbox 360 GPU was quick but, obviously, very compact, with lots of information. I hope that I've gotten everything right, but I expect we will learn more and sharpen up some of these details in the future. Nonetheless, ATI was very forthcoming about the technology inside its Xbox 360 GPU, and I have to say that it all sounds very promising.  
 
For those of you wondering how the Xbox 360 GPU relates to ATI's upcoming PC graphics chips, I wish I could tell you, but I can't. Feldstein said the Xbox 360 GPU "doesn't relate" to a PC product. Some of elements of the design seem impractical for PC use, like the 10MB of embedded DRAM for antialiasing; PCs don't use one single, standard resolution like HDTVs do. Still, it's hard to imagine ATI having some of this technology in its portfolio and not using it elsewhere at some point.

n°4084781
le_noob
Posté le 20-05-2005 à 10:25:59  profilanswer
 

J'ai pas bien compris ce qu'était les shader pipe

n°4084836
magic-sim
Attention, pougnat radioactif
Posté le 20-05-2005 à 11:15:48  profilanswer
 

evildeus a écrit :

Pour ceux que cela intéresse, une première photo du R520 en action:
http://www.beyond3d.com/news/image [...] mment=R520


Coucou Evildeus ;)
 
On voit rien sur la photo :D A part un gros rad en cuivre :D

n°4084847
bjone
Insert booze to continue
Posté le 20-05-2005 à 11:24:01  profilanswer
 

c'est une idée, mais la répartition vertex/pixel ne se fait qu'au niveau des moteurs de x16 unitées, on a donc des ratios vertex/pixel, genre 1/2, 2/1  à un instant T ?  
 
en fait ce qu'il serait interressant de savoir un peu plus, c'est effectivement les régles de répartitions (par pool de 16 unitées comme je pensais à l'instant), et cette config change tous les DrawPrimitive ou un truc du genre...
ou si les unités de x16 pipes, sont désynchronisables au niveau du type de "primitive" manipulée, du style 2 lots font du pixels, 1 lot des vertexs, arrivé à 3/4 de la portion de temps, le lot de vertex peut lacher et recommencer un batch de pixels etc etc...

n°4084854
bjone
Insert booze to continue
Posté le 20-05-2005 à 11:28:35  profilanswer
 

un autre question que je me poses, comment ça se passe lors d'un rendu en texture, y'a un ping-pong entre EDRAM et la ram "classique", ou alors le "PipeComm" peut commettre les écritures en RAM "classique" ?

n°4084861
tridam
Profil : Equipe HardWare.fr
Posté le 20-05-2005 à 11:30:55  profilanswer
 

magic-sim a écrit :

Coucou Evildeus ;)
 
On voit rien sur la photo :D A part un gros rad en cuivre :D


 
Pense à un PCB de 6800U peint en rouge avec le rad des X850XT ;)

n°4084864
tridam
Profil : Equipe HardWare.fr
Posté le 20-05-2005 à 11:32:56  profilanswer
 

bjone a écrit :

un autre question que je me poses, comment ça se passe lors d'un rendu en texture, y'a un ping-pong entre EDRAM et la ram "classique", ou alors le "PipeComm" peut commettre les écritures en RAM "classique" ?


 
A ce que j'ai compris c'est compliqué de réutiliser ce qui est dans l'eDRAM. Il y a des limitations contraignantes. Donc soit il faut faire le rendu dans la RAM, soit dans l'eDRAM et alors à priori le rapatrier dans la RAM avant de le réutiliser.

n°4084871
tridam
Profil : Equipe HardWare.fr
Posté le 20-05-2005 à 11:35:01  profilanswer
 

bjone a écrit :

c'est une idée, mais la répartition vertex/pixel ne se fait qu'au niveau des moteurs de x16 unitées, on a donc des ratios vertex/pixel, genre 1/2, 2/1  à un instant T ?  
 
en fait ce qu'il serait interressant de savoir un peu plus, c'est effectivement les régles de répartitions (par pool de 16 unitées comme je pensais à l'instant), et cette config change tous les DrawPrimitive ou un truc du genre...
ou si les unités de x16 pipes, sont désynchronisables au niveau du type de "primitive" manipulée, du style 2 lots font du pixels, 1 lot des vertexs, arrivé à 3/4 de la portion de temps, le lot de vertex peut lacher et recommencer un batch de pixels etc etc...


 
Moi je vois plutôt ça comme un pipe de tâches qui en envoie une nouvelle dès qu'une place se libère dans un bloc de shader pipes, peu importe que ce soient des pixels ou des vertex.

n°4084882
magic-sim
Attention, pougnat radioactif
Posté le 20-05-2005 à 11:40:25  profilanswer
 

tridam a écrit :

Pense à un PCB de 6800U peint en rouge avec le rad des X850XT ;)


 
Vu que les 6800U ont un PCB sexy...... Hmmmm.
 
Intéressant :D
 
L'a intérêt à pootrer, j'aimerai monter ma 9700 Pro sur l'ordi de sparents avant qu'elle ne soit périmée, de dieu :o


Message édité par magic-sim le 20-05-2005 à 11:40:49
n°4084895
le_noob
Posté le 20-05-2005 à 11:48:39  profilanswer
 

Donc en gros cette archi n'a rien à voir avec un gpu classique !?
 
C'est bizarre ces pipes qui peuvent faire du pixel ou du vertex.

n°4084904
magic-sim
Attention, pougnat radioactif
Posté le 20-05-2005 à 11:54:52  profilanswer
 

Non non, ça fait longtemps qu'on en parle. Le R400 originel devait être comme ça.

n°4084913
le_noob
Posté le 20-05-2005 à 12:00:44  profilanswer
 

Donc il y a de forte chance que le R520 soit comme ça ?

n°4084915
evildeus
Posté le 20-05-2005 à 12:02:13  profilanswer
 

magic-sim a écrit :

Coucou Evildeus ;)

Slt :)
 

Citation :


On voit rien sur la photo :D A part un gros rad en cuivre :D

Va te plaindre au photographe :p

n°4084918
Fouge
Posté le 20-05-2005 à 12:02:54  profilanswer
 

Magic-Sim> Mais on en a fait que parler :o

n°4084941
magic-sim
Attention, pougnat radioactif
Posté le 20-05-2005 à 12:27:09  profilanswer
 

Ben vi, vu que le R400 glisse de génration en génération...


---------------
Recueille pougnats islandais suite à éruption volcanique.
n°4084967
tridam
Profil : Equipe HardWare.fr
Posté le 20-05-2005 à 12:48:52  profilanswer
 

Les noms de code style Rmachin, ce sont devenus des noms marketing. Ils servent à pouvoir parler du produit à l'extérieur et dans les rumeurs.
 
En interne ils ont des autres noms de code comme Fudo (R520), Xenos (R500), Pxxx (R600) etc.

n°4084993
Oxygen3
Tears from the moon
Posté le 20-05-2005 à 13:11:11  profilanswer
 

si j'ai suivi fudo devrait voir l'arriver des SM3 mais que Pxxx les shaders unifiés du type X360
 
le gpu dedans est un truc hybride qui devait etre proche du R400 repoussé en R500 et maintenant en R600 (le Pxxx donc) non ?


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°4084997
bjone
Insert booze to continue
Posté le 20-05-2005 à 13:12:45  profilanswer
 

le_noob a écrit :

Donc il y a de forte chance que le R520 soit comme ça ?


 
la logique industrielle étant d'amortir la R&D avec le plus de produits possible, il serait pour moi étonnant que le R520 ne reprenne pas certaines de ces caractéristiques. (le truc le plus a mettre en doute c'est plustôt l'edram, ou sa taille)

n°4085002
bjone
Insert booze to continue
Posté le 20-05-2005 à 13:15:41  profilanswer
 

le_noob a écrit :

Donc en gros cette archi n'a rien à voir avec un gpu classique !?
 
C'est bizarre ces pipes qui peuvent faire du pixel ou du vertex.


 
c'est une progression dans l'unification. (vu qu'on devrait pouvoir displacer un vertex via une texture filtrée en trilinéaire+ansio, dumoins les shaders de vertex et de pixels devraient avoir presque exactement la même palette de capacitées)

n°4085069
Marc
Chasseur de joce & sly
Posté le 20-05-2005 à 13:57:45  profilanswer
 

Finis les tests synthétiques type test de la vitesse pixel ou vertex shading :cry: :o

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  603  604  605  ..  1004  1005  1006  1007  1008  1009

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Demande infos] Top AchatComment imprimer les infos du bios ?
Quel carte Open Gl la mieux adapte a 3dsMAXBesion d'infos sur les Graveur de DVD chui perdu
couldn't load open glNEC ND-1300: cherche infos
Mise a jour bios KT7A, prob direct x et open gl geforce 2 pro!!Salut je voudrait des infos sur l'instalation d'un processeur
Rech infos sur le nouveau graveur de DVD liteon multiformat !!!![INFOS a la con] si vous avez des PB avec votre ABIT NF7-S REV2.0
Plus de sujets relatifs à : Graphical open bar (des infos, des intox, aux extraits de TheInq)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)