Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2592 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  402  403  404  ..  1004  1005  1006  1007  1008  1009
Auteur Sujet :

Graphical open bar (des infos, des intox, aux extraits de TheInq)

n°3283938
blazkowicz
Posté le 21-06-2004 à 22:26:59  profilanswer
 

Reprise du message précédent :
on s'emmerde un peu ces temps-ci..
 
alors voici un résultat étonnant avec la démo RTHDRIBL :D
 
http://www.beyond3d.com/forum/viewtopic.php?t=12107
http://www.hexus.net/content/revie [...] BhZ2U9MTY=
 
http://img.hexus.net/v2/graphics_c [...] hdribl.png

mood
Publicité
Posté le 21-06-2004 à 22:26:59  profilanswer
 

n°3283945
Fouge
Posté le 21-06-2004 à 22:34:04  profilanswer
 

Pas de NV45 ?

n°3283956
blazkowicz
Posté le 21-06-2004 à 22:38:31  profilanswer
 

Fouge a écrit :

Pas de NV45 ?


 
ben il doit pas être très dispo non?
en tt cas c'est pas très grave, NV45 = NV40 :D

n°3283970
tridam
Profil : Equipe HardWare.fr
Posté le 21-06-2004 à 22:44:08  profilanswer
 

PlayTime a écrit :

IL a fallu quasiment un an pour être sûr que les radeon 9800xt (+pro...) sont globalement supérieur au 5950ultra (+5900ultra....)


 
Il a fallu un an aux proNVIDIA aveugles tu veux dire ?

n°3283974
Fouge
Posté le 21-06-2004 à 22:45:42  profilanswer
 

Blazkowicz a écrit :

ben il doit pas être très dispo non?
en tt cas c'est pas très grave, NV45 = NV40 :D


Ha mince vu le graphique (perf proche du RV360) j'ai cru que le NV40 c'était le GF-FX. [:ddr555]


Message édité par Fouge le 21-06-2004 à 22:46:52
n°3283984
tridam
Profil : Equipe HardWare.fr
Posté le 21-06-2004 à 22:49:02  profilanswer
 

moggbomber a écrit :

non mais la je comprends pas le fait de vouloir savoir a tout prix qui de la X800xt ou la 6800u est la plus rapide sur tel ou tel bench de jeu pas encore sorti   :heink:


C'est clair que c'est souvent exagéré.  
 
D'un autre côté si on s'apprête à balancer 600€ dans une carte graphique c'est compréhensible de vouloir savoir avec laquelle on aura la plus grosse et si on en a déjà achetée une on veut clamer/convaincre/se convaincre qu'on a la plus grosse. Ca fait partie de ce qu'on achète avec ces cartes.

n°3283989
syntaxx_er​ror
Posté le 21-06-2004 à 22:51:06  profilanswer
 

Tridam a écrit :

Il a fallu un an aux proNVIDIA aveugles tu veux dire ?

+1 ! La 9800 etait bien supérieure dès le départ, point barre !  :)

n°3283993
syntaxx_er​ror
Posté le 21-06-2004 à 22:51:59  profilanswer
 

PlayTime a écrit :

Spécialiste du mélange censé et incensé en somme ;)

:sol: ...bien résumé ! [:tinostar]

n°3284002
Gonishi
Posté le 21-06-2004 à 22:54:59  profilanswer
 

De toute façon aucun bench avec la 6800 n'aurait du être fait sur far cry tout simplement.

n°3284026
Profil sup​primé
Posté le 21-06-2004 à 23:01:13  answer
 

Gonishi a écrit :

De toute façon aucun bench avec la 6800 n'aurait du être fait sur far cry tout simplement.


 
Je dirais plutot que seul tom'shardware a émis des réserves en faisant un comparatif sérieux sur la qualité des shaders. Ce n'est malheureusement pas le cas des autres testeurs qui se contentent bien souvent de balancer des chiffres.

mood
Publicité
Posté le 21-06-2004 à 23:01:13  profilanswer
 

n°3284027
syntaxx_er​ror
Posté le 21-06-2004 à 23:01:50  profilanswer
 

Gonishi a écrit :

De toute façon aucun bench avec la 6800 n'aurait du être fait sur far cry tout simplement.

http://orken.free.fr/toolaipanow/pano15192.png

n°3284038
blazkowicz
Posté le 21-06-2004 à 23:04:19  profilanswer
 

Fouge a écrit :

Ha mince vu le graphique (perf proche du RV360) j'ai cru que le NV40 c'était le GF-FX. [:ddr555]


 
R360 pas RV360 :p
 
dans l'ordre sur le graphique on voit :
X800XT
9800XT
6800 ultra
 
doit yavoir un pitit problème de driver chez nvidia et/ou le problème des registres refait surface?? (il ya juste eu une grosse amélioration sur ce point, ce bench pourrait être un cas "pathologique" comme on dit)

n°3284092
Profil sup​primé
Posté le 21-06-2004 à 23:22:34  answer
 


 
 [:falcon'eye]


Message édité par Profil supprimé le 21-06-2004 à 23:22:44
n°3284098
Profil sup​primé
Posté le 21-06-2004 à 23:24:04  answer
 


 
c'est quoi la particularité de ce bench? Utilisation massive de shaders 2.0?   :??:

n°3284165
PlayTime
Posté le 22-06-2004 à 00:00:35  profilanswer
 

Tridam a écrit :

Il a fallu un an aux proNVIDIA aveugles tu veux dire ?


 
Perso, j'en étais sûr depuis le début, mais on voit encore (ou voyait encore très récamment) des topics 5950ultra ou 9800xt, 9800pro ou 5900ultra (voir 5900xt :D) et le pire un mec qui a failli se faire entuber par un pote qui voulait lui échange sa 5900ultra contre sa 9800pro très bien o/c avec vga silencer.
 
Par contre pour la nouvelle génération, perso, j'attend la rentrée pour me décider, et j'attend les premiers bon rapport qualité/prix en dessous de 350€ (voir plutôt en dessous de 300€).

n°3284177
blazkowicz
Posté le 22-06-2004 à 00:08:23  profilanswer
 

yoyo3d a écrit :

c'est quoi la particularité de ce bench? Utilisation massive de shaders 2.0?   :??:


 
le truc intéressant c'est qu'il utilise le HDR (et de jolis shaders 2.0 sur les boules)
c'était bien marrant de comparer le résultat des 9500/9700 et des FX.. les FX sont bien plus lentes et le résultat est hideux parce qu'elles ne supportent pas les textures FP16


Message édité par blazkowicz le 22-06-2004 à 00:16:01
n°3284187
tridam
Profil : Equipe HardWare.fr
Posté le 22-06-2004 à 00:12:51  profilanswer
 

PlayTime a écrit :

Perso, j'en étais sûr depuis le début, mais on voit encore (ou voyait encore très récamment) des topics 5950ultra ou 9800xt, 9800pro ou 5900ultra (voir 5900xt :D) et le pire un mec qui a failli se faire entuber par un pote qui voulait lui échange sa 5900ultra contre sa 9800pro très bien o/c avec vga silencer.
 
Par contre pour la nouvelle génération, perso, j'attend la rentrée pour me décider, et j'attend les premiers bon rapport qualité/prix en dessous de 350€ (voir plutôt en dessous de 300€).


Bah c'est normal de se poser la question "9800pro ou 5900xt"... Faut pas abuser dans l'autre sens non plus ;)

n°3284195
PlayTime
Posté le 22-06-2004 à 00:16:58  profilanswer
 

Oui, c'est vrai, la réponse est assez simple mais c'est vrai que tout le monde s'est posé un jour ou l'autre la question  :p .

n°3284212
moggbomber
War, war never changes
Posté le 22-06-2004 à 00:27:18  profilanswer
 

Tridam a écrit :

C'est clair que c'est souvent exagéré.  
 
D'un autre côté si on s'apprête à balancer 600? dans une carte graphique c'est compréhensible de vouloir savoir avec laquelle on aura la plus grosse et si on en a déjà achetée une on veut clamer/convaincre/se convaincre qu'on a la plus grosse. Ca fait partie de ce qu'on achète avec ces cartes.


 
merde moi je me pose pas la question de savoir si je vais avoir la plus grosse  :sweat: c'est grave?  
 
juste si je vais pouvoir mettre toutes les options utiles visuelles a fond et decouvrir que ouai c tout de meme fluide  :sol:  
genre dans des jeux auquels je joue maintenant et ca rame et c chiant  :cry: genre silent storm avec les eclairages a donf, la demo de heroes of WWII pareil... voir toca ud 2 en antialiasé... blitzkrieg en 1280 AA 6x..
des trucs de bases comme ca quoi :o
 
a puis si :D j'oubliais!
avec une ATI je pourrais enfin avoir de l'antialias de folie sur Combat Mission sans avoir 5 mins d'ecran noir a l'init de la 3D  :love:  
(parrait que c la faute aux drivers nvidia (pourtant les meilleurs au monde de l'univers  :ange: ) c vrai que ca marche bien mieux sur ATI mais c vrai c pas un jeu de bench :o alors il est un peu oublié par certains constructeurs :D )


---------------
"les principes ne sont rien si ils ne sont pas confrontés au réel, sinon ils se transforment en dogmes"
n°3284215
jojolapin
Posté le 22-06-2004 à 00:29:58  profilanswer
 

Il me semble me souvenir qu'il a fallu attendre l'été 2003 avec les "affaires" Tomb Raider et Half life 2 pour qu'on se rende compte que les FX étaient vraiment des grosses bouses (et pas juste des cartes un peu moins bien).

n°3284233
tridam
Profil : Equipe HardWare.fr
Posté le 22-06-2004 à 00:52:42  profilanswer
 

Disons que le problème est que sur les forums la majorité des gens parlent soit de "mega bombe qui déchire tout" soit de "grosse bouse arnaque marketing". Donc forcément quand la majorité passe de mega bombe et grosse bouse ça donne une impression de gros changement.
 
Maintenant perso j'ai dit très rapidement que les FX (qui avaient déjà été annoncées à ce moment-là) c'était de la daube en floating point et donc en DX9. Après bon il faut le temps que ça rentre dans les esprits. Pour les FX plus récentes (nv35/36/38) j'ai dit que c'était mieux mais que ça restait en dessous de ce que proposait ATI en DX9. Je n'ai jamais changé d'opinion à ce niveau ni fait de méga découverte en jouant à Tomb Raider. Par contre entre le paper launch (novembre 2002) et fin décembre là j'ai vu que l'article que j'avais fait pour présenter le NV30 était tout pourri (comme tous les articles lors de paper launch en gros). Après ce sont les quelques testeurs qui ont eu la chance de tester le NV30 en 2 jours (fallait aller vite avant que 3dmark03 ne sorte) qui se sont fait entuber par NVIDIA et qui ont induit les gens en erreur. Et vu que les tests restent en ligne même quand ils se sont avérés être boiteux... Au contraire des news qui corrigent le tir et qui n'ont qu'une journée de visibilité...

n°3284251
moggbomber
War, war never changes
Posté le 22-06-2004 à 01:12:04  profilanswer
 

ben oui faut se rappeler de la sortie de la nv30 avec le FxFlow. c'etait une carte mega boostée et bidouillée. moi des que j'ai lu les previews je m'en suis rendu compte et j'etais loin d'etre le seul :lol:
 
en plus vu les annonces de nvidia et son cineFX et tout son enorme bordel marketing on s'est vite rendu compte que c'etait un carte pourrie.
 
c sur les nvidiots ont sorti l'argument des drivers "miraculeux" qu'il fallait attendre mais ca tenait pas des masses non plus.
 
mais c'est vrai qu'on n'avait pas encore les preuves. juste de fortes intuitions ;)
 
avec le 6800 ce qui nous fait encore douter je pense c plutot ca, le lancement "épique" du nv30. on se demande si y a pas encore une anguille  sous roche qu'on aurait pas encore vu.
 
mais la j'en doute.  
ou alors nvidia serait devenu trés fort pour nous cacher un truc encore pire :D
 
mais serieux je pense pas. je pense que chez nvidia ils ont su se rendre compte de leurs erreurs sur le nv30. ils avaient pas pensé que ati pouvait faire un trés bon chip. maintenant ils le savent et vont faire avec :jap:


---------------
"les principes ne sont rien si ils ne sont pas confrontés au réel, sinon ils se transforment en dogmes"
n°3284290
bjone
Insert booze to continue
Posté le 22-06-2004 à 02:11:33  profilanswer
 

en fait tout ça est dû à une certaine inertie des esprits.
 
quand 3dfx était au top (la période voodoo1/voodoo2), ce qui en achetaient la conseillaient, logique, mais les gens achetaient des bouse styles les ATI de l'époque.
 
quand nV a perçé avec la geforce 1, c'était les voodoo3/4 qui se vendait...
 
quand ATI a perçé avec la radeon, des gens continuait à acheter nV dû au passif de bon produits.
 
le prob, c'est que tu peux voir 2 type d'acheteur (y'a d'autre tendances c'est vrai):
 
ceux qui ont en rien à foutre et qui remettent les pendules à l'heure à chaque génération de produit.
 
et ceux qui sont désépérement décallés :D  
 
bon spa bien grave tu me diras.

n°3284311
SolidShark
PSN: SolidShark
Posté le 22-06-2004 à 03:29:37  profilanswer
 

:hello:  
Tu es tjs en vie  :o

n°3284315
Gonishi
Posté le 22-06-2004 à 04:53:09  profilanswer
 

bjone a écrit :

en fait tout ça est dû à une certaine inertie des esprits.
 
quand 3dfx était au top (la période voodoo1/voodoo2), ce qui en achetaient la conseillaient, logique, mais les gens achetaient des bouse styles les ATI de l'époque.
 
quand nV a perçé avec la geforce 1, c'était les voodoo3/4 qui se vendait...
 
quand ATI a perçé avec la radeon, des gens continuait à acheter nV dû au passif de bon produits.
 
le prob, c'est que tu peux voir 2 type d'acheteur (y'a d'autre tendances c'est vrai):
 
ceux qui ont en rien à foutre et qui remettent les pendules à l'heure à chaque génération de produit.
 
et ceux qui sont désépérement décallés :D  
 
bon spa bien grave tu me diras.


y a surtout des gens pour qui 1 an c'est une période relativement courte, et d'autres pour qui c'est une durée astronomique. (la relativité tout ça  :whistle:  [:totoelectroforum] )
 
On m'avait sorti fin 2001 que la tnt2 était une super carte (donc un peu 2 ans de retard  :D ).

n°3284341
evildeus
Posté le 22-06-2004 à 07:53:39  profilanswer
 

Tridam a écrit :

Il a fallu un an aux proNVIDIA aveugles tu veux dire ?

Ouais, parce que je sais pas ou il a vu ca lui  :ange:


---------------
But if they think they're going to hold onto it, they're smoking something hallucinogenic - Jen-Hsun Huang
n°3284363
evildeus
Posté le 22-06-2004 à 08:32:41  profilanswer
 

Tiens les 60.85 WHQL ont été validé par FM, on se demande pourquoi Nv l'a spécifiquement demandé... ah oui p e à cause de ca:
http://www.futuremark.com/community/halloffame/ :whistle:


---------------
But if they think they're going to hold onto it, they're smoking something hallucinogenic - Jen-Hsun Huang
n°3284368
Profil sup​primé
Posté le 22-06-2004 à 08:39:24  answer
 

bjone a écrit :


 
quand nV a perçé avec la geforce 1, c'était les voodoo3/4 qui se vendait...
 


 
D'abord quand les GF1 sont sortis il n'y avait en face que la voodoo3.
Les voodoo 4/5 sont sortis en même temps que les GF2.
Ensuite la GF1 est un succès commercial alors que les voodoo4/5 n'ont pas du se vendre des masses.

n°3284404
Oxygen3
Tears from the moon
Posté le 22-06-2004 à 09:23:31  profilanswer
 

evildeus a écrit :

Tiens les 60.85 WHQL ont été validé par FM, on se demande pourquoi Nv l'a spécifiquement demandé... ah oui p e à cause de ca:
http://www.futuremark.com/community/halloffame/ :whistle:


 
c flippant:
nv   vs   ATI
171xx vs 168xx
Game1 450 vs 412
Game4 92 vs 116
donc en fait nv passse devant grace aux perfs du Game1 (et un peu du Game2 et 3 aussi) :/


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°3284411
magic-sim
Attention, pougnat radioactif
Posté le 22-06-2004 à 09:30:27  profilanswer
 

Tridam a écrit :

Disons que le problème est que sur les forums la majorité des gens parlent soit de "mega bombe qui déchire tout" soit de "grosse bouse arnaque marketing". Donc forcément quand la majorité passe de mega bombe et grosse bouse ça donne une impression de gros changement.
 
Maintenant perso j'ai dit très rapidement que les FX (qui avaient déjà été annoncées à ce moment-là) c'était de la daube en floating point et donc en DX9. Après bon il faut le temps que ça rentre dans les esprits. Pour les FX plus récentes (nv35/36/38) j'ai dit que c'était mieux mais que ça restait en dessous de ce que proposait ATI en DX9. Je n'ai jamais changé d'opinion à ce niveau ni fait de méga découverte en jouant à Tomb Raider. Par contre entre le paper launch (novembre 2002) et fin décembre là j'ai vu que l'article que j'avais fait pour présenter le NV30 était tout pourri (comme tous les articles lors de paper launch en gros). Après ce sont les quelques testeurs qui ont eu la chance de tester le NV30 en 2 jours (fallait aller vite avant que 3dmark03 ne sorte) qui se sont fait entuber par NVIDIA et qui ont induit les gens en erreur. Et vu que les tests restent en ligne même quand ils se sont avérés être boiteux... Au contraire des news qui corrigent le tir et qui n'ont qu'une journée de visibilité...


 
Moi dés que j'ai vu le rouleau-compresseur de la campagne Are-You-Ready : je me suis dit : méfions-nous. Et le paper-launch l'a confirmé. y'avait trop de gerbé marketting pour que ce soit honnête......  [:tilleul]

n°3284420
magic-sim
Attention, pougnat radioactif
Posté le 22-06-2004 à 09:32:46  profilanswer
 

oxygen3 a écrit :

c flippant:
nv   vs   ATI
171xx vs 168xx
Game1 450 vs 412
Game4 92 vs 116
donc en fait nv passse devant grace aux perfs du Game1 (et un peu du Game2 et 3 aussi) :/


 
Vieilles technos paw@

n°3284453
moggbomber
War, war never changes
Posté le 22-06-2004 à 10:05:25  profilanswer
 

nan c'est optimisé pour DoomIII c tout :o
 
 
 
 :ange:


---------------
"les principes ne sont rien si ils ne sont pas confrontés au réel, sinon ils se transforment en dogmes"
n°3284506
evildeus
Posté le 22-06-2004 à 10:46:46  profilanswer
 

N'oubliez pas que la GF6800 est un peu faible en VS. Généralement le X800 est devant oui.


---------------
But if they think they're going to hold onto it, they're smoking something hallucinogenic - Jen-Hsun Huang
n°3284576
worm'skill​er
Le roi de la petit côte
Posté le 22-06-2004 à 11:17:27  profilanswer
 

ce qui est le plus limitant c les pixels ou vertex shaders? vous pouvez expliquer leurs rôles svp?


---------------
"le prix passe, la qualité reste"
n°3284641
Profil sup​primé
Posté le 22-06-2004 à 11:34:55  answer
 

La je vais peut-être passer pour un c**, mais le T&L dont on a tellement parler à la sorti de la Geforce 256 par exemple il est où.
Ce T&L s'est développer en, unité de calcule PixelShader et VertexShader?  :heink:
 
Car j'ai lu quelque par que ATI ne supportait plus le T&L qui via ses Shader, par contre Nvidia avait garder une unité T&L.
Bref, je ne comprends rien, quelqu'un pourrais m'expliquer en 2 ou 3 mots.
Merci  :D


Message édité par Profil supprimé le 22-06-2004 à 11:36:45
n°3284735
ATI Scope
Posté le 22-06-2004 à 12:09:30  profilanswer
 

Pour simplifier : le T&L était des fonctions fixes de transformations géometriques et de calcul sur les textures, ces fonctions ne sont plus fixes et sont devenues les Vertex Shader et le Pixel Shader


Message édité par ATI Scope le 22-06-2004 à 12:10:07
n°3284765
Fouge
Posté le 22-06-2004 à 12:19:18  profilanswer
 

Et sur les dernières cartes d'ATI et nVidia, le T&L est "émulé" via les Vertex Shader.
 
edit:
Apparemment, les GeForce FX avaient encore une unité dédiée au T&L:
http://www.hardware.fr/medias/photos_news/00/07/IMG0007684.gif


Message édité par Fouge le 22-06-2004 à 12:24:51
n°3284876
bjone
Insert booze to continue
Posté le 22-06-2004 à 12:53:25  profilanswer
 

vi tout a fait....

n°3284886
bjone
Insert booze to continue
Posté le 22-06-2004 à 12:55:26  profilanswer
 

Pgase a écrit :

Rectif... nv avait perçé bien avant c'la... :D


 
oué svrai, mais bon je pense que vous avez compris ce que je voulais dire.... (y'a les serial retardataires)

n°3284911
bjone
Insert booze to continue
Posté le 22-06-2004 à 13:04:30  profilanswer
 

worm'skiller a écrit :

ce qui est le plus limitant c les pixels ou vertex shaders? vous pouvez expliquer leurs rôles svp?


 
 
ton image 3D, elle est construite à partir de triangles oki.
 
les sommets des triangles qui sont des points 3D, on appelles ça des vertices. (un vertex des vertices, et moi je me plante souvant à dire vertexs au pseudo-pluriel).
 
le vertex shader, ou l'unité T&L, ça sert à d'une part calculer l'éclairage, mais surtout à "projeter" ton point 3D sur le plan 2D/pseudo-3D de l'écran.
 
un fois que tu as tes points 3D projeté, le "Triangle Setup" prépare tous les gradiants (interpolateurs), et fait remplir la surface du triangle par le Pixel Shader.
 
tout ce petit monde travaille en recouvrement de temps, ce qui veux dire que pour simplifier, pendant l'unité T&L/VS transforme un vertex du triangle, le triangle précédent est travaillé dans le Triangle Setup, le triangle encore précédent est en cours de remplissage.
 
ce qui fait que les performances générales sont bridées par l'étape la plus lente.
 
généralement c'est le remplissage (Pixel Shader), mais si ton maillage géométrique deviens trop important le temps VS passe devant le temps PS, c'est le VS qui deviens bridant.
ceci explique pourquoi on utilise un LOD géométrique, ceci afin lorsque le modèle est loin, d'avoir le même ratio temps géométrique/temps de remplissage.
 
accessoirement lorsque tu fais de l'éclairage par pixel, les calculs d'éclairage sont déportés du Vertex Shader au Pixel Shader, et le VS ne fait que préparer quelques données pour les calculer au niveau du Pixel Shader.

n°3284954
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 22-06-2004 à 13:25:54  profilanswer
 

Pour Zeross et ceux que ca interresse, voici plus de résultats glReadPixels :
 
6800 AGP : 605.5 Mo /s
6800 PCI Express : 166.8 Mo /s
 
5900 AGP : 133.1 Mo /s
5900 PCI Express : 191.7 Mo /s
 
9600 AGP : 95.2 Mo /s
X600 PCI Express : 175.8 Mo /s
 
X800 AGP : 97.2 Mo /s
 
En gros, difficile de tirer des conclusions sur l'interface, à mon avis il y'a pas mal de boulot a effectuer côté drivers ...


Message édité par Marc le 22-06-2004 à 21:34:37
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  402  403  404  ..  1004  1005  1006  1007  1008  1009

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Demande infos] Top AchatComment imprimer les infos du bios ?
Quel carte Open Gl la mieux adapte a 3dsMAXBesion d'infos sur les Graveur de DVD chui perdu
couldn't load open glNEC ND-1300: cherche infos
Mise a jour bios KT7A, prob direct x et open gl geforce 2 pro!!Salut je voudrait des infos sur l'instalation d'un processeur
Rech infos sur le nouveau graveur de DVD liteon multiformat !!!![INFOS a la con] si vous avez des PB avec votre ABIT NF7-S REV2.0
Plus de sujets relatifs à : Graphical open bar (des infos, des intox, aux extraits de TheInq)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)