Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1116 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  244  245  246  ..  1004  1005  1006  1007  1008  1009
Auteur Sujet :

Graphical open bar (des infos, des intox, aux extraits de TheInq)

n°3133880
YodaNC
Posté le 15-04-2004 à 14:01:53  profilanswer
 

Reprise du message précédent :

Sonark a écrit :


 
NVIDIA a démenti l'information qu'un constructeur avait fourni a the inquirer (cf. cette news), les GeForce FX 5900XT ne sont pas prêtes à disparaître du marché, enfin, pas tout de suite.
 
voilà tout est dit  ;)  

d'un autre cote les gf 6800 spnt pas pretes d'arriver sur le marche, enfin, pas tout de suite
 
 
:whistle:


---------------
[VDS] Pentax: Grip K10/K20, accessoires ...
mood
Publicité
Posté le 15-04-2004 à 14:01:53  profilanswer
 

n°3133883
syntaxx_er​ror
Posté le 15-04-2004 à 14:02:18  profilanswer
 

Sonark a écrit :


 
C'est là que CG a toute son utilité  :)  

le language Cg de nv tu veux dire ?

n°3133891
syntaxx_er​ror
Posté le 15-04-2004 à 14:05:11  profilanswer
 

6800 ultra Asus (VGA+DVI) :
http://www.clubic.com/photo/00084135.jpg
 
Quant à MSI, il annonce 26db seulement pour son 6800 ultra...


Message édité par syntaxx_error le 15-04-2004 à 14:08:29
n°3133892
Zeross
Posté le 15-04-2004 à 14:05:15  profilanswer
 

JayK a écrit :


 
Toutes les cartes sont vouées à disparaitre un jour. Enfin bref, tant qu'il n'y a pas de déclinaisons moyennes gammes du nv40, je trouverais cet échelonnement bizarre.


 
Lorsque les GF3 Ti sont sorties la GF2 Ultra coûtait plus chère que la Ti200, lorsque les GF4 TI4200 sont sorties les GF3 coûtaient plus chères aussi ;)
 
Des incohérences dans les prix entre plusieurs gammes ça arrive souvent surtout que là contrairement à l'habitude de Nvidia l'absence du qualificatif Ultra ne signifie pas juste une fréquence plus faible mais aussi un chip plus bridé.

n°3133894
suerayate2
TOOL POWAAAA
Posté le 15-04-2004 à 14:06:12  profilanswer
 

Sonark a écrit :


 
NVIDIA a démenti l'information qu'un constructeur avait fourni a the inquirer (cf. cette news), les GeForce FX 5900XT ne sont pas prêtes à disparaître du marché, enfin, pas tout de suite.
 
voilà tout est dit  ;)  


 
en bref, dès la sortie de la gamme 6600 et cie, elle devrait disparaitre non?  
Perso, la 5900 XT est la seule GFFX à avoir un bon rapport perf/prix. Mais je pense qu'elle va perdurer un peu plus qu'on le crois, ce qui n'est pas le cas des version ultra et de la 5950 qui vont disparaitre au profit des 6800 dès juin/juillet, la 5900XT deviendra le milieu de gamme (prix et perf) en attendant les nouvelles série au mois de septembre.

n°3133895
Jayk
Posté le 15-04-2004 à 14:06:13  profilanswer
 

Zeross a écrit :


 
Lorsque les GF3 Ti sont sorties la GF2 Ultra coûtait plus chère que la Ti200, lorsque les GF4 TI4200 sont sorties les GF3 coûtaient plus chères aussi ;)
 
Des incohérences dans les prix entre plusieurs gammes ça arrive souvent surtout que là contrairement à l'habitude de Nvidia l'absence du qualificatif Ultra ne signifie pas juste une fréquence plus faible mais aussi un chip plus bridé.


 
Tout à fait Zeross, Marco l'a d'ailleurs rappellé ...

n°3133900
Sonark
Posté le 15-04-2004 à 14:07:03  profilanswer
 

syntaxx_error a écrit :

le language Cg de nv tu veux dire ?


 
yep. Tu codes un shader en langage de haut niveau (proche du C) et CG va compiler automatiquement pour code le code pour chaque target que tu demandes (PS1.1 pour NV36 ou PS3.0 pour NV40 par exemple). Tu n'as pas besoin ainsi d'écrire un code assembleur PS pour chaque carte vidéo, c'est CG qui le fait pour toi :)

n°3133902
Sonark
Posté le 15-04-2004 à 14:08:42  profilanswer
 

suerayate2 a écrit :


 
en bref, dès la sortie de la gamme 6600 et cie, elle devrait disparaitre non?  
Perso, la 5900 XT est la seule GFFX à avoir un bon rapport perf/prix. Mais je pense qu'elle va perdurer un peu plus qu'on le crois, ce qui n'est pas le cas des version ultra et de la 5950 qui vont disparaitre au profit des 6800 dès juin/juillet, la 5900XT deviendra le milieu de gamme (prix et perf) en attendant les nouvelles série au mois de septembre.


tout dépendra des politiques de Nvidia et ATI à ce moment là...
 
 
 
Edit : faut pas oublier que la 5900XT a été lancée pour reprendre des parts de marché dans un segment où Nvidia était à la ramasse.


Message édité par Sonark le 15-04-2004 à 14:10:06
n°3133912
syntaxx_er​ror
Posté le 15-04-2004 à 14:10:19  profilanswer
 

Sonark a écrit :


 
yep. Tu codes un shader en langage de haut niveau (proche du C) et CG va compiler automatiquement pour code le code pour chaque target que tu demandes (PS1.1 pour NV36 ou PS3.0 pour NV40 par exemple). Tu n'as pas besoin ainsi d'écrire un code assembleur PS pour chaque carte vidéo, c'est CG qui le fait pour toi :)

Ah ouai, c'est bueno comme solution (gain de temps, d'argent)... :) ... Mais le Cg est-il réellement utilisé par les dev today ? Nv a-t-il réussit à imposer son language ? :??:


Message édité par syntaxx_error le 15-04-2004 à 14:10:28
n°3133915
magic-sim
Attention, pougnat radioactif
Posté le 15-04-2004 à 14:11:51  profilanswer
 

syntaxx_error a écrit :

6800 ultra Asus (VGA+DVI) :
http://www.clubic.com/photo/00084135.jpg
 
Quant à MSI, il annonce 26db seulement pour son 6800 ultra...


 
J'aime la photo prise ventilo branché sur autre chose histoire de :
1 ne pas plugger la carte sur une CM et faire une jolie photo (esthétique)
2 : ne pas devoir brancher les deux prises molex "spécial centrale nucléaire" :D (marketting, bah vi, faut pas avoir peur des deux prises molex, ça marche (le ventilo) sans :D)

mood
Publicité
Posté le 15-04-2004 à 14:11:51  profilanswer
 

n°3133918
Sonark
Posté le 15-04-2004 à 14:13:09  profilanswer
 

syntaxx_error a écrit :

Ah ouai, c'est bueno comme solution (gain de temps, d'argent)... :) ... Mais le Cg est-il réellement utilisé par les dev today ? Nv a-t-il réussit à imposer son language ? :??:


 
Oui CG est pas mal implémenté et utilisé dans les studios de dev. Le prob c'est que CG ne génère que du code pour les cartes nvidia actuellement, ATI ne voulant pas fournir pour l'instant des render target pour ses puces (normal, il veut pas promouvoir une solution de nvidia).
 
edit : plus d'infos ici http://www.cgshaders.org/
le toolkit 1.2 est en téléchargement libre


Message édité par Sonark le 15-04-2004 à 14:14:47
n°3133920
YodaNC
Posté le 15-04-2004 à 14:13:54  profilanswer
 

Sonark a écrit :


 
yep. Tu codes un shader en langage de haut niveau (proche du C) et CG va compiler automatiquement pour code le code pour chaque target que tu demandes (PS1.1 pour NV36 ou PS3.0 pour NV40 par exemple). Tu n'as pas besoin ainsi d'écrire un code assembleur PS pour chaque carte vidéo, c'est CG qui le fait pour toi :)

et la compatibilite et optimisation pour ati ? [:joce]
edit: je crois que la reponse est juste au dessus [:joce]


Message édité par YodaNC le 15-04-2004 à 14:15:21

---------------
[VDS] Pentax: Grip K10/K20, accessoires ...
n°3133921
suerayate2
TOOL POWAAAA
Posté le 15-04-2004 à 14:14:06  profilanswer
 

Sonark a écrit :


tout dépendra des politiques de Nvidia et ATI à ce moment là...
 
 
 
Edit : faut pas oublier que la 5900XT a été lancée pour reprendre des parts de marché dans un segment où Nvidia était à la ramasse.


 
hum c vrai que qd on y pense, ca sera vraiment le foutoir question C.G. chez nvidia au mois de juin/juillet... Fx 5200, 5500, 5600, 5700, (5800), 5900 et 6800, ca va en faire du bordel lol

n°3133925
bothary
pas barbare, tasmanien !!
Posté le 15-04-2004 à 14:15:39  profilanswer
 

tiens au fait [:meganne]
 
on peut brancher les 2 molex sur la mm ligne ou il faut les séparer  
 
 
 
pardon si question débile ou déja poser 50x  [:bothary]

n°3133929
Sonark
Posté le 15-04-2004 à 14:16:42  profilanswer
 

YodaNC a écrit :

et la compatibilite et optimisation pour ati ? [:joce]
edit: je crois que la reponse est juste au dessus [:joce]


 
[:dantrax]

n°3133930
syntaxx_er​ror
Posté le 15-04-2004 à 14:16:59  profilanswer
 

Magic-Sim a écrit :


 
J'aime la photo prise ventilo branché sur autre chose histoire de :
1 ne pas plugger la carte sur une CM et faire une jolie photo (esthétique)
2 : ne pas devoir brancher les deux prises molex "spécial centrale nucléaire" :D (marketting, bah vi, faut pas avoir peur des deux prises molex, ça marche (le ventilo) sans :D)

:lol: ...j'avais meme pas fait attention ! Pour la peine, voici la version ventilo power OFF :
 
http://www.clubic.com/photo/00084136.jpg


Message édité par syntaxx_error le 15-04-2004 à 14:19:44
n°3133933
mareek
Et de 3 \o/
Posté le 15-04-2004 à 14:17:16  profilanswer
 

Marc a écrit :


 
- Qualité de rendu des PS ? Ba euh, FP16<FP24<FP32 :o
 
Pour Far Cry, le path utilisé est celui dedié aux GeForce FX pour le moment, ce qui explique que certains shaders soit dans une précision moindre et offrent un moins bon rendu (ou meilleur pour certains qui sont un peu exagérés côté reflexion en FP24 :o ). A la vue de l'architecture GeForce 6, le path GeForce FX n'a aucune utilité et un prochain patch Far Cry devrait permettre de ne plus l'utiliser sur GeForce 6.
 
- Il faudrait que je teste sur Battlefield, alors. Pour s'en débarrasser, il faut configurer l'aniso via le jeu et non pas les drivers, chose que peu de jeux proposent malheureusement. Plus simple, il faudrait que ATI change cela quand on force via les drivers, d'ailleurs en OGL ils ne le font pas. Euh d'ailleurs, Battlefield c'est pas OGL :??:
 
Sinon, c'est clair que les deux se dirigent vers la qualité pour ce qui est de l'aniso. Toutefois en théorie le mode haute qualité des drivers des 60.x n'est pas censé ne rien faire par rapport au mode qualité comme c'est le cas actuellement, mais permettre d'avoir un aniso non optimisé selon les angles, c'est du moins ce que j'en ai compris, ce qui sera donc un bon point : à ATI de suivre NVIDIA de ce côté si c'est bien le cas (proposer les deux)
 

?High Quality? mode is designed to give discriminating users images that do not take advantage of the programmable nature of the texture filtering hardware, and is overkill for everyday gaming. Image quality will be virtually indistinguishable from ?Quality? mode, however overall performance will be reduced. Most competitive solutions do not allow this level of control. Quantitative image quality analysis demonstrates that the NVIDIA ?Quality? setting produces superior image fidelity to competitive solutions therefore ?High Quality? mode is not recommended for benchmarking.




OK :jap:
 
Ce défaut se voit particulièrement sur battlefield (qui est bien un jeu Direct3D) car il y a une grosse différence de qualité entre 2 niveaux de mipmap (le plus éloigné et celui d'avant il me semble). si tu veux tester, monte dans un avion sur une map avec de l'herbe comme bocage.
 :hello:


---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
n°3133937
syntaxx_er​ror
Posté le 15-04-2004 à 14:18:36  profilanswer
 

Sonark a écrit :


 
Oui CG est pas mal implémenté et utilisé dans les studios de dev. Le prob c'est que CG ne génère que du code pour les cartes nvidia actuellement, ATI ne voulant pas fournir pour l'instant des render target pour ses puces (normal, il veut pas promouvoir une solution de nvidia).
 
edit : plus d'infos ici http://www.cgshaders.org/
le toolkit 1.2 est en téléchargement libre

Merci pour ces infos... :jap:

n°3133945
suerayate2
TOOL POWAAAA
Posté le 15-04-2004 à 14:20:49  profilanswer
 

sonark l'expert des CGs :jap:

n°3133948
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 15-04-2004 à 14:21:54  profilanswer
 

syntaxx_error a écrit :

6800 ultra Asus (VGA+DVI) :
http://www.clubic.com/photo/00084135.jpg
 
Quant à MSI, il annonce 26db seulement pour son 6800 ultra...

Cool la carte de référence avec un PCB bleu et un ventilo a néon bleu ... :o


Message édité par Marc le 15-04-2004 à 14:22:11
n°3133962
magic-sim
Attention, pougnat radioactif
Posté le 15-04-2004 à 14:25:26  profilanswer
 

syntaxx_error a écrit :

:lol: ...j'avais meme pas fait attention ! Pour la peine, voici la version ventilo power OFF :
 
http://www.clubic.com/photo/00084136.jpg


 
Aaaaaah, c'est la version de démonstration pour le ventilo (mâte la rallonge pour le câble d'alim :D )
 
Sinon, version single slot  :jap:


Message édité par magic-sim le 15-04-2004 à 14:26:50
n°3133970
Sonark
Posté le 15-04-2004 à 14:27:57  profilanswer
 

Marc a écrit :

Cool la carte de référence avec un PCB bleu et un ventilo a néon bleu ... :o


 
mais non ce n'est pas qu'esthétique. Le néon froid utilisé par Asus permet un meilleur refroidissement et sa douce lumière bleueté combat efficacement le stress de la vie et apporte de ce fait une meilleure sérénité quand tu frag. C'est beau le progrès  :whistle:

n°3133971
syntaxx_er​ror
Posté le 15-04-2004 à 14:27:58  profilanswer
 

Marc a écrit :

Cool la carte de référence avec un PCB bleu et un ventilo a néon bleu ... :o

Ca tombe bien j'adore les PCB bleu, comme ma Hercules GF3 TI 500  :love:...pi là y a le ventilo jacky sur la asus [:tinostar]


Message édité par syntaxx_error le 15-04-2004 à 14:31:42
n°3133992
syntaxx_er​ror
Posté le 15-04-2004 à 14:34:12  profilanswer
 

Sonark a écrit :


 
mais non ce n'est pas qu'esthétique. Le néon froid utilisé par Asus permet un meilleur refroidissement et sa douce lumière bleueté combat efficacement le stress de la vie et apporte de ce fait une meilleure sérénité quand tu frag. C'est beau le progrès  :whistle:  

Le bleu ça va plaire à Michou...http://www.michou.fr/picts/michou.gif...Ceci dit, je vois mal michou jouer à doom3 [:meganne] : "Boooouuu les vilains monstres !!...Ah mais c'qu'il est laid celui là !" [:tinostar]


Message édité par syntaxx_error le 15-04-2004 à 14:40:13
n°3134001
@chewie
Posté le 15-04-2004 à 14:37:26  profilanswer
 

Marc a écrit :

Cool la carte de référence avec un PCB bleu et un ventilo a néon bleu ... :o


Hercules n'est pas mort [:dawa]

n°3134180
Gonishi
Posté le 15-04-2004 à 15:42:35  profilanswer
 

Je me demande si le vrai aniso made by nvidia sera réellement accessible, ça me fait peur cette histoire.
 
Sinon je trouve que le NV40 est dans la même position que le R200 à l'automne 2001, pris en sandwitch entre le R300/350 (GF3/GF3Ti) et le R420 (GF4).
 
Apparement le X800XT va être un 9800XT*2, je vois pas comment il pourrait ne pas être surpuissant en performances brutes.

n°3134184
Oxygen3
Tears from the moon
Posté le 15-04-2004 à 15:44:30  profilanswer
 

c'est un peu vrai (j'ai déjà expliqué pourquoi je trouve qu'il y'a des similitudes GF3/R300 et celles qui devraient arriver avec GF4/R420) mais bon we'll see :o


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°3134185
blazkowicz
Posté le 15-04-2004 à 15:44:31  profilanswer
 

ça , ça a l'air d'être une meilleur comparaison pour far cry
 
http://www.3dchips-fr.com/News/Scr [...] 016382.jpg
http://www.3dchips-fr.com/News/Scr [...] 016539.jpg
 
en espérant que c pas bidonné, genre PS 1.1 pour le screen du dessus :o


Message édité par blazkowicz le 15-04-2004 à 15:44:59
n°3134192
Space_soul
Posté le 15-04-2004 à 15:46:48  profilanswer
 

gonishi a écrit :

Je me demande si le vrai aniso made by nvidia sera réellement accessible, ça me fait peur cette histoire.
 
Sinon je trouve que le NV40 est dans la même position que le R200 à l'automne 2001, pris en sandwitch entre le R300/350 (GF3/GF3Ti) et le R420 (GF4).
 
Apparement le X800XT va être un 9800XT*2, je vois pas comment il pourrait ne pas être surpuissant en performances brutes.


 
Moi c ki m'interesse c l'aniso !  :o

n°3134193
@chewie
Posté le 15-04-2004 à 15:47:37  profilanswer
 

gonishi a écrit :

Je me demande si le vrai aniso made by nvidia sera réellement accessible, ça me fait peur cette histoire.
 
Sinon je trouve que le NV40 est dans la même position que le R200 à l'automne 2001, pris en sandwitch entre le R300/350 (GF3/GF3Ti) et le R420 (GF4).
 
Apparement le X800XT va être un 9800XT*2, je vois pas comment il pourrait ne pas être surpuissant en performances brutes.


Je ne vois pas comment tu ne peux voir comment il ne pourraient etre surpuissante vu qu'il n'y a rien à voir :o A moins d'avoir des infos que tu es le seul à avoir, je ne vois pas comment c'est du tout vu pour toi :D
 
 
sinon il y a un nda pour le r420 ou pas?

n°3134197
blazkowicz
Posté le 15-04-2004 à 15:48:38  profilanswer
 

space_soul a écrit :


 
Moi c ki m'interesse c l'aniso !  :o  


 
et moi du vrai fsaa 8x :o

n°3134200
Space_soul
Posté le 15-04-2004 à 15:49:40  profilanswer
 

@chewie a écrit :


Je ne vois pas comment tu ne peux voir comment il ne pourraient etre surpuissante vu qu'il n'y a rien à voir :o A moins d'avoir des infos que tu es le seul à avoir, je ne vois pas comment c'est du tout vu pour toi :D
 
 
sinon il y a un nda pour le r420 ou pas?


 
-1 suffit de mettre le mode boule de cristal "ON"  :D
 
 
 
OK je sors !  :D

n°3134202
Gonishi
Posté le 15-04-2004 à 15:50:15  profilanswer
 

oxygen3 a écrit :

c'est un peu vrai (j'ai déjà expliqué pourquoi je trouve qu'il y'a des similitudes GF3/R300 et celles qui devraient arriver avec GF4/R420) mais bon we'll see :o


ce qui serait super interessant c'est qu'il se passe la même chose avec un hypothétique X800SE 256 Mo et le 9500 128 Mo  :whistle:  
Mais c'est pas sûr qu'il fasse la même erreur 2 fois. Quoiqu'il peut toujours y avoir un constructeur qui sortira un X800SE sur un pcb de X800XT  [:figti]  
Si c'est le cas faudra se jeter sur les premiers modèles dès le départ pour pouvoir tomber sur un qui à les pipes débloquables.
Je sais je fantasme  :D  :(  :cry:

n°3134204
Gonishi
Posté le 15-04-2004 à 15:51:05  profilanswer
 

space_soul a écrit :


 
Moi c ki m'interesse c l'aniso !  :o  


oui ça me faisait rêver enfin un GPU avec du beau aa et du bel aniso et pis un vrai trilinear aussi.

n°3134206
syntaxx_er​ror
Posté le 15-04-2004 à 15:52:35  profilanswer
 

Blazkowicz a écrit :

ça , ça a l'air d'être une meilleur comparaison pour far cry
 
http://www.3dchips-fr.com/News/Scr [...] 016382.jpg
http://www.3dchips-fr.com/News/Scr [...] 016539.jpg
 
en espérant que c pas bidonné, genre PS 1.1 pour le screen du dessus :o

En effet, la différence est bien visible mais toujours un doute concernant le 1er screen...:/
 
Faudrait faire une screen maison et comparer avec le deuxième ! Y a bien quelqu'un qui a farcry d'installé sur son pc en ce moment !


Message édité par syntaxx_error le 15-04-2004 à 15:53:56
n°3134208
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 15-04-2004 à 15:54:58  profilanswer
 

NVIDIA m'a également envoyé ces screen, mais j'aimerais vérifier le premier pour voir si y'a bien les PS2. Quelqu'un aurait une sauvegarde à ce niveau :??:

n°3134211
Gonishi
Posté le 15-04-2004 à 15:55:41  profilanswer
 

syntaxx_error a écrit :

En effet, la différence est bien visible mais toujours un doute concernant le 1er screen...:/
 
Faudrait faire une screen maison et comparer avec le deuxième ! Y a bien quelqu'un qui a farcry d'installé sur son pc en ce moment !


moi  :jap:
mais je suis pas rendu là


Message édité par Gonishi le 15-04-2004 à 15:56:47
n°3134215
blazkowicz
Posté le 15-04-2004 à 15:56:46  profilanswer
 

ça paraît con que les dev de far cry se soient emmerdés à créer des graphismes quatre fois plus détaillés rien que pour une carte qui sort des mois après leur jeu :o

n°3134217
Zeross
Posté le 15-04-2004 à 15:56:57  profilanswer
 

Le premier screen ressemble a du parallax bump mapping, refaire ça avec des PS1.1 c'est chaud

n°3134218
syntaxx_er​ror
Posté le 15-04-2004 à 15:56:58  profilanswer
 

oki ba si tu as le temps faudrait que tu retrouves le meme endroit où a été pris le screen. Comme ça on pourra comparer sans avoir de doute  :D

n°3134219
Gonishi
Posté le 15-04-2004 à 15:57:15  profilanswer
 

Blazkowicz a écrit :

ça paraît con que les dev de far cry se soient emmerdés à créer des graphismes quatre fois plus détaillés rien que pour une carte qui sort des mois après leur jeu :o
 


c'est mossieur Nvidia aussi

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  244  245  246  ..  1004  1005  1006  1007  1008  1009

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Demande infos] Top AchatComment imprimer les infos du bios ?
Quel carte Open Gl la mieux adapte a 3dsMAXBesion d'infos sur les Graveur de DVD chui perdu
couldn't load open glNEC ND-1300: cherche infos
Mise a jour bios KT7A, prob direct x et open gl geforce 2 pro!!Salut je voudrait des infos sur l'instalation d'un processeur
Rech infos sur le nouveau graveur de DVD liteon multiformat !!!![INFOS a la con] si vous avez des PB avec votre ABIT NF7-S REV2.0
Plus de sujets relatifs à : Graphical open bar (des infos, des intox, aux extraits de TheInq)


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR