Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2773 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  582  583  584  ..  1004  1005  1006  1007  1008  1009
Auteur Sujet :

Graphical open bar (des infos, des intox, aux extraits de TheInq)

n°4016015
Zeross
Posté le 18-04-2005 à 17:25:22  profilanswer
 

Reprise du message précédent :

bjone a écrit :

ptet que l'OpenGl est plus mature à ce niveau (Zeross), mais il me semble bien que pour Quake 3 aussi, si tu déplaçes la fenêtre d'un écran à l'autre y'a grosse pénalitée (je me souviens plus, je réessayerai ce soir)


 
OpenGL et le bi écran c'est une horreur, tout du moins sur nVidia. Pendant un moment j'étais obligé de le désactiver sinon Doom 3 se lançait à 5fps, même en full screen et même sans toucher à la fenêtre. Idem pour les démos OpenGL nVidia (Dawn & co...).
 
Avec des Detonator plus récent je n'avais plus de problème mais j'ai pas trop poussé les tests.
 

Citation :

de la même manière, si tu veux utiliser les deux adaptateurs virtuels pour les deux sorties plein écran, tu te retrouves avec le double de mémoire vidéo consommée pour les mêmes ressources. et aussi le double de ram système si tu est en D3DPOOL_MANAGED, ce qui t'obliges à tout foutre en DEFAULT, et à faire ton propre algo de gestion d'upload et tout et tout.


 
Pour ça en OpenGL je pense qu'en créant deux RC et en partageant leurs ressources via wglShareLists ça doit passer, je me suis jamais penché sur la gestion multi screen mais rien qu'à t'entendre ça a l'air d'être un sacré bordel :D


Message édité par Zeross le 18-04-2005 à 17:25:44
mood
Publicité
Posté le 18-04-2005 à 17:25:22  profilanswer
 

n°4016054
bjone
Insert booze to continue
Posté le 18-04-2005 à 17:37:38  profilanswer
 

bin pour moi, au niveau API, le Direct3D est pas mûr à ce niveau.
c'est l'une des raisons qui je pense, entre autres, oblige les équipes de conception des drivers à partitionner virtuellement la carte avec une carte primaire & secondaire.
 
c'est con, parceque pour gérer deux chaines de présentation full-screen, y doit pas manquer grand chose (un système d'énumération et de sélection des sorties sur écran, et un attachement modifiable à une chaine de présentation, dumoins c'est comme ça qu'est appellé l'ensemble front/back & autres buffers en D3D ).

n°4016067
bjone
Insert booze to continue
Posté le 18-04-2005 à 17:40:36  profilanswer
 

en fait la seule solution actuellement retenue pour pas ramer et pas se faire chier au niveau de la prog, c'est de faire les modes ultra larges. (ça doit être comme ça que fonctionne le surround gaming, un ptit 3000x768 et des broutilles, et l'appli y voit que dalle à partir du moment où elle fait le bon rapport d'aspect sur les champs de visions horizontaux/verticaux).
 
enfin j'ai pas creusé la question plus que ça.

n°4016091
blazkowicz
Posté le 18-04-2005 à 17:52:16  profilanswer
 

je peux pas tester de tte façon ma gf4 n'a qu'une seule sortie VGA :o
quand je faisais du multi-écran (et je risque de m'y remettre) c'était avec une S3 virge 4Mo en plus [:aloy]

n°4016096
asmomo
Modérateur
Posté le 18-04-2005 à 17:55:44  profilanswer
 

bjone : oui c'est ça le surround gaming, et c'est ça que les ATI ne savent pas faire.


Message édité par asmomo le 18-04-2005 à 17:56:08
n°4016103
bjone
Insert booze to continue
Posté le 18-04-2005 à 18:01:51  profilanswer
 

Zeross a écrit :

OpenGL et le bi écran c'est une horreur, tout du moins sur nVidia. Pendant un moment j'étais obligé de le désactiver sinon Doom 3 se lançait à 5fps, même en full screen et même sans toucher à la fenêtre. Idem pour les démos OpenGL nVidia (Dawn & co...).
 
Avec des Detonator plus récent je n'avais plus de problème mais j'ai pas trop poussé les tests.
 

Citation :

de la même manière, si tu veux utiliser les deux adaptateurs virtuels pour les deux sorties plein écran, tu te retrouves avec le double de mémoire vidéo consommée pour les mêmes ressources. et aussi le double de ram système si tu est en D3DPOOL_MANAGED, ce qui t'obliges à tout foutre en DEFAULT, et à faire ton propre algo de gestion d'upload et tout et tout.


 
Pour ça en OpenGL je pense qu'en créant deux RC et en partageant leurs ressources via wglShareLists ça doit passer, je me suis jamais penché sur la gestion multi screen mais rien qu'à t'entendre ça a l'air d'être un sacré bordel :D


 
en fait de la même manière je trouve que l'énumération des moniteurs est chiatique sur ma 6800GT, alors sur mon ancienne 9800pro c'était cohérent (port VGA: moniteur 1, DVI: moniteur 2, ou inversement, mais CONSTANT).
alors qu'avec la 6800GT, un coup la sortie VGA elle part en moniteur 1, tu mets le deuxième ça s'inverse, tu rebootes ça s'inverse, tu dévranches tu rebootes ça fait encore un truc différent.
 
en fait chez ATI l'énumération au niveau de Windows même est constante, alors que chez nVidia, c'est le premier moniteur trouvé qui prends le l'id 1, et si tu rebootes et que tu rebranches un autre moniteur ça peut tourner encore  :pt1cable:  c'est des malades  :fou: ça je comprends pas ATI arrive pour le coup à faire un truc plus cohérent et stable dans la logique que nV. (trop lol le coup des 4 moniteurs détecté aussi sur la 6800Gt).
 
enfin bref, pour ton coup avec Doom 3, il suffit que le driver nVidia se soit encore emmélé les pinceaux entre qui est l'affichage primaire et qui est le secondaire (enfin le deuxième). et zou un ping-pong à la con du front ou back buffer entre les deux cartes virtuelles :lol:  :cry:


Message édité par bjone le 18-04-2005 à 18:04:43
n°4016106
bjone
Insert booze to continue
Posté le 18-04-2005 à 18:03:50  profilanswer
 

asmomo a écrit :

bjone : oui c'est ça le surround gaming, et c'est ça que les ATI ne savent pas faire.


 
à part le fait de n'avoir que deux sorties écran, le hardware devrait être capable de le faire. enfin ptet qu'en gueulant assez fort, les fabricants ré-architectureront leur drivers pour, et ptet que le prochain DX on pourra assigner volontairement une chaine de présentation à une sortie de moniteur précise :/

n°4016108
magic-sim
Attention, pougnat radioactif
Posté le 18-04-2005 à 18:05:51  profilanswer
 

Fouge a écrit :

Cartes graphiques : Intérêt des solutions multicartes, multi-GPU pour le marché grand public
http://www.onversity.net/cgi-bin/p [...] ob&P=a0705


Toujours aussi bon :)


---------------
Recueille pougnats islandais suite à éruption volcanique.
n°4016489
bjone
Insert booze to continue
Posté le 18-04-2005 à 20:10:27  profilanswer
 

j'ai pas compris l'intention de:
 

Citation :

Ainsi si en 640x480 on effectue un calcul de rendu sur des groupes de 64 pixels on pourrait voir apparaitre une certaine pixelisation (sur brouillard, ombre,...), alors qu'en 1600x1200, toujours pour un groupe de 64 pixels, cette perception disparaitra


 
hormis que la pixelisation baisse avec la montée en résolution, je vois pas le rapport entre la qualité et le nombre de pixels (le groupe de 64)...
à priori c'était pour indiquer que c'est en haute-résolution qu'il y a une forte demande de performances au niveau débit de pixel, et que c'est là que c'est rentable d'avoir beaucoup de pipes ou autre, mais ce n'est pas un comprimis vis à vis de la qualité.

n°4016509
bjone
Insert booze to continue
Posté le 18-04-2005 à 20:14:19  profilanswer
 

sinon Thief 2 / NOLF 2 très bonnes référence de game-play (barbarella  :jap: ), mais bon c'est pas un argument pour dire que l'industrie des cartes 3D et les devs de jeux se foutent de nous.
 
de mémoire NOLF2 était surtout jouissif au niveau du gameplay et du style artistique, mais le moteur ne m'avais pas non plus renversé, ceci dit l'animation faciale débiffait et on comprends pourquoi Valve a bossé ce coté là pour HL².
 

mood
Publicité
Posté le 18-04-2005 à 20:14:19  profilanswer
 

n°4016632
mimychatmi​aou
Building Better Worlds
Posté le 18-04-2005 à 20:48:17  profilanswer
 

bjone a écrit :

sinon Thief 2 / NOLF 2 très bonnes référence de game-play (barbarella  :jap: ), mais bon c'est pas un argument pour dire que l'industrie des cartes 3D et les devs de jeux se foutent de nous.
 
de mémoire NOLF2 était surtout jouissif au niveau du gameplay et du style artistique, mais le moteur ne m'avais pas non plus renversé, ceci dit l'animation faciale débiffait et on comprends pourquoi Valve a bossé ce coté là pour HL².


 
 :love: Cate archer :love: Sinon le moteur etait effectivement tres potable, mais pas de "claque" ouaaaaah c bo + screenshot.


---------------
Le Luxembourg c'est comme le Mordor, plus tu t'en approches plus le ciel s'assombrit.
n°4016796
bjone
Insert booze to continue
Posté le 18-04-2005 à 21:56:21  profilanswer
 

bah ce qui m'avait surtout baffé c'est l'animation des perso, surtout le visage, et l'ambiance qui déchire pas mal.

n°4016818
Oxygen3
Tears from the moon
Posté le 18-04-2005 à 22:01:52  profilanswer
 

dans le genre wow c'est beau, RTCW était pas mal aussi dans son genre hein :)
et pourtant c'était un bete moteur de Q3 ...


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°4018419
syntaxx_er​ror
Posté le 19-04-2005 à 17:16:54  profilanswer
 

Nvidia tapes out G70 silicon
 
http://www.the-inquirer.com/?article=22645
 

Citation :

WE JUST LEARNED that Nvidia taped out its next-generation graphics chip codenamed G70.
 
Whispers say that it's in good shape and that the first silicon is up and running nicely. Our pro-Nvidia sources believe that it will end up faster than ATi's R520, but ATiers will pooh-pooh that claim, for sure.  
 
We don't have much information about specifics but we strongly believe that the G70 will be released very close to the R520's shipping date.  
 
And we're told that this should happen sometime in the autumn but we don't always believe what we're told. Shipping and announcement dates have slipped too many times in the past so we like to take a large portion of salt with our regurgitations. Engineering is hard work and is very unpredictable.


 
Que de mystères autour de ce G70  [:chacal_one333]...Reste à voir aussi si ce "Tape out" est vrai  [:ninipc]


Message édité par syntaxx_error le 19-04-2005 à 17:23:59
n°4018608
magic-sim
Attention, pougnat radioactif
Posté le 19-04-2005 à 18:59:24  profilanswer
 

Le R520 est donné pour taped out depuis quand ? :D


---------------
Recueille pougnats islandais suite à éruption volcanique.
n°4018679
Oxygen3
Tears from the moon
Posté le 19-04-2005 à 19:28:47  profilanswer
 
n°4018752
tridam
Profil : Equipe HardWare.fr
Posté le 19-04-2005 à 20:05:35  profilanswer
 

syntaxx_error a écrit :

Nvidia tapes out G70 silicon
 
http://www.the-inquirer.com/?article=22645
 

Citation :

WE JUST LEARNED that Nvidia taped out its next-generation graphics chip codenamed G70.
 
Whispers say that it's in good shape and that the first silicon is up and running nicely. Our pro-Nvidia sources believe that it will end up faster than ATi's R520, but ATiers will pooh-pooh that claim, for sure.  
 
We don't have much information about specifics but we strongly believe that the G70 will be released very close to the R520's shipping date.  
 
And we're told that this should happen sometime in the autumn but we don't always believe what we're told. Shipping and announcement dates have slipped too many times in the past so we like to take a large portion of salt with our regurgitations. Engineering is hard work and is very unpredictable.


 
Que de mystères autour de ce G70  [:chacal_one333]...Reste à voir aussi si ce "Tape out" est vrai  [:ninipc]


 
Inquirer fume hein. Ils annoncent des taped out quand ils n'ont rien d'autre à faire.

n°4018756
asmomo
Modérateur
Posté le 19-04-2005 à 20:07:15  profilanswer
 

Tiens, The Inq qui précise bien que c'est pas du tout sûr dans une news, c'est nouveau non ?

n°4018799
syntaxx_er​ror
Posté le 19-04-2005 à 20:24:51  profilanswer
 

asmomo a écrit :

Tiens, The Inq qui précise bien que c'est pas du tout sûr dans une news, c'est nouveau non ?

De toute façon, si le G70 est un monstre de puissance, je suis persuadé qu'il ne sortira pas en juin mais bien à l'automne comme l'avait laissé penser un mec de chez nv dans une récente interview...Pour juin, ça serait plutot du 6800 boosté...Bref, je pense que The Inq fabule une fois de plus... [:tilleul]  

n°4018949
Cid156
Posté le 19-04-2005 à 21:28:47  profilanswer
 

?
 
Ils ont deja amorti les 6800 ?
 
6950Powa


Message édité par Cid156 le 19-04-2005 à 22:26:42
n°4019088
asmomo
Modérateur
Posté le 19-04-2005 à 22:24:24  profilanswer
 

Je pense aussi qu'il manque une 6850Ultra/GT avant de passer à la génération suivante, je verrais bien le G70 pour l'automne réellement dispo pour noël, et entre temps ce 6850 pour l'été et l'automne.

n°4019128
nick_olas
Antiquaire en VGA :o
Posté le 19-04-2005 à 22:42:24  profilanswer
 

Cid156 a écrit :

?
 
Ils ont deja amorti les 6800 ?
 
6950Powa


 
Nope mais les 6200(TC) vont longtemps y contribuer (on amorti une archi, pas un chip haut gamme). :o.
 
edit: les ()  :kaola:


Message édité par nick_olas le 20-04-2005 à 11:58:18
n°4019692
bjone
Insert booze to continue
Posté le 20-04-2005 à 10:53:23  profilanswer
 

les 6200TC amortissent surtout la R&D sur la virtualisation de l'espace mémoire :D

n°4019887
le_noob
Posté le 20-04-2005 à 11:59:32  profilanswer
 

Vous savez pas où je pourrais trouver une liste de portable avec Mobility 9800 ? Le Mobility X800 est-il sorti ?

n°4019893
nick_olas
Antiquaire en VGA :o
Posté le 20-04-2005 à 12:00:59  profilanswer
 
n°4020055
le_noob
Posté le 20-04-2005 à 13:15:08  profilanswer
 

Je suis con, y'a la liste sur le site ATI
 
Le mobility 9800 on le trouve plu, ils l'ont remplacé par le 6800Go chez Dell


Message édité par le_noob le 20-04-2005 à 13:21:30
n°4021515
mimychatmi​aou
Building Better Worlds
Posté le 20-04-2005 à 18:35:50  profilanswer
 

Les dualcores AMD arrivent demain :love:
 
http://www.the-inquirer.net/?article=22676
 
Alors Marc les tests :whistle:
 
edit : AMD dit que les DC ne seront pas les plus rapides dans les jeux :o
 
http://www.the-inquirer.net/?article=22679
 
Au moins ils ont le merite de dire la verité... [:atari]


Message édité par mimychatmiaou le 20-04-2005 à 20:33:38

---------------
Le Luxembourg c'est comme le Mordor, plus tu t'en approches plus le ciel s'assombrit.
n°4023008
moggbomber
War, war never changes
Posté le 21-04-2005 à 13:28:55  profilanswer
 

ca manque de rumeurs et de prises de becs je trouve... commencerait-on a etre tous lassés du marketing? :/
 
c vrai qu'aprés le lancement du nv30 on pourra difficilement faire plus "spectaculaire" aussi :lol:
aaah... la bonne epoque finalement :ange:


---------------
"les principes ne sont rien si ils ne sont pas confrontés au réel, sinon ils se transforment en dogmes"
n°4023010
skeye
Posté le 21-04-2005 à 13:29:47  profilanswer
 

mimychatmiaou a écrit :

Les dualcores AMD arrivent demain :love:
 
http://www.the-inquirer.net/?article=22676
 
Alors Marc les tests :whistle:
 
edit : AMD dit que les DC ne seront pas les plus rapides dans les jeux :o
 
http://www.the-inquirer.net/?article=22679
 
Au moins ils ont le merite de dire la verité... [:atari]


 
http://www.hardware.fr/news/lire/21-04-2005/#7490
 
'tain les prix![:sisicaivrai]
 
Marc> ya un test de prévu pour bientôt?


---------------
Can't buy what I want because it's free -
n°4023118
le_noob
Posté le 21-04-2005 à 14:16:18  profilanswer
 

Ils vont s'aligner sur intel c'est obligé !

n°4023151
tridam
Profil : Equipe HardWare.fr
Posté le 21-04-2005 à 14:28:02  profilanswer
 

le_noob a écrit :

Ils vont s'aligner sur intel c'est obligé !


 
Pourquoi ?
 
Faut pas penser qu'AMD a les capacités de fabriquer du dual-core en volume sur ses chaines 90nm hein... Il y en aura peu et ils vendront tout alors il n'y a pas d'intérêt à vendre du dual-core à bas prix ni à augmenter la production si ce n'est pas pour faire un bénéfice au moins double par rapport au single core.

n°4023207
le_noob
Posté le 21-04-2005 à 14:48:30  profilanswer
 

Pour en vendre, pourquoi les clients se tourneraient-ils vers AMD plutot qu'Intel ?
 
Qui te dit que le peu qu'ils fabriqueront ils arriveront à le vendre ?

n°4023247
asmomo
Modérateur
Posté le 21-04-2005 à 15:00:18  profilanswer
 

Parce que les performances seront là.

n°4023253
Fouge
Posté le 21-04-2005 à 15:01:22  profilanswer
 

1) ils ne vont pas vendre leur bicore à perte (ou sans bénéfice) juste pour "s'aligner sur Intel"
2) s'aligner sur quel CPU Intel? on ne connait pas encore les performances de ces CPU.

n°4023266
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 21-04-2005 à 15:04:29  profilanswer
 

Ils ne peuvent pas s'aligner sachant que :
 
- Le plus petit est à priori un 3500+ bi core
- Sachant que le 3500+ et en face a peu près d'un 3.4 GHz HT, le bi core 3500+ et en face d'un 3.4 GHz HT ... soit le EE :o
 
Mais bon un 3000+ ou un 3200+ bi core abordable ca ne ferait pas de mal, le ticket d'entrée est quand même trop elevé.

n°4023269
MEI
|DarthPingoo(tm)|
Posté le 21-04-2005 à 15:05:51  profilanswer
 

1,6GHz/1Mo de L2 en Dual ca serait bien aussi comme entrée de gamme ;)


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°4023296
le_noob
Posté le 21-04-2005 à 15:19:08  profilanswer
 

Fouge a écrit :

1) ils ne vont pas vendre leur bicore à perte (ou sans bénéfice) juste pour "s'aligner sur Intel"
2) s'aligner sur quel CPU Intel? on ne connait pas encore les performances de ces CPU.


y'a une énorme différence entre 2 fois les bénéfices d'un simple core et sans bénéfice  :pfff:  
Y a un juste milieu.
 
Dès qu'un fabricant vend moins cher il ne vend pas forcément à perte  :sarcastic:  
 
En tout cas ça ne peut-être qu'un objectif à court terme de vendre cher.

n°4023327
mimychatmi​aou
Building Better Worlds
Posté le 21-04-2005 à 15:28:27  profilanswer
 

le_noob a écrit :

y'a une énorme différence entre 2 fois les bénéfices d'un simple core et sans bénéfice  :pfff:  
Y a un juste milieu.
 
Dès qu'un fabricant vend moins cher il ne vend pas forcément à perte  :sarcastic:  
 
En tout cas ça ne peut-être qu'un objectif à court terme de vendre cher.


 
Je trouves les prix des opterons logiques moa :/ 2 cores = 2x plus cher, et vu l"encombrement reduit (1 socket) bah on arrive a 2.2 fois plus cher en gros.
 
Par contre pour les A64, ils sont marketingment obligés de vendre a la limite de rentabilité pour eviter la concurrence :/ T'"as raison en gros.


---------------
Le Luxembourg c'est comme le Mordor, plus tu t'en approches plus le ciel s'assombrit.
n°4023357
tridam
Profil : Equipe HardWare.fr
Posté le 21-04-2005 à 15:38:33  profilanswer
 

le_noob a écrit :

y'a une énorme différence entre 2 fois les bénéfices d'un simple core et sans bénéfice  :pfff:  
Y a un juste milieu.
 
Dès qu'un fabricant vend moins cher il ne vend pas forcément à perte  :sarcastic:  
 
En tout cas ça ne peut-être qu'un objectif à court terme de vendre cher.


 
AMD ne va pas déplacer sa production de single core vers dual core d'une manière significative si ce n'est pas pour tirer plus de bénéfice d'un wafer de dual core que d'un wafer de single core. Ici ce qui est important pour AMD c'est le marché du serveur qui est très rentable et d'être présent sur le dual core grand public pour l'image pas pour y faire du volume.


Message édité par tridam le 21-04-2005 à 15:39:34
n°4023362
asmomo
Modérateur
Posté le 21-04-2005 à 15:39:11  profilanswer
 

Le die est 2 fois plus grand, donc un bi-core coûte effectivement quasiment 2 fois plus cher à produire, c'est un fait.

n°4023364
asmomo
Modérateur
Posté le 21-04-2005 à 15:40:08  profilanswer
 

MEI a écrit :

1,6GHz/1Mo de L2 en Dual ca serait bien aussi comme entrée de gamme ;)


 
J'en rêve la nuit  :love:

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  582  583  584  ..  1004  1005  1006  1007  1008  1009

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Demande infos] Top AchatComment imprimer les infos du bios ?
Quel carte Open Gl la mieux adapte a 3dsMAXBesion d'infos sur les Graveur de DVD chui perdu
couldn't load open glNEC ND-1300: cherche infos
Mise a jour bios KT7A, prob direct x et open gl geforce 2 pro!!Salut je voudrait des infos sur l'instalation d'un processeur
Rech infos sur le nouveau graveur de DVD liteon multiformat !!!![INFOS a la con] si vous avez des PB avec votre ABIT NF7-S REV2.0
Plus de sujets relatifs à : Graphical open bar (des infos, des intox, aux extraits de TheInq)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)