Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2757 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  581  582  583  ..  1004  1005  1006  1007  1008  1009
Auteur Sujet :

Graphical open bar (des infos, des intox, aux extraits de TheInq)

n°4009421
le_noob
Posté le 15-04-2005 à 16:11:09  profilanswer
 

Reprise du message précédent :

Marc a écrit :

Non mais genre je m'amuse avec des webcam moi  :sarcastic:


donc c'est vincent et damien que l'on voit ?  :ange:

mood
Publicité
Posté le 15-04-2005 à 16:11:09  profilanswer
 

n°4009441
zoldrag
Posté le 15-04-2005 à 16:20:27  profilanswer
 

mareek a écrit :

Tu as remarqué que tu répondais à un post vieux de 2 ans ?


ouais mais un peux tard  :D  m'enfin je repond a ce qui a ete dis de toute facon, c'est pas trop grave comme crime je pense  :p  
 
mais bon si j'avais fais attention je ne l'aurrai pas fais dsl  :)

n°4009588
blazkowicz
Posté le 15-04-2005 à 17:44:53  profilanswer
 

zoldrag a écrit :

Quant on est membres de l'arb c normale qu'ils mettent au point des technologies...
http://www.pcinpact.com/actu/news/ [...] GL_ARB.htm


 
NV est membre permanent du conseil de sécurité  [:zytrafumay]

n°4009894
asmomo
Modérateur
Posté le 15-04-2005 à 19:42:38  profilanswer
 

mareek a écrit :

[:the time] c'est quoi le rapport ?
 
Relis mon post, j'ai dit que l'écran n'était pas parfait :spamafote:


 
Sauf que dans ta 2ème phrase tu suggères qu'il est parfait si on fait abstraction de Matrix.
 
Mais bon, marre de chipoter, oui ce LCD est mieux que tous les autres LCD, non il n'est pas encore à mon niveau d'exigence.

n°4010942
moggbomber
War, war never changes
Posté le 16-04-2005 à 12:13:20  profilanswer
 

tiens... 6 ecrans en meme temps grace au futur Chip ULI (ouille!) M1995  
 
http://www.matbe.com/actualites/co [...] /?page=1#1


---------------
"les principes ne sont rien si ils ne sont pas confrontés au réel, sinon ils se transforment en dogmes"
n°4011050
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 16-04-2005 à 12:58:27  profilanswer
 

Euh
Le chipset VIA qui gère AGP+PCI-E (+PCI) le fait déjà
Le nForce4 SLI le fait déjà via deux cartes PCI-E + 1 PCI
Bref  [:jofusion]

n°4011195
moggbomber
War, war never changes
Posté le 16-04-2005 à 14:10:41  profilanswer
 

tiens ca serait bien qu'on ait du surround gaming sur le double pci-e je trouve.
 
ca pourrait etre plus cool (et utile) que de pouvoir jouer en 1600 AA 8x
enfin il faudrait 3 ecrans plutot pour pas avoir de coupure en plein milieu :/


Message édité par moggbomber le 16-04-2005 à 14:14:27

---------------
"les principes ne sont rien si ils ne sont pas confrontés au réel, sinon ils se transforment en dogmes"
n°4012528
asmomo
Modérateur
Posté le 17-04-2005 à 03:54:05  profilanswer
 

C'est justement une question que je me posais, comment ça se passe le surround gaming en SLI ?

n°4012917
nick_olas
Antiquaire en VGA :o
Posté le 17-04-2005 à 13:25:24  profilanswer
 

Pas besoin de véritable SLI pour un truc basique sur deux écrans: VIA a même fait la démonstration avec deux cartes ATI (une AGP et une PCI-E) sous QuakeIII. Evidement le framerate varie selon l'écran :d
 
Par contre pour une solution plus propre à la "Matrox" sur trois écrans il doit bien y avoir des projets quelque part mais vu le succès remporté par cette solution précédement... :/

n°4013067
bjone
Insert booze to continue
Posté le 17-04-2005 à 14:35:02  profilanswer
 

avant de faire du multi-écran, j'aimerai bien qu'ils corrigent (nVidia & Ati), le problème de performances en Direct 3D quand tu déplaçe une fênetre de rendu D3D d'un moniteur à l'autre.
 
après pour le multi-écran, en même temps ils suffit de gérer un framebuffer x fois plus large en horizontal et d'avoir les dacs qui balayent la bonne portion.
 
après pour plusieures cartes, c'est plus chiant car il est plus facile au niveau du moteur de gérer une seul périph D3D (bonjour la gestion des ressources quand tu veux partager).

mood
Publicité
Posté le 17-04-2005 à 14:35:02  profilanswer
 

n°4013086
moggbomber
War, war never changes
Posté le 17-04-2005 à 14:49:02  profilanswer
 

ben oui justement ca serait bien que les constructeurs fassent des drivers qui puissent par exemple faire tourner un jeu en 3072x768 par exemple. et que tout le reste soit géré en hardware/drivers. ca ca serait le pied.
aprés bon c sur ca serait limité a certains type de jeu parce que ca modifierait trop le gameplay pour d'autres...
en simu et fps comme ca ben :p


---------------
"les principes ne sont rien si ils ne sont pas confrontés au réel, sinon ils se transforment en dogmes"
n°4013102
moggbomber
War, war never changes
Posté le 17-04-2005 à 14:57:00  profilanswer
 


News : GPUs & Graphic Cards : Next Gen GPUs Info : R520 & NV50/G70  
ATi and NVIDIA are certainly working hard to push out their next generation GPUs for Computex launch in June. NVIDIA is particular tight-lipped about their NV50/G70 GPU even to their partners while ATi has not demo a working sample to their partners till now so things aren't looking too rosy. None the least, we heard that NV50/G70 is a dual-core monster with 32 pipelines and is based on TSMC 90nm process technology. ATi R520 is also 90nm based and contains 32 pipelines. The reference cooler design for NV50/G70 looks huge with 4 copper heat-pipes and a large fan. We have also heard about an interesting strategy that NVIDIA is going to equip their next generation cards ranging from low-end to high-end with 2nd gen. Turbo Cache technology.  
 
Source: VR-Zone

 
NV50 dual core avec 4 heat pipes
ils vont aussi nous livrer une alim externe avec?  :whistle:  
 
sinon tjrs sur VR-Zone parraitrait d'aprés eux qu'une constructeur de CG fabriquerait une carte  PhysX PPU et vois meme l'integrerait plus tard  
http://www.vr-zone.com/?i=2004&s=1
 
y a plus qu'a esperer que ca soit ATI ou Nvidia et pas un autre comme xgi ou s3  :pt1cable:


---------------
"les principes ne sont rien si ils ne sont pas confrontés au réel, sinon ils se transforment en dogmes"
n°4013133
nick_olas
Antiquaire en VGA :o
Posté le 17-04-2005 à 15:12:02  profilanswer
 

Rappelez moi : VR-Zone c'est bien le siamois maléfique de the inq? :o
 

moggbomber a écrit :

ben oui justement ca serait bien que les constructeurs fassent des drivers qui puissent par exemple faire tourner un jeu en 3072x768 par exemple. et que tout le reste soit géré en hardware/drivers. ca ca serait le pied.
aprés bon c sur ca serait limité a certains type de jeu parce que ca modifierait trop le gameplay pour d'autres...
en simu et fps comme ca ben :p


Matrox avait eu le soutient de certains développeurs à l'époque pour obtenir des résultats propres en surround gaming ( http://www.matrox.com/mga/3d_gaming/surrgame.cfm ).  
Dans l'hypothèse ou ça reviendrait, on peut espérer que Nvidia et ATI soit capables d'envoyer un mail à certains dev rappelant en ps les sommes versées pour les TWIMTBP et Get in the Game [:petrus75]


Message édité par nick_olas le 17-04-2005 à 15:19:53
n°4013206
blazkowicz
Posté le 17-04-2005 à 15:36:28  profilanswer
 

encore un truc qui parle de GPU dual core.. moi je dis : BULLSHIT :D
 
le surround gaming, ya une solution toute simple aussi : trois PC en réseau. (John Carmack s'est amusé à faire ça avec.. Doom :D, le 1 pas le 3 :o)

n°4013211
nick_olas
Antiquaire en VGA :o
Posté le 17-04-2005 à 15:39:44  profilanswer
 

Plus que le GPU dual core, le cluster c'est l'avenir à cout terme du jeu video  [:dams86]  
Blazk: il a utilisé quoi comme matériel (en particulier le réseau) pour ça? nForce 4? nForce3 250gb? i875?

n°4013219
Fouge
Posté le 17-04-2005 à 15:45:16  profilanswer
 

440BX :o

n°4013222
nick_olas
Antiquaire en VGA :o
Posté le 17-04-2005 à 15:46:44  profilanswer
 

Encore faudrait-il qu'il y ait du réseau dans un sb de 440BX pour ce faire :o


Message édité par nick_olas le 17-04-2005 à 15:47:09
n°4013246
Fouge
Posté le 17-04-2005 à 16:00:20  profilanswer
 

Carte PCI (voire ISA) :o

n°4013280
nick_olas
Antiquaire en VGA :o
Posté le 17-04-2005 à 16:09:08  profilanswer
 

url?? :o

n°4013320
moggbomber
War, war never changes
Posté le 17-04-2005 à 16:31:27  profilanswer
 

sinon y a X-plane qui peut afficher X vues grace a X pc :love: (flight sim aussi mais c un pluggin je crois)
 
 
edit: mauvais smiley


Message édité par moggbomber le 17-04-2005 à 16:36:37

---------------
"les principes ne sont rien si ils ne sont pas confrontés au réel, sinon ils se transforment en dogmes"
n°4013354
Fouge
Posté le 17-04-2005 à 16:42:53  profilanswer
 

Pure spéculation :o

moggbomber a écrit :

sinon y a X-plane qui peut afficher X vues grace a X pc :love: (flight sim aussi mais c un pluggin je crois)

T'as une URL pour nous montrer, ça a l'air pas mal ce truc.

n°4013362
moggbomber
War, war never changes
Posté le 17-04-2005 à 16:49:07  profilanswer
 

je vais voir mais avec un pote on a essayé a 3 pc/ecrans :)
en fait dans chaque vue tu peux dire ou elle se trouve donc tu arranges vraiment comme tu veux..
un pc, visu.. 2 autre droite et gauche ou au dessus  
un pc instruments etc etc..


---------------
"les principes ne sont rien si ils ne sont pas confrontés au réel, sinon ils se transforment en dogmes"
n°4013369
Sylfurd
UUUURUTORAMAN §§
Posté le 17-04-2005 à 16:51:42  profilanswer
 

http://members.chello.nl/~s.ferris/images/Dsc00065.jpg
 
De rien :hello:
 
C'est flight Simulator 2002, avec un petit plugin:
http://members.chello.nl/~s.ferris/


Message édité par Sylfurd le 17-04-2005 à 16:53:14

---------------
NNiD: Sylfurd
n°4013382
moggbomber
War, war never changes
Posté le 17-04-2005 à 17:02:56  profilanswer
 

je viens de trouver la meme image :lol:
et j'allais poster le lien :jap:
 
ben voila sur X-plane c possible aussi mais directement.
 
enfin tout ca pour dire que si le sli supportait ca. ca serait carrement mieux je trouve (enfin 4 ecrans quoi)


---------------
"les principes ne sont rien si ils ne sont pas confrontés au réel, sinon ils se transforment en dogmes"
n°4013393
mimychatmi​aou
Building Better Worlds
Posté le 17-04-2005 à 17:12:17  profilanswer
 

En passant, Jedi knight supportait le surround gaming, on avait du 1920x480 disponible par exemple.
 
Je suis pas sur que le cout de plusieurs pc+ecrans ou plusieurs CG+ecrans soit vraiment inferieur a celui d'un videoprojo HD avec une CG haut de gamme.


---------------
Le Luxembourg c'est comme le Mordor, plus tu t'en approches plus le ciel s'assombrit.
n°4013405
nick_olas
Antiquaire en VGA :o
Posté le 17-04-2005 à 17:20:06  profilanswer
 

:gratgrat: c'est vrai que ce serait peut être plus simple
Mais à bien y réfléchir les lunettes 3D (avec ou sans projot ça dépend) c'est bien pour donner du volume.
Un pixel shader c'est bien mais ça restera minable tant qu'on se contentera d'écrans classiques :/
Bref ça fait 10 ans qu'on attend, ça fait 10 ans que ça vient pas ou que les tentatives d'amorces échouent. :( La gaming experience de l'an 2005 ça craint.


Message édité par nick_olas le 17-04-2005 à 17:24:06
n°4013428
asmomo
Modérateur
Posté le 17-04-2005 à 17:36:29  profilanswer
 

nick_olas a écrit :

Pas besoin de véritable SLI pour un truc basique sur deux écrans: VIA a même fait la démonstration avec deux cartes ATI (une AGP et une PCI-E) sous QuakeIII. Evidement le framerate varie selon l'écran :d
 
Par contre pour une solution plus propre à la "Matrox" sur trois écrans il doit bien y avoir des projets quelque part mais vu le succès remporté par cette solution précédement... :/


 
Pas trop compris ce que tu voulais dire :??:
 
Enfin moi je prends un cas concrêt, mon jeu du moment, X² The Threat. Il gère le bi-écran (on peut par exemple mettre des vues externes de ses vaisseaux, de ses sat de surveillance, etc. sur le 2ème écran), par contre pour le SLI je sais pas, et SLI + bi-écran encore moins. Mais il est TWIMTBP, ça peut aider.

n°4013442
nick_olas
Antiquaire en VGA :o
Posté le 17-04-2005 à 17:40:34  profilanswer
 

:pt1cable:  
Là tu m'en demandes beaucoup. Je préfère ne pas trop m'avancer. Mais il y a qlq spécialistes qui rodent sur le topic qui doivent bien avoir un avis sur la question.

n°4013650
blazkowicz
Posté le 17-04-2005 à 18:57:13  profilanswer
 

nick_olas a écrit :

Plus que le GPU dual core, le cluster c'est l'avenir à cout terme du jeu video  [:dams86]  
Blazk: il a utilisé quoi comme matériel (en particulier le réseau) pour ça? nForce 4? nForce3 250gb? i875?


 
486DX je pense :D, avec probablement des cartes réseaux ISA, réseau en BNC? :o
J'ai bien dit que c'était doom1, en 1993 ou 94 :D
cette feature est disponible sur certaines versions de doom, pas toutes (1.1 , feature enlevée à la 1.2 pour cause d'upgrade du netcode)
 
si quelqu'un a connu les longues lignes de commande pour lancer une partie en réseau sous doom et doom2.. [:dawa] (fallait le faire pour jouer sur des maps custom). C'est comme ça que j'ai commencé le jeu en réseau ya cinq ans :whistle:
Le principe c'est de lancer une partie comme si c'était pour un coop à trois, mais avec un paramètre en plus -> il ya un PC maître qui s'occupe de l'écran principal et sur lequel on joue, et deux esclaves qui s'occupe d'afficher sur l'écran gauche et l'écran droit.
j'ai jamais testé parce que c lourdingue :o (me faudrait trois écrans à peu près identiques et les trois PC à côté)


Message édité par blazkowicz le 17-04-2005 à 19:11:38
n°4013783
nick_olas
Antiquaire en VGA :o
Posté le 17-04-2005 à 19:38:50  profilanswer
 

C'est vrai que vu comme ça, ça ne doit pas poser trop de problème de synchro donc pas besoin de bcp de puissance de calcul :o (j'ai commencé les jeux en réseaux avec Duke Nukem 3D aussi :/)
M'enfin, ça reste brico.

n°4015000
le_noob
Posté le 18-04-2005 à 10:42:01  profilanswer
 

Tout le monde dort ce matin ?, ou tout le monde bosse sérieusement ?

n°4015129
moggbomber
War, war never changes
Posté le 18-04-2005 à 11:40:07  profilanswer
 

on fudo .. do
 
 [:dawa_neowen]


---------------
"les principes ne sont rien si ils ne sont pas confrontés au réel, sinon ils se transforment en dogmes"
n°4015207
mimychatmi​aou
Building Better Worlds
Posté le 18-04-2005 à 12:08:54  profilanswer
 

moggbomber a écrit :

on fudo .. do
 
 [:dawa_neowen]


 
C'est ça sauve toi :lol:
 
Perso je demenage a Bordeaux donc on restreint le postage :whistle:  
 
Pour ceux qui aiment les speculations a 2 balles, voici les perfs des futurs proco 4 cores :D
 
http://www.heise.de/ct/05/09/022/bild.jpg
 
 :lol: [:rofl]


---------------
Le Luxembourg c'est comme le Mordor, plus tu t'en approches plus le ciel s'assombrit.
n°4015637
blazkowicz
Posté le 18-04-2005 à 14:51:54  profilanswer
 

c'est quoi ces woodcrest? des pentium M ? :whistle:

n°4015658
le_noob
Posté le 18-04-2005 à 15:00:10  profilanswer
 

Oulà je commence a être largué dans les core intel moi, seul le potomac m'est familié.

n°4015664
mareek
Et de 3 \o/
Posté le 18-04-2005 à 15:01:42  profilanswer
 

asmomo a écrit :

Sauf que dans ta 2ème phrase tu suggères qu'il est parfait si on fait abstraction de Matrix.
 
Mais bon, marre de chipoter, oui ce LCD est mieux que tous les autres LCD, non il n'est pas encore à mon niveau d'exigence.


Fallait nous dire que tu l'avais testé, on aurait eu un deuxième avis sur ses qualités et ses défauts [:petrus75]

bjone a écrit :

avant de faire du multi-écran, j'aimerai bien qu'ils corrigent (nVidia & Ati), le problème de performances en Direct 3D quand tu déplaçe une fênetre de rendu D3D d'un moniteur à l'autre.


Je suis sûr qu'un problème touchant autant de monde que celui là les tiens éveillés jours et nuits [:ddr555]
 


---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
n°4015719
blazkowicz
Posté le 18-04-2005 à 15:18:26  profilanswer
 

je ne connaît pas ce pb mais une raison les poussera à le régler : longhorn

n°4015855
bjone
Insert booze to continue
Posté le 18-04-2005 à 16:12:35  profilanswer
 

bah le prob de perfs, tu mets UT ou n'importe quoi en fenêtré, ça bourre, tu le mets sur le deuxième écran ça rame.
 
parceque au niveau driver, y'a un paritionnement virtuel de la carte pour chaque sortie, tu as deux adaptateurs Direct3D, quand tu affiches une fenêtre ou autre sur la surface de "l'autre" adaptateur, tu as un vilain ping-pong inutile qui se produit. c'est nul.
 
de la même manière manière il faudrait retoucher le D3D pour avoir plusieurs affichage plein écran au lieu d'un seul par adaptateur (ce qui impose actuellement le partitionnement virtuel de la carte 3D).

n°4015874
bjone
Insert booze to continue
Posté le 18-04-2005 à 16:18:23  profilanswer
 

de la même manière, si tu veux utiliser les deux adaptateurs virtuels pour les deux sorties plein écran, tu te retrouves avec le double de mémoire vidéo consommée pour les mêmes ressources. et aussi le double de ram système si tu est en D3DPOOL_MANAGED, ce qui t'obliges à tout foutre en DEFAULT, et à faire ton propre algo de gestion d'upload et tout et tout.
 
bref spa top encore pour le multi-écran, y'a moyen de faire mieux...
 
ptet que l'OpenGl est plus mature à ce niveau (Zeross), mais il me semble bien que pour Quake 3 aussi, si tu déplaçes la fenêtre d'un écran à l'autre y'a grosse pénalitée (je me souviens plus, je réessayerai ce soir)

n°4016010
Fouge
Posté le 18-04-2005 à 17:24:50  profilanswer
 

Cartes graphiques : Intérêt des solutions multicartes, multi-GPU pour le marché grand public
http://www.onversity.net/cgi-bin/p [...] ob&P=a0705


Message édité par Fouge le 18-04-2005 à 17:25:06
n°4016015
Zeross
Posté le 18-04-2005 à 17:25:22  profilanswer
 

bjone a écrit :

ptet que l'OpenGl est plus mature à ce niveau (Zeross), mais il me semble bien que pour Quake 3 aussi, si tu déplaçes la fenêtre d'un écran à l'autre y'a grosse pénalitée (je me souviens plus, je réessayerai ce soir)


 
OpenGL et le bi écran c'est une horreur, tout du moins sur nVidia. Pendant un moment j'étais obligé de le désactiver sinon Doom 3 se lançait à 5fps, même en full screen et même sans toucher à la fenêtre. Idem pour les démos OpenGL nVidia (Dawn & co...).
 
Avec des Detonator plus récent je n'avais plus de problème mais j'ai pas trop poussé les tests.
 

Citation :

de la même manière, si tu veux utiliser les deux adaptateurs virtuels pour les deux sorties plein écran, tu te retrouves avec le double de mémoire vidéo consommée pour les mêmes ressources. et aussi le double de ram système si tu est en D3DPOOL_MANAGED, ce qui t'obliges à tout foutre en DEFAULT, et à faire ton propre algo de gestion d'upload et tout et tout.


 
Pour ça en OpenGL je pense qu'en créant deux RC et en partageant leurs ressources via wglShareLists ça doit passer, je me suis jamais penché sur la gestion multi screen mais rien qu'à t'entendre ça a l'air d'être un sacré bordel :D


Message édité par Zeross le 18-04-2005 à 17:25:44
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  581  582  583  ..  1004  1005  1006  1007  1008  1009

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Demande infos] Top AchatComment imprimer les infos du bios ?
Quel carte Open Gl la mieux adapte a 3dsMAXBesion d'infos sur les Graveur de DVD chui perdu
couldn't load open glNEC ND-1300: cherche infos
Mise a jour bios KT7A, prob direct x et open gl geforce 2 pro!!Salut je voudrait des infos sur l'instalation d'un processeur
Rech infos sur le nouveau graveur de DVD liteon multiformat !!!![INFOS a la con] si vous avez des PB avec votre ABIT NF7-S REV2.0
Plus de sujets relatifs à : Graphical open bar (des infos, des intox, aux extraits de TheInq)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)