Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2700 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  763  764  765  ..  1004  1005  1006  1007  1008  1009
Auteur Sujet :

Graphical open bar (des infos, des intox, aux extraits de TheInq)

n°4861194
Fouge
Posté le 04-06-2006 à 00:59:00  profilanswer
 

Reprise du message précédent :
C'est normal, c'est une valeur que tu configure dans le bios (AGP Aperture Size, si t'as une config AGP) qui varie généralement entre 32 et 512Mo.
Bref rien à voir avec la quantité de RAM vidéo, et elle est strictement inférieur au total de ta RAM.

mood
Publicité
Posté le 04-06-2006 à 00:59:00  profilanswer
 

n°4861238
blazkowicz
Posté le 04-06-2006 à 01:26:53  profilanswer
 

c'est l'équivalent de l'AGP aperture size.
swapper par l'AGP/PCIe texturing ça fait plus que dépanner : à far cry en arrivant dans la grotte, je me suis retrouvé à 1fps.. résolu en augmentant l'aperture size de 64 à 256Mo.
 
De même, UT2003 en montant trop les textures sur voodoo5.. ya pas d'AGP texturing, alors ça passe au swap en mode PCI via le driver, en slideshow. (doit yavoir le même mécanisme quand on est à court "d'aperture size", sinon farcry me mettrait probablement un message "out of video memory" dans la gueule ^)


Message édité par blazkowicz le 04-06-2006 à 01:28:17
n°4861267
bjone
Insert booze to continue
Posté le 04-06-2006 à 01:51:44  profilanswer
 

explication de 1h44: (j'ai un peu de mal soyez indulgents)
 
oui, en fait les textures statiques sont initialement en mémoire process (visibles par le cpu), et dupliqués en ram gpu = espace mémoire atteingnable par le gpu (ram vidéo+espace système remappé grâce au gart) lors de la première utilisation.
 
le précachage consistant a "utiliser" une texture récemment crée pour la dupliquer en ram vidéo afin de réduire les saccades une fois dans le jeu dû à l'upload. (en fait y'a deux précachage: celui du "moteur" où ledit moteur précharge les textures & modèles par rapport au niveau avant qu'ils soient nécessaire, et le précachage D3D/OGL où c'est le moteur qui fait quelques commandes de traçage dans le vent ou "utilise" les ressources pour que le D3D/OGL upload les ressources en ram vidéo).
 
si tu est à court de ram vidéo+agp (visible depuis le gpu), alors il faut supprimmer des textures ou autre ressources pour recopier les textures nécessaires vers la ram vidéo ou agp (en fait vidéo puisque la texture devient un texture récemment utilisée), pour que le gpu puisse atteindre la nouvelle ressource.
 
après la répartition vidéo/système par l'agp se fait via le driver (bon y'a des système de hint pour créer justement initialement la ressource en vidéo ou agp sans backup, ou géré en auto avec backup en mémoire uniquement visible par le cpu).
 
l'astuce c'est que le gart est limité car d'une part un taille énorme fait perdre de la ram physique dû à la table, et l'espace alloué par le gart est non cachable (vis à vis du cpu). (ie l'espace par le gart est relativement redimentionnable à la volée, si on mets 256Mo dans le bios, c'est pas bloqué a vie)
 
en PCI-Express il n'y a plus de gart, l'implémentation semble plus souple, par contre je connais quelles sont les contraintes au niveau cachabilité CPU ou pagination OS.
 
quand les GPU seront passé a un management de l'espace par pagination de leur coté, et avec D3D 10 qui retourne la méthode de création de ressources pour une approche comme sur console a mémoire unifiée, cela devrait être plus souple et avoir un comportement infiniment plus coulé lorsque la scène sors largement de la ram vidéo.
 
en D3D 9 quand tu crées une ressource, l'allocation se fait via le D3D (tu dis je veux un vertex buffer de 2Mo, je veux une texture de 512x512...), en D3D 10 tu alloues comme tu le sens (classiquement, un bête malloc par exemple), et tu "mappes" l'espace mémoire (tu dis j'ai un vertex buffer de 2Mo ici, une texture là), ce qui avec un système de pagination devrait permettre une utilisation de la ram vidéo comme un cache a granularité fine (dumoins plus fin que le vertex buffer entier de 2Mo et la texture entière).
 
tiens d'ailleurs on a quoi comme rumeur au niveau assistance multitâche et pagination pour la geforce et la radeon d3d10 ?

Message cité 2 fois
Message édité par bjone le 04-06-2006 à 02:05:48
n°4861283
LeGreg
Posté le 04-06-2006 à 02:17:17  profilanswer
 

bjone a écrit :


en D3D 9 quand tu crées une ressource, l'allocation se fait via le D3D (tu dis je veux un vertex buffer de 2Mo, je veux une texture de 512x512...), en D3D 10 tu alloues comme tu le sens (classiquement, un bête malloc par exemple), et tu "mappes" l'espace mémoire (tu dis j'ai un vertex buffer de 2Mo ici, une texture là)


 
Non l'allocation se fait de la même manière sous d3d9 et d3d10. à moins que tu voulais dire autre chose ?
 
L'API a des appels : createBuffer, createTexture2D, createTexture3D etc.. et au final c'est le driver qui décide (en fonction des bind flags, des cpu flags, et des usage flags) dans quel pool de mêmoire cela va atterrir.
 
Par contre il n'y a plus de notion managed/default et la surcouche DXGI permet de partager des resources entre device d3d9 et d3d10, pour le desktop compositing par exemple.
 
LeGreg


---------------
voxel terrain render engine | animation mentor
n°4861673
bjone
Insert booze to continue
Posté le 04-06-2006 à 13:01:33  profilanswer
 

il me semblait avoir vu système de projection pour les vertex/index buffer ? (ptet pour les textures j'ai fait un raccourci)
 
attends je reregarde dans le SDK...

n°4861679
bjone
Insert booze to continue
Posté le 04-06-2006 à 13:08:17  profilanswer
 

Code :
  1. SimpleVertex vertices[] =
  2.     {
  3.         D3DXVECTOR3( 0.0f, 0.5f, 0.5f ),
  4.         D3DXVECTOR3( 0.5f, -0.5f, 0.5f ),
  5.         D3DXVECTOR3( -0.5f, -0.5f, 0.5f ),
  6.     };
  7.     D3D10_BUFFER_DESC bd;
  8.     bd.Usage = D3D10_USAGE_DEFAULT;
  9.     bd.ByteWidth = sizeof( SimpleVertex ) * 3;
  10.     bd.BindFlags = D3D10_BIND_VERTEX_BUFFER;
  11.     bd.CPUAccessFlags = 0;
  12.     bd.MiscFlags = 0;
  13.     D3D10_SUBRESOURCE_UP InitData;
  14.     InitData.pSysMem = vertices;
  15.     if( FAILED( g_pd3dDevice->CreateBuffer( &bd, &InitData, &g_pVertexBuffer ) ) )
  16.         return FALSE;


 
j'ai pas lu de font en comble et expérimenté avec le SDK de D3D10 (vu qu'installer Vista Beta et le refrast sur ma machine bof)
 
je reprends l'exemple du tuto2.
 
A priori cela semble plus orienté mémoire partagé a la Xbox 360 vu que l'allocation du buffer système est laissée a la charge du process (dumoins ça me parait plus flexible qu'en D3D9) ?

n°4861934
blazkowicz
Posté le 04-06-2006 à 15:41:03  profilanswer
 

bjone a écrit :


 
tiens d'ailleurs on a quoi comme rumeur au niveau assistance multitâche et pagination pour la geforce et la radeon d3d10 ?


 
Vista sort avec D3D10 et WDDM 1.0 .. et le WDDM 2.0 nécessitera une génération ultérieure de GPU !?!

n°4862426
LeGreg
Posté le 04-06-2006 à 20:29:21  profilanswer
 

bjone a écrit :


A priori cela semble plus orienté mémoire partagé a la Xbox 360 vu que l'allocation du buffer système est laissée a la charge du process (dumoins ça me parait plus flexible qu'en D3D9) ?


 
Mauvaise interprétation du code, initData est juste utilisé pour initialiser le contenu du vertex buffer alloué par le driver.
Ta mémoire "privée" ne survit pas au delà de l'appel de fonction.
Si tu regardes son scope (local à la fonction, alloué sur la pile), ça prend tout son sens. Ce pointeur "pour l'initialisation"
est comme un argument passé à un constructeur. C'est indispensable pour une donnée marquée comme "immutable" par  
l'application (constante durant toute la vie de l'objet).
 
Bien entendu quand je dis "alloué par le driver" c'est en fait bien plus complexe que ça puisqu'il y a encore des interactions entre l'OS et le driver après ça puisque l'OS doit être capable de commander le paging in, paging out de la mémoire utilisée par le GPU, mais ça ce n'est pas lié à d3d10.


---------------
voxel terrain render engine | animation mentor
n°4862634
LeGreg
Posté le 04-06-2006 à 21:51:00  profilanswer
 

blazkowicz a écrit :

Vista sort avec D3D10 et WDDM 1.0 .. et le WDDM 2.0 nécessitera une génération ultérieure de GPU !?!


 
En fait microsoft a prévu deux modèles pour le scheduling, basic et advanced.
 
Basic est le mode qui tourne sur n'importe quel hardware. La riva TNT pourrait probablement tourner
dans ce mode s'il y avait un driver Vista développé pour elle (mais à cause de son absence
est obligé de tourner en mode XP donc il lui manque tout ce qui suit).
Le mode basic bénéficie de tout ce qui est généralement associé à Vista à savoir virtualisation
de la mémoire video (une application gourmande ne peut pas empecher une autre application
gourmande de tourner sauf s'il y a un manque de toutes les autres ressources, RAM système et
espace disque y compris), protection des accés mémoires (une application ne peut pas meme "accidentellement"
accéder au contenu rendu par une autre application, tel un bon paranoiaque toutes les surfaces
sont remplies de zéro systématiquement avant d'être réutilisées en mode paging in/paging out),
et bien entendu scheduling des tâches avec gestion de priorités. Par ailleurs, le driver d3d résidant désormais
en mémoire utilisateur n'est plus considéré comme fiable, puisqu'une application peut se faire passer pour lui ou
simplement corrompre la mémoire du driver (volontairement ou pas). La partie dans le noyau qui elle est considérée
comme "fiable" (trusted) a donc la responsabilité  
de détecter les erreurs possibles et les suites de commandes invalides qui pourraient en résulter.  
 
On voit que même en mode basic il y a de la marge pour ce qui est du support hardware: Est-ce que le GPU
est capable comme le CPU d'avoir un mapping de la mémoire différent par contexte ? ou est-ce que le CPU
doit faire une reprogrammation du GPU entre les passages d'un contexte à l'autre ? Est-ce que le GPU est
capable de voir une page de mémoire comme "cleared" plutot que d'avoir à toucher tous les bits au préalable ?
Est-ce que le GPU intercepte les commandes douteuses et prévient le reste du système ou est-ce qu'une suite
de commande non prévue peut mettre le GPU dans un état qui nécessite un reboot système ou une réinitialisation
avec perte de données ? L'absence ou non d'une de ces features dans le hardware permet d'économiser du cout CPU et GPU
mais ne change pas "à priori" la reactivité du système (en dehors du gain de perf s'il y en a).
 
Quelle différence avec le mode advanced donc ?
Le mode advanced nécessite une coopération plus fine entre le GPU et le CPU, le CPU pouvant cette fois-ci
envoyer une commande au GPU et PENDANT l'exécution de celle-ci, lui dire : "arrête, tu as pris trop de temps
j'ai une action prioritaire qui arrive", lui demander de switcher de contexte, sauver tous les états courants  
exécuter la commande prioritaire et reprendre son exécution un peu longuette.  
On voit donc que cela nécessite un support hardware assez avancé et un peu casse-tête. Il est possible
de faire des granularités "à la commande", mais ces commandes sont en elle-meme assez complexe et peuvent
prendre trop de temps du point de vue de l'OS. Quel temps pour executer une commande drawPrimitive ?
sachant qu'il y a un nombre arbitraire de triangles, avec un nombre arbitraire d'instructions dans le vertex shader,
que le geometry shader peut générer un nombre arbitraire de triangles lui-même, et que chaque triangle peut
couvrir un nombre arbitraire de pixels avec un nombre arbitraire d'instructions de pixel shaders, on voit que le temps  
d'exécution d'une seule commande peut etre arbitrairement long (secondes ? heures ? jours ?).  
Il faut donc que soit imposée une granularité encore plus fine, qui permettrait d'interrompre à une fraction
de triangle, voire à l'intérieur de l'éxecution d'un pixel shader/vertex shader (tant que le résultat n'a pas affecté
la mémoire il est possible de tuer simplement certaines exécutions).
 
Paradoxalement, un GPU qui serait un simple CPU faisant tourner un software rasterizer n'aurait aucun problème
à fonctionner dans ce mode. Après tout c'est ce que font les CPUs tous les jours depuis des années.  
Par contre une bête massivement parallèle, avec des mégaoctets d'états internes et  
pas forcément de moyen "bon marché" de rediriger ces états vers une mémoire de masse aura sans doute
plus de difficultés.


---------------
voxel terrain render engine | animation mentor
n°4862677
josedsf
Posté le 04-06-2006 à 22:03:17  profilanswer
 

Des GPU sur l'Hypertransport ?
http://feeds.feedburner.com/arstechnica/BAaf?m=2722


---------------
Guide cpu / Zen6-7
mood
Publicité
Posté le 04-06-2006 à 22:03:17  profilanswer
 

n°4862699
Fouge
Posté le 04-06-2006 à 22:09:47  profilanswer
 

Ou un PPU :o

n°4862937
bjone
Insert booze to continue
Posté le 05-06-2006 à 00:03:10  profilanswer
 

LeGreg a écrit :

Mauvaise interprétation du code, initData est juste utilisé pour initialiser le contenu du vertex buffer alloué par le driver.
Ta mémoire "privée" ne survit pas au delà de l'appel de fonction.
Si tu regardes son scope (local à la fonction, alloué sur la pile), ça prend tout son sens. Ce pointeur "pour l'initialisation"
est comme un argument passé à un constructeur. C'est indispensable pour une donnée marquée comme "immutable" par  
l'application (constante durant toute la vie de l'objet).
 
Bien entendu quand je dis "alloué par le driver" c'est en fait bien plus complexe que ça puisqu'il y a encore des interactions entre l'OS et le driver après ça puisque l'OS doit être capable de commander le paging in, paging out de la mémoire utilisée par le GPU, mais ça ce n'est pas lié à d3d10.


 
ok j'étais trop optimiste :/
 
j'aurais espérer pouvoir mapper/remapper à la volée des espaces mémoires process comme des VB par exemple.

n°4864316
Oxygen3
Tears from the moon
Posté le 05-06-2006 à 16:09:37  profilanswer
 

p16 de la 7950GX2: s/tant/temp/ (ligne ATI)


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°4864503
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 05-06-2006 à 17:14:34  profilanswer
 

16 :??:


---------------
Moi, j'aime pas les signatures
n°4864514
Oxygen3
Tears from the moon
Posté le 05-06-2006 à 17:20:59  profilanswer
 

oops :)
P14 :) c'est dans l'avant dernier § de la conclusion (mais c'est corrigé maintenant :o)


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°4864551
asmomo
Modérateur
Posté le 05-06-2006 à 17:48:46  profilanswer
 

Les temps d'accès sur de la flash c'est pas sensé être super top ?
 
Je veux mettre l'UBCD sur une SDCard, il y a plein de fichiers de qqes octets/Ko, ça copie à une vitesse ridicule, que ce soit directement depuis le CD, ou depuis le DD (CD=>DD ça a été très rapide). Keskispas ?

n°4864555
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 05-06-2006 à 17:50:48  profilanswer
 

L'écriture de petit fichier ca a tjs été de la merde sur flash, HDD flash inclus (ceux qui n'ont pas de cache)


---------------
Moi, j'aime pas les signatures
n°4864564
asmomo
Modérateur
Posté le 05-06-2006 à 17:55:03  profilanswer
 

OK.
 
J'ai mis une SD super fast machin de crucial, c'est à peine mieux :/

n°4864588
Fouge
Posté le 05-06-2006 à 18:05:19  profilanswer
 

L'iRAM ya que ça de vrai :D

n°4864690
mareek
Et de 3 \o/
Posté le 05-06-2006 à 18:50:21  profilanswer
 

asmomo a écrit :

Les temps d'accès sur de la flash c'est pas sensé être super top ?
 
Je veux mettre l'UBCD sur une SDCard, il y a plein de fichiers de qqes octets/Ko, ça copie à une vitesse ridicule, que ce soit directement depuis le CD, ou depuis le DD (CD=>DD ça a été très rapide). Keskispas ?


ya aussi tout l'overhead de l'USB qui pourrit tes perfs :spamafote:


---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
n°4864734
Fouge
Posté le 05-06-2006 à 19:08:59  profilanswer
 

A propos de l'utilisation de la mémoire Flash sous Vista
http://www.pcinpact.com/actu/news/ [...] -Flash.htm

n°4865226
viGnoS
..tu n'auras pas mes impôts !
Posté le 05-06-2006 à 22:30:27  profilanswer
 

Fouge a écrit :

A propos de l'utilisation de la mémoire Flash sous Vista
http://www.pcinpact.com/actu/news/ [...] -Flash.htm


ca me laisse un peu de marbre cette soit-disant innovation majeure de vista...
les disques dur actuels sont bien plus perfs que 3mo/s, meme en utilisation plus-qu'intensive. :heink:  
ca sent l'usine a gaz tout ca...  :pfff:


---------------
P@F deathlist
n°4865407
glod 2
Votre trajet, notre projet.
Posté le 06-06-2006 à 05:26:10  profilanswer
 

moggbomber a écrit :

"Jeux : L'Iran lance un jeu vidéo nationaliste"
http://www.infos-du-net.com/actual [...] video.html
 
vous allez voir que bientot ils vont faire une guerre preventive contre un pays parce qu'il fait des jeux video ou on tue des americains! ce qui est bien sur une honte car les americains sont tjrs les vaincqueurs puisqu'ils defendent la liberté :o
(rigolez pas pour ca qu'on peut pas jouer les Allemands nazis dans CoD  :sweat:


je vois pas le pb, depuis des années on plombe de l'arabe (forcément terroriste dans les jeux) où de l'allemand (forcément nazi), pour un jeu developpé en Iran il faudrait que ce soit GI Joe qui lutte contre les méchants hommes de couleur ?
Franchement je vois rien de choquant, en tout cas imaginez plutôt ces pays qui depuis 10 ans n'apparaissent dans les jeux vidéos comme des dictatures soutenant les kamikazes poseurs de bombes, l'effet que ça doit avoir...

n°4865412
dje33
Posté le 06-06-2006 à 06:06:24  profilanswer
 

Puis c'est un jeux video pas la réalité.

n°4865441
moggbomber
War, war never changes
Posté le 06-06-2006 à 08:06:20  profilanswer
 

glod 2 : je suis bien d'accord! :jap:
puis dje, c pas la réalité c'est certain et heureusement mais faudrait pas non plus presenter ca comme tel sous couvert d'une quelconque idéologie. fut elle aussi politiquement correcte que combattre le nazisme [:spamafote]
 
nan parce que si ca continue on va se faire fichier par la nsa des qu'on va jouer a un terroriste/allemand/alien dans un jeu vidéo en ligne :pfff:

n°4865594
bjone
Insert booze to continue
Posté le 06-06-2006 à 10:42:35  profilanswer
 

glod 2 a écrit :

je vois pas le pb, depuis des années on plombe de l'arabe (forcément terroriste dans les jeux) où de l'allemand (forcément nazi), pour un jeu developpé en Iran il faudrait que ce soit GI Joe qui lutte contre les méchants hommes de couleur ?
Franchement je vois rien de choquant, en tout cas imaginez plutôt ces pays qui depuis 10 ans n'apparaissent dans les jeux vidéos comme des dictatures soutenant les kamikazes poseurs de bombes, l'effet que ça doit avoir...


 
oué enfin y'a une différence sur des jeux sans arrière pensée volontaire (quoique), et un truc dédié par design à la propagande.
bon bref des trucs tendancieux ça toujours existé mais c'est vrai que c'est inquiétant de voir des nations même soit-disant évoluées se servir des jeux pour faire de la "communication".
 
bref monde de merde....

n°4865613
bothary
pas barbare, tasmanien !!
Posté le 06-06-2006 à 10:51:29  profilanswer
 

bjone a écrit :


 
bref monde de merde....


 
 
faut tout faire péter http://www.guignols.com/images/sylves.gif
 
 
2eme degré touca... [:bothary]  


---------------
...Tuco Benedictio Pacifico Juan Maria Ramirez "dit LE PORC"...
n°4865629
kao98
...
Posté le 06-06-2006 à 11:00:16  profilanswer
 

Pour l'histoire de la physique par le GPU : ATI semble offrir une solution intéressante en permettant de coupler des cartes différentes !
Le top ce serait de pouvoir coupler les marques ! Une CG nVidia pour l'affichage, et une ATI pour la physique :whistle:


Message édité par kao98 le 06-06-2006 à 11:00:36

---------------
Kao ..98 - Uplay (R6S) : kao98.7.62x39 - Origin (BF4, BF1) : kntkao98
n°4865653
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 06-06-2006 à 11:13:41  profilanswer
 

Le top ce serait qu'ils arrête d'essayer de nous refourguer deux CG dans nos PC ... ;)


---------------
Moi, j'aime pas les signatures
n°4865655
kao98
...
Posté le 06-06-2006 à 11:14:43  profilanswer
 

Ouais, c'est vrai. J'oubliais que je suis partisans de la physique via CPU :o


---------------
Kao ..98 - Uplay (R6S) : kao98.7.62x39 - Origin (BF4, BF1) : kntkao98
n°4865662
bjone
Insert booze to continue
Posté le 06-06-2006 à 11:17:52  profilanswer
 

Marc a écrit :

Le top ce serait qu'ils arrête d'essayer de nous refourguer deux CG dans nos PC ... ;)


Répetes après moi:  
 
"Je vais faire du SLI"
"Je vais faire du Crossfire"
 
"Je vais faire du SLI"
"Je vais faire du Crossfire"
 
http://www.planete-jeunesse.com/images/a/Asterix12Travaux05.jpg
 
- C'est pratique votre truc, ça éclaire dans la nuit -
 
:D

n°4865676
Fouge
Posté le 06-06-2006 à 11:23:29  profilanswer
 

Marc a écrit :

Le top ce serait qu'ils arrête d'essayer de nous refourguer deux cores dans nos CPU ... ;)

C'est pour notre bien :o
(fake quote, je précise)


Message édité par Fouge le 06-06-2006 à 11:39:45
n°4865677
Oxygen3
Tears from the moon
Posté le 06-06-2006 à 11:24:12  profilanswer
 

moi, je suis sur que c'est pour le bien d'Areva, d'Enel, de Suez et de EDF :o


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°4865920
bjone
Insert booze to continue
Posté le 06-06-2006 à 13:02:53  profilanswer
 

si le SLI était sortit plus tôt, Enron serait encore en vie...  :o


Message édité par bjone le 06-06-2006 à 13:03:03
n°4866106
YodaNC
Posté le 06-06-2006 à 14:30:52  profilanswer
 

a quand les gpu dual core ? [:dawao]

n°4866146
Fouge
Posté le 06-06-2006 à 14:53:08  profilanswer
 

GF7950GX2 :o
Je préfèrerais 48 "pipelines" et un débit mémoire doublé :o


Message édité par Fouge le 06-06-2006 à 14:55:00
n°4866157
asmomo
Modérateur
Posté le 06-06-2006 à 15:01:25  profilanswer
 

Avec un PCB double face 16 couches :p

n°4866238
blazkowicz
Posté le 06-06-2006 à 15:46:16  profilanswer
 

Marc a écrit :

Le top ce serait qu'ils arrête d'essayer de nous refourguer deux CG dans nos PC ... ;)


 
c'est mal barré puisque ATI veut nous en refourguer trois :whistle:
(celà dit j'en avais une pour la 2D et deux pour la 3D ya quelques temps.. :o)

n°4866244
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 06-06-2006 à 15:49:54  profilanswer
 

http://www.hardware.fr/marc/theater.jpg
 
Quel est l'avantage d'une solution qui fait fermer les yeux des présentatrices :??:


---------------
Moi, j'aime pas les signatures
n°4866254
Telchar
Posté le 06-06-2006 à 15:53:50  profilanswer
 


http://www.anandtech.com/tradeshow [...] spx?i=2770
 
ATI and NVIDIA have been briefing power supply manufacturers in Taiwan recently about what to expect for next year’s R600 and G80 GPUs.  Both GPUs will be introduced in late 2006 or early 2007, and while we don’t know the specifications of the new cores we do know that they will be extremely power hungry.  The new GPUs will range in power consumption from 130W up to 300W per card.
 
Formidable si en plus il y en a 3 par pc  :heink:  

n°4866256
Fouge
Posté le 06-06-2006 à 15:55:18  profilanswer
 

Marc> La pauvre elle avait l'air fatiguée. Vive le Theatre 650 Pro :)
 
Et puis c'est en tentant de nous en refourguer 3 voire 4, qu'ils arriveront à nous en refourguer 2 plus facilement :o

Message cité 1 fois
Message édité par Fouge le 06-06-2006 à 15:55:56
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  763  764  765  ..  1004  1005  1006  1007  1008  1009

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Demande infos] Top AchatComment imprimer les infos du bios ?
Quel carte Open Gl la mieux adapte a 3dsMAXBesion d'infos sur les Graveur de DVD chui perdu
couldn't load open glNEC ND-1300: cherche infos
Mise a jour bios KT7A, prob direct x et open gl geforce 2 pro!!Salut je voudrait des infos sur l'instalation d'un processeur
Rech infos sur le nouveau graveur de DVD liteon multiformat !!!![INFOS a la con] si vous avez des PB avec votre ABIT NF7-S REV2.0
Plus de sujets relatifs à : Graphical open bar (des infos, des intox, aux extraits de TheInq)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)