Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1545 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  920  921  922  ..  1004  1005  1006  1007  1008  1009
Auteur Sujet :

Graphical open bar (des infos, des intox, aux extraits de TheInq)

n°7255952
Gigathlon
Quad-neurones natif
Posté le 22-12-2009 à 10:33:34  profilanswer
 

Reprise du message précédent :
Ah bah dis donc, c'est passé inaperçu entre les 2 posts sur le clavier et Clarkdale [:dawa]
 
D'ailleurs pour Clarkdale faut pas s'attendre à des miracles... son IGP est aussi gros qu'un RV730 (119mm² @45nm), donc encore heureux qu'il "brille" face aux RV710 et GT218 (qui ne devraient au passage même pas être comparables entre eux vu la différence de process...)


Message édité par Gigathlon le 22-12-2009 à 10:37:56
mood
Publicité
Posté le 22-12-2009 à 10:33:34  profilanswer
 

n°7255958
cbo
Posté le 22-12-2009 à 10:45:30  profilanswer
 

Désolé j'avais pas dut suivre.
 
j'étais resté sur le fait que la fréquence des tesla était juste plus basse.

n°7255961
dll_75
Posté le 22-12-2009 à 10:46:38  profilanswer
 

sur les Tesla, le GPU tourne vraiment à 1,4 Ghz ??!!

n°7255963
Gigathlon
Quad-neurones natif
Posté le 22-12-2009 à 10:47:55  profilanswer
 

dll_75 a écrit :

sur les Tesla, le GPU tourne vraiment à 1,4 Ghz ??!!


C'est même pas garanti vu l'annonce d'une fourchette et pas d'une fréquence précise... :o
 
Par contre ce qui est inquiétant c'est le fait qu'ils ne proposent pas dans la gamme Tesla un GPU non castré, on peut se demander ce qu'il en sera des GPU grand public dont le volume ne devrait pas être extraordinairement plus faible.
 
(Note: accessoirement ça la foutrait assez mal qu'ils utilisent un GPU complet sur une carte 5-7x moins chère).

Message cité 1 fois
Message édité par Gigathlon le 22-12-2009 à 10:51:29
n°7255965
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 22-12-2009 à 10:48:50  profilanswer
 

C'est pas tout le GPU mais les shader core

n°7255967
dll_75
Posté le 22-12-2009 à 10:52:09  profilanswer
 

Marc a écrit :

C'est pas tout le GPU mais les shader core


ah oui ok, exactement comme dans les GTX alors.

n°7255973
dll_75
Posté le 22-12-2009 à 10:55:10  profilanswer
 

Gigathlon a écrit :


C'est même pas garanti vu l'annonce d'une fourchette et pas d'une fréquence précise... :o
 
Par contre ce qui est inquiétant c'est le fait qu'ils ne proposent pas dans la gamme Tesla un GPU non castré, on peut se demander ce qu'il en sera des GPU grand public dont le volume ne devrait pas être extraordinairement plus faible.
 
(Note: accessoirement ça la foutrait assez mal qu'ils utilisent un GPU complet sur une carte 5-7x moins chère).


 
 
S'ils castrent maintenant, y'a peut etre une autre explication:
1 - Fermi est assez puissant pour passer sans probleme devant le RV870, même avec 448 SP.
2 - Ils conservent 64 SP en réserve pour des nouveaux modeles de CG quand ATI contre-attaquera avec les 5890
 
ou pas;)

n°7255977
o_BlastaaM​oof_o
Posté le 22-12-2009 à 10:59:22  profilanswer
 

Hey les fanboys, va falloir ouvrir les yeux un jour ou l'autre hein :o

n°7255981
Gigathlon
Quad-neurones natif
Posté le 22-12-2009 à 11:04:04  profilanswer
 

Les réflexions pointent vers la maturité insuffisante du process, désactiver 2 clusters permettant de récupérer 2 défauts par GPU.
 
Reste que malgré ça le TDP fixé à 225w fait très très peur.

Message cité 2 fois
Message édité par Gigathlon le 22-12-2009 à 11:04:43
n°7255984
dll_75
Posté le 22-12-2009 à 11:05:33  profilanswer
 

Gigathlon a écrit :

Les réflexions pointent vers la maturité insuffisante du process, désactiver 2 clusters permettant de récupérer 2 défauts par GPU.
 
Reste que malgré ça le TDP fixé à 225w fait très très peur.


C'est l'autre explication effectivement  :whistle:

mood
Publicité
Posté le 22-12-2009 à 11:05:33  profilanswer
 

n°7256013
MEI
|DarthPingoo(tm)|
Posté le 22-12-2009 à 11:35:18  profilanswer
 

Gigathlon a écrit :

Les réflexions pointent vers la maturité insuffisante du process, désactiver 2 clusters permettant de récupérer 2 défauts par GPU.
 
Reste que malgré ça le TDP fixé à 225w fait très très peur.


Sans mesure pratique ça veut rien dire, et sur le matos pro je supose qu'ils exagèrent la conso car c'est pas fait que pour en mettre 1 dans le rack, mais 2 3 4+ ... et là donc c'est beaucoup plus critique d'annoncer des conso avec une marge pour dimensionner l'alim sans qu'une des cartes "s'éteignent" a cause de l'alim faiblarde.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7256104
asmomo
Modérateur
Posté le 22-12-2009 à 12:58:51  profilanswer
 

dll_75 a écrit :

S'ils castrent maintenant, y'a peut etre une autre explication:
1 - Fermi est assez puissant pour passer sans probleme devant le RV870, même avec 448 SP.
2 - Ils conservent 64 SP en réserve pour des nouveaux modeles de CG quand ATI contre-attaquera avec les 5890
 
ou pas;)


 
C'est pas pour être mauvaise langue car ça m'arrange pas spécialement (je déteste les trucs castrés :o), mais ça semble pas du tout logique. à la limite si tu veux te laisser de la marge tu mets des fréquences conservatrices, mais tu castres pas ton haut de gamme.


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°7256264
dll_75
Posté le 22-12-2009 à 14:40:00  profilanswer
 

asmomo a écrit :


 
je déteste les trucs castrés :o


moi je l'aime bien ma GTX260+ avec une couille en moins qu'une 280  :o

n°7256280
Profil sup​primé
Posté le 22-12-2009 à 14:54:55  answer
 

+1
Elle fait admirablement bien son 'boulot' cette carte :jap:


Message édité par Profil supprimé le 22-12-2009 à 14:55:05
n°7256284
Gigathlon
Quad-neurones natif
Posté le 22-12-2009 à 14:57:21  profilanswer
 

asmomo a écrit :

C'est pas pour être mauvaise langue car ça m'arrange pas spécialement (je déteste les trucs castrés :o), mais ça semble pas du tout logique. à la limite si tu veux te laisser de la marge tu mets des fréquences conservatrices, mais tu castres pas ton haut de gamme.


Les Tesla c'est pas le "haut de gamme", c'est la "gamme la plus rémunératrice" :o
 
Quoi qu'il en soit, ça ne colle pas avec une quelconque logique car dans ce cas ils auraient pu envisager de simplement faire un GPU à 256/384 "cores", plus petit mais avec des fréquences plus élevées rendues possibles par cette diminution.
 
Si ils ont conçu une puce avec 512SP, la logique voudrait que le domaine où la puissance de calcul est primordiale en utilise la totalité, sinon à quoi ça servait? A prévoir des salvage parts en grand nombre dès la conception préliminaire? [:gratgrat]


Message édité par Gigathlon le 22-12-2009 à 14:58:39
n°7256405
asmomo
Modérateur
Posté le 22-12-2009 à 16:08:30  profilanswer
 

Bah actuellement la Tesla la plus puissante a des fréquences quasi identiques à la GTX285, et rien de castré. Les shaders sont même un poil au-dessus.
 
Ensuite pour du calcul //, mieux vaut plus de shaders moins fréquencés que l'inverse, donc clairement c'est un pb de yield et pas de conso. Enfin il y a aussi un pb de conso, en plus :d


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°7256417
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 22-12-2009 à 16:14:26  profilanswer
 


 

Citation :

The main point is from an Nvidia PDF first found here. On page 6, there are some interesting specs, 448 stream processors (SPs), not 512, 1.40GHz, slower than the G200's 1.476GHz, and the big 6GB GDDR5 variant is delayed until 2H 2010. To be charitable, the last one isn't Nvidia's fault, it needs 64x32GDDR5 to make it work, and that isn't coming until 2H 2010 now.

ah oué... :sweat:


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°7256433
Gigathlon
Quad-neurones natif
Posté le 22-12-2009 à 16:22:46  profilanswer
 

Finalement les fameux "1.7%" n'étaient peut-être pas infondés quand on voit ça... :/
 
Si à 2500$$ ils doivent encore utiliser des GPU castrés pour rentabiliser la conception, c'est que le rendement "100% fonctionnel" ne doit pas être bon du tout.
 
En fait, si on considère qu'ils vendent 2 GPU castrés pour 1 complet, ça nous donne 2x plus de dies défectueux dans les unités de calcul que de parfaits, mais ces mêmes unités de calcul ne représentent que 50% du die.
 
Si par malheur un défaut apparaît dans la partie centrale du GPU, qui représente quand même 25% du die, ou dans le contrôleur mémoire, qui en représente encore 25%, ça veut dire que sur 100 puces, 40 seront irrécupérables, 40 seront utilisables en tant que versions castrées et 20 seulement seront totalement exploitables.
 
Si on considère plus raisonnablement qu'ils vendent 3 voire 4 GPU castrés pour 1 complet (la GTX285 se vend nettement moins que les GTX260 et GTX275, et la GTX360 reprendrait à priori le même core que les Tesla), ça fait froid dans le dos.


Message édité par Gigathlon le 22-12-2009 à 16:27:56
n°7256453
Zack38
Posté le 22-12-2009 à 16:35:04  profilanswer
 

nVidia sur les terres d'Intel et d'AMD
 

Citation :

Fin d'année oblige, nVidia est au coeur d'une rumeur concernant la commercialisation d'un processeur x86.
 
Contrairement à Fermi et même si celà peut paraître surprenant au premier regard, il ne s'agit que d'une rumeur de plus à prendre avec des "pincettes".
 
On en entend parler depuis longtemps et c'est le New York Time qui replace cette rumeur au coeur de l'actualité de cette fin d'année 2009.
 
Comment et pourquoi ? Simplement parce que le célèbre quotidien américain a publié un article concernant une plainte de la FTC. Une plainte qui permettrait à une société possédant déjà une licence x86, de l'utiliser pour produire des puces d'un concurrent. Un partie de cette plainte imposerait même au fondeur de Santa Clara de rendre disponible à tous la technologie nécessaire pour interagir avec les CPU et les chipsets Intel, incluant l'extension de licences actuelles.
 
Du coup, les rumeurs vont bon train et certains n'hésitent pas à avancer que la firme au caméléon travaillerait à la création de son premier processeur x86. Il faut dire que nVidia n'a rien fait pour calmer les bruits en embauchant plusieurs ingénieurs de feu Transmeta.
 
Et nous à la ferme, on ne nous fera pas croire que ces brillants collaborateurs travaillent sur Fermi. Si Fermi était la vraie rumeur de nVidia, on comprendrait un peu mieux la situation actuelle sur le marché des GPU.  
 
Pour rappel, depuis 2 ans, le budget de R&D du caméléon est passé de 352 millions de dollars par an, à plus de 8000 millions.
 
Pour conclure, nVidia a toujours travaillé sur des solutions à long terme : Les chipsets compatibles Nehalem / Westmere actuellement en préparation par exemple, alors que la société n'a aucun droit de les distribuer pour le moment.
 
Alors à quand la compétition avec trois grands acteurs dans l'arêne très privée des fondeurs de CPU ?


Message édité par Zack38 le 22-12-2009 à 16:35:21
n°7256507
MEI
|DarthPingoo(tm)|
Posté le 22-12-2009 à 17:17:03  profilanswer
 

Le truc c'est que je vois mal Intel filer une licence x86 à NVIDIA alors que déjà il ne file pas de licence DMI... :??:


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7256520
Gigathlon
Quad-neurones natif
Posté le 22-12-2009 à 17:25:26  profilanswer
 

MEI a écrit :

Le truc c'est que je vois mal Intel filer une licence x86 à NVIDIA alors que déjà il ne file pas de licence DMI... :??:


Moi, le truc que je vois mal, c'est comment Intel aurait pu se planter dans les termes de la licence accordée à nVidia au point de devoir l'étendre à tout nouveau protocole...
 
Jusqu'à preuve du contraire, Intel leur a accordé une licence pour la production de chipsets "NetBurst" (Pentium 4, Pentium M et Core2) et pas de "chipsets pour processeurs x86".
 
Le reste de la plainte relative à Larrabee est pour sa part un véritable gag.

Message cité 1 fois
Message édité par Gigathlon le 22-12-2009 à 17:26:09
n°7256599
moggbomber
War, war never changes
Posté le 22-12-2009 à 18:19:18  profilanswer
 

ouai tout ca pour que l'action ne s'ecroule pas quand on entend parler du fermi ....
 
nan mais c une génération loupée pour ce coup ci. ca arrive a tout fabriquant...
 
et vous allez voir que les fanboys vont nous refaire le coup du ca déchirera quand ca sera optimisé. En oubliant bien sur que ca le sera jamais


---------------
Neuroatypique PEUQ GMSP GQGWL UZI
n°7256614
couillesho​t
Les bouboules et la boubouche
Posté le 22-12-2009 à 18:27:24  profilanswer
 

asmomo a écrit :


 
C'est pas pour être mauvaise langue car ça m'arrange pas spécialement (je déteste les trucs castrés :o), mais ça semble pas du tout logique. à la limite si tu veux te laisser de la marge tu mets des fréquences conservatrices, mais tu castres pas ton haut de gamme.


 
c'est pour ça que tu me déteste?   :sweat:

n°7256753
Zack38
Posté le 22-12-2009 à 20:11:44  profilanswer
 

MEI a écrit :

Le truc c'est que je vois mal Intel filer une licence x86 à NVIDIA alors que déjà il ne file pas de licence DMI... :??:


 

Gigathlon a écrit :


Moi, le truc que je vois mal, c'est comment Intel aurait pu se planter dans les termes de la licence accordée à nVidia au point de devoir l'étendre à tout nouveau protocole...
 
Jusqu'à preuve du contraire, Intel leur a accordé une licence pour la production de chipsets "NetBurst" (Pentium 4, Pentium M et Core2) et pas de "chipsets pour processeurs x86".
 
Le reste de la plainte relative à Larrabee est pour sa part un véritable gag.


 
Le truc, c'est que ce ne sera certainement pas Intel qui fournira à nVidia la licence x86, mais une entreprise tierce qui la possède . Je peux citer AMD et GF (sauf qu'AMD est concurrent à nVidia donc non, et nVidia ne veut pas de GF), ainsi que VIA, dont la rumeur du rachat par nVidia circule depuis bien longtemps . :)

n°7256775
MEI
|DarthPingoo(tm)|
Posté le 22-12-2009 à 20:40:27  profilanswer
 

C'est AMD qui a une licence x86 et elle n'est valable que pour AMD. Donc GF ne l'a pas, ATI non plus.
 
Pour VIA idem c'est VIA qui l'a, mais si NVIDIA rachetait VIA, la licence serait sans doute valable que pour un produit marketé VIA, chose qui arrangerais pas NVIDIA de toutes facons... Et je vois pas l'interet de VIA pour NVIDIA... ;)


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7256864
Gigathlon
Quad-neurones natif
Posté le 22-12-2009 à 22:16:25  profilanswer
 

Tssss... suffirait qu'ils changenr un pwal leur logo!
 
nVIdiA avec des majuscules 10x plus grosses que les minuscules et hop, ni vu ni connu [:dawa]

n°7257041
marllt2
Posté le 23-12-2009 à 05:02:07  profilanswer
 

marllt2 a écrit :

http://www.expreview.com/9159.html

Citation :

NVIDIA internal meeting yesterday, it is to take this data, AIC explain Fermi, we have a number of AIC has been confirmed


Il se passe quoi chez nV là ?  Ils racontent du FUD chez leurs partenaires, et dans le même temps démentent publiquement ?

Marc a écrit :

C'est censé vouloir dire quelque chose ton message ? :o


C'était du Chinois traduit. :whistle: En plus compréhensible:

Citation :

We have just been told by reliable sources that those benchmarks were exactly what NVIDIA showed AICs at the recent internal meeting.


Message édité par marllt2 le 23-12-2009 à 07:00:55
n°7257331
dll_75
Posté le 23-12-2009 à 13:59:06  profilanswer
 

[troll de noel ON]
 
Si NV se lance effectivement dans les proc X86,
l'utilité des alims de plus de 1000Watts sera plus claire...
 
1 NV X86 QuadCore + 1 Fermi + le chipset = 1000watts
 
What else ? :)
 
 
[troll de noel OFF]

n°7257332
dll_75
Posté le 23-12-2009 à 14:00:41  profilanswer
 

Tesla et Fermi en approche!
 
http://www.hardware.fr/news/lire/22-12-2009/  
 
 
 
EDIT:
Link sur la doc officielle de TESLA 20 avec FERMI
http://www.nvidia.com/docs/IO/43395/BD-04983-001_v01.pdf

Message cité 1 fois
Message édité par dll_75 le 23-12-2009 à 14:40:39
n°7257390
couillesho​t
Les bouboules et la boubouche
Posté le 23-12-2009 à 14:44:04  profilanswer
 

peut-on espérer un lancement au CES ou au Cebit?  :o  

n°7257394
dll_75
Posté le 23-12-2009 à 14:46:04  profilanswer
 

couilleshot a écrit :

peut-on espérer un lancement au CES ou au Cebit? :o  


C'est ce qui est prévu, avec les GTX360 & 380 aussi :bounce:

n°7257403
o_BlastaaM​oof_o
Posté le 23-12-2009 à 14:52:36  profilanswer
 

dll_75 a écrit :

Tesla et Fermi en approche!
 
http://www.hardware.fr/news/lire/22-12-2009/  
 
 
 
EDIT:
Link sur la doc officielle de TESLA 20 avec FERMI
http://www.nvidia.com/docs/IO/43395/BD-04983-001_v01.pdf


Tu déterres là :o
 
Le lancement au CES, c'est possible mais ce sera clairement un paper launch.

n°7258855
Gigathlon
Quad-neurones natif
Posté le 24-12-2009 à 16:20:05  profilanswer
 

Oulala, attention, grandes nouvelles concernant les futures GeForce en provenance directe de Facebook!!!
 

Spoiler :

Elles supporteront un AA 32x!
 
Et en plus, leurs VRM seront réglables de façon logicielle!!


 
Sinon, euh... bon, bah rdv au mieux au CES pour avoir un indice sur les perfs, même si j'y crois même pas.

n°7259229
couillesho​t
Les bouboules et la boubouche
Posté le 25-12-2009 à 00:29:42  profilanswer
 

la prochaine archi ATI c'est du 40nm aussi?

n°7259232
Gigathlon
Quad-neurones natif
Posté le 25-12-2009 à 00:31:57  profilanswer
 

32/28nm, on ne sait pas encore.

n°7259234
couillesho​t
Les bouboules et la boubouche
Posté le 25-12-2009 à 00:32:39  profilanswer
 

ok donc pas pour tout de suite, pour 2011 quoi

n°7259241
Gigathlon
Quad-neurones natif
Posté le 25-12-2009 à 00:35:41  profilanswer
 

Fin 2010 à début 2011, selon comment ça se goupille.

n°7259242
asmomo
Modérateur
Posté le 25-12-2009 à 00:36:44  profilanswer
 

Super les VRM, histoire de dépasser la norme PCIe les mains dans le dos :d
 
L'AA 32X, idéal pour les vieux jeux, vu que pour les jeux récents, ça s'annonce pas terrible.
 
Les premiers batchs d'A3 sont revenus donc ils auront des cartes pour le CES (mais pas de quoi faire un vrai lancement bien sûr...quoi que, le paper launch c'est un peu devenu la norme non ? :d).


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°7259251
Gigathlon
Quad-neurones natif
Posté le 25-12-2009 à 00:50:13  profilanswer
 

asmomo a écrit :

Super les VRM, histoire de dépasser la norme PCIe les mains dans le dos :d


C'est pas nous! :o
 
Plus ça va plus ils s'enfoncent, c'est assez désolant :/
 
L'AA 32x ne sert strictement à rien et le VRM programmable c'est un peu la norme depuis 3 ans sauf exceptions, si ils n'ont que ça pour occuper le terrain 2 mois après leur paper launch de Fermi (qui a déjà été revu à la baisse), ça n'augure rien de bon.
 
Edit : je pense avoir encore une couche à remettre sur le dos de nVidia... :o
 
Jusque là, ils avaient un déficit en génération de triangles dont l'impact était négligeable, mais il semblerait bien que la tessellation change assez dramatiquement cette situation.  Après avoir regardé rapidement, Heaven rame à 16fps avec une 5870 là où il ramait à 11fps avec une 5770, le tout en 1920x1200 AA4 (les 16fps, on les obtient en 640x400 avec la 5770, enfin plus exactement 17).

Message cité 1 fois
Message édité par Gigathlon le 25-12-2009 à 01:40:27
n°7260373
MEI
|DarthPingoo(tm)|
Posté le 26-12-2009 à 10:14:44  profilanswer
 

Gigathlon a écrit :


C'est pas nous! :o
 
Plus ça va plus ils s'enfoncent, c'est assez désolant :/
 
L'AA 32x ne sert strictement à rien et le VRM programmable c'est un peu la norme depuis 3 ans sauf exceptions, si ils n'ont que ça pour occuper le terrain 2 mois après leur paper launch de Fermi (qui a déjà été revu à la baisse), ça n'augure rien de bon.
 
Edit : je pense avoir encore une couche à remettre sur le dos de nVidia... :o
 
Jusque là, ils avaient un déficit en génération de triangles dont l'impact était négligeable, mais il semblerait bien que la tessellation change assez dramatiquement cette situation.  Après avoir regardé rapidement, Heaven rame à 16fps avec une 5870 là où il ramait à 11fps avec une 5770, le tout en 1920x1200 AA4 (les 16fps, on les obtient en 640x400 avec la 5770, enfin plus exactement 17).


Plus on augmentent en resolution plus l'AA est utile. Si on a dit que l'AA8X etait utile en 1600x1200, je vois pas pourquoi l'AA16X ne serait pas utile en 2560&+. ;)
 
De plus c'est sans doute le CFAA qui passe en 32X ;)

Message cité 1 fois
Message édité par MEI le 26-12-2009 à 10:15:11

---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7260532
Gigathlon
Quad-neurones natif
Posté le 26-12-2009 à 12:55:04  profilanswer
 

MEI a écrit :


Plus on augmentent en resolution plus l'AA est utile. Si on a dit que l'AA8X etait utile en 1600x1200, je vois pas pourquoi l'AA16X ne serait pas utile en 2560&+. ;)
 
De plus c'est sans doute le CFAA qui passe en 32X ;)


Le CSAA... et quand on sait que le CSAA 16x est à mi-chemin entre le 4x et le 8x c'est pas forcément une meilleure idée.
 
L'AA 4x réduit déjà pas mal l'aliasing, avec un AA 8x c'est très difficilement perceptible, au-delà, on est obligé de taper dans de l'AA custom pour virer un aliasing d'une autre nature.

Message cité 1 fois
Message édité par Gigathlon le 26-12-2009 à 12:57:57
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  920  921  922  ..  1004  1005  1006  1007  1008  1009

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Demande infos] Top AchatComment imprimer les infos du bios ?
Quel carte Open Gl la mieux adapte a 3dsMAXBesion d'infos sur les Graveur de DVD chui perdu
couldn't load open glNEC ND-1300: cherche infos
Mise a jour bios KT7A, prob direct x et open gl geforce 2 pro!!Salut je voudrait des infos sur l'instalation d'un processeur
Rech infos sur le nouveau graveur de DVD liteon multiformat !!!![INFOS a la con] si vous avez des PB avec votre ABIT NF7-S REV2.0
Plus de sujets relatifs à : Graphical open bar (des infos, des intox, aux extraits de TheInq)


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR