Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2357 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  908  909  910  ..  1004  1005  1006  1007  1008  1009
Auteur Sujet :

Graphical open bar (des infos, des intox, aux extraits de TheInq)

n°7214080
Oxygen3
Tears from the moon
Posté le 20-11-2009 à 10:29:28  profilanswer
 

Reprise du message précédent :

Marc a écrit :


Bien sûr que j'ai ça aussi :D, mais bon, si je m'arrêtais pas au dual core y'en avait 200 des CPU et ca prenait encore 2 mois vu la lenteur des 70 autres, donc non :o

 

Oui, j'en suis bien conscient :)
En fait ma question était pas totalement neutre, c'était aussi parce que je pense qu'il est représentatif d'une génération de machine de 2003/2005 (tout comme l'est peut-être les anciens Barton et autres Atlhon TBird :))
Celà dit, suffit de prendre un P4D et ca doit faire un truc proche :o
Maintenant, d'un point de vue plateforme, je sais pas si c'est réellement possible de les mettre au même niveau (surtout pour les cartes graphiques) vu que leurs plateformes étaient plutot AGP que PCI-Ex :o

 

Et puis bon, un proco de 2003, faut tourner la page à un moment [:ddr555]


Message édité par Oxygen3 le 20-11-2009 à 10:30:13

---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
mood
Publicité
Posté le 20-11-2009 à 10:29:28  profilanswer
 

n°7214126
Oxygen3
Tears from the moon
Posté le 20-11-2009 à 11:01:04  profilanswer
 

Sinon, ce qui est assez intéressant, c'est finalement de voir que entre Windows Vista et Windows 7 les perfs ont méchament augmenté que ce soit chez AMD ou chez Intel, et qu'il ne faudrait sans doute pas aller chercher plus loin sur la meilleure acceptation de Win7:
 
En clair, le plus faible des proco actuel est plus rapide que le plus rapide des procos de l'époque. Et je parle même pas des proco les moins rapides qui étaient le "standard" à l'époque :sweat:


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°7214134
Gigathlon
Quad-neurones natif
Posté le 20-11-2009 à 11:08:43  profilanswer
 

Rhoo la vache, Marc s'est tapé un gros délire :o
 
http://www.hardware.fr/medias/photos_news/00/27/IMG0027507.jpg
 
En tout cas, sympa le test de l'Atom, même si c'est plus le 230 qu'il faudrait prendre en compte dans mon idée (useless un dual core pour l'utilisation initialement envisagée de ce CPU, mais bon là ça serait un tout autre test...).

Message cité 1 fois
Message édité par Gigathlon le 20-11-2009 à 11:11:02
n°7214143
ITM
Avatar peint à la main
Posté le 20-11-2009 à 11:16:50  profilanswer
 

D'ailleurs, dommage que l'Atom soit pas complètement intégré au test géant :o

n°7214164
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 20-11-2009 à 11:35:33  profilanswer
 

Rendre les graphiques illisibles pour un CPU, non merci :D

n°7214170
ITM
Avatar peint à la main
Posté le 20-11-2009 à 11:40:20  profilanswer
 

Marc a écrit :

Rendre les graphiques illisibles pour un CPU, non merci :D


Dommage, ce comparo est pas passé loin de devenir mythique :o

n°7214175
Profil sup​primé
Posté le 20-11-2009 à 11:42:13  answer
 

C'est là qu'on se trouve bien bête de payer si cher pour si peu de temps d'utilisation compte-tenu de l'évolution rapide du rendement de nos CPUs :spamafote:
EDIT: vu d'un autre angle :o.., pour 100 € aujourd'hui t'as un truc qui tiendra 6 mois ^^


Message édité par Profil supprimé le 20-11-2009 à 11:43:36
n°7214186
Gigathlon
Quad-neurones natif
Posté le 20-11-2009 à 11:49:20  profilanswer
 

Marc a écrit :

Rendre les graphiques illisibles pour un CPU, non merci :D


Rassure moi, la tof c'est pas la nouvelle plateforme de test des cartes graphiques, hein? :o

n°7214194
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 20-11-2009 à 11:52:14  profilanswer
 

Ce serait plus simple en même temps :D

n°7214205
0b1
There's good in him
Posté le 20-11-2009 à 11:57:38  profilanswer
 

Gigathlon a écrit :

Rhoo la vache, Marc s'est tapé un gros délire :o
 
http://www.hardware.fr/medias/phot [...] 027507.jpg
 
En tout cas, sympa le test de l'Atom, même si c'est plus le 230 qu'il faudrait prendre en compte dans mon idée (useless un dual core pour l'utilisation initialement envisagée de ce CPU, mais bon là ça serait un tout autre test...).


Heureusement que c'est pas une HD5970  [:afrojojo]

mood
Publicité
Posté le 20-11-2009 à 11:57:38  profilanswer
 

n°7214207
AbelJemka
Posté le 20-11-2009 à 11:58:15  profilanswer
 

MEI a écrit :

Euh la GTX 280 c'est plus de 25% plus perfs qu'un 4870... Rien qu'un GTX 285 est suffisament devant pour que meme une 4890 doivent etre a 1GHz pour etre au meme niveau perf.


Tu postes sur HFR donc ça devrait t'éviter t'écrire des absurdités pareil...
Une GTX280 n'est pas 25% plus perfs qu'une 4870.
http://www.hardware.fr/articles/72 [...] -4850.html
Et 1GHz une 4890 est plus rapide qu'une GTX285.
http://www.hardware.fr/articles/76 [...] 1-ghz.html

Message cité 2 fois
Message édité par AbelJemka le 20-11-2009 à 11:59:18

---------------
feedback
n°7214212
nhemles
Mort aux assistés
Posté le 20-11-2009 à 11:59:58  profilanswer
 

AbelJemka a écrit :


Tu postes sur HFR donc ça devrait t'éviter t'écrire des absurdités pareil...
Une GTX280 n'est pas 25% plus perfs qu'une 4870.
http://www.hardware.fr/articles/72 [...] -4850.html
Et 1GHz une 4890 est plus rapide qu'une GTX285.
http://www.hardware.fr/articles/76 [...] 1-ghz.html


Et en bonus dans le premier test c'est une 4870 512 Mo qui est testée :o

n°7214215
0b1
There's good in him
Posté le 20-11-2009 à 12:02:39  profilanswer
 

AbelJemka a écrit :


Tu postes sur HFR donc ça devrait t'éviter t'écrire des absurdités pareil...
Une GTX280 n'est pas 25% plus perfs qu'une 4870.
http://www.hardware.fr/articles/72 [...] -4850.html
Et 1GHz une 4890 est plus rapide qu'une GTX285.
http://www.hardware.fr/articles/76 [...] 1-ghz.html


A voir, d'autres test ne disent pas la même chose.
Et au fait, une GTX285 ça s'overclock aussi (si si !)

n°7214222
nhemles
Mort aux assistés
Posté le 20-11-2009 à 12:05:45  profilanswer
 

http://www.hardware.fr/medias/photos_news/00/27/IMG0027235.gif
http://www.hardware.fr/medias/photos_news/00/27/IMG0027236.gif
 
@ stock, une 4890 c'est une 275 (à 3% près en 1680x1050, et à 0% près en 1920x1200 :o ), et une 4870 c'est plus puissant qu'une 260+ qui n'est pas 20% moins performante que sa grande soeur. La remarque initiale sur la 4870 est fausse, c'est tout.
 
http://www.hardware.fr/medias/photos_news/00/25/IMG0025689.gif


Message édité par nhemles le 20-11-2009 à 12:11:35
n°7214225
AbelJemka
Posté le 20-11-2009 à 12:08:19  profilanswer
 

0b1 a écrit :


A voir, d'autres test ne disent pas la même chose.
Et au fait, une GTX285 ça s'overclock aussi (si si !)


Ah oui quels tests donnent la GTX280 plus de 25% plus rapide que la 4870 en moyenne?
 
Je sais qu'une GTX285 s'overclock aussi; ça lui permet de reprendre c'est 8% de perf en plus :)


---------------
feedback
n°7214234
0b1
There's good in him
Posté le 20-11-2009 à 12:11:04  profilanswer
 

AbelJemka a écrit :


Ah oui quels tests donnent la GTX280 plus de 25% plus rapide que la 4870 en moyenne?
 
Je sais qu'une GTX285 s'overclock aussi; ça lui permet de reprendre c'est 8% de perf en plus :)


Euh, c'est pas ce à quoi je répondais. Regarde ce que j'ai mis en gras  :heink:

Message cité 1 fois
Message édité par 0b1 le 20-11-2009 à 12:11:20
n°7214242
AbelJemka
Posté le 20-11-2009 à 12:15:31  profilanswer
 

Je suis sur HFR donc j'ai pas été cherché plus loin que le test de HFR  :sarcastic:


---------------
feedback
n°7214247
Gigathlon
Quad-neurones natif
Posté le 20-11-2009 à 12:16:50  profilanswer
 

0b1 a écrit :

Euh, c'est pas ce à quoi je répondais. Regarde ce que j'ai mis en gras  :heink:


C'est une édition collector, certes, mais elle a été commercialisée cette 4890 "Ultra" :o
 
On ne peut même pas dire que ça soit spécifique à 1 des fabricants puisque Sapphire et XFX l'ont vendue et PowerColor l'avait annoncée même si on ne l'a jamais vue.

n°7214251
nhemles
Mort aux assistés
Posté le 20-11-2009 à 12:19:57  profilanswer
 

J'ai rien dit :o


Message édité par nhemles le 20-11-2009 à 12:37:05
n°7214263
AbelJemka
Posté le 20-11-2009 à 12:28:38  profilanswer
 

Les chiffres des autres cartes ont aussi baissés donc je dirais changement du protocole de test.


---------------
feedback
n°7214266
nhemles
Mort aux assistés
Posté le 20-11-2009 à 12:31:12  profilanswer
 

AbelJemka a écrit :

Les chiffres des autres cartes ont aussi baissés donc je dirais changement du protocole de test.


Wait, je suis trop c**, le 100 n'est pas donné dans les mêmes conditions [:mister yoda]  
D'ailleurs le tableau issu du second test est mal annoté :o


Message édité par nhemles le 20-11-2009 à 12:39:14
n°7214573
asmomo
Modérateur
Posté le 20-11-2009 à 15:51:29  profilanswer
 

marllt2 a écrit :

http://www.tgdaily.com/games-and-e [...] g-industry
 

Citation :

Nvidia has reiterated its strong commitment to the gaming industry. Company spokesperson Bryan Del Rizzo told TG Daily that rumors of Nvidia abandoning gaming for the HPC (high performance computing) market were "completely unfounded" and "ludicrous."
"Gaming remains our bread and butter focus area. However, there are other opportunities for us to explore as the company grows, such as the HPC sector," explained Del Rizzo.

Citation :

"Now, there are two sides to Fermi architecture - compute and graphics. The recent HPC show was all about the compute side, so that is what why we showcased our new Fermi-based Tesla GPUs."
 
However, Del Rizzo admitted that Nvidia hasn't released "a lot" of details about its Geforce line of Fermi-based products.
 
"Look, I understand that some people might be feeling anxious because we haven't published detailed information about Fermi-based Geforce cards," said Del Rizzo. "But, I can assure you that data is forthcoming. The wait will be well worth it, especially when people understand what products based on Fermi are capable of."

Citation :

He added that Nvidia has actually "stepped up" its commitment to gaming by bringing PhysX to multiple platforms, including the iPhone, Xbox and PS3.
 
"Nvidia brought advanced PhysX capabilities to games such as Batman, Dark Void (upcoming) and Darkest of Days. We are investing a ton of money and resources to advance gaming across all platforms. We also introduced our 3D Vision technology, which supports over 400 games.

Citation :

"Clearly, Nvidia will be offering gamers a great experience in 2010 with its Fermi-based Geforce line. I can assure you, patience will pay off."



 
Ceux qui sont convaincus lèvent la main.
 
Personne ?  :ange:  
 
PhysX sur une Xbox qui a un GPU ATI ? PhysX sur un iphone :??:


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°7214576
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 20-11-2009 à 15:54:02  profilanswer
 

Ba, Physx software, pourquoi ?

Message cité 2 fois
Message édité par Marc le 20-11-2009 à 15:54:09
n°7214583
Zack38
Posté le 20-11-2009 à 15:57:32  profilanswer
 

Marc a écrit :

Ba, Physx software, pourquoi ?


 
Je préférais avant [:lucykc]

n°7214590
asmomo
Modérateur
Posté le 20-11-2009 à 16:02:02  profilanswer
 

Marc a écrit :

Ba, Physx software, pourquoi ?


 
Bah on lui pose des questions sur les geforce à la base, quoi. Les développeurs nvidia n'ont rien à faire en attendant les A3 alors ils font ça, peut-être.


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°7214597
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 20-11-2009 à 16:09:53  profilanswer
 

[:baragor]

n°7214612
bjone
Insert booze to continue
Posté le 20-11-2009 à 16:27:04  profilanswer
 

asmomo a écrit :


 
Ceux qui sont convaincus lèvent la main.
 
Personne ?  :ange:  
 
PhysX sur une Xbox qui a un GPU ATI ? PhysX sur un iphone :??:


 
PhysX existe sur XBox et PS3.
Après je sais pas si les solveurs des fluides & tissus tirent partis du GPU sur Xbox.


Message édité par bjone le 20-11-2009 à 16:27:35
n°7214629
Fouge
Posté le 20-11-2009 à 16:41:39  profilanswer
 

Il me semble que PhysX est déjà disponible pour pas mal de plateformes :
 - PC (3 hardware supporté : CPU x86, PPU Ageia, GPU nVidia)
 - PS3
 - XBox 360
 - Wii
 
Finalement, pourquoi pas l'iPhone (CPU ARM ?) [:razorbak83]  
 
edit: un poil grillé


Message édité par Fouge le 20-11-2009 à 16:42:33
n°7214651
asmomo
Modérateur
Posté le 20-11-2009 à 16:55:24  profilanswer
 

Quand tu vois comment c'est optimisé sur PC en software, il y a de quoi se poser des questions.


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°7214656
Gigathlon
Quad-neurones natif
Posté le 20-11-2009 à 16:57:02  profilanswer
 

Bah sur PC ils s'auto-concurrenceraient, sur Xboîte c'est pas fait sur le GPU non plus...
 
Enfin de toute façon PhysX ça sent le pâté, donc je vois même pas pourquoi on en fait tout un fromage.

n°7214663
0b1
There's good in him
Posté le 20-11-2009 à 17:01:58  profilanswer
 

Gigathlon a écrit :

Bah sur PC ils s'auto-concurrenceraient, sur Xboîte c'est pas fait sur le GPU non plus...
 
Enfin de toute façon PhysX ça sent le pâté, donc je vois même pas pourquoi on en fait tout un fromage.


 [:implosion du tibia]  
 
Argumenté

n°7214681
Gigathlon
Quad-neurones natif
Posté le 20-11-2009 à 17:17:12  profilanswer
 

0b1 a écrit :

[:implosion du tibia]  
 
Argumenté


Mal foutu et inexploitable en l'état pour la mouture GPU.
 
C'est comme utiliser une DLL écrite en VB.NET/C# faisant des appels système dans un programme en C++: complètement absurde (accès système par le biais de la machine virtuelle dans un programme "natif" quand on pourrait simplement faire les accès système en C++...)
 
La mouture CPU n'est pas forcément mauvaise, mais sachant qu'on ne peut pas exploiter correctement l'unité la plus apte à réaliser ces calculs, il faut revoir complètement le concept.

n°7214696
bjone
Insert booze to continue
Posté le 20-11-2009 à 17:31:39  profilanswer
 

Gigathlon a écrit :


Mal foutu et inexploitable en l'état pour la mouture GPU.
 
C'est comme utiliser une DLL écrite en VB.NET/C# faisant des appels système dans un programme en C++: complètement absurde (accès système par le biais de la machine virtuelle dans un programme "natif" quand on pourrait simplement faire les accès système en C++...)
 
La mouture CPU n'est pas forcément mauvaise, mais sachant qu'on ne peut pas exploiter correctement l'unité la plus apte à réaliser ces calculs, il faut revoir complètement le concept.


 
Nan mais sans déconner, c'est pas sur une seule implémentation bizarre que tu peux jauger du potentiel d'une techno ;)
Faut laisser le temps à la chose de murir. (La techno coté nV et la manière de l'utiliser du coté des moteurs)
 
 

n°7214712
Gigathlon
Quad-neurones natif
Posté le 20-11-2009 à 17:41:52  profilanswer
 

bjone a écrit :

Nan mais sans déconner, c'est pas sur une seule implémentation bizarre que tu peux jauger du potentiel d'une techno ;)


Faut pas rêver, c'est bien pour cette implémentation abracadabrantesque qu'ils l'ont acquis...
 
Maintenant on peut prendre un autre exemple: quel intérêt pourrait-on avoir à gérer les textures séparément de l'aspect géométrique d'un rendu? C'est exactement le même souci, c'est juste beaucoup plus parlant quand on parle de textures, mais un moteur physique a bel et bien pour objectif de lier un comportement à un objet au même titre qu'une texture, et il n'y a strictement aucune raison de sortir du pipeline 3D pour le faire => coucou tessellation/geometry shaders/compute shaders :hello:  
 
 
Au passage, j'ai bien ri en refaisant le tour des articles locaux sur CUDA... ils nous vendaient une possible utilisation des données du pipeline D3D, et au final ils viennent nous dire que Fermi permet une certaine abstraction du contexte d'exécution, ce qui sous-entend que CUDA nécessite un changement de contexte et rend leurs propos antérieurs limite mensongers.

Message cité 1 fois
Message édité par Gigathlon le 20-11-2009 à 17:46:28
n°7215198
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 20-11-2009 à 23:12:37  profilanswer
 

UPDATE #2: nVidia NV100 [Fermi] is less powerful than GeForce GTX 285?
 

Citation :

Update #2, November 18 2009 02:17AM GMT - Following our article, we were contacted by Mr. Andy Keane, General Manager of Tesla Business and Mr. Andrew Humber, Senior PR Manager for Tesla products. In a long discussion, we discussed the topics in this article and topics of Tesla business in general. First and foremost, Tesla is the slowest clocked member of Fermi-GPU architecture as it has to qualify for supercomputers. The way to win the HPC contract is more complex than the CPUs itself.
Bear in mind that Intel flew heads out of Oak Ridge with their otherwise superior Core 2 architecture after Woodcrest had a reject rate higher than 8% [the results of that Opteron vs. Xeon trial in 2006 are visible today, as Oak Ridge is the site of AMD-powered Jaguar, world's most powerful supercomputer]. In order to satisfy the required multi-year under 100% stress, nVidia Tesla C2050/2070 went through following changes when compared to the Quadro card [which again, will be downclocked from the consumer cards]:
 
    * Memory vendor is providing specific ECC version of GDDR5 memory: ECC GDDR5 SDRAM
    * ECC is enabled from both the GPU side and Memory side, there are significant performance penalties, hence the GFLOPS number is significantly lower than on Quadro / GeForce cards.
    * ECC will be disabled on GeForce cards and most likely on Quadro cards
    * The capacitors used are of highest quality
    * Power regulation is completely different and optimized for usage in Rack systems - you can use either a single 8-pin or dual 6-pin connectors
    * Multiple fault-protection
    * DVI was brought in on demand from the customers to reduce costs
    * Larger thermal exhaust than Quadro/GeForce to reduce the thermal load
    * Tesla cGPUs differ from GeForce with activated transistors that significantly increase the sustained performance, rather than burst mode.
 
Since Andy is the General Manager for Tesla business, he has no contact with the Quadro Business or GeForce Business units, thus he was unable to answer what the developments are in those segments. We challenged nVidia over several issues and we'll see what the resolve of those open matters will be. In any case, we'll keep you informed.

source : update 2 en date du 18 ici ==> http://www.brightsideofnews.com/ne [...] x-285.aspx


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°7215276
Rafale06
Vive les Suisses (Neutre..)
Posté le 21-11-2009 à 00:33:31  profilanswer
 

Si j'ai bien compris la ram ECC ne sera pas dans les Geforces (désactivés ????) et on verra le reste par la suite ^^


---------------
Les kevin (j'ai 12ans lol) je les ignore......
n°7215336
asmomo
Modérateur
Posté le 21-11-2009 à 01:41:32  profilanswer
 

Ptain cet article BSN avec des màj dans tous les sens !
 
En fait ils ont fait un article disant qu'une GTX285 était plus puissante qu'une Fermi (en se basant sur les flops simple précision, je suppose).
 
Ensuite ils ont la réponse de nvidia, que les Tesla sont cadencées plus bas toussa, autrement dit la geforce fermi sera plus puissante que ça.


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°7215346
mikestewar​t
Air Roll Spinnin'
Posté le 21-11-2009 à 01:59:55  profilanswer
 

Il est gonflé de comparer la moins puissante des Tesla à base d'archi Fermi (C2050) à une GTX285 O/C (avec SP@1.6Ghz environ). Enfin, du coup ça fait un titre sympa. :o

 

Sacré Theo. :whistle:

Message cité 1 fois
Message édité par mikestewart le 21-11-2009 à 02:01:00
n°7215409
Gigathlon
Quad-neurones natif
Posté le 21-11-2009 à 08:54:44  profilanswer
 

super_newbie_pro a écrit :

UPDATE #2: nVidia NV100 [Fermi] is less powerful than GeForce GTX 285?
 

Citation :

...

source : update 2 en date du 18 ici ==> http://www.brightsideofnews.com/ne [...] x-285.aspx


La 2e édition est un pwal loufoque... :o
 
Quel fabricant de RAM irait faire des puces de GDDR5 spécifiquement pour Fermi? [:gratgrat]  
Mais qu'est-ce qu'on en a à foutre des "condensateurs de qualité supérieure"? :heink:  
Et en françois, ça donne quoi "Tesla cGPUs differ from GeForce with activated transistors that significantly increase the sustained performance, rather than burst mode"? :o

n°7215480
Profil sup​primé
Posté le 21-11-2009 à 10:12:24  answer
 

Gigathlon a écrit :


La 2e édition est un pwal loufoque... :o
 
Quel fabricant de RAM irait faire des puces de GDDR5 spécifiquement pour Fermi? [:gratgrat]  
Mais qu'est-ce qu'on en a à foutre des "condensateurs de qualité supérieure"? :heink:  
Et en françois, ça donne quoi "Tesla cGPUs differ from GeForce with activated transistors that significantly increase the sustained performance, rather than burst mode"? :o


http://www.pcworld.fr/2009/11/20/e [...] ps/460101/ [:autobot]  
Mais seulement 2/4 2010
 
EDIT: source interne [:zebra33]


Message édité par Profil supprimé le 21-11-2009 à 12:39:47
n°7215576
blazkowicz
Posté le 21-11-2009 à 11:22:06  profilanswer
 

Gigathlon a écrit :


Mal foutu et inexploitable en l'état pour la mouture GPU.
 
C'est comme utiliser une DLL écrite en VB.NET/C# faisant des appels système dans un programme en C++: complètement absurde (accès système par le biais de la machine virtuelle dans un programme "natif" quand on pourrait simplement faire les accès système en C++...)
 
La mouture CPU n'est pas forcément mauvaise, mais sachant qu'on ne peut pas exploiter correctement l'unité la plus apte à réaliser ces calculs, il faut revoir complètement le concept.


 
la possibilité d'exécuter plusieurs kernels en même temps va probablement arranger les choses pour le physx, i.e. plus besoin de l'exécuter sur un second GPU pour avoir de bonnes perfs (ce qui jusqu'ici nie un peu l'intérêt du truc!)
http://www.hardware.fr/articles/77 [...] uting.html
 
pour ton autre post.. tu mentionnes les compute shaders en tant que partie du pipeline 3D.. moi qui croyait que leur intérêt c'est de ne pas en faire partie :D. je crois pas que ce soient des shaders.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  908  909  910  ..  1004  1005  1006  1007  1008  1009

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Demande infos] Top AchatComment imprimer les infos du bios ?
Quel carte Open Gl la mieux adapte a 3dsMAXBesion d'infos sur les Graveur de DVD chui perdu
couldn't load open glNEC ND-1300: cherche infos
Mise a jour bios KT7A, prob direct x et open gl geforce 2 pro!!Salut je voudrait des infos sur l'instalation d'un processeur
Rech infos sur le nouveau graveur de DVD liteon multiformat !!!![INFOS a la con] si vous avez des PB avec votre ABIT NF7-S REV2.0
Plus de sujets relatifs à : Graphical open bar (des infos, des intox, aux extraits de TheInq)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)