Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1699 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  948  949  950  ..  1004  1005  1006  1007  1008  1009
Auteur Sujet :

Graphical open bar (des infos, des intox, aux extraits de TheInq)

n°7381824
Oxygen3
Tears from the moon
Posté le 27-03-2010 à 13:53:59  profilanswer
 

Reprise du message précédent :
Je le comparais avec le 2900XT sur le plan de la refonte de l'archi (le bus ring chez ATI, le cache L2 partagé chez nV par exemple et taille du die qui était énorme a l'époque iirc), avec un conso en forte hausse pour des perfs finalement pas vraiment révolutionnaires.
 
Mais c'est vrai qu'il y'a des éléments de la 3800XT (conso toujours) et des GT200 (taille du die). Et quelques éléments du NV30 indubitatiblement (blower, retard, "révolution" annoncée, ...) ;) C'est moins un échec, mais ca reste quand même peu glorieux :o
 
On en revient toujours aux mêmes problèmes, ATI a eu de la chance de réussir son coup de poker des 4xxx a "petit die" alors que nV s'est gauffré sur son GT200. Le temps que ca soit intégré dans les chaines de design (2 à 3 ans classique), ca fait que la génération suivante est pas mieux.
 
Reste à voir les directions que vont prendre ATI et nV pour leurs prochaines gen (retour à des tailles de die plus raisonables ou au contraire, toujours une fuite en avant en espérant que les process maturent plus vite que ce qu'ils font réellement ?)


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
mood
Publicité
Posté le 27-03-2010 à 13:53:59  profilanswer
 

n°7381826
Gigathlon
Quad-neurones natif
Posté le 27-03-2010 à 13:55:24  profilanswer
 

L'écart en perfs est similaire, mais la conso s'envole, quand même.
 
En un sens, c'est proche car la conso avait déjà augmenté avec le GT200, mais ce coup ci les HD5k consomment moins que les HD4k, pas autant (je zap les HD3k/G9x), et surtout... y'aura 7 mois d'écart, pour une dispo encore très floue.
 
 
C'est bien un scénario à la R580 qu'on a jusqu'à maintenant, avec un parc déjà en place en face qui risque de dicter les choix techniques (HDR+AA, anyone? :o)

n°7381882
tridam
Profil : Equipe HardWare.fr
Posté le 27-03-2010 à 14:29:36  profilanswer
 

Il faut aussi avoir en tête que Nvidia ne voulait laisser aucune chance à Intel.

n°7381889
tridam
Profil : Equipe HardWare.fr
Posté le 27-03-2010 à 14:32:45  profilanswer
 

Gigathlon a écrit :

L'écart en perfs est similaire, mais la conso s'envole, quand même.
 
En un sens, c'est proche car la conso avait déjà augmenté avec le GT200, mais ce coup ci les HD5k consomment moins que les HD4k, pas autant (je zap les HD3k/G9x), et surtout... y'aura 7 mois d'écart, pour une dispo encore très floue.
 
 
C'est bien un scénario à la R580 qu'on a jusqu'à maintenant, avec un parc déjà en place en face qui risque de dicter les choix techniques (HDR+AA, anyone? :o)


 
Un détail important malgré tout c'est que les GeForce GTX 400 ne sont pas mauvaises lorsqu'elles doivent exécuter quelque chose tuné pour les Radeon HD 5k. Dans l'autre sens par contre... Si AMD avait été 6 mois en retard sur les GeForce GTX 400 ils auraient été bien dans la merde ;)

n°7381929
Gigathlon
Quad-neurones natif
Posté le 27-03-2010 à 14:44:23  profilanswer
 

Un test style FurMark/OCCT avec fps/conso est envisageable?
 
Pour moi, c'est un "benchmark" utile si on considère l'aspect GPU computing "HPC", étant donné que la charge est maximisée ça permet de voir un worst case perf/watt.
 
Maintenant il est peut-être possible de faire ça avec d'autres outils plus représentatifs, mais c'est tout de même assez fermé comme applications.


Message édité par Gigathlon le 27-03-2010 à 14:45:33
n°7382002
inoe
c'est bon, mangez-en
Posté le 27-03-2010 à 15:09:58  profilanswer
 

Un truc assez amusant à faire: relire la conclusion du test de la FX5800...
 
A peu de chose près et à 7 ans d'écart, c'est la même que celle de la 480.
 
Reste à savoir si son avenir sera le même.

n°7382343
moggbomber
War, war never changes
Posté le 27-03-2010 à 17:58:28  profilanswer
 

inoe a écrit :

Un truc assez amusant à faire: relire la conclusion du test de la FX5800...
 
A peu de chose près et à 7 ans d'écart, c'est la même que celle de la 480.
 
Reste à savoir si son avenir sera le même.


 
+1 pour moi c'est une carte inutile parce que trop proche de la 5870. a peine 10% de mieux pour une conso trop elevée, un prix supérieur, et surtout une dispo trés limitée.
 
certes elle a un bon potentiel mais il ne sera jamais exploité. parce quel le temps que les softs en profite l'autre génération sera surement deja out.
donc plus de support aux petits oignons une fois la v2 sorti. et toutes ces nlles technos de computing seront trop limitées par rapport aux évolutions sorties depuis quand les softs s'en serviront vraiment. (je veux dire autre que les benchs)
 
la tessellation si c pour améliorer 2 drapeaux et 3 bâches ou une cape purement esthétique ca fait cher le eye candy quand meme :/
surtout si on rajoute le surcout d'alim engendré.
 
bref c'est un peu le hummer du 4x4 cette 480 :D
c juste pour montrer qu'on a les moyens de se payer la plus grosse même si ca sert pas a grand chose jamais en tout terrain :D  
 
note: je parle que de la 480. Une éventuelle 485 on en parlera dans 6 mois hein  :D wait and see wait quoi  :lol:  
 
sinon je me demandais est ce que cette carte pourrait être vraiment utile en 3D (aide au calcul) ou même en 2D (filtres toshop etc)?
bref pour s'en servir autrement pour la 3D jeu/bench?
je demande parce que j'ai pas vraiment suivi le sujet mais je suis juste curieux en tant qu'ancien graphiste 3D  :jap:  
 


Message édité par moggbomber le 27-03-2010 à 18:00:07

---------------
Neuroatypique PEUQ GMSP GQGWL UZI
n°7382351
chrisleurn
Hardcore Will Never Die !
Posté le 27-03-2010 à 18:09:34  profilanswer
 

tridam a écrit :


 
Un détail important malgré tout c'est que les GeForce GTX 400 ne sont pas mauvaises lorsqu'elles doivent exécuter quelque chose tuné pour les Radeon HD 5k. Dans l'autre sens par contre... Si AMD avait été 6 mois en retard sur les GeForce GTX 400 ils auraient été bien dans la merde ;)


Je pense aussi que c'est une tres bonne carte, l'archi a l'air quand meme bien efficace, le seul hic, pour y arriver, ce fut au detriment d'une debauche d'energie qui passe vraiment mal :/

n°7382359
bjone
Insert booze to continue
Posté le 27-03-2010 à 18:14:37  profilanswer
 

tridam a écrit :

Il faut aussi avoir en tête que Nvidia ne voulait laisser aucune chance à Intel.


 
Ils avaient peut-être pas prévu que le Larabee allait exploser au premier décollage, mais qu'il allait aboutir en produit fini :D

Message cité 1 fois
Message édité par bjone le 27-03-2010 à 18:14:52
n°7382373
Gigathlon
Quad-neurones natif
Posté le 27-03-2010 à 18:19:34  profilanswer
 

chrisleurn a écrit :


Je pense aussi que c'est une tres bonne carte, l'archi a l'air quand meme bien efficace, le seul hic, pour y arriver, ce fut au detriment d'une debauche d'energie qui passe vraiment mal :/


Ca fait beaucoup penser à des priorités mal placées.
 
Ajoute à ça un contrôleur mémoire qui est visiblement bien vorace (digne d'une 4870 et demi) et ça s'annonce assez mal pour la première génération, y compris côté Tesla.
 
Le coup du L1/LDS partageant les mêmes "cellules" me laisse perplexe également, car c'est 2 utilisations totalement différentes et elles nécessitent toutes les 2 des accès rapides.
 
 
Edit: j'ai aussi de gros doutes concernant le GF104...
 
A la précédente génération, le G92 pouvait concurrencer le RV770 dégradé équipant le 4850 pour un coût similaire (quoique encore un peu plus élevé, conso oblige).
Là il va falloir une version bigrement survitaminée pour concurrencer la 5850 avec un die de taille comparable et les déclinaisons inférieures seront en compétition, au mieux, avec Juniper qui est 2x plus petit (pire que Cypress/GF100).
 
Ca sent vraiment, mais vraiment pas bon là, faut vraiment espérer qu'ils arrivent à corriger leur souci de conso, et l'annonce de ces GTX400 "pas finies" n'est pas franchement encourageante...


Message édité par Gigathlon le 27-03-2010 à 19:10:42
mood
Publicité
Posté le 27-03-2010 à 18:19:34  profilanswer
 

n°7382448
picturaw
Posté le 27-03-2010 à 19:11:38  profilanswer
 

tridam a écrit :

Pour moi c'est comme le GT200 sauf que Nvidia n'a pas la possibilité d'en faire un die shrink sur le half node ;)


Quelles sont les raisons techniques qui empêchent à nvidia de faire un die shrink sur le half node ?


---------------
=> Vends compte iRacing. Plus de détails par MP.
n°7382454
Gigathlon
Quad-neurones natif
Posté le 27-03-2010 à 19:19:52  profilanswer
 

Peut-être tout simplement l'absence de half-node :o
 
La prochaine étape, c'est le 28nm et il ne sera pas exploitable commercialement avant Q4-2010 dans le meilleur des cas.
 
Concernant cette finesse de gravure, GF semble en avance sur TSMC et nVidia a annoncé ne pas vouloir travailler avec GF, "car GF c'est AMD"... et quand on voit le 45nm SoI GF et le 40nm bulk TSMC, évidemment, ça a de quoi inquiéter un pwal.
 
Au final, si AMD retient GF et nVidia reste chez TSMC, on pourrait assister à l'arrivée de "RV740bis" dans la même période qu'un GF104, qui devrait alors avec ~320mm² concurrencer la même chose que le GF100 actuellement mais gravé en 28nm, soit une puce rikiki de ~200mm² présentant une conso encore moindre ou des perfs encore plus élevées...
 
Edit: il y avait aussi l'écart initialement en faveur du RV770, gravé en 55nm contre 65nm pour le GT200.


Message édité par Gigathlon le 27-03-2010 à 20:33:46
n°7382578
MEI
|DarthPingoo(tm)|
Posté le 27-03-2010 à 21:28:26  profilanswer
 

bjone a écrit :


 
Ils avaient peut-être pas prévu que le Larabee allait exploser au premier décollage, mais qu'il allait aboutir en produit fini :D


Larrabee est toujours en dev. c'est juste qu'en 45nm il est pas encore assez perf...


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7382581
Zack38
Posté le 27-03-2010 à 21:31:45  profilanswer
 

MEI a écrit :


Larrabee est toujours en dev. c'est juste qu'en 45nm il est pas encore assez perf...


 
En effet, Intel a expliqué à la presse qu'il n'avait jamais été question d'abandonner Larrabee .
 
Le développement des pilotes continue, et l'architecture est peaufinée pour se montrer assez puissante pour s'attaquer à AMD et nVIDIA .

n°7382585
MEI
|DarthPingoo(tm)|
Posté le 27-03-2010 à 21:36:16  profilanswer
 

C'est d'ailleurs ça qui devrait faire peur a AMD et surtout NVIDIA.
Intel a les moyens financer de faire de la R&D pour la R&D même si ça ne sort jamais.
 
Luxe qu'NVIDIA n'a pas, et qu'AMD n'a plus.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7382591
Zack38
Posté le 27-03-2010 à 21:40:01  profilanswer
 

Après, reste à savoir comment va se manifester Larrabee .
 
Coprocesseur intégré sur le die CPU ? Carte graphique dédiée ? ...

n°7382795
foksa37
Posté le 28-03-2010 à 00:30:53  profilanswer
 

Oxygen3 a écrit :

Bon anand résume bien la situation je pense:

Citation :

With that said, we have to take pause for a wildcard: AMD’s 2GB Radeon 5870, which will be launching soon. We know the 1GB 5870 is RAM-limited at times, and while it’s unlikely more RAM on its own will be enough to make up the performance difference, we can’t fully rule that out until we have the benchmarks we need. If the GTX 480 doesn’t continue to end up being the fastest single-GPU card out there, we’ll be surprised.
 
The best news in this respect is that you’ll have time to soak in the information. With a retail date of April 12th, if AMD launches their card within the next couple of weeks you’ll have a chance to look at the performance of both cards and decide which to get without getting blindsided.
 
On a longer term note, we’re left wondering just how long NVIDIA can maintain this lead. If a 2GB Radeon isn’t enough to break the GTX 480, how about a higher clocked 5800 series part? AMD has had 6 months to refine and respin as necessary; with their partners already producing factory overclocked cards up to 900MHz, it’s too early to count AMD out if they really want to do some binning in order to come up with a faster Radeon 5800.



 
Merci  ;)  

n°7382839
moggbomber
War, war never changes
Posté le 28-03-2010 à 01:02:39  profilanswer
 

http://www.comptoir-hardware.com/a [...] haut-.html
 
480 azotée pour info


---------------
Neuroatypique PEUQ GMSP GQGWL UZI
n°7382861
asmomo
Modérateur
Posté le 28-03-2010 à 01:42:43  profilanswer
 

tridam a écrit :

Pour moi c'est comme le GT200 sauf que Nvidia n'a pas la possibilité d'en faire un die shrink sur le half node ;)


 
Je suis d'accord que c'est dans la continuité, mais en pire quand même. Certes la 280 était bourrine et consommait/chauffait/cramait trop, mais là c'est carrément une autre planète de ce point de vue !
 
Il me semble plus dur de justifier l'achat d'une 480 aujourd'hui que d'une 280 à l'époque (je parle d'après la sortie des 48XX).


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°7382924
marllt2
Posté le 28-03-2010 à 06:47:29  profilanswer
 


Le Thuban (Phenom X6) sera lancé en même temps la plateforme Leo. Mais les HD 5800 ont déjà été lancés il y a 6 mois pourtant...  
 
Pour lancer une plateforme, il faut que GPU et CPU soient lancés... rien n'empêcher de lancer l'un des deux (le GPU donc, le K11 étant en retard) 6 mois avant.  
 
Rien dans cette roadmap ne dit qu'un lancement des HD 6000 au Q4 n'est pas possible.

Message cité 1 fois
Message édité par marllt2 le 28-03-2010 à 07:01:10
n°7383140
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 28-03-2010 à 12:17:09  profilanswer
 

+1

n°7383359
Gigathlon
Quad-neurones natif
Posté le 28-03-2010 à 14:41:16  profilanswer
 

Et c'est là qu'intervient le téléphone longue distance avec des opérateurs qui ne parlent pas la langue :o
 
Je ne sais vraiment pas d'où ils ont sorti le...
 

Citation :

En fait, Dirk Meyer, Président d'AMD, évoque même le début d'études fin 2010, et que les premiers modèles expérimentaux des HD6x00 pourraient voir le jour début 2011. Reste à confirmer la finesse de gravure, car même si le 40 nm semble maintenant acquis, le 32 ou le 28 nm sont encore très théoriques.


 
Ca ressemble à une succession de traductions Google arabe -> chinois -> anglais -> français :o


Message édité par Gigathlon le 28-03-2010 à 14:42:07
n°7383391
glrpignolo
Posté le 28-03-2010 à 14:58:12  profilanswer
 

Début d'étude fin 2010 ?!
Qu'est ce qu'ils entendent par "études" ?
 
Heureusement que le HD6000 est déjà en développement...
Sinon, ils font donc quoi en ce moment les ingés ?
 
 

n°7383529
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 28-03-2010 à 15:50:59  profilanswer
 

cbo a écrit :

Bon je donne mon avis ici,
 
Finalement cette GTX 480 plutôt pas mal dommage pour eux qu'ils aient vu trop gros du départ.
 
AMD/ATI va certainement nous sortir une 5890 avec 2Go, mais je ne pense pas que ça suffise pour rattraper le retard sur DX11, même si il vont reprendre le leadership sur DX9,10
 
Donc on attend la génération 6x pour novembre pour rivaliser en tesselation
 
http://translate.google.com/transl [...] l=tr&tl=en
 
 
Mais tjrs en 40nm

Je croise les doigts pour que si c'est encore en 40nm, la conso n'augmente pas... C'est un peu utopique mais " tout ce qui est impossible reste à accomplir "  [:autruche] EDIT ; le boss d'AMD n'avait il pas déclaré (je ne trouve plus sur quel site ils en parlaient) qu'il n'y aurait pas de 5890 mais une refonte complète de la gamme ?

Message cité 1 fois
Message édité par super_newbie_pro le 28-03-2010 à 15:52:13

---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°7383557
tridam
Profil : Equipe HardWare.fr
Posté le 28-03-2010 à 16:02:13  profilanswer
 

Pour ceux que ça intéresse :
 
http://www.hardware.fr/medias/photos_news/00/28/IMG0028345.gif

n°7383565
Gigathlon
Quad-neurones natif
Posté le 28-03-2010 à 16:06:12  profilanswer
 

Ca correspond à quel test?
 
Amusant de voir la 5770 devant la 5870, un petit CF serait intéressant je pense.

n°7383574
tridam
Profil : Equipe HardWare.fr
Posté le 28-03-2010 à 16:11:00  profilanswer
 

Un test maison tjs en chantier qui fait de la tessellation pure et bête (surface plane, aucuns détails ajoutés).

n°7383589
Gigathlon
Quad-neurones natif
Posté le 28-03-2010 à 16:22:11  profilanswer
 

Ok, vraiment du 100% théorique quoi.
 
Ca serait bien si tu pouvais approfondir avec PerfStudio (en espérant qu'il soit suffisant) pour voir ce qui limite les HD5k, et tant qu'à faire si c'est possible la même chose en face.
 
Enfin ça resterait un test théorique, vu qu'en pratique la tessellation risque d'être encore bien différente de celle qu'on peut avoir dans Heaven, notamment pour le rendu de surfaces irrégulières (carrelages, pavés, murs de pierres/briques... tout ça devrait utiliser le HS optimisé N°2, le N°1 étant à réserver aux objets "réellement en volume" comme les personnages, véhicules...)


Message édité par Gigathlon le 28-03-2010 à 16:23:04
n°7383593
tridam
Profil : Equipe HardWare.fr
Posté le 28-03-2010 à 16:25:38  profilanswer
 

Je n'aurai pas le temps d'approfondir ça avant au moins une semaine :/

n°7383599
Vampyrstar
Tite vipère
Posté le 28-03-2010 à 16:30:09  profilanswer
 

Et les tofs infrarouges ? :d

n°7383602
Gigathlon
Quad-neurones natif
Posté le 28-03-2010 à 16:31:38  profilanswer
 

Rholala, en plus t'es un être humain? :o
 

Spoiler :

C'est pas comme si j'étais ton patron et toi un petit chinois hein, je ne fais que suggérer et te laisse toute liberté d'en tenir compte ou non... et de faire ça quand t'auras l'occasion si c'est effectivement pertinent selon toi.


 
Dans le même genre, comparer Heaven 1/2 permettrait probablement de voir ce qui a changé le comportement du tout au tout (le 1 avait un min/low quasi fixe quelque soit la résolution et l'AA et la différence se faisait sur le reste qui diminuait parfaitement progressivement, c'est très loin d'être le cas du 2 pour lequel l'AA fait lourdement baisser le min/low et la résolution influence le framerate de A à Z).


Message édité par Gigathlon le 28-03-2010 à 16:38:16
n°7383611
tridam
Profil : Equipe HardWare.fr
Posté le 28-03-2010 à 16:34:53  profilanswer
 

Vampyrstar a écrit :

Et les tofs infrarouges ? :d


 
C'est en cours, mais il faudra peut-être attendre le test de la GTX 470 pour un update de l'article.

n°7383879
Oxygen3
Tears from the moon
Posté le 28-03-2010 à 18:45:07  profilanswer
 


 
Donc en gros y'aurait un truc qui merdouille sur la tesselation des 58xx :o


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°7383905
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 28-03-2010 à 19:05:58  profilanswer
 

:??:
 
C'est normal que 5770 et 5870 soit équivalentes, elles ont le même débit de triangles théorique

n°7384024
Gigathlon
Quad-neurones natif
Posté le 28-03-2010 à 20:33:52  profilanswer
 

Marc a écrit :

:??:
 
C'est normal que 5770 et 5870 soit équivalentes, elles ont le même débit de triangles théorique


Pas "parfaitement" équivalentes, la 5770 fait même un peu mieux, ce qui montre qu'il y a déjà un goulet d'étranglement mesurable sur la 5870 :o
 
A l'inverse, on ne retrouve pas ce phénomène sur la 5670 qui est encore moins efficace que la 5870 (-15%).


Message édité par Gigathlon le 28-03-2010 à 20:36:44
n°7384084
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 28-03-2010 à 21:08:41  profilanswer
 

1.4% d'écart, c'est équivalent ... pas égal mais équivalent, faut arrêter d'enculer des mouches :o

n°7384096
Gein
Posté le 28-03-2010 à 21:15:01  profilanswer
 

:D

n°7384142
Fouge
Posté le 28-03-2010 à 21:54:20  profilanswer
 

P'tite calcul du "rendement" basé sur le nombre max théorique de Mtriangles/s :

Carte Max Bench Rendement
HD5670 775 215 27,7%
HD5770 850 282 33,2%
HD5870 850 278 32,7%
GTX480 2800 1515 54,1%


n°7384151
tridam
Profil : Equipe HardWare.fr
Posté le 28-03-2010 à 21:59:47  profilanswer
 

Mmmm les maximums théoriques sont pour le nombre de triangles qui peuvent passer par le setup / rasterizer par cycle, pas le nombre de triangles qui peuvent être générés par le tesselator. Admettons que celui-ci génère 1 vertex par cycle et doivent toujours générer les 3 pour chaque triangle ?
 
Millions de triangles générés par seconde serait alors :
HD 5670 : 258
HD 5770 : 283
HD 5870 : 283
GTX 480 : 3733 (mais limité à 2800 par le setup)


Message édité par tridam le 28-03-2010 à 22:00:15
n°7384155
Gigathlon
Quad-neurones natif
Posté le 28-03-2010 à 22:02:18  profilanswer
 

Marc a écrit :

1.4% d'écart, c'est équivalent ... pas égal mais équivalent, faut arrêter d'enculer des mouches :o


Pas extrêmement important, mais l'écart semble pourtant reproductible donc on peut le noter et chercher d'où il vient [:yamusha]  
 
Ca peut être intéressant pour déterminer ce qu'on risque de voir évoluer par la suite ou chercher des méthodes de contournement, mais il est clair que c'est plus du côté du culling qu'il y a des choses à regarder.
 
Edit: on peut aussi envisager de dériver un test "maillage lourd sans tessellation" strictement identique mais réalisant le maillage complexe une fois pour toutes avant? Car il est clair que sur les Evergreen la tessellation en elle-même pose un problème actuellement, au point qu'on peut se demander si utiliser directement le maillage reconstitué ne serait pas plus efficace...

Message cité 1 fois
Message édité par Gigathlon le 28-03-2010 à 22:07:52
n°7384171
Yoyo_5
Posté le 28-03-2010 à 22:17:19  profilanswer
 

glrpignolo a écrit :

Début d'étude fin 2010 ?!
Qu'est ce qu'ils entendent par "études" ?

 

Heureusement que le HD6000 est déjà en développement...
Sinon, ils font donc quoi en ce moment les ingés ?


Bha ils sont intermittents de l'ingénierie... :D


Message édité par Yoyo_5 le 28-03-2010 à 23:49:16

---------------
¤ Paix et félicité ¤

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  948  949  950  ..  1004  1005  1006  1007  1008  1009

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Demande infos] Top AchatComment imprimer les infos du bios ?
Quel carte Open Gl la mieux adapte a 3dsMAXBesion d'infos sur les Graveur de DVD chui perdu
couldn't load open glNEC ND-1300: cherche infos
Mise a jour bios KT7A, prob direct x et open gl geforce 2 pro!!Salut je voudrait des infos sur l'instalation d'un processeur
Rech infos sur le nouveau graveur de DVD liteon multiformat !!!![INFOS a la con] si vous avez des PB avec votre ABIT NF7-S REV2.0
Plus de sujets relatifs à : Graphical open bar (des infos, des intox, aux extraits de TheInq)


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR