Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1286 connectés 

 

 

Intel semble vouloir bouleverser le marché de la carte graphique. Mais entre les volontés du fondeur et celles du consommateur, où vous placez vous dans vos attentes d'une carte graphique ?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter
Les invités peuvent voter

 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13  14  15  16
Auteur Sujet :

[Topic unique] INTEL Larrabee - MAJ 05/12/2009

n°6539673
Ill Nino
Love
Posté le 13-08-2008 à 16:17:27  profilanswer
 

Reprise du message précédent :
cf edit


---------------
Faut qu'on court comme des lions, des tigres et des ours!
mood
Publicité
Posté le 13-08-2008 à 16:17:27  profilanswer
 

n°6539680
Lmao
Posté le 13-08-2008 à 16:20:40  profilanswer
 

Ill Nino a écrit :


:D T'as rien compris! [:chris282]
 
EDIT: Oui, un GPU composé de multiples "CPU" revus et adaptés au besoin. Les programmeurs pourront coder directement en x86, chose qu'ils savent faire depuis x années contrairement a Cuda...


 
Ha ok, et on a une idée de la puissance ? jai lu 32 coeurs mais chaque coeur est-il vraiment puissant ? car quand tu vois le prix d'une X2 nvidia ou amd la puissance doit être incomparable non ?

n°6539703
josedsf
Posté le 13-08-2008 à 16:27:43  profilanswer
 

Lmao a écrit :


 
Ha ok, et on a une idée de la puissance ? jai lu 32 coeurs mais chaque coeur est-il vraiment puissant ? car quand tu vois le prix d'une X2 nvidia ou amd la puissance doit être incomparable non ?


Attention, la taille de ces "coeurs" n'a rien de comparable avec ceux d'AMD ou Nvidia.


---------------
Guide cpu / Zen4
n°6539714
Lmao
Posté le 13-08-2008 à 16:31:29  profilanswer
 

josedsf a écrit :


Attention, la taille de ces "coeurs" n'a rien de comparable avec ceux d'AMD ou Nvidia.


 
Je l'espère pour la carte en tout cas :D
 
Mais sinon vous avez une idée de la puissance ? AMD/Nvidia pourrait faire la même chose non ? car si j'ai bien compris l'idée est de mettre une tonne de coeurs pas trop puissant donc on peut imaginer par exemple Nvidia sortir une cg de 32 coeurs d'ancienne génération ? :D
 
Bon jvais arrêter de dire des conneries moi :o

n°6539717
josedsf
Posté le 13-08-2008 à 16:32:22  profilanswer
 

Ill Nino a écrit :


:D T'as rien compris! [:chris282]
 
EDIT: Oui, un GPU composé de multiples "CPU" revus et adaptés au besoin. Les programmeurs pourront coder directement en x86, chose qu'ils savent faire depuis x années contrairement a Cuda...


Humm si j'ai bien compris, les programmeurs ne codent plus directement en x86 depuis longtemps, mais plutôt en C (code source). Le compilateur se charge de passer le tout en langage machine (x86, POWER etc) : c'est le code binaire.
Toujours si j'ai bien suivit, Intel compte bien court circuiter les API comme Direct X ou OpenGL au profit de sa solution. L'avantage, c'est que les jeux seront facilement portables sur plusieurs plate formes, dont le Mac, et pourquoi pas des consoles.

Message cité 1 fois
Message édité par josedsf le 13-08-2008 à 16:33:44

---------------
Guide cpu / Zen4
n°6539721
Ill Nino
Love
Posté le 13-08-2008 à 16:36:19  profilanswer
 

josedsf a écrit :


Humm si j'ai bien compris, les programmeurs ne codent plus directement en x86 depuis longtemps, mais plutôt en C (code source). Le compilateur se charge de passer le tout en langage machine (x86, POWER etc) : c'est le code binaire.
Toujours si j'ai bien suivit, Intel compte bien court circuiter les API comme Direct X ou OpenGL au profit de sa solution. L'avantage, c'est que les jeux seront facilement portables sur plusieurs plate formes, dont le Mac, et pourquoi pas des consoles.


Oui, biensur. Ca veut de toutes facons rien dire coder en X86. Mais l'existant pour programmer sur du x86 est bien plus developpé que ce que Cuda propose...


---------------
Faut qu'on court comme des lions, des tigres et des ours!
n°6539725
Lmao
Posté le 13-08-2008 à 16:37:38  profilanswer
 

Parce que actuellement les dev codent en quoi ?

n°6539741
Ill Nino
Love
Posté le 13-08-2008 à 16:44:17  profilanswer
 

Lmao a écrit :

Parce que actuellement les dev codent en quoi ?


En toute sorte de languages la plus part du temps sur des CPU x86... :)

Message cité 1 fois
Message édité par Ill Nino le 13-08-2008 à 16:44:41

---------------
Faut qu'on court comme des lions, des tigres et des ours!
n°6539743
josedsf
Posté le 13-08-2008 à 16:44:51  profilanswer
 

Lmao a écrit :

Parce que actuellement les dev codent en quoi ?


Faut demander à bjone :D


---------------
Guide cpu / Zen4
n°6539751
Lmao
Posté le 13-08-2008 à 16:46:47  profilanswer
 

Ill Nino a écrit :


En toute sorte de languages la plus part du temps sur des CPU x86... :)

 

Ba par exemple pour un jeu, ils codent en quoi ? j'y connais rien en développement donc javoue ne pas comprendre ce qu'apporte larabee à ce niveau


Message édité par Lmao le 13-08-2008 à 16:46:53
mood
Publicité
Posté le 13-08-2008 à 16:46:47  profilanswer
 

n°6539782
josedsf
Posté le 13-08-2008 à 17:02:29  profilanswer
 

Lmao a écrit :


 
Je l'espère pour la carte en tout cas :D
 
Mais sinon vous avez une idée de la puissance ? AMD/Nvidia pourrait faire la même chose non ? car si j'ai bien compris l'idée est de mettre une tonne de coeurs pas trop puissant donc on peut imaginer par exemple Nvidia sortir une cg de 32 coeurs d'ancienne génération ? :D
 
Bon jvais arrêter de dire des conneries moi :o


Je ne suis pas du tout expert en cartes 3d, mais les GPU Nvidia et ATI sont déjà constitués de plusieurs unités, regarde le tableau ici
http://www.hardware.fr/articles/71 [...] d-gpu.html
 
La différence c'est que les cartes ATI et Nvidia sont des cartes accélératrices : certaines fonctions ne sont pas programmables, elles sont inscrites "en dur" dans les circuits, et les programmeurs doivent utiliser des fonctions pré conçues par les fabricants (des phrases toutes faites pour comparer avec le langage).
Larabee est un GPU entièrement programmable. Si un programmeur veut créer une fonction perso pour faire un effet spécial, il peut le faire lui même avec le langage du machin (il a donc des mots et une grammaire à disposition, plutôt que des phrases). Revers de la médaille les cartes accélératrices sont beaucoup plus performantes en général.
 
Merci de corriger si je dis des bêtises.


---------------
Guide cpu / Zen4
n°6539784
M16
Posté le 13-08-2008 à 17:02:48  profilanswer
 

Présentation plus en détails le 12 Août 2008.
 
y a de nouvelle info ?

n°6539790
Lmao
Posté le 13-08-2008 à 17:04:53  profilanswer
 

josedsf a écrit :


Je ne suis pas du tout expert en cartes 3d, mais les GPU Nvidia et ATI sont déjà constitués de plusieurs unités, regarde le tableau ici
http://www.hardware.fr/articles/71 [...] d-gpu.html
 
La différence c'est que les cartes ATI et Nvidia sont des cartes accélératrices : certaines fonctions ne sont pas programmables, elles sont inscrites "en dur" dans les circuits, et les programmeurs doivent utiliser des fonctions pré conçues par les fabricants (des phrases toutes faites pour comparer avec le langage).
Larabee est un GPU entièrement programmable. Si un programmeur veut créer une fonction perso pour faire un effet spécial, il peut le faire lui même avec le langage du machin (il a donc des mots et une grammaire à disposition, plutôt que des phrases). Revers de la médaille les cartes accélératrices sont beaucoup plus performantes en général.
 
Merci de corriger si je dis des bêtises.


 
Donc en gros Intel mise sur la souplesse et l'adaptibilité de son "GPU" pour programmer face aux gpu ATI/Nvidia qui sont plutôt contraignant ?

n°6539795
marllt2
Posté le 13-08-2008 à 17:06:23  profilanswer
 
n°6539802
Lmao
Posté le 13-08-2008 à 17:09:38  profilanswer
 

Oui jlai lu mais j'ai pas compris grand chose, ya beaucoup de terme très compliqué faut s'y connaitre quoi, moi jvoudrais juste qu'on me dise en gros à quoi faut s'attendre niveau puissance par rapport aux GPU actuel :)

n°6539810
marllt2
Posté le 13-08-2008 à 17:12:18  profilanswer
 

Lmao a écrit :

moi jvoudrais juste qu'on me dise en gros à quoi faut s'attendre niveau puissance par rapport aux GPU actuel :)


Personne en sait rien à ce stade.

n°6539961
poiuytr
\o/
Posté le 13-08-2008 à 18:46:02  profilanswer
 

Lmao a écrit :

Donc en gros Intel mise sur la souplesse et l'adaptibilité de son "GPU" pour programmer face aux gpu ATI/Nvidia qui sont plutôt contraignant ?


Les programmeurs qui ne font que des jeux vidéo (par exemple) savent coder en C ?
Parce qu'à première vue le projet d'Intel est parfait : même langage pour les cpu que pour les gpu. Mais cela fait un moment que de nombreux langages existent et les dévs sont surement spécialisés dans des langages spécifiques et pas forcément dans le C.
 
Après le C est peut être un passage obligatoire pour tous les dévs. :??:

n°6539975
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 13-08-2008 à 18:58:55  profilanswer
 

Mais que se passe t il ?? ils ont annulé leur conférence ou quoi ? pourquoi on n'a pas de news ? Y a rien sur le site d'intel


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°6540036
sixpack
Posté le 13-08-2008 à 19:32:17  profilanswer
 

ou bien ils ont rien dit de special:
 
http://www.lesnumeriques.com/news_id-5564.html
 
Ou bien bcp d'aclool de drogue et de pute pour le NDA.  :ange: Damien grilled

n°6540507
RLDF
Posté le 14-08-2008 à 02:08:52  profilanswer
 

larrabee, c'est un peu plus qu'un GPU, c'est la première pierre d'une architecture PC toute nouvelle
en couplant avec le nehalem, l'atom, les transferts CPU/Chipset/GPU sont raccourcis au maximum
a terme, intel pourra vendre un ordinateur contenant une seule puce qui fera tout :
- CPU
- mémoire
- SSD (disque dur flash)
- GPU
- chipsets
ces puces pourront être embarquées dans des lecteurs blueray, consoles, eee-pc, tablet-pc, frigo, machine à café, etc...
beaucoup plus simple qu'aujourd'hui pour décoder en temps réel un film HD sur PC  :pt1cable:

n°6540516
Lmao
Posté le 14-08-2008 à 02:20:24  profilanswer
 

RLDF a écrit :

larrabee, c'est un peu plus qu'un GPU, c'est la première pierre d'une architecture PC toute nouvelle
en couplant avec le nehalem, l'atom, les transferts CPU/Chipset/GPU sont raccourcis au maximum
a terme, intel pourra vendre un ordinateur contenant une seule puce qui fera tout :
- CPU
- mémoire
- SSD (disque dur flash)
- GPU
- chipsets
ces puces pourront être embarquées dans des lecteurs blueray, consoles, eee-pc, tablet-pc, frigo, machine à café, etc...
beaucoup plus simple qu'aujourd'hui pour décoder en temps réel un film HD sur PC  :pt1cable:


 
Ouais donc vu que Larrabee est un GPU composé de 32 cpu, à terme ça sera plus une carte indépendante mais un composant d'un CPU intel ?

n°6541531
josedsf
Posté le 14-08-2008 à 17:15:28  profilanswer
 

Lmao a écrit :


Ouais donc vu que Larrabee est un GPU composé de 32 cpu, à terme ça sera plus une carte indépendante mais un composant d'un CPU intel ?


josedsf a écrit :

On verra peut être du Larabee sur un second die relié au Nehalem. Il y aura en tout cas du larabee sur socket, relié au Nehalem par CSI, puis du larabee on die avec le cpu "Gesher" (remplançant 32nm du Nehalem).


Quelques précisions ici :
http://forum.hardware.fr/forum2.ph [...] w=0&nojs=0
 
"Cette architecture [nehalem] est la première chez Intel à mélanger les genres cores. Après avoir ajouté toujours plus d'unités d'intructions (ALUs, FPUs, VALUs, VFPUs ...), l'avenir est au changement d'échelle. Après le parallélisme d'instructions (ILP), le parallélisme des threads (le SMT reviens également).
Le CELL d'IBM et le Niagara de Sun auront préfiguré ce genre de cpu avec des minicores, le Nehalem le fera avec de grands.
On peut donc parler de "System on a Chip" SoC (définition chère à IBM : SoC=des cpu différents ou non,  plus des bus et des contrôleurs=mini carte mère sur le die cpu). "


Message édité par josedsf le 14-08-2008 à 17:19:11

---------------
Guide cpu / Zen4
n°6541567
josedsf
Posté le 14-08-2008 à 17:32:31  profilanswer
 

RLDF a écrit :

larrabee, c'est un peu plus qu'un GPU, c'est la première pierre d'une architecture PC toute nouvelle
en couplant avec le nehalem, l'atom, les transferts CPU/Chipset/GPU sont raccourcis au maximum
a terme, intel pourra vendre un ordinateur contenant une seule puce qui fera tout :
- CPU
- mémoire
- SSD (disque dur flash)
- GPU
- chipsets
ces puces pourront être embarquées dans des lecteurs blueray, consoles, eee-pc, tablet-pc, frigo, machine à café, etc...
beaucoup plus simple qu'aujourd'hui pour décoder en temps réel un film HD sur PC  :pt1cable:


Bah, c'est le principe du circuit intégré depuis les années 70 : plus on grave fin, et plus on intègre ! Comme dit plus haut, IBM et Sun on dégainés les premiers avec le CELL et le Niagara, mais avec des cores assez "primitifs".
Du temps des 386, la FPU était sur un processeur séparé  (le coprocesseur i387, à monter sur un autre socket). A partir du i486, la FPU a migré dans le cpu. Avec le Pentium, on passe à du superscalaire deux voies sur les entiers, avec deux ALU normale/rapide.
Avec le nehalem, le GPU pourra être sur un autre socket, ensuite çà sera totalement intégré sur le chip principal.
Au lieu de rajouter des unités d'exécution, on rajoute des cores. On change simplement d'échelle, grâce aux techniques de gravues toujours plus fines, toujours améliorées, mais dont le principe général est inchangé depuis l'apparition de la photolithogravure.


Message édité par josedsf le 14-08-2008 à 17:37:19

---------------
Guide cpu / Zen4
n°6543173
tfpsly
Sly
Posté le 15-08-2008 à 16:35:56  profilanswer
 

Techniquement Larrabee n'est PAS un GPU : c'est une carte portant un array de CPU, plus un driver comprenant un moteur 3D software et parallélisé. Il n'y a donc physiquement pas le "G" de "GPU".
 
Grosse différence entre Cuda et co vs Larrabee : les unités de Cuda sont regroupées en blocs qui doivent obligatoirement s'exécuter en synchro sur le même programme : donc un "if" ou une boucle s'exécutant différemment sur plusieurs cores vont plomber les performances.

n°6543190
tfpsly
Sly
Posté le 15-08-2008 à 16:46:42  profilanswer
 

poiuytr a écrit :

Les programmeurs qui ne font que des jeux vidéo (par exemple) savent coder en C ? [...] Après le C est peut être un passage obligatoire pour tous les dévs. :??:

On se demande ce qu'ils utilisent d'autres... :sarcastic: C et C++ pris ensembles sont encore très dominant dans les langages de programmation : très utilisé dans les domaines très techniques (industrie, embarqué, jeux vidéos, OS...). Java est premier de peu loin du fait de sa forte présence dans les SSII (car assez "facile" et avec une API de base assez fournie).
Un graph datant de 2006 : http://www.cs.berkeley.edu/~flab/languages.png

 

Sans source sous le coude je dirais que C et C++ est utilisé dans 95% à 99% des jeux vidéos (sans être le seul langage : souvent une partie du gameplay et des interfaces est faite en langages de script tels que Lua). Je sais que une poignée de studios restent attachés à Delphi, et qu'un ou deux n'utilise que un dérivé de Lisp (abandonné suite à rachat du studio, le groupe propriétaire voulant standardisé les technos utilisés) ou des langages de scripts. C# progresse aussi.


Message édité par tfpsly le 15-08-2008 à 16:50:29
n°6543277
Lmao
Posté le 15-08-2008 à 17:42:18  profilanswer
 

Alors en quoi est-ce une innovation pour les dev de jeux de pouvoir coder en C/C++ leur jeu avec Larabee ? vu que c'est deja le cas avec les GPU actuel

 

edit : pour être plus clair, je vois pas ce qu'apporte Larabee au niveau développement


Message édité par Lmao le 15-08-2008 à 17:43:01
n°6543305
tfpsly
Sly
Posté le 15-08-2008 à 17:58:49  profilanswer
 

Il y a deux façon d'utiliser Larrabee : soit comme un moteur d'affichage implémentant D3D et/ou OGL ; soit comme plateforme de calculs distribués.
 
Dans le second cas, Larrabee offre bien plus de flexibilité et d'indépendance aux différents processus parallélisés.
 
Il est difficile de faire des estimations de performances, mais il est probable que dans tous ce qui est calcul très répétitif sans test à chaque itération, les GPUs seront plus rapides ; alors que Larrabee sera plus rapide sur tout ce qui demande une exécution différente pour chaque noeud. Ce qui explique pourquoi ID-Soft et leur SVO sont plus attirés par Larrabee.

n°6545467
Geniefou
Génie le jour, fou la nuit
Posté le 17-08-2008 à 13:17:22  profilanswer
 

tfpsly a écrit :

Il y a deux façon d'utiliser Larrabee : soit comme un moteur d'affichage implémentant D3D et/ou OGL ; soit comme plateforme de calculs distribués.
 
Dans le second cas, Larrabee offre bien plus de flexibilité et d'indépendance aux différents processus parallélisés.
 
Il est difficile de faire des estimations de performances, mais il est probable que dans tous ce qui est calcul très répétitif sans test à chaque itération, les GPUs seront plus rapides ; alors que Larrabee sera plus rapide sur tout ce qui demande une exécution différente pour chaque noeud. Ce qui explique pourquoi ID-Soft et leur SVO sont plus attirés par Larrabee.


 
Alors le GPU n'est pas mort  :whistle:  
 

Citation :

GPU pour Nvidia et Amd car avec toutes ces nouvelles inventions on sait plus ou on en est  :o



---------------
un vrai geek croit que dans 1 kilomètre il y a 1024 mètres et que dans 1 mètre il y a 1024 millimètres
n°6548204
griph
Posté le 18-08-2008 à 20:52:08  profilanswer
 

intel present larrabee comme un accelerateur graphique , avant tout ?  
 

n°6548772
tfpsly
Sly
Posté le 19-08-2008 à 01:42:53  profilanswer
 

Le pilote contient une implémentation D3D et OGL, donc oui ça peut remplacer un accélérateur graphique.

n°6550042
griph
Posté le 19-08-2008 à 21:20:49  profilanswer
 

mais si les devs se contentent des api existence, exit les avantage des cpu x86 ? leur souplesse , utilisation des cache etc ?

n°6550084
tfpsly
Sly
Posté le 19-08-2008 à 21:53:35  profilanswer
 

Oui pour les dévs de JV : ce sera au dévs des drivers d'en profiter.

n°6551491
josedsf
Posté le 20-08-2008 à 16:50:06  profilanswer
 

tfpsly a écrit :

Ce qui explique pourquoi ID-Soft et leur SVO sont plus attirés par Larrabee.


C'est quoi SVO ?


---------------
Guide cpu / Zen4
n°6551585
tfpsly
Sly
Posté le 20-08-2008 à 17:20:20  profilanswer
 

Spare Voxel Octree, le nouveau jouet de Carmack. Voir mes explications page 2.

Message cité 1 fois
Message édité par tfpsly le 20-08-2008 à 17:21:02
n°6551787
josedsf
Posté le 20-08-2008 à 18:37:13  profilanswer
 

tfpsly a écrit :

Spare Voxel Octree, le nouveau jouet de Carmack. Voir mes explications page 2.


Merci bien pour toutes ces explications.  
Comanche Overkill, çà ramène à l'ère du 486dx2 50Mhz 4Mo RAM et 120Mo de DD, carte VGA non accélératrice avec 512ko de RAM, et pas de lecteur CD :D C'est vrai que le rendu était agréable, avec des collines bien rondes.


---------------
Guide cpu / Zen4
n°6552510
marllt2
Posté le 21-08-2008 à 03:24:34  profilanswer
 

http://www.hardware.fr/news/9887/i [...] rabee.html
 

Citation :

Lors d'une table ronde, Pat Gelsinger, Senior Vice President Enterprise Group d'Intel, nous a réaffirmé, sans ambiguïté possible, les prétentions d'Intel avec Larrabee : prendre la tête du marché GPU haut de gamme.  
 
Et de préciser que cela signifie bel et bien de dépasser en performances les GPUs de Nvidia et d'AMD qui seront disponibles à ce moment-là, et ce dans les modes Direct3D et OpenGL !  
 
[...] et précise par ailleurs qu'une fois utilisé en mode natif il laissera sur place les GPUs.

n°6552628
Ill Nino
Love
Posté le 21-08-2008 à 09:15:28  profilanswer
 

marllt2 a écrit :

http://www.hardware.fr/news/9887/i [...] rabee.html
 

Citation :

Lors d'une table ronde, Pat Gelsinger, Senior Vice President Enterprise Group d'Intel, nous a réaffirmé, sans ambiguïté possible, les prétentions d'Intel avec Larrabee : prendre la tête du marché GPU haut de gamme.  
 
Et de préciser que cela signifie bel et bien de dépasser en performances les GPUs de Nvidia et d'AMD qui seront disponibles à ce moment-là, et ce dans les modes Direct3D et OpenGL !  
 
[...] et précise par ailleurs qu'une fois utilisé en mode natif il laissera sur place les GPUs.



 :love:  :love:  :love:  [:tartragnan]


---------------
Faut qu'on court comme des lions, des tigres et des ours!
n°6552715
Profil sup​primé
Posté le 21-08-2008 à 10:29:29  answer
 

un 3eme larron (intel) est le bien venu, le combat ATI-Nvidia-Intel sur le haut de gamme des "GPU" :love:

n°6552741
Ill Nino
Love
Posté le 21-08-2008 à 10:47:07  profilanswer
 

Clair. J'espere qu'ils y arriveront vraiment. :)


---------------
Faut qu'on court comme des lions, des tigres et des ours!
n°6552774
Profil sup​primé
Posté le 21-08-2008 à 10:57:22  answer
 

Ils en ont les moyens c sur, en gros ils ont la technologie, ils ont l'envie, il ne leur manque plus que de réussir et je leur souhaite vraiment d'y  arriver.
Mais si jamais ils arrive à tenir  la dragée haute à Ati et Nvidia avec leur 1er """"GPU"""" haut de gamme, la franchement bravo :jap: :jap:

n°6552789
sasuke87
Posté le 21-08-2008 à 11:10:19  profilanswer
 

Intel aussi aura son "TWIMTBP" :http://www.pcinpact.com/actu/news/ [...] 7#c1762657
 
ça va faire mal, vu le budget corruption optimisation d'Intel  :lol:


Message édité par sasuke87 le 21-08-2008 à 11:10:43
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13  14  15  16

Aller à :
Ajouter une réponse
 

Sujets relatifs
Baisse de prix intel le 21 Juillet.Température procceseur Intel
Baisse des prix INTEL du 20 JuilletLe ventirad de l'Intel box est il silencieux ?
Performance : Drivers pour chipset intel P45 (P5Q XXX et autres)Intel Q 9450 & carte(s) mère ASUS = CHALEUR!(?)
[Topic Unique] ATI Radeon HD 5800 et 5900 Series (RV870 inside)Màj de mon ancienne config, qu'en pensez vous ?
Plus de sujets relatifs à : [Topic unique] INTEL Larrabee - MAJ 05/12/2009


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR