Forum |  HardWare.fr | News | Articles | PC | Prix | S'identifier | S'inscrire | Shop Recherche
1905 connectés 

 


 

Intel semble vouloir bouleverser le marché de la carte graphique. Mais entre les volontés du fondeur et celles du consommateur, où vous placez vous dans vos attentes d'une carte graphique ?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter
Les invités peuvent voter

 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13  14  15  16
Auteur Sujet :

[Topic unique] INTEL Larrabee - MAJ 05/12/2009

n°6992895
marllt2
Posté le 11-06-2009 à 21:24:50  profilanswer
 

Reprise du message précédent :
L'Itanium Tukwila, avec 2G transitors, d'environ 690mm² en 65nm. Sans cesse retardé d'ailleurs.
 
D'ailleurs 690mm² en 65nm ça fait penser au wafer de Larrabee de Gelsinger. :whistle: Mesuré à environ 667mm².
 
Un wafer de test avec des dies d'environ 650-670mm², ça ressemble quand même assez à du 65nm. Pas du 45nm.
Les chips commerciaux eux seront probablement en 45nm.


Message édité par marllt2 le 11-06-2009 à 21:31:53
mood
Publicité
Posté le 11-06-2009 à 21:24:50  profilanswer
 

n°6993088
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 12-06-2009 à 00:11:59  profilanswer
 

marllt2 a écrit :

Ils disent que si (ce qui n'est évidemment pas le cas) le Larrabee était gravé sur le même process que le GT200 il ferait 971mm².


Hum...
 
Ils disent aussi que le Larrabee aurait une puissance équivalente à une GTX 285. Ce qui signifie, que pour obtenir la même puissance que ses concurrents, avec une même finesse de gravure, Intel aurait besoin d'une puce presque 2 fois plus grosse que le GT200, et presque 4 fois plus grosse que le RV770.
 
J'espère que c'est pas vrai, sinon Intel n'inquiètera pas du tout Ruby et la pixie du caméléon.

n°6993092
marllt2
Posté le 12-06-2009 à 00:17:20  profilanswer
 

Wirmish a écrit :

Ils disent aussi que le Larrabee aurait une puissance équivalente à une GTX 285.


Mais ils ne disent pas combien de cores:

Citation :

We were told that Larrabee is currently only capable of performance levels similar to Nvidia's GeForce GTX 285.


Bref ça ressemble à du "32 cores" en 65nm montré par Gelsinger.
 
 

Citation :

were informed that Larrabee may be close to 650mm square die, and to be produced at 45nm. "If those measurements are normalized to match Nvidia's GT200 core, then Larrabee would be roughly 971mm squared," said our source


Le problème est que on ne peut pas comparer les mm² sans inclure les perfs.
 
Si 650mm² en 45nm ça fait 64 cores, et que 32 cores = GTX 280/285, le rapport perf/mm² sera meilleur pour le Larrabee.
 
Bref sur cet équivalent 971mm², le Larrabee aurait des perfs x2 par rapport au GT200 de 570mm²
 
Mais tout ça (et les 2 news de tom's) restent +/- basé sur rien. :o


Message édité par marllt2 le 12-06-2009 à 00:38:20
n°6993150
tfpsly
Sly
Posté le 12-06-2009 à 02:17:34  profilanswer
 

Wirmish a écrit :

Hum... Ils disent aussi que le Larrabee aurait une puissance équivalente à une GTX 285. Ce qui signifie, que pour obtenir la même puissance que ses concurrents, avec une même finesse de gravure, Intel aurait besoin d'une puce presque 2 fois plus grosse que le GT200, et presque 4 fois plus grosse que le RV770.

Faut voir aussi que l'archi LRB est complètement customisable/programmable.

 

Rien que le coup des ROP complètement figé empêche certains effets avancés d'être faisable en une seule passe. Par exemple lire et écrire un même render target. Sous D3D un blending programmable n'est prévu que post D3D11 (12 ou encore plus tard).

 

Je pourrai faire certaine chose dans mon jeu actuel en une passe sur LRB, certes un peu plus compliquée, vs 5 à 10 sur un GPU classique.


Message édité par tfpsly le 12-06-2009 à 02:18:26
n°6998766
ssx99harlo​ck
Posté le 16-06-2009 à 13:00:34  profilanswer
 

Quelques news....je sais pas quel crédit y accorder mais OSEF :)
 

Citation :

Larrabee pourrait sortir à partir du premier trimestre 2010.
 
Cette date n'étant plus très éloignée, les rumeurs enflent. Nous avions ainsi récemment pu apprendre (cf. Larrabee = une GeForce GTX 285) qu'Intel ne viserait finalement pas le haut du marché des cartes graphiques préférant se concentrer sur le haut milieu de gamme, le créneau des 100 - 150 €, qui offre de bien meilleurs volumes de vente. Cette information est également venue aux oreilles de TweakTown, avec quelques autres.
 
Nos confrères se sont en effet laissés dire que PC Partner, l'un des plus gros fabricants de cartes graphiques, connu du public par ses marques Sapphire ou Zotac, aurait commencé à adapter ces outils de production à la fabrication de cartes Larrabee. Intel aurait également approché d'autres gros producteurs de cartes. Avec le début de la production chez les partenaires, nous devrions voir de plus en plus de fuites, et les photos des premières cartes. À suivre...


 
 
 :hello:


Message édité par ssx99harlock le 16-06-2009 à 13:01:44
n°7000706
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 17-06-2009 à 19:45:47  profilanswer
 
n°7008035
poiuytr
\o/
Posté le 23-06-2009 à 12:52:51  profilanswer
 

Article très intéressant sur le raytracing et la rastérisation chez Tom's Hardware
Morceau de la conclusion :  
"Certains pensent qu’à terme, nous disposerons de tellement de puissance de calcul à revendre que l’avantage de performances de la rastérisation ne sera plus un élément déterminant. La loi des rendements décroissants faisant son effet, le gain de performances offerts par la rastérisation sera vite oublié sur l’autel de l’élégance du raytracing, un peu comme le gain de performances offert par la programmation en assembleur n’était pas suffisant pour compenser l’avantage de la programmation avec des langages de haut niveau.
 
ZoomMais personnellement nous n’en sommes pas convaincus, ou en tout cas nous sommes encore loin du moment où nous pourrons sacrifier la performance pour l’élégance et la simplicité. Il suffit en effet de regarder ce qui s’est passé ces dix dernières années dans le monde du rendu offline : alors qu’une image du film Toy Story prenait en moyenne deux heures pour être rendue, une image de Ratatouille prenait pour sa part six heures et demie et cela malgré une puissance de calcul multipliée par plus de 400 dans le même temps ! En d’autres termes plus on offre de puissance de calcul aux artistes et de moyens pour l’exploiter et plus ils arriveront à l’absorber.
 
Si une société comme Pixar, qui peut se permettre de consacrer plusieurs heures de calcul pour produire une image, préfère utiliser le raytracing avec parcimonie du fait de son impact sur les performances, on peut en déduire que le moment où nous aurons de la puissance à ne plus savoir qu’en faire dans le monde de la 3D temps réel pour pouvoir se permettre d’effectuer tout le rendu en raytracing est encore bien loin et qu’il y aura sans doute mieux à faire de toute cette puissance de calculs.
"
 
 
Larrabee ne vise donc pas un rendu full raytracing. :??: Il vise juste à apporter la plus grande flexibilité possible dans la programmation de moteur de rendu (hybride par exemple).

n°7008059
tfpsly
Sly
Posté le 23-06-2009 à 13:16:08  profilanswer
 

poiuytr a écrit :

Larrabee ne vise donc pas un rendu full raytracing. :??: Il vise juste à apporter la plus grande flexibilité possible dans la programmation de moteur de rendu (hybride par exemple).

Il ne l'a jamais fait. Il vise à remplacer GPU et GPGPU. Le rendu offert sera du rasterizing, comme le font les autres GPU sous D3D et OGL.
 
Après la grande flexibilité offerte par LRB fait que d'autres programmeurs peuvent esssayer d'y implémenter d'autres types de rendu, comme du raycasting (Carmack's SVO) ou du raytracing s'ils le désirent.

n°7008211
upsilandre​51
Posté le 23-06-2009 à 15:21:45  profilanswer
 

le raytracing ne sera sans doute jamais une fin en soit, juste un outils parmis d'autre.
ce qui pourait remplacer la rasterisation ordinaire quand les micro-polygone seront trop dominant c'est peut etre plutot un rendering de type REYES (la methode de rendering devellopé par pixar y a 20 ans et qui a faitune partie de leur succes) qui n'est pas de la rasterisation a proprement parlé mais quelque chose apart
ca fait longtemps que je surveille les etudes sur ce domaines, sur ce que pourait aporter un rendering Reyes en temps réel (les avantages et contrainte sont asser differente de la rasterisation pour que ce soit interressant de se poser la question) mais on trouvait vraiment pas grand chose sur le sujet. je trouvais etrange que ca suscite si peu d'interet, ca me paraissait plus interressant que de passer au raytracing (meme si justement c'est difficile a dire sans etude vraiment poussé)
et justement il vient de tomber cela qui est asser interressant (surtout quand on voit que c'est une etude commandé par Intel larrabee research) http://graphics.stanford.edu/paper [...] _hpg09.pdf
 

n°7008301
tfpsly
Sly
Posté le 23-06-2009 à 15:58:12  profilanswer
 

Reyes est juste un système batard : de la raster pour le gros du boulot, et du raytracing pour certaines parties (ex: certaines réflexion), probablement activé dans les propriétés des matériaux (ex: un matériaux très réfléchissant --> rays).

mood
Publicité
Posté le 23-06-2009 à 15:58:12  profilanswer
 

n°7008343
upsilandre​51
Posté le 23-06-2009 à 16:18:42  profilanswer
 

pour moi Reyes ce n'est pas de la rasterisation, c'est vraiment different (Pixar combine maintenant leur rendu Reyes avec du raytracing mais c'est asser recent, le raytracing ne fait pas partie de Reyes, il le complete seulement, ce n'est pas ce qui definie le rendering Reyes). ca vaut le coup de se pencher sur quelques document pour comprendre ce qu'il en est car c'est interressant


Message édité par upsilandre51 le 23-06-2009 à 16:25:12
n°7008392
tfpsly
Sly
Posté le 23-06-2009 à 16:44:41  profilanswer
 

Ça y ressemble pourtant fortement : http://en.wikipedia.org/wiki/Reyes_rendering

Citation :

Shaded micropolygons are sampled in screen space to produce the output image.
[...]
   1. Bound. Calculate the bounding volume of each geometric primitive.
   2. Split. Split large primitives into smaller, diceable primitives.
   3. Dice. Convert the primitive into a grid of micropolygons, each approximately the size of a pixel.
   4. Shade. Calculate lighting and shading at each vertex of the micropolygon grid.
   5. Bust the grid into individual micropolygons, each of which is bounded and checked for visibility.
   6. Hide. Sample the micropolygons, producing the final 2D image.


Tu aurais des liens de montrant plus de détails sur le fonctionnement interne, en quoi ce n'est pas de la rasterisation, etc...?

 

EDIT : "[REYSES] is an algorithm developed at Industrial Light and Magic in the early 80’s"
Putain Lucasfilm ont quasiment inventé tous les outils modernes de rendu 3D pour film : Photoshop (ancien de Lucas -et son frère étudiant en PhD- qui a présenté l'idée à ses boss puis qui est parti fondé sa boite), Pixar (spinof, anciennement Computer Division of Lucasfilm  puis racheté par Steve Jobs), je crois qu'ils sont aussi lié à l'histoire de Maya ou d'un autre éditeur 3D...


Message édité par tfpsly le 23-06-2009 à 16:50:09
n°7010390
bjone
Insert booze to continue
Posté le 24-06-2009 à 22:39:27  profilanswer
 

Je dirais que Deluxe Paint devance Photoshop :)
Mais c'est sûr Lucas & Spielbierg se sont entourés de gens doués.

n°7018073
marllt2
Posté le 30-06-2009 à 16:35:29  profilanswer
 
n°7045716
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 22-07-2009 à 19:20:19  profilanswer
 

Un petit article (Japonais -> Anglais) -> ICI
 
http://digli.com/images/smiley/bye.gif


Message édité par Wirmish le 22-07-2009 à 19:20:48
n°7048763
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 24-07-2009 à 23:52:35  profilanswer
 
n°7078996
White Sh4d​ow
GHz-O-Meter !
Posté le 19-08-2009 à 15:19:32  profilanswer
 

Hello tout le monde [:pcgamer]  
 
Alors j'ai fait un petit tour sur wikipédia, et il y a ceci d'écrit  
 

Citation :


La première version, dotée de 32 cœurs en 45 nm à 2 GHz, 8 Mio de cache, ne sortira pas dans le public. Elle est en effet trop peu puissante, et ne servira qu'aux tests des développeurs. La deuxième version, "finale publique", comportera 64 cœurs en 32 nm à 2 GHz, 16 Mio de cache.


 
Source d'après wikipédia : CanardPC n°196 page 83. Paru le 20 juillet 2009.
 
Vos avis ? Source fiable ? Intel aurait-il changé ses plans ? Que de mystères  :bounce:

n°7079240
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 19-08-2009 à 18:31:07  profilanswer
 

Mon avis ? je suis plus que sceptique face aux bombes graphiques qui vont arriver non seulement cette année mais encore plus l'année prochaine... Si intel balance une carte graph dont la puce est en 32nm et qui serait moins perf tout en chauffant plus que celles des concurrents gravées en 40nm, ils vont devoir revoir leurs plans xoD


---------------
~ Sondage sur un lieu d'apprentissage de l'autonomisme ~ Camping la ressource ; Le survivalisme accessible ~
n°7079316
Tahitiflo
éponge carré(e)
Posté le 19-08-2009 à 19:37:59  profilanswer
 

clair et qui risque d etre plus chere que les solutions n vidia /amd.

n°7079929
White Sh4d​ow
GHz-O-Meter !
Posté le 20-08-2009 à 12:46:00  profilanswer
 

Citation :


Late 2010 or later
 
Yesterday we reported here that Larrabee 3 is the one that Intel plans to show and possibly ship in 2010, but recent update indicates that Intel might try another core before it finally releases Larrabee.
 
Since Larrabee 3 is planned for middle of 2010, in case it doesn’t slips again, Larrabee 4 is being mentioned as a potential launch candidate. If Intel skips Larrabee 3 and decides to go for Larrabee 4, this will cause further delays and might push the release of Intel’s GPU by at least late 2010 early 2011.
 
With Intel’s high TDP they desperately need to go for smaller manufacturing process and 32nm sure looks better than 45nm that Intel currently uses. The question is can Intel start manufacturing Bulk 32nm product in second half of 2010, to meet this schedule.
 
For the time being, at least until mid of 2010, Larrabee is nothing Nvidia and ATI should be worried about, as its yet to be showed and launched.  


 
Fudzilla - Written by Fuad Abazovic :whistle:

n°7080002
tfpsly
Sly
Posté le 20-08-2009 à 13:56:19  profilanswer
 

super_newbie_pro a écrit :

Mon avis ? je suis plus que sceptique face aux bombes graphiques qui vont arriver non seulement cette année mais encore plus l'année prochaine... Si intel balance une carte graph dont la puce est en 32nm et qui serait moins perf tout en chauffant plus que celles des concurrents gravées en 40nm, ils vont devoir revoir leurs plans xoD


Pour du D3D/OGL peut-être.
 
Mais vu le nombre de cas où l'on rêve de pouvoir lire et écrire librement un/plusieurs même(s) render target(s)s sur les autres GPU, écrire du code spécifique LRB permettra de ré-implémenter certaines choses bien plus efficacement.
 
Rien que faire des réfractions (transparences avec déformations - fenêtre en verre, eau, feu...) correctes : actuellement on a le choix entre :

  • n'utiliser qu'une texture de refraction pour tous ces objets, donc certains afficheront par transparence des objets devant eux
  • afficher tous les objets du plus loin au plus proche (ralentit pas mal l'affichage, plus de early-z-test) ; pour chaque objet transparent rencontré : flusher le GPU (grosse perte de temps, le GPU se tournant les pouces et le CPU aussi), copier le render target actuel dans une texture, et afficher l'objet transparent.


Avec un moteur 3D spécifique Larabee, on élimine les flushs GPU et la copie du RT.
 
De même tous les post-effects, les deferred lighting etc. seront plus simples à écrire. On pourra avoir des buffers stoquant des formats plus complexes, par exemple des texels à x composantes au lieux de 1,2 ou 4, mélangeant nombres entiers et flottants au besoin pour ne pas gaspiller de mémoire pour les composantes qui n'auraient pas besoin d'autant de précision.
 
Bref plus besoin de chercher comment on pourrait faire un effet avec un matériel très pré-déterminé.

n°7090061
bjone
Insert booze to continue
Posté le 28-08-2009 à 11:50:48  profilanswer
 

Tout à fait. Quoique le point faible au niveau évolutivité coté Larabee sera peut-être au niveau des unitées de textures.  
 
Je sais pas du tout si il y a moyen d'exécuter du code entre le fetch et le filtrage (pour avoir des formats programmables).
 
Et puis la gestion mémoire paginée :)

n°7091532
marllt2
Posté le 29-08-2009 à 13:40:00  profilanswer
 

Il parait qu'il y a des news concernant des timings de dispo de samples des AIB, mais j'ai pas trouvé les news en question. [:gratgrat]


Message édité par marllt2 le 29-08-2009 à 13:40:20
n°7101267
cbo
Posté le 05-09-2009 à 06:52:13  profilanswer
 

Dixit Joystick Larabee sera annoncé le 22 septembre pour une sortie pour Noel

n°7101335
marllt2
Posté le 05-09-2009 à 09:57:39  profilanswer
 

cbo a écrit :

Dixit Joystick Larabee sera annoncé le 22 septembre pour une sortie pour Noel


 :??:  
 
C'est surprenant.

n°7101378
cbo
Posté le 05-09-2009 à 10:50:05  profilanswer
 

Tout a fait d'accord, surtout qu'ils annoncent six jeux adressant directement larabee sans passer par directx.
 
la question est est ce que certains journalistes sont déjà sous NDA

n°7104132
Gigathlon
Quad-neurones natif
Posté le 07-09-2009 à 18:05:22  profilanswer
 

cbo a écrit :

Dixit Joystick Larabee sera annoncé le 22 septembre pour une sortie pour Noel


Ahhhh... Joystick, quel bon vieux torchon celui-là... [:dawa]
 
Par contre il me semble que le 22 septembre corresponde bien à un lancement de GPU... chez AMD :lol:

n°7114980
cbo
Posté le 14-09-2009 à 17:28:18  profilanswer
 

Gigathlon a écrit :


Ahhhh... Joystick, quel bon vieux torchon celui-là... [:dawa]
 
Par contre il me semble que le 22 septembre corresponde bien à un lancement de GPU... chez AMD :lol:


 
 
Joystick du moins C-wiz à rarement faux au niveau du matériel
 
le 22/09 c'est l'ouverture de l' IDF
 
Mais plus bizarre
 
Départ de Pat Gelsinger qui était le chef d'orchestre de Larrabee
 
http://www.pcinpact.com/actu/news/ [...] er-emc.htm

Message cité 1 fois
Message édité par cbo le 14-09-2009 à 17:28:46
n°7114985
bjone
Insert booze to continue
Posté le 14-09-2009 à 17:30:27  profilanswer
 

Oui c'est pas super bon signe.

n°7114989
Zack38
Posté le 14-09-2009 à 17:32:35  profilanswer
 

[:turborunner]

n°7115858
marllt2
Posté le 15-09-2009 à 03:34:20  profilanswer
 

cbo a écrit :

Mais plus bizarre
 
Départ de Pat Gelsinger qui était le chef d'orchestre de Larrabee
 
http://www.pcinpact.com/actu/news/ [...] er-emc.htm


Et pour rappel: http://www.hardware.fr/news/9887/i [...] rabee.html
 

Citation :

Pat Gelsinger, Senior Vice President Enterprise Group d'Intel, nous a réaffirmé, sans ambiguïté possible, les prétentions d'Intel avec Larrabee : prendre la tête du marché GPU haut de gamme.  
 
Et de préciser que cela signifie bel et bien de dépasser en performances les GPUs de Nvidia et d'AMD qui seront disponibles à ce moment-là, et ce dans les modes Direct3D et OpenGL !


n°7115864
tfpsly
Sly
Posté le 15-09-2009 à 03:49:25  profilanswer
 

Ce qui ne sera probablement possible que si les développeurs développent un pipe de rendu Larrabee : je m'attend à ce que LRB < GPU légèrement en D3D/OGL, et LRB > GPU si pipe spécifique.

n°7116684
Gigathlon
Quad-neurones natif
Posté le 15-09-2009 à 18:17:16  profilanswer
 

tfpsly a écrit :

Ce qui ne sera probablement possible que si les développeurs développent un pipe de rendu Larrabee : je m'attend à ce que LRB < GPU légèrement en D3D/OGL, et LRB > GPU si pipe spécifique.


En même temps il faudrait un monstre avec l'archi Larrabee qu'on connaît pour dépasser réellement la HD5870 qui approche des étals...
 
Après, il est possible que les prétentions aient été revues, mais sortir un bestiau de 2TFlops réellement efficace aussi bien en calcul qu'en 3D tout en consommant relativement peu c'est clairement pas gagné.


Message édité par Gigathlon le 15-09-2009 à 18:17:47
n°7121691
cbo
Posté le 18-09-2009 à 17:44:56  profilanswer
 

Quelqu'un à des infos ?? suppositions,
http://www.brightsideofnews.com/ne [...] iasco.aspx

 

Ou tout simplement vous y croyez ou pas ???

Message cité 1 fois
Message édité par cbo le 18-09-2009 à 17:45:15
n°7127359
dragonlore
Posté le 22-09-2009 à 14:36:34  profilanswer
 

cbo a écrit :

Quelqu'un à des infos ?? suppositions,
http://www.brightsideofnews.com/ne [...] iasco.aspx
 
Ou tout simplement vous y croyez ou pas ???


faut voir. si le Larrabee n'est pas annoncé à cet IDf il y a de fortes chances pour qu'il ne sorte pas avant longtemps.
 
après est-ce un fiasco à la parhelia de matrox ou savage2000 de S3? il faudra attendre de voir les perfs.

n°7128746
Zack38
Posté le 23-09-2009 à 06:38:55  profilanswer
 

http://www.clubic.com/actualite-30 [...] rabee.html
 

Citation :

Première démonstration publique pour Larrabee
 
Autre première publique pour Intel, la toute première démonstration d'une version fonctionnelle de Larrabee. Larrabee, souvenez-vous, c'est le nom de code donné par Intel à son premier processeur graphique x86. Encore en cours de développement, Larrabee promet de révolutionner le monde de la 3D, avec une approche radicalement différente de ce qui s'est fait jusqu'à présent que ce soit du côté d'ATI ou de NVIDIA. Seulement voilà entre les effets d'annonce, et la réalité des faits, la différence est parfois frappante. Alors que Larrabee ne doit pas voir le jour commercialement parlant avant au moins une année, Intel présentait pour la première fois une machine exécutant une carte graphique à base de processeur Larrabee.
 
Contrairement aux précédentes démonstrations, celle de cet IDF faisait donc appel à une véritable puce et non à une émulation logicielle tournant sur plusieurs processeurs Xeon. Intel montrait un rendu en raytracing avec les éléments graphiques du jeu Quake Wars. Et très franchement la démonstration n'était guère convaincante... Aliasée, plutôt saccadée, la démo n'avait rien de grandiloquent. Certains bruits de couloir font état du fait qu'Intel a eu des soucis de dernière minute le conduisant à présenter une version largement amoindrie de Larrabee lors de cette première à l'IDF. Un choix... peut être justifié par la volonté d'Intel de réduire les attentes du public autour de Larrabee. Reste à savoir si dans un an, Larrabee sera plus convaincant !

n°7130702
cbo
Posté le 23-09-2009 à 21:51:16  profilanswer
 

Oui donc finalement rien, désolé
 
 
je vais me contenter d'une 5870

n°7131649
vxavier2g
Six Feet Under
Posté le 24-09-2009 à 13:31:58  profilanswer
 

la petite news accompagnée de la vidéo à propos du Larrabee
 
http://www.pcworld.fr/2009/09/24/m [...] ee/449341/


Message édité par vxavier2g le 24-09-2009 à 13:36:41

---------------
Les RoadRunners sur Boinc
n°7132637
josedsf
Posté le 24-09-2009 à 22:50:45  profilanswer
 

Citation :

Certains bruits de couloir font état du fait qu'Intel a eu des soucis de dernière minute le conduisant à présenter une version largement amoindrie de Larrabee lors de cette première à l'IDF. Un choix... peut être justifié par la volonté d'Intel de réduire les attentes du public autour de Larrabee. Reste à savoir si dans un an, Larrabee sera plus convaincant !


On croit rêver :lol: Il ferait mieux de s'abstenir d'écrire des trucs pareils.
 
Bon un article un peu intéressant sur les derniers gpu, dont Larabee, avec une petit effort d'analyse tout à fait louable :
http://arstechnica.com/hardware/ne [...] -a-bow.ars


Message édité par josedsf le 24-09-2009 à 22:52:30

---------------
Guide cpu/ DrK@jose99m
n°7137482
marllt2
Posté le 28-09-2009 à 09:44:29  profilanswer
 

http://www.clubic.com/actualite-30 [...] perts.html
 

Citation :

Du côté de Larrabee, les ambitions d'Intel semblent se heurter à quelques problèmes de mise au point. Ainsi, le fondeur a donné très peu de détail sur son futur et premier processeur graphique. En vérité, Intel a même donné moins de détails que lors des précédents IDF.


 [:tinostar]

Message cité 1 fois
Message édité par marllt2 le 28-09-2009 à 09:45:04
n°7142331
ash ray cu​re
Life is a bitch
Posté le 01-10-2009 à 12:23:24  profilanswer
 

marllt2 a écrit :

http://www.clubic.com/actualite-30 [...] perts.html
 

Citation :

Du côté de Larrabee, les ambitions d'Intel semblent se heurter à quelques problèmes de mise au point. Ainsi, le fondeur a donné très peu de détail sur son futur et premier processeur graphique. En vérité, Intel a même donné moins de détails que lors des précédents IDF.


 [:tinostar]


Ah oué, balaise Intel!
Ils sont leader dans ce segment, mais leur premier processeur graphique n'est pas encore sorti?
 [:ddr555]

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13  14  15  16

Aller à :
Ajouter une réponse
 

Sujets relatifs
Baisse de prix intel le 21 Juillet.Température procceseur Intel
Baisse des prix INTEL du 20 JuilletLe ventirad de l'Intel box est il silencieux ?
Performance : Drivers pour chipset intel P45 (P5Q XXX et autres)Intel Q 9450 & carte(s) mère ASUS = CHALEUR!(?)
[Topic Unique] ATI Radeon HD 5800 et 5900 Series (RV870 inside)Màj de mon ancienne config, qu'en pensez vous ?
Plus de sujets relatifs à : [Topic unique] INTEL Larrabee - MAJ 05/12/2009


Copyright © 1997-2018 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR