Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
862 connectés 

 

 

Intel semble vouloir bouleverser le marché de la carte graphique. Mais entre les volontés du fondeur et celles du consommateur, où vous placez vous dans vos attentes d'une carte graphique ?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter
Les invités peuvent voter

 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13  14  15  16
Auteur Sujet :

[Topic unique] INTEL Larrabee - MAJ 05/12/2009

n°6961082
upsilandre​51
Posté le 17-05-2009 à 22:59:04  profilanswer
 

Reprise du message précédent :
ah parce que vous pensez en plus qu'ils vont vraiment le produire en 65nm et que ce n'est pas juste des samples? non soyont serieux si un jour Intel ce met vraiment a produire des larrabee sur leur chaine de production ca sera en 45nm ou 32nm mais certainement pas en 65nm. la force de Intel c'est d'avoir des process d'avangarde, c'est pas en ressortant un vieux process 65nm qu'ils vont pouvoir relever leur defie alors qu'ils ont un 45nm deja parfaitement maitriser, du 32nm sur les starting-block, et que le larrabee est pas pret de sortir. et faire juste des samples en 65nm ca me parait superflu, c'est pas comme si le 45nm etait tout nouveau et pour de simple samples tu t'en fou un peu du rendement surtout si ca economise un redesigne du chip
et puis vraiment la taille des cores ca colle pas je trouve...

 

non moi ce que je voulais savoir c'est surtout qu'elle est la source de cette info au sujet du 65nm pour estimer la fiabilité. si c'est juste une hypotese alors je saurais a quoi m'en tenir

 

Message cité 1 fois
Message édité par upsilandre51 le 17-05-2009 à 23:10:10
mood
Publicité
Posté le 17-05-2009 à 22:59:04  profilanswer
 

n°6961095
Profil sup​primé
Posté le 17-05-2009 à 23:05:39  answer
 

upsilandre51 a écrit :

c'est pas en ressortant un vieux process 65nm qu'ils vont pouvoir relever leur defie alors qu'ils ont un 45nm deja parfaitement maitriser


Preuve? Les chiffres sur les yield ne sont connus qu'en interne et sont des secrets industriels. Je doutes que tu puisses en juger objectivement.
Comme je l'ai dit plus haut le facteur cout joue un rôle, et le paramètre du yield est important.

 

Bref. Perso je dirais que c'est du 45nm, mais le 65nm n'est pas du tout exclu.

 

Par contre 32nm je n'y crois pas. Le nombre d'usines qui sont en ce moment en court d'aménagement pour le 32nm, est trop faible. Or Intel va avoir besoin de gros volume pour son marché cpu dès le premier trimestre pour les Clarkdale et Clarkfield.

 


Message édité par Profil supprimé le 17-05-2009 à 23:12:23
n°6961114
upsilandre​51
Posté le 17-05-2009 à 23:18:25  profilanswer
 

on parle juste de sample pour l'instant et pour les samples le rendement n'a aucune importance. le larrabee est partie pour etre produit plutot en 2010, tu crois qu'en 2010, a l'epoque du 32nm le 45nm ne sera pas parfaitement maitriser?
Intel se lance le defie de concurencer les GPU, ils ont les projecteurs braqué sur eux et ils comptent se lancer dans ce challenge avec un produit high-end qui a pour principale priorité la performence et qui serait fabriqué en 65nm en 2010 alors meme que Intel sont les plus a meme de maitriser des process avancé? ca tiens pas trop debout je trouve
et encore une fois le principale element qui m'empeche de croire que c'est du 65nm c'est deja la taille des cores
je trouve que 32 cores quad-thread avec VPU 512bit + des TMU c'est deja vraiment bien que ca tiennent en 45nm


Message édité par upsilandre51 le 17-05-2009 à 23:34:07
n°6961134
Profil sup​primé
Posté le 17-05-2009 à 23:32:53  answer
 

High-end ou pas, ca n'impose pas un processus de fabrication plus qu'un autre.

 

La preuve, le produit le plus complexe de chez Intel. L'Itanium, pourtant il n'est gravé qu'en 65nm alors qu'il vient de sortir  [:spamafote] . Pourquoi n'avoir pas pris le 45nm, même question...

 

Bref, j'insiste sur le fait que je suis d'avis qu'il est plus probable que ca sera du 45nm. Je dis juste qu'il ne faut pas être aussi catégorique.

Message cité 1 fois
Message édité par Profil supprimé le 17-05-2009 à 23:36:21
n°6961229
marllt2
Posté le 18-05-2009 à 01:04:10  profilanswer
 

Le wafer qu'a montré Gelsinger est en 65nm.  
 
Par contre le nombre de core présent pouvait être débattu. Avec les dernières photos du die, on y compte 32 cores.  
 
Donc à moins que ce soit une photo d'un wafer 45nm, ce qui est quand même plus qu'improbable, le wafer de Gelsinger contenait des dies 32 cores en 65nm de +/- 667mm².
 
Par ailleurs les dies étaient fonctionnels depuis quelques temps dans les labos d'Intel. Pour une puce de développement, utiliser un process archi connu
permet de ne pas être limité de ce côté.
 
 
Le Tukwila fait plus de 2G transistors, pour 699mm².
 
Avoir des bon yields sur un C2D de 140mm² n'est pas la même chose que sur une puce bien plus grosse.
 

n°6961232
Profil sup​primé
Posté le 18-05-2009 à 01:08:23  answer
 

marllt2 a écrit :


Le Tukwila fait plus de 2G transistors, pour 699mm².

 

Avoir des bon yields sur un C2D de 140mm² n'est pas la même chose que sur une puce bien plus grosse.

 



Oui c'est ce que j'ai dit plus haut. Plus la surface est grande plus la probabilité qu'il y ait des défaut est grande. Sauf si le taux de faibilité entre deux porcess de fabrication 45nm et 65nm ne sont pas identique, du le fait qu'un comparaison directe ne soit pas possible et que dans certain cas il vaut mieux fabriquer en 65nm qu'en 45nm quitte à avoir des die plus gros.

 

Je voulais juste dire qu'Intel utilise pour un de ses cpu les complexe du 65nm et non pas du 45nm, ca laisse à réfléchir.


Message édité par Profil supprimé le 18-05-2009 à 01:09:07
n°6961279
marllt2
Posté le 18-05-2009 à 05:37:26  profilanswer
 

http://www.futuregpu.org/2009/05/m [...] leaks.html
 

Citation :

Of more interest to us LRB-ites are the 2 tidbits of info on LRB that were released in that announcement:
 
1)"which is expected to launch in the first quarter of 2010 and built using a 45nm process"
 
2)"the first Larrabee products are expected to use up to 32 cores


Bizzare ça seulement 32 cores. Ca tiendrait dans 360 à 380mm² en 45nm.

Message cité 1 fois
Message édité par marllt2 le 18-05-2009 à 05:40:57
n°6961281
mikestewar​t
Air Roll Spinnin'
Posté le 18-05-2009 à 06:11:15  profilanswer
 

marllt2 a écrit :

http://www.futuregpu.org/2009/05/m [...] leaks.html
 

Citation :

Of more interest to us LRB-ites are the 2 tidbits of info on LRB that were released in that announcement:
 
1)"which is expected to launch in the first quarter of 2010 and built using a 45nm process"
 
2)"the first Larrabee products are expected to use up to 32 cores


Bizzare ça seulement 32 cores. Ca tiendrait dans 360 à 380mm² en 45nm.


 
Ça fait petit oui.  :sweat:  

n°6968220
poiuytr
\o/
Posté le 23-05-2009 à 13:13:58  profilanswer
 

:hello:  
Voici un article de Joystick (n° 219, juin 2009) sur la présentation de Larrabee à la GDC. Pas de nouvelles infos, juste de la vulgarisation pour ceux qui ne sont pas ingénieur. :)  
 
"Cela va bientôt faire trois années que l'on vous en parle, trois ans que l'on sait qu'Intel a envie de revenir sur les marché des cartes 3D haut de gamme. Embauches (et débauches chez les concurrents) à tour de bras, budget de plusieurs milliards, équipes de développement très larges, les moyens semblent presque démesurés pour ce qui est, avant tout, un truc pour jouer.
 
Avant de vous parler de leur plan à long terme, faisons déjà le point sur ce qui a été fraichement annoncé, à savoir : le matériel. Il s'agira d'une carte PCI Express qui comportera un processeur baptisé Larrabee. C'est un CPU x86 classique, équipé de nombreux coeurs. Qualifier de "classique" ce processeur signifie qu'il pourrait faire tourner Windows. Ces coeurs sont beaucoup plus petits que ceux que l'on trouve dans un C2D ou un Phenom. D'ailleurs, ils ressemblent en partie à un très vieux truc. Qui s'appelait Pentium. Oui, le même que celui qui tournait à 100 Mhz dans les années 90. Chaque coeur dispose en fait de deux pipelines, un peu comme deux lignes de production dans une usine, capables de travailler ensemble en simultané. Dans la ligne de gauche, il y a notre vieux Pentium, c'est lui qui apporte la parenté "x86" (et donc la capacité de faire tourner tous les programmes existants). C'est ce que l'on appelle un pipeline scalaire : il travaille avec une donnée à la fois. Tout sauf excitant, et pas vraiment de quoi faire peur à Ati et Nvidia.
 
512 bits
C'est le second pipeline, celui de droite, qui fait peur puisqu'il s'agit d'une unité vectorielle capable de travailler sur des paquets de 16 données à la fois. Elle utilise un nouveau jeu d'instructions baptisé LRBni. Nous sommes allés le montrer aux développeurs de jeux PC et consoles pour savoir ce qu'ils en pensaient et à chaque fois la réponse fut la même : "ça paraît trop beau pour de l'Intel" (beaucoup de développeurs lui en veulent encore pour MMX/SSE). Il s'agit d'une architecture RISC (jeu d'instructions réduit) simple, fonctionnel, et efficace pour faire de la 3D. Pas la peine de vous faire un dessin, sur le papier il y a de la puissance de calcul à revendre.
 
Mais c'est un GPU ?
Bonne question ! Après tout, on vous a décrit une sorte de gros CPU bizarre capable de faire des tas de calculs, mais rien qui ressemble à un GPU. Parce qu'en fidèles lecteurs de cette rubrique, vous vous rappelez d'un article publié aux alentours de 1996 qui expliquait pourquoi l'on avait besoin d'autre chose que d'un CPU pour faire de la 3D. Le Voodoo de 3DFX est un bon exemple, il y avait deux puces qui apportaient une nouvelle fonctionnalité : la rastérisation et le plaquage de textures. UNe des tâches fondamentales de la carte 3D est de transformer la "scène" en trois dimensions, un gros tas de triangles, en quelque chose de plat que l'on puisse afficher sur un écran. Cette étape s'appelle rastérisation. Globalement, depusi le milieu des années 90, rien n'a changé, le concept de base reste toujours le même. La seule chose qui ait été ajoutée aux GPU est un aspect programmable, ce que l'on appelle les shaders. En gros, des unités de calcul qui viennent s'intercaler entre les différentes opérations "fixes".
 
L'immobilisme...
C'est le mal. C'est ce que pensent en tout cas John Carmack, Tim Sweeney, et un paquet d'autres développeurs qui aimeraient que les unités fixes disparaissent des GPU. Pour des raisons techinques : parce que cela leur permettra de faire leur propre moteur de rendu et de ne plus être limités par les étapes fixes comme la rastérisation. Libre à eux de faire un rendu à base de sphères au lieu de triangles si ça leur chante. C'est technique, certes, mais c'est aussi un choix artistique. Puisqu'en pouvant programmer la puce comme ils le souhaitent, ils peuvent créer des rendus différents et uniques. Voir jouer avec des choses comme le Raytracing, qui n'étaient pas possibles jusqu'ici (la 3D haut de gamme que l'on a dans les films d'animation de Pixar).
Quand tout est programmable, il n'y a plus de limites, et c'est ça l'idée directrice de Larrabee. En créant un processeur capable de faire tourner des moteurs 3D qui n'existent pas encore, Intel fait un gros pari qui suppose que les développeurs prendront le temps de venir faire des jeux pour les cartes. Ou, quand on a un compte en banque bien rempli, on peut aussi financer le développement de jeux Larrabee "natifs". D'après ce que l'on sait, il y a déjà une poignée de très gros titres qui sont sur les rangs et, en gros, tous les développeurs les plus reconnus sur PC ou console.
 
Et mon Crysis ?
Quid des vieux jeux ? Pour eux, le pari d'Intel est de dire que si la puissance de calcul brute de la carte est suffisante, elle pourra faire tourner un "programme" DirectX. Comprendre un programme qui émule toutes les étapes à l'intérieur de DirectX 10. Microsoft annonce la version 11 ou 12 ? Pas de souci, il suffit de créer un nouveau programme Larrabee pour chaque version de DirectX. Ou d'OpenGL, l'idée est toujours la même : ramener ce qui était traité par des unités matérielles fixes à un traitement logiciel sur des processeurs simples. L'avantage ? On élimine les limitations actuelles des cartes 3D dont les performances n'augmentent pas toujours quand on monte leur fréquence ou leur nombre d'unités de calcul. Avec Larrabee, on augmente le nombre de coeurs et les performances augmentent linéairement. Sans oublier que les développeurs pourront "amplifier" leurs jeux actuels en créant d'autres petits programmes Larrabee qui tourneront sur la carte (à côté du "programme" DirectX), pour générer, par exemple, du contenu procédural (de l'eau ou de la végétation réaliste, etc).
Autant le dire, le pari est osé et c'est aussi ce que Larrabee fera hors du monde du jeu qui pourra convaincre. Car s'il suffit de recompiler une application classique (vidée, musique, photo) pour qu'elle soit accélérée par Larrabee, on est en droit de penser que ça n'est pas que l'industrie du jeu, mais l'industrie du PC tout entière qui risque d'être secouée. Si ça marche, bien entendu. On vit dans une époque de matos formidable...


Message édité par poiuytr le 23-05-2009 à 13:22:42

---------------

n°6968328
F-T-Spike
Posté le 23-05-2009 à 15:10:18  profilanswer
 

[:drapal]


Message édité par F-T-Spike le 23-05-2009 à 15:10:33

---------------
"Vous êtes marié comme moi, vous savez que la monstruosité peut prendre des formes très diverses"
mood
Publicité
Posté le 23-05-2009 à 15:10:18  profilanswer
 

n°6974653
castormali​n
上手くなりたい
Posté le 28-05-2009 à 12:12:52  profilanswer
 

Hello tout le monde [:ill nino]


---------------
on est pas des vaches à lait, boycottez les dlc  [:mcberd], fan club Cyril Lignac, les films inspirés de livres, profil sens critique
n°6974663
Profil sup​primé
Posté le 28-05-2009 à 12:21:21  answer
 

[mode_vieux_con]

 

Mais les favori n'ont pas été inventé pour rien. :o

 

Ceux qui posent leurs drap se rendent pas compte qu'ils font venir les x personnes inscrit au topic, pour rien.  :sarcastic:
Pareil pour topic i5...

 

Je dédrapalise.

 

[/mode_vieux_con]

Message cité 2 fois
Message édité par Profil supprimé le 28-05-2009 à 12:25:05
n°6974716
Kawamashi
Posté le 28-05-2009 à 13:08:27  profilanswer
 


 
+1  :o

n°6975786
Bilbo248
Posté le 29-05-2009 à 10:43:23  profilanswer
 


[jeune_con]On a pas forcément envie d'avoir un dossier favoris hfr sur notre pc. De plus tu fait comment quand tu change de pc ?[/jeune_con]


---------------
Photographie d'amateur |--| Stats BDPV - Photovoltaique
n°6975814
Kawamashi
Posté le 29-05-2009 à 11:05:59  profilanswer
 

Les favoris, c'est les petites étoiles jaunes. ça a exactement le même effet que les drapeaux bleus, hein ! Donc les problèmes de dossier favori ou de changement de pc, on s'en balance les noisettes... [:abakuk]

n°6975832
Bilbo248
Posté le 29-05-2009 à 11:26:50  profilanswer
 

Kawamashi a écrit :

Les favoris, c'est les petites étoiles jaunes. ça a exactement le même effet que les drapeaux bleus, hein ! Donc les problèmes de dossier favori ou de changement de pc, on s'en balance les noisettes... [:abakuk]


D'accord, je l'avais pas vu comme çà. :)


---------------
Photographie d'amateur |--| Stats BDPV - Photovoltaique
n°6975886
Kawamashi
Posté le 29-05-2009 à 12:04:37  profilanswer
 

;)

n°6976202
tfpsly
Sly
Posté le 29-05-2009 à 15:36:51  profilanswer
 

Surtout que pour poser un drapeau bleu (drapeau suite à participation), il suffit de cliquer sur le drapeau ou le suivi par email en haut à droite, au lieu de poster comme un boulet.

 

Et tous les sujets lus deviennent des drapeaux rouges, donc suivibles dans "Vos sujets".

Message cité 1 fois
Message édité par tfpsly le 29-05-2009 à 15:37:19
n°6976453
Bilbo248
Posté le 29-05-2009 à 19:29:06  profilanswer
 

tfpsly a écrit :

Surtout que pour poser un drapeau bleu (drapeau suite à participation), il suffit de cliquer sur le drapeau ou le suivi par email en haut à droite, au lieu de poster comme un boulet.
 
Et tous les sujets lus deviennent des drapeaux rouges, donc suivibles dans "Vos sujets".


Au pire si çà gèné vraiment cela ferais un moment que le post pour drapaliser serait interdit..
Enfin bref stop hs.


---------------
Photographie d'amateur |--| Stats BDPV - Photovoltaique
n°6976471
tfpsly
Sly
Posté le 29-05-2009 à 19:42:25  profilanswer
 

Ok : on va commencer un autre HS sur ton orthographe  [:tirkyth]

n°6976521
Bilbo248
Posté le 29-05-2009 à 20:26:05  profilanswer
 

tfpsly a écrit :

Ok : on va commencer un autre HS sur ton orthographe  [:tirkyth]


Nan nan surtout pas  :(


---------------
Photographie d'amateur |--| Stats BDPV - Photovoltaique
n°6981190
verdoux
And I'm still waiting
Posté le 03-06-2009 à 07:01:12  profilanswer
 
n°6981301
ssx99harlo​ck
Posté le 03-06-2009 à 10:05:37  profilanswer
 


 
Ben quoi :??: [:bakk5]
C'est déjà pas mal qu'ils arrivent à égaler la puissance d'une carte (actuellement) de dernière génération, qui est puissante, avec une architecture totalement dédiée a la puissance 3D [:dks]
 
Quand tu te rends compte de ce que c'est Larabee, par rapport à une vraie carte 3 D dédiée, arriver à égaler au niveau perfs (et drivers) une gtx 285 moi je dis bravo Intel [:bakk53]
 
 
Perso j'imaginais plus des perfs du niveau d'une 8800 GT moi.... [:bakk72]
 

n°6982025
marllt2
Posté le 03-06-2009 à 17:57:57  profilanswer
 

Bah comme les perfs seront linéaires avec le nombre de cores ça devrait monter assez vite. Nottamment avec la diminution de la gravure.
 
Il vont essayer la même chose qu'avec les IGP:
 
http://media.bestofmicro.com/larrabee,O-9-76041-3.jpg


Message édité par marllt2 le 03-06-2009 à 18:01:09
n°6982233
tfpsly
Sly
Posté le 03-06-2009 à 19:46:19  profilanswer
 

D'autant que Larrabee a un énorme avantage en souplesse. Pas pour rien que le SVO de ID-Software est bien plus adapté à LRB qu'aux GPU classiques.

n°6982544
civcortex
Firefox powered
Posté le 03-06-2009 à 22:28:01  profilanswer
 

Et également l'avantage d'être vraiment "optimisable" à l'aides des drivers.


---------------
Topic vente et feedback
n°6985018
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 05-06-2009 à 17:01:42  profilanswer
 

Citation :


Selon le site américain Tom's Hardware US, la puce Larrabee d'Intel s'annonce très puissante, à la hauteur des GPU actuels.
 
Un partenaire très proche d'Intel affirme que le prototype actuel, qui regroupe une estimation de 32 cœurs, serait aussi rapide que le GPU d'une GeForce GTX 285. Le seul problème est que cette puce Intel semble bien consommer et chauffer beaucoup plus que le GPU de NVIDIA.
 
La nouvelle est plutôt encourageante, même si notre confrère et le partenaire d'Intel tendent vers la déception. Ces deux affirment que Larrabee ne pourra pas concurrencer les GPU haut de gamme lors de son arrivée sur le marché en 2010, face à la prochaine génération d'AMD et de NVIDIA.
 
Intel garde espoir en sa puce, qui à l'avantage de conserver une architecture x86 et de pouvoir ainsi faire tourner un grand nombre de logiciels. On attend donc les premières puces Larrabee arrivées sur le marché, qui devraient déjà regrouper plus de 32 cœurs.

source : http://www.pcinpact.com/actu/news/ [...] tx-285.htm


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°6985107
Gigathlon
Quad-neurones natif
Posté le 05-06-2009 à 18:08:12  profilanswer
 

Pour résumer...
 
1- Sans produit sur le marché, pas de test en situation réelle.
2- Si les perfs sont à la rue, Larrabee ne sort pas car pas rentable.
3- Sans test en situation réelle, on avance pas dans l'optimisation.
4- Si l'optimisation traine trop, les perfs sont à la rue, goto 2.
 
Bref, ça s'annonce assez mal. Le point positif c'est que Larrabee est avant tout un premier pas vers une architecture CPU massivement parallèle.

Message cité 2 fois
Message édité par Gigathlon le 05-06-2009 à 18:09:12
n°6985250
tfpsly
Sly
Posté le 05-06-2009 à 19:54:58  profilanswer
 

Gigathlon a écrit :

1- Sans produit sur le marché, pas de test en situation réelle.
2- Si les perfs sont à la rue, Larrabee ne sort pas car pas rentable.
3- Sans test en situation réelle, on avance pas dans l'optimisation.
4- Si l'optimisation traine trop, les perfs sont à la rue, goto 2.

Le points 1 et 3 ne nécessite pas d'attendre la commercialisation : Intel peut très bien acheter pleins d'ordis sur le marché et tester ses cartes avec pleins de jeux.
 
Quand Ati et Nvidia sortent de nouvelles cartes, elles tout de suite performantes, et ne gagneront pas 50% de perfs en plus à la sortie de nouveaux drivers.

n°6985253
tfpsly
Sly
Posté le 05-06-2009 à 19:56:03  profilanswer
 

Gigathlon a écrit :

un premier pas vers une architecture CPU massivement parallèle.

Un pas de coté alors. Ce n'est pas un *C*pu. On peut au mieux le voir comme un copro auquel le soft principal sur le CPU peut donner du taf. Comme les GPGPU ; avec une architecture moins dirigistes, plus malléable.


Message édité par tfpsly le 05-06-2009 à 19:56:48
n°6985265
Gigathlon
Quad-neurones natif
Posté le 05-06-2009 à 20:04:56  profilanswer
 

Le point 3 est ta "solution", mais il est bien plus long de faire des tests en interne que de confier cette tâche à ses clients (aussi bien intégrateurs et clients finaux que programmeurs/studios de développement).
 
Or, même si Intel a des moyens non négligeables, le prêt de milliers de systèmes présente un coût non négligeable également.
 
Après, je parle d'optimisations aussi bien hard que soft, car si les perfs "hard" sont tout juste du niveau du GT206, comme le laisse présager la dernière rumeur, il faudra certainement recommencer tout le cheminement car on devrait avoir dès fin 2009 ces perfs sur des cartes à 200€ max, prix difficilement tenable par Intel qui est quand même à considérer comme un outsider sur ce coup.
 
 

tfpsly a écrit :

Un pas de coté alors. Ce n'est pas un *C*pu. On peut au mieux le voir comme un copro auquel le soft principal sur le CPU peut donner du taf. Comme les GPGPU ; avec une architecture moins dirigistes, plus malléable.


Tu ne m'oteras pas de l'idée que Larrabee est voué à être un bloc à part entière d'une génération pas si lointaine de "CPU" plus si "C" que ça ;)

Message cité 1 fois
Message édité par Gigathlon le 05-06-2009 à 20:06:33
n°6985306
TheBigO
ShowTime!
Posté le 05-06-2009 à 20:25:04  profilanswer
 

bof larrabee faudra un ventirad de la mort donc je pense que les cartes meres integreron un 2e socket pour larrabee :o


---------------
"Big O Showtime! Cast in the name of GOD, ye not guilty!" Roger Smith
n°6985568
tfpsly
Sly
Posté le 06-06-2009 à 00:16:25  profilanswer
 

Gigathlon a écrit :

programmeurs/studios de développement

Déjà en cours. Peut pas en dire plus.

n°6988060
Ramichou
Posté le 08-06-2009 à 13:22:23  profilanswer
 

L'avantage pour Intel, c'est qu'ils ont déja une expérience gigantesque pour faire évoluer du x86 et des technos toutes prêtes a être intégrées quand ils auraont plus de transistors, la ou Nvidia et ATI naviguent en devant faire tout le travail de R&D.
 
D'autre part, l'architecture des GPU tend a se rapprocher des processeurs ainsi leur progression pourrait être moins rapide que celle de Intel, maître inconsté du domaine.
 
C'est quand même domage que AMD n'ai pas les sous a mettre pour sortir une solution du même type, théoriquements ils ont déja tout les domaines de compétence nécéssaires.
Bref les premiers Larabee seront surement du caca, mais les opti drivers et l'amélioration de l'archi pourraient etre plsu rapides

n°6988214
tfpsly
Sly
Posté le 08-06-2009 à 15:21:27  profilanswer
 

Ramichou a écrit :

D'autre part, l'architecture des GPU tend a se rapprocher des processeurs

Au niveau des shaders oui, mais il reste de gros blocs du pipeline graphique 3D non programmable. Les ROP notamment, qui s'occupent du blending, et qui obligent parfois à faire du multi-passe à cause de leur manque de plasticité.

n°6992711
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 11-06-2009 à 18:41:18  profilanswer
 

Intel Larrabee might be delayed to Summer 2011 - Guru3D

n°6992720
lefty-worl​d
mono-core inside
Posté le 11-06-2009 à 18:47:53  profilanswer
 

TheBigO a écrit :

bof larrabee faudra un ventirad de la mort donc je pense que les cartes meres integreron un 2e socket pour larrabee :o


 
j'y est aussi pensé  :d


---------------
Le mode sans echec de windows, prouve bien que le mode normal est un echec .
n°6992757
Gigathlon
Quad-neurones natif
Posté le 11-06-2009 à 19:16:36  profilanswer
 

Wirmish a écrit :

Intel Larrabee might be delayed to Summer 2011 - Guru3D


Tiens, ça colle avec mon hypothèse... :whistle:

n°6992880
marllt2
Posté le 11-06-2009 à 21:11:51  profilanswer
 

Wirmish a écrit :

Intel Larrabee might be delayed to Summer 2011 - Guru3D


Nan mais c'est hallucinant les conneries sorties par Tom's et relayées partout.  :sarcastic:  
 
Ils doivent sentir la pression des sites à speudos scoops type Fudo, Theo, Charlie.

Citation :

guru3d
 
Also we noticed that the Larrabee GPU would measure a whopping 971 square millimeters if the chip was to be produced at 45nm.


Tom's a volontairement été flou pour faire croire ça. Historie de faire du buzz. Et ça semble bien marcher...
En fait ils ont dit ça:

Citation :

Tom's
 
In fact,we were informed that Larrabee may be close to 650mm square die, and to be produced at 45nm. "If those measurements are normalized to match Nvidia's GT200 core, then Larrabee would be roughly 971mm squared," said our source--hefty indeed. This is of course, an assumption that Intel will be producing Larrabee on a 45nm core.


C'est tout de suite plus pareil.
Ils disent que si (ce qui n'est évidemment pas le cas) le Larrabee était gravé sur le même process que le GT200 il ferait 971mm².
 
Bref ils comparent des chips différents, sur des process différents, de fondeurs différents. Ca sert à rien, c'est faux, mais ça sert à récolter des clics. :o  
 
Et au passage, aucune machine de lithographie chez Intel ne sait graver 971mm². Même avec un yield de 0%.  
 
Franchement ça m'énnerve de perdre du temps à dé-fuder ce genre de news. :pfff:
 
 

Gigathlon a écrit :

Tiens, ça colle avec mon hypothèse...


Intel a dit début 2010.  
 
Et c'est pas une news sourcée par le fournisseur officiel de substances non officielles de Jen-Hsun Huang qui risque d'être crédible pour affirmer le contraire.

Message cité 1 fois
Message édité par marllt2 le 11-06-2009 à 21:15:22
n°6992883
Gigathlon
Quad-neurones natif
Posté le 11-06-2009 à 21:14:32  profilanswer
 

Il fait combien leur plus gros CPU d'ailleurs?

n°6992895
marllt2
Posté le 11-06-2009 à 21:24:50  profilanswer
 

L'Itanium Tukwila, avec 2G transitors, d'environ 690mm² en 65nm. Sans cesse retardé d'ailleurs.
 
D'ailleurs 690mm² en 65nm ça fait penser au wafer de Larrabee de Gelsinger. :whistle: Mesuré à environ 667mm².
 
Un wafer de test avec des dies d'environ 650-670mm², ça ressemble quand même assez à du 65nm. Pas du 45nm.
Les chips commerciaux eux seront probablement en 45nm.


Message édité par marllt2 le 11-06-2009 à 21:31:53
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13  14  15  16

Aller à :
Ajouter une réponse
 

Sujets relatifs
Baisse de prix intel le 21 Juillet.Température procceseur Intel
Baisse des prix INTEL du 20 JuilletLe ventirad de l'Intel box est il silencieux ?
Performance : Drivers pour chipset intel P45 (P5Q XXX et autres)Intel Q 9450 & carte(s) mère ASUS = CHALEUR!(?)
[Topic Unique] ATI Radeon HD 5800 et 5900 Series (RV870 inside)Màj de mon ancienne config, qu'en pensez vous ?
Plus de sujets relatifs à : [Topic unique] INTEL Larrabee - MAJ 05/12/2009


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR