Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2738 connectés 

 

 

Intel semble vouloir bouleverser le marché de la carte graphique. Mais entre les volontés du fondeur et celles du consommateur, où vous placez vous dans vos attentes d'une carte graphique ?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter
Les invités peuvent voter

 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13  14  15  16
Auteur Sujet :

[Topic unique] INTEL Larrabee - MAJ 05/12/2009

n°6810442
griph
Posté le 23-01-2009 à 14:05:14  profilanswer
 

Reprise du message précédent :

tfpsly a écrit :

Carte ou GPU on s'en fout : pas moyen de balancer des vertexes/textures/shaders/indices à la carte, elle n'en fera rien à moins d'avoir le moteur Larrabee dans ou après la puce Lucid. Donc dans l'état cette puce n'est pas compatible avec l'émulation de GPU sur Larrabee, et si Intel demande une puce le permettant, je doute qu'elle continue à supporter les concurrents ;)


 
 
c'est peut etre ca la strategie ;|

mood
Publicité
Posté le 23-01-2009 à 14:05:14  profilanswer
 

n°6810821
lefty-worl​d
mono-core inside
Posté le 23-01-2009 à 17:41:24  profilanswer
 

salut
nouveau sur ce topic.
 
En resumé larrabee et un cpu avec des propriétes d'un gpu ?
 
 
 
en 2010 (date de sortie ) les concurrents auront déja prevue le coup et auront sorti de "vrai" gpu plus puissant, sa ne sera donc pas necessaire d'achete " un second cpu" , difficile a refroidir ( d'après le premier post) et d'une technologie qui datent de 2008 ( a part si il décide de repousser la date de sortir et nous pondre un vrai truc de malade).
 
 
a mon avis intel ferait mieu de nous faire un bon vieu cpu qui tirent bien partis de nos jeux :d


---------------
Le mode sans echec de windows, prouve bien que le mode normal est un echec .
n°6810847
tfpsly
Sly
Posté le 23-01-2009 à 17:55:34  profilanswer
 

lefty-world a écrit :

En resumé larrabee et un cpu avec des propriétes d'un gpu ?

Non, pleins de CPU. Et pas avec les propriétés d'un GPU! Des cpus qui font tourner des programmes distribués, dont un moteur de rendu software.

 
lefty-world a écrit :

en 2010 (date de sortie ) les concurrents auront déja prevue le coup et auront sorti de "vrai" gpu plus puissant

Suffira à Intel de mettre encore plus de procs sur les cartes Larrabee. Puis d'en rajouter une seconde plus tard. De les clocker plus rapidement en les gravant plus finement. Et à la sortie d'un futur D3D 14.15926, de mettre à jour le driver pour le supporter sans changer de hard.

Message cité 1 fois
Message édité par tfpsly le 23-01-2009 à 17:55:49
n°6810911
ssx99harlo​ck
Posté le 23-01-2009 à 18:33:49  profilanswer
 

tfpsly a écrit :

Non, pleins de CPU. Et pas avec les propriétés d'un GPU! Des cpus qui font tourner des programmes distribués, dont un moteur de rendu software.
 


 
[quotemsg=6810847,243,110916]Suffira à Intel de mettre encore plus de procs sur les cartes Larrabee. Puis d'en rajouter une seconde plus tard. De les clocker plus rapidement en les gravant plus finement. Et à la sortie d'un futur D3D 14.15926, de mettre à jour le driver pour le supporter sans changer de hard.[/quotemsg]
 
Et c'est là que c'est fort de la part d'Intel ! (en tout cas je trouve)
 
 

n°6810943
lefty-worl​d
mono-core inside
Posté le 23-01-2009 à 18:44:29  profilanswer
 

Ce sera donc un carte ou une puce ( "posée" sur la mobo a la maniere d'un cpu ) ?


---------------
Le mode sans echec de windows, prouve bien que le mode normal est un echec .
n°6810975
Fantryt
Posté le 23-01-2009 à 18:58:32  profilanswer
 

Je suppose plutôt qu'il s'agira d'un périphérique PCI-Express 2.0 16x, pour deux raisons :

  • La puce Hydra, naturellement pensée pour le multi-Larrabee, devrait bientôt voir le jour
  • La norme PCIe 3.0 commence à se finaliser, ce serait dommage de tout gâcher
  • Larrabee devra aussi émuler DirectX sous toutes ses formes, il est donc évident qu'il devra posséder des sorties appropriées

n°6810995
Tahitiflo
éponge carré(e)
Posté le 23-01-2009 à 19:14:10  profilanswer
 

"Suffira à Intel de mettre encore plus de procs sur les cartes Larrabee."
 
p'tain va falloir changer d alim,a c rithme 1000w suffiront pas?

n°6811300
lefty-worl​d
mono-core inside
Posté le 23-01-2009 à 21:51:39  profilanswer
 

Tahitiflo a écrit :

"Suffira à Intel de mettre encore plus de procs sur les cartes Larrabee."
 
p'tain va falloir changer d alim,a c rithme 1000w suffiront pas?


 
faudra sortir des alim de 2000 watt pour ceux qui voudront faire du nintel ( sorte de sli prement inventée  )...
 
 
 

Fantryt a écrit :

Je suppose plutôt qu'il s'agira d'un périphérique PCI-Express 2.0 3.0 16x, pour deux raisons :

  • La puce Hydra, naturellement pensée pour le multi-Larrabee, devrait bientôt voir le jour
  • La norme PCIe 3.0 commence à se finaliser, ce serait dommage de tout gâcher
  • Larrabee devra aussi émuler DirectX sous toutes ses formes, il est donc évident qu'il devra posséder des sorties appropriées   11 ?


Message édité par lefty-world le 23-01-2009 à 21:52:50

---------------
Le mode sans echec de windows, prouve bien que le mode normal est un echec .
n°6811323
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 23-01-2009 à 22:14:37  profilanswer
 

avec le 40nm puis le 32nm puis le 28nm, on se dirige vers une réduction substantielle de la consommation électrique


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°6811396
marllt2
Posté le 23-01-2009 à 23:00:49  profilanswer
 

Ce topic est en train de sombrer dans la nawakerie...

mood
Publicité
Posté le 23-01-2009 à 23:00:49  profilanswer
 

n°6811697
Fantryt
Posté le 24-01-2009 à 10:03:27  profilanswer
 

super_newbie_pro a écrit :

avec le 40nm puis le 32nm puis le 28nm, on se dirige vers une réduction substantielle de la consommation électrique

 

Je crois que la finesse de gravure devrait descendre de cette manière :
-45nm (Core 2 Duo/Quad/Extreme ; Core i7/i5, etc)
-32nm (révision de Nehalem : Westmere)
-22nm (révision de Sandy Bridge : Ivy Bridge)
-16nm (révision de Haswell, dont le nom est inconnu)
-11nm (?)
-nanoélectrique (?)

 

Oui, la consommation électrique devrait radicalement baisser, mais ajouter sans cesse plus de coeurs relève à chaque fois cette consommation . Si vous voulez un exemple, prenez un vieux CPU cadencé à 3,20GHz avec un seul coeur et ayant un TDP de 130W . Aujourd'hui, il existe le même modèle avec 4 coeurs, toujours avec une fréquence de 3,20GHz et un TDP de 130W, malgré les quelques 30nm qui les séparent ...

 

Donc, Larrabee aura besoin d'une sacré dose de réduction de la finesse de gravure sans quoi il faudra obligatoirement une alimentation de 1kW


Message édité par Fantryt le 24-01-2009 à 10:06:25
n°6812007
tfpsly
Sly
Posté le 24-01-2009 à 13:19:12  profilanswer
 

TDP != consommation

Citation :

Par contre, le TDP n'est PAS ET N'AS JAMAIS ÉTÉ la consommation d'un processeur.

 

Le TDP, c'est la quantité de chaleur que le système de refroidissement doit être capable d'évacuer pour garantir le fonctionnement du CPU.

 

Ça veut donc dire que la consommation du CPU est INFÉRIEURE OU ÉGALE au TDP, mais par contre, ça ne veut absolument dire qu'elle peut réellement atteindre cette valeur, les constructeurs de CPU ayant pris l'habitude de découper leurs gammes en différentes "tranches" de TDP, souvent largement sur-évaluées (comme par exemple les 130W d'un QX9600, qui en pratique ne consomme que 80W en pleine charge).

 


> Quel intérêt de spécifier un TDP *double* de l'émission réelle de chaleur du CPU?
Déjà, il y a le découpage des gammes.

 

Par exemple chez Intel, c'est 65W pour les dual core, 95W pour les Quad et 130W pour les Extreme.

 

Ca permet, entre autres, d'éviter qu'un processeur haut de gamme ne soit montée dans une machine premier prix conçue pour des processeurs d'entrée de gamme (ce qui pourrait nuire à l'image du CPU haut de gamme).

 

Ensuite, il y a la marge d'évolution.

 

Si le Phenom II est spécifié pour 125W, ça veut dire qu'AMD pourra proposer plus tard des processeurs consommant plus (montée en fréquence, ajout de coeurs...) mais compatibles avec les cartes mères et dissipateurs pour Phenom II.

 

Ensuite, il y a la variation de la qualité de fabrication, qui impose aux constructeurs de CPU de garder une marge au niveau du TDP. En effet, deux CPU de même architecture et de même fréquence ne consommeront pas toujours la même chose, en fonction de la qualité de fabrication. En spécifiant un TDP plus large, le constructeur de CPU s'accorde une marge à la fabrication, qui va lui permettre de commercialiser certains CPU qui n'auraient pas pu l'être si le TDP avait été spécifié avec une marge serrée.

 

Enfin, il y a aussi une certaine marge qui peut aider à la stabilité : si chaque processeur était spécifié pour un TDP exactement égal à sa consommation, les fabricants de cartes mères premiers prix pourraient être tentés de laisser très peu de marge de puissance au niveau de l'étage d'alimentation du CPU, ce qui pourrait avoir une influence néfaste sur la stabilité.
Avec des TDP sur-évalués, les fabricants sont plus ou moins obligés de laisser une marge, puisque leurs produits doivent supporter une consommation égale au TDP.

 

Accessoirement, même si je pense pas que ce point joue réellement un rôle dans le choix de spécifier un TDP plus élevé, avoir des TDP bien plus élevés que la consommation réelle est bon pour nos oreilles.


Message édité par tfpsly le 24-01-2009 à 13:21:08
n°6812055
Fantryt
Posté le 24-01-2009 à 13:49:33  profilanswer
 

Pour moi, le TDP, c'est la consommation totale du CPU : à savoir, l'énergie qui est utilisée par le CPU et l'énergie qui est transformée en chaleur (et donc inutile) .
 
Pour remédier à ce problème, il suffirait de modifier la constitution des transistors pour que ceux-ci ne laissent passer aucune fuite de courant :) cela résulterait donc d'un dégagement thermique nul et d'une consommation en forte baisse sauf pour les overclockeurs qui n'hésiteront sûrement pas à dépasser 20GHz ... reste à voir ensuite la tension que le CPU peut supporter :o

n°6812088
tfpsly
Sly
Posté le 24-01-2009 à 14:07:22  profilanswer
 

Fantryt a écrit :

Pour moi, le TDP, c'est la consommation totale du CPU : à savoir, l'énergie qui est utilisée par le CPU et l'énergie qui est transformée en chaleur (et donc inutile) .

Toute l'énergie consommée par les CPU est convertie en chaleur! Principe physique de base : rien ne se perd, rien ne se créé, tout se transforme. Ici y'a pas de mouvement, d'émission de lumière etc... soit l'énergie ressort (courant électrique vers le reste du PC), soit elle est consommé, et ressort sous forme de chaleur.
 
Le TDP n'est pas une consommation mesurée, et n'est jamais atteint (encore heureux!). C'est une indication du dégagement thermique que doit pouvoir supporter le système de refroidissement ; il y a donc une marge énorme avec ce qui sort vraiment des CPUs.

n°6814069
poiuytr
\o/
Posté le 25-01-2009 à 18:07:24  profilanswer
 

Je suis tombé sur un article dans Joystick parlant d'une nouveauté de DX11 : WARP
Et elle concerne Larrabee indirectement...
 
"DirectX, c'est un peu comme le pays de Candy. On rigole, on pleure et on rit beaucoup quand on voit à quel point DX10 a été à peu près tout sauf la révolution prévue. Parce que Vista a été majoritairement rejeté par les joueurs. Cela n'aura pas emplêché les amis de Bill de faire un tas de choses bien pour la version 11. Il y a d'abord la question de la compatibilité avec les vieilles cartes 3D (toutes celles dans le commerce actuellement en fait). La bonne nouvelle : elles sont toutes compatibles DX11. En soi, ça ne veut pas dire grand chose, alors précisons : avec DX10, les cartes 3D "DX10" étaient considérées à part de toutes les autres. Ce qui obligeaient nos amis développeurs de jeux à faire deux fois le boulot et ce qui explique pourquoi un tas de jeux ont deux exécutables pour DX9 et DX10.
 
Tout ça c'est fini avec DX11 : les programmeurs n'auront plus qu'à faire une seule version de leur jeu, qui marchera sur toutes les cartes. L'adaptation se faisant automatiquement selon les capacités de votre carte. Là où c'est révolutionnaire, c'est que cela veut dire que les nouveautés de DX11 profiteront à toutes les cartes. Y compris l'arrivée du multithreading [...].
L'autre grosse nouveauté et baptisée WARP (Windows Advanced Rasterization Platform). Cela ressemble presque à une blague, il s'agit d'un petit pilote virtuel capable d'utiliser votre CPU pour remplacer une carte 3D. Quel intérêt ? Il y en a plusieurs. A court terme, l'idée est d'avoir un plan B pour ceux qui n'ont pas de carte graphique. Comme Windows 7 utilisera DirectX pour faire un tas de chose, il faut que cela marche pour tout le monde.
Cela fonctionne aussi pour les jeux. Microsoft a fait une démonstration sous Crysis : en 800 x 600 dans le mode graphique le moins élevé, on atteint 8 fps avec un Core i7. C'est à la fois peu et beaucoup. Clairement, cela ne vous permettra pas d'économiser un bras pour changer de carte 3D, mais pour votre petite soeur qui joue aux Sims...
 
On se pose aussi deux questions sur l'avenir.
D'abord, qu'est-ce que cela veut dire pour les futurs CPU à coeur graphique intégré ? Vont-ils disparaitre (oui, d'ici deux générations d'après nos sources) ?
Et derrière WARP, n'y a-t-il pas un cadeau énorme fait à Intel qui prépare une carte graphique basée sur un gros tas de coeurs de processeurs classiques ? Et qui vient de voir le temps de développement de ses pilotes réduit à 0 ?
"
 
On ne devrait donc pas avoir de problème de pilote sur Larrabee. :D


---------------

n°6814090
Profil sup​primé
Posté le 25-01-2009 à 18:17:40  answer
 

Pas de perfs. <> pas de probs. [:toto408]

n°6814093
Sat45
ÉcouTeSA
Posté le 25-01-2009 à 18:20:34  profilanswer
 

Fantryt a écrit :

Pour moi, le TDP, c'est la consommation totale du CPU : à savoir, l'énergie qui est utilisée par le CPU et l'énergie qui est transformée en chaleur (et donc inutile) .
 
Pour remédier à ce problème, il suffirait de modifier la constitution des transistors pour que ceux-ci ne laissent passer aucune fuite de courant :) cela résulterait donc d'un dégagement thermique nul et d'une consommation en forte baisse sauf pour les overclockeurs qui n'hésiteront sûrement pas à dépasser 20GHz ... reste à voir ensuite la tension que le CPU peut supporter :o


 
Toi t'a sécher tes cours de physiques :D


---------------
106R / / / 1300 POWAAAA !!!  /!\ ~ TeSA - Séda c'est çà session ~ /!\
n°6815679
Fantryt
Posté le 26-01-2009 à 18:26:57  profilanswer
 

Sat45 a écrit :


 
Toi t'a sécher tes cours de physiques :D


 
Surtout que j'ai un prof qui fait que parler ... genre il fait un roman pour expliquer un truc qui tient dans une phrase :D J'ai donc un peu de mal à suivre
Mais de toute manière, je sais pô c'qu'e c'est à proprement parler un TDP, je suis encore en 3e :)

n°6815680
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 26-01-2009 à 18:28:08  profilanswer
 

Un volontaire pour l'éclairer ?


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°6815685
Profil sup​primé
Posté le 26-01-2009 à 18:29:53  answer
 

Thermal Design Power
 
Soit le niveau de dissipation requis (pour un ventirad par exemple dans notre cas)


Message édité par Profil supprimé le 26-01-2009 à 18:31:00
n°6815703
Fantryt
Posté le 26-01-2009 à 18:38:18  profilanswer
 

poiuytr a écrit :

Je suis tombé sur un article dans Joystick parlant d'une nouveauté de DX11 : WARP
Et elle concerne Larrabee indirectement...
 
"DirectX, c'est un peu comme le pays de Candy. On rigole, on pleure et on rit beaucoup quand on voit à quel point DX10 a été à peu près tout sauf la révolution prévue. Parce que Vista a été majoritairement rejeté par les joueurs. Cela n'aura pas emplêché les amis de Bill de faire un tas de choses bien pour la version 11. Il y a d'abord la question de la compatibilité avec les vieilles cartes 3D (toutes celles dans le commerce actuellement en fait). La bonne nouvelle : elles sont toutes compatibles DX11. En soi, ça ne veut pas dire grand chose, alors précisons : avec DX10, les cartes 3D "DX10" étaient considérées à part de toutes les autres. Ce qui obligeaient nos amis développeurs de jeux à faire deux fois le boulot et ce qui explique pourquoi un tas de jeux ont deux exécutables pour DX9 et DX10.
 
Tout ça c'est fini avec DX11 : les programmeurs n'auront plus qu'à faire une seule version de leur jeu, qui marchera sur toutes les cartes. L'adaptation se faisant automatiquement selon les capacités de votre carte. Là où c'est révolutionnaire, c'est que cela veut dire que les nouveautés de DX11 profiteront à toutes les cartes. Y compris l'arrivée du multithreading [...].
L'autre grosse nouveauté et baptisée WARP (Windows Advanced Rasterization Platform). Cela ressemble presque à une blague, il s'agit d'un petit pilote virtuel capable d'utiliser votre CPU pour remplacer une carte 3D. Quel intérêt ? Il y en a plusieurs. A court terme, l'idée est d'avoir un plan B pour ceux qui n'ont pas de carte graphique. Comme Windows 7 utilisera DirectX pour faire un tas de chose, il faut que cela marche pour tout le monde.
Cela fonctionne aussi pour les jeux. Microsoft a fait une démonstration sous Crysis : en 800 x 600 dans le mode graphique le moins élevé, on atteint 8 fps avec un Core i7. C'est à la fois peu et beaucoup. Clairement, cela ne vous permettra pas d'économiser un bras pour changer de carte 3D, mais pour votre petite soeur qui joue aux Sims...
 
On se pose aussi deux questions sur l'avenir.
D'abord, qu'est-ce que cela veut dire pour les futurs CPU à coeur graphique intégré ? Vont-ils disparaitre (oui, d'ici deux générations d'après nos sources) ?
Et derrière WARP, n'y a-t-il pas un cadeau énorme fait à Intel qui prépare une carte graphique basée sur un gros tas de coeurs de processeurs classiques ? Et qui vient de voir le temps de développement de ses pilotes réduit à 0 ?
"
 
On ne devrait donc pas avoir de problème de pilote sur Larrabee. :D


 
Ah, ah, ah ... :o  Tu crois donc que Larrabee sera une révolution assez grande pour bouleverser tout le continent informatique ? Et que les annonces de Microsoft sont suffisantes pour se dire : "Ça y est, ils ont réussi !" ? Détrompes-toi ! Concernant Larrabee, l'émulation DirectX devrait plutôt être médiocre durant quelques mois au minimum (il semblerait que la puce soit spécialisée dans le RayTracing, nomme-moi un jeu compatible pour voir) . Et concernant Microsoft, saches que leur tentative de "rétrocompatibilité universelle" sera elle aussi carrément nulle et inutile, car les cartes graphiques conçues pour DX9 seront très bridées pour pouvoir faire du DX11 . Quand à l'utilité de transformer un CPU en GPU, ben ... c'est utile quand tu as une puce Larrabee, dans l'autre cas tu achètes une carte graphique sauf si tu veux jouer avec la résolution de ta Nintendo DS ...

n°6815710
marllt2
Posté le 26-01-2009 à 18:43:26  profilanswer
 

Allez hop, dé-drapal. http://forum-images.hardware.fr/themes_static/images_forum/1/multipleflag0.gif

n°6815811
tfpsly
Sly
Posté le 26-01-2009 à 19:24:57  profilanswer
 

Fantryt a écrit :

Concernant Larrabee, l'émulation DirectX devrait plutôt être médiocre durant quelques mois au minimum (il semblerait que la puce soit spécialisée dans le RayTracing, nomme-moi un jeu compatible pour voir).

Non
http://home.comcast.net/~tom_forsyth/blog.wiki.html (18 April 2008 - Larrabee and raytracing)
https://mollyrocket.com/forums/view [...] 39421e7e98

 

Larrabee n'a AUCUN moteur de rendu par raytracing. Au contraire le rendu par moteur 3d software pour compatibilité D3D et OGL est très probablement la priorité, pour démontrer la puissance du bazard.


Message édité par tfpsly le 26-01-2009 à 19:26:25
n°6817615
Fantryt
Posté le 27-01-2009 à 19:29:58  profilanswer
 

Toute news qui date de plus de 6 mois est par définition erronée :D  
 
http://fr.wikipedia.org/wiki/Larrabee
 

Citation :

Larrabee est sensé faire du DirectX, de l'OpenGL et du raytracing en temps réel.


 
Nous avions tous les deux raison : Larrabee supportera DX et le RayTracing en plus d'OpenGL .

n°6817637
tfpsly
Sly
Posté le 27-01-2009 à 19:39:04  profilanswer
 

Fantryt a écrit :

Toute news qui date de plus de 6 mois est par définition erronée :D http://fr.wikipedia.org/wiki/Larrabee

Citation :

Larrabee est sensé faire du DirectX, de l'OpenGL et du raytracing en temps réel.

Nous avions tous les deux raison : Larrabee supportera DX et le RayTracing en plus d'OpenGL .

Non : http://en.wikipedia.org/wiki/Larrabee_(GPU)
Et non, Wiki n'est pas la vérité absolue! Et tu remarqueras que cette phrase a été ajoutée le 14 janvier sans aucune source : http://fr.wikipedia.org/w/index.ph [...] d=35970792 ; elle part à la poubelle.

Message cité 2 fois
Message édité par tfpsly le 27-01-2009 à 19:40:47
n°6817643
tfpsly
Sly
Posté le 27-01-2009 à 19:43:42  profilanswer
 

Tient je n'avais pas vu ça sur les perfs :

Citation :

Intel's SIGGRAPH 2008 paper describes simulations of Larrabee's projected performance.[7] Graphs show how many 1 GHz Larrabee cores are required to maintain 60 FPS at 1600x1200 resolution in several popular games. Roughly 25 cores are required for Gears of War with no antialiasing, 25 cores for F.E.A.R with 4x antialiasing, and 10 cores for Half-Life 2: Episode 2 with 4x antialiasing. It is likely that Larrabee will run faster than 1 GHz, so these numbers are conservative.[13] Another graph shows that performance on these games scales nearly linearly with the number of cores up to 32 cores. At 48 cores the performance scaling is roughly 90% of linear.

n°6818567
ssx99harlo​ck
Posté le 28-01-2009 à 10:58:41  profilanswer
 

tfpsly a écrit :

Tient je n'avais pas vu ça sur les perfs :

Citation :

Intel's SIGGRAPH 2008 paper describes simulations of Larrabee's projected performance.[7] Graphs show how many 1 GHz Larrabee cores are required to maintain 60 FPS at 1600x1200 resolution in several popular games. Roughly 25 cores are required for Gears of War with no antialiasing, 25 cores for F.E.A.R with 4x antialiasing, and 10 cores for Half-Life 2: Episode 2 with 4x antialiasing. It is likely that Larrabee will run faster than 1 GHz, so these numbers are conservative.[13] Another graph shows that performance on these games scales nearly linearly with the number of cores up to 32 cores. At 48 cores the performance scaling is roughly 90% of linear.



 
J'ai vraiment hâte de voir le bouzin tourner ! :)
AMHA c'est une petit révolution dans la fourmillière qui approche doucement là... [:wark0]
 
 
 
 

n°6818940
Fantryt
Posté le 28-01-2009 à 13:51:08  profilanswer
 

tfpsly a écrit :

Non : http://en.wikipedia.org/wiki/Larrabee_(GPU)
Et non, Wiki n'est pas la vérité absolue! Et tu remarqueras que cette phrase a été ajoutée le 14 janvier sans aucune source : http://fr.wikipedia.org/w/index.ph [...] d=35970792 ; elle part à la poubelle.


 
Comme tu le souligne (enfin, plutôt moi), Wikipedia n'est pas la référence la plus juste :D Donc le Wiki anglais n'est pas mieux :D  
 
Question bête, mais, Larrabee sera compatible 64bits ?

n°6819011
bjone
Insert booze to continue
Posté le 28-01-2009 à 14:13:55  profilanswer
 

Tu veux dire marchera sur un OS 64 bits (pas de problèmes évidemment), ou sera intrinsèquement capable de faire tourner du code x86-64 ?
 
Intrinsèquement, il est vrai que les cartes actuelles ont déjà 1Go de ram, donc un adressage local 32bits pourrait rapidement faire une murale.
 
De plus sur le long termes un combo quad/octocore générique+forêt de larrabees (comme The Mad avait imaginé a un moment) nécessiterait d'être 64bits pour avoir une intégration élégante (sans tricher par du dma, hein le cell... ) .
 
Une Xboite avec un tel desgin pourrait me faire aimer les consoles tiens :D

n°6820530
tfpsly
Sly
Posté le 29-01-2009 à 06:07:32  profilanswer
 

Larrabee est basé sur les premier Pentium, donc probablement pas. Au pire il suffit de prendre le bus d'adressage 36 bits des Pentium-Pro et suivant, permettant de gérer 64gb. De quoi voir venir avant d'avoir besoin de plus grand ;)
Et qui dit bus plus large dit carte plus chère à fabriquer.

n°6820773
Sat45
ÉcouTeSA
Posté le 29-01-2009 à 11:04:42  profilanswer
 

tfpsly a écrit :

Non : http://en.wikipedia.org/wiki/Larrabee_(GPU)
Et non, Wiki n'est pas la vérité absolue! Et tu remarqueras que cette phrase a été ajoutée le 14 janvier sans aucune source : http://fr.wikipedia.org/w/index.ph [...] d=35970792 ; elle part à la poubelle.


 
N'empeche que quand on clic sur Raytracing dans wiki on tombe donc sur sa définition ou on y voit
 

Citation :

L'accélération matérielle par des cartes accélératrices dédiées n'est que très rarement utilisée, mais une interface de programmation existe : OpenRT. De plus Intel a promis que son projet Larrabee[1] accélèrerait matériellement le lancer de rayon (raytracing)


 
:P


---------------
106R / / / 1300 POWAAAA !!!  /!\ ~ TeSA - Séda c'est çà session ~ /!\
n°6820822
bjone
Insert booze to continue
Posté le 29-01-2009 à 11:34:03  profilanswer
 

Oui il accélère matériellement le raytracing tout comme ton CPU le fait.
Le principal interêt de Larabee c'est que tu pourras mélanger tous les paradigmes de synthétisation d'image (comme c'est beau :D).
Le raytracing en lui même n'est pas une garantie de photoréalisme.
 

Message cité 1 fois
Message édité par bjone le 29-01-2009 à 11:42:56
n°6820836
bjone
Insert booze to continue
Posté le 29-01-2009 à 11:42:22  profilanswer
 

tfpsly a écrit :

Larrabee est basé sur les premier Pentium, donc probablement pas. Au pire il suffit de prendre le bus d'adressage 36 bits des Pentium-Pro et suivant, permettant de gérer 64gb. De quoi voir venir avant d'avoir besoin de plus grand ;)
Et qui dit bus plus large dit carte plus chère à fabriquer.


 
C'est plus l'aspect interne (GPR/ALU entières), du PAE style me paraitrait gênant pour du rendu.
Donc il serait logique d'avoir du 64bits entier en interne, et je pense que comme pour les premiers CPUs 64bits, la largeur du bus d'adresse réellement cablé (avec des pins) sera en accordance avec les capacitées mémoire du moment. (ie un a64 a de mémoire 54bits au niveau VM et 48bits au niveau bus adresse)
Déjà le bus externe de donnée devra très certainement être de 256/512 bits pour générer des dizaines/centaines de Go/s (sinon ça va être dur de tenir la dragée a un GPU compétitif en prix).


Message édité par bjone le 29-01-2009 à 13:29:10
n°6821001
tfpsly
Sly
Posté le 29-01-2009 à 13:04:07  profilanswer
 

Sat45 a écrit :

N'empeche que quand on clic sur Raytracing dans wiki on tombe donc sur sa définition ou on y voit

Citation :

L'accélération matérielle par des cartes accélératrices dédiées n'est que très rarement utilisée, mais une interface de programmation existe : OpenRT. De plus Intel a promis que son projet Larrabee[1] accélèrerait matériellement le lancer de rayon (raytracing)


Source de cette phrase dans la page Wiki : http://www.presence-pc.com/actuali [...] bee-22866/ citant http://www.matbe.com/articles/lire [...] n-des-gpu/ ; les deux datent de 2007, aucune notion de raytracing abordée. Du grand n'importe quoi donc, le type qui a rajouté cette phrase a complètement fumé!

n°6821024
Sat45
ÉcouTeSA
Posté le 29-01-2009 à 13:14:59  profilanswer
 

Comment tu fais pour afficher la page avec les sources ? :whistle:


---------------
106R / / / 1300 POWAAAA !!!  /!\ ~ TeSA - Séda c'est çà session ~ /!\
n°6821025
Fantryt
Posté le 29-01-2009 à 13:16:09  profilanswer
 

bjone a écrit :

Oui il accélère matériellement le raytracing tout comme ton CPU le fait.
Le principal interêt de Larabee c'est que tu pourras mélanger tous les paradigmes de synthétisation d'image (comme c'est beau :D).
Le raytracing en lui même n'est pas une garantie de photoréalisme.
 


 
Tout dépendra du moteur graphique utilisé, et de la définition . Actuellement, nous voyons par nos yeux avec une définition qui doit dépasser le million du milliard de pixels :D , chacun d'entre eux équivalent à un photon ...
 
Du vrai photoréalisme quand les écrans de 30" auront une fréquence de 1GHz et une résolution de 1 512 256 * 896 128 ... :D  :D  :D

n°6821038
Sat45
ÉcouTeSA
Posté le 29-01-2009 à 13:19:51  profilanswer
 

Et quand on aura tous un supercalcultateur a la maison [:tinostar]

Message cité 1 fois
Message édité par Sat45 le 29-01-2009 à 13:19:57

---------------
106R / / / 1300 POWAAAA !!!  /!\ ~ TeSA - Séda c'est çà session ~ /!\
n°6821043
bjone
Insert booze to continue
Posté le 29-01-2009 à 13:21:25  profilanswer
 

Fantryt a écrit :


 
Tout dépendra du moteur graphique utilisé, et de la définition . Actuellement, nous voyons par nos yeux avec une définition qui doit dépasser le million du milliard de pixels :D , chacun d'entre eux équivalent à un photon ...
 
Du vrai photoréalisme quand les écrans de 30" auront une fréquence de 1GHz et une résolution de 1 512 256 * 896 128 ... :D  :D  :D


 
Sans parler de résolution écran, ou de pouvoir de résolution de l'oeil, le raytracing en lui même est insuffisant et ne garanti rien. Tu as des moteurs actuels qui sont plus photoréalistes par rasterisation que des rendus primitifs par raytracing.
 
L'interêt du Larrabee n'est pas dans le raytracing, il est dans le fait qu'il n'est pas restreint en termes de solutions d'approximations.


Message édité par bjone le 29-01-2009 à 13:22:40
n°6821044
tfpsly
Sly
Posté le 29-01-2009 à 13:21:51  profilanswer
 

Sat45 a écrit :

Comment tu fais pour afficher la page avec les sources ? :whistle:

Je click sur le petit "1" à coté de la phrase sur Larrabee dans la page Raytracing ?
EDIT: la page a été éditée, la version dont parlait Sat45 étant celle-ci

Message cité 1 fois
Message édité par tfpsly le 29-01-2009 à 13:27:24
n°6821046
Fantryt
Posté le 29-01-2009 à 13:22:36  profilanswer
 

Sat45 a écrit :

Et quand on aura tous un supercalcultateur a la maison [:tinostar]


 
Trop tard, ça existe déjà, malheureusement réservé aux professionnels ...
http://www.carri.com/html/supercal [...] _tesla.htm
Et Intel a réagi avec Larrabee :)

n°6821062
Sat45
ÉcouTeSA
Posté le 29-01-2009 à 13:27:29  profilanswer
 

tfpsly a écrit :

Je click sur le petit "1" à coté de la phrase sur Larrabee dans la page Raytracing ?


Ah oui peut etre [:cupra]
 

Fantryt a écrit :


 
Trop tard, ça existe déjà, malheureusement réservé aux professionnels ...
http://www.carri.com/html/supercal [...] _tesla.htm
Et Intel a réagi avec Larrabee :)


je me corrige alors.
 
"Quand y'aura des supercalculateur accessible a Mr tout le monde" :D


---------------
106R / / / 1300 POWAAAA !!!  /!\ ~ TeSA - Séda c'est çà session ~ /!\
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13  14  15  16

Aller à :
Ajouter une réponse
 

Sujets relatifs
Baisse de prix intel le 21 Juillet.Température procceseur Intel
Baisse des prix INTEL du 20 JuilletLe ventirad de l'Intel box est il silencieux ?
Performance : Drivers pour chipset intel P45 (P5Q XXX et autres)Intel Q 9450 & carte(s) mère ASUS = CHALEUR!(?)
[Topic Unique] ATI Radeon HD 5800 et 5900 Series (RV870 inside)Màj de mon ancienne config, qu'en pensez vous ?
Plus de sujets relatifs à : [Topic unique] INTEL Larrabee - MAJ 05/12/2009


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR