Forum |  HardWare.fr | News | Articles | PC | Prix | S'identifier | S'inscrire | Shop Recherche
1913 connectés 

 


 

Intel semble vouloir bouleverser le marché de la carte graphique. Mais entre les volontés du fondeur et celles du consommateur, où vous placez vous dans vos attentes d'une carte graphique ?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter
Les invités peuvent voter

 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13  14  15  16
Auteur Sujet :

[Topic unique] INTEL Larrabee - MAJ 05/12/2009

n°6552789
sasuke87
Posté le 21-08-2008 à 11:10:19  profilanswer
 

Reprise du message précédent :
Intel aussi aura son "TWIMTBP" :http://www.pcinpact.com/actu/news/ [...] 7#c1762657
 
ça va faire mal, vu le budget corruption optimisation d'Intel  :lol:


Message édité par sasuke87 le 21-08-2008 à 11:10:43
mood
Publicité
Posté le 21-08-2008 à 11:10:19  profilanswer
 

n°6553813
josedsf
Posté le 21-08-2008 à 18:48:40  profilanswer
 

Dans la série Boule de cristal, Jon Stokes de Ars table sur 20% de perfs en moins pour le Larabee par rapport à l'équivalent GPU hardware Nvidia HDG sous Direct X :
http://arstechnica.com/articles/pa [...] erview.ars
 
La console PS4 serait en outre visée.


Message édité par josedsf le 21-08-2008 à 18:49:28

---------------
Guide cpu/ DrK@jose99m
n°6553916
dragonlore
Posté le 21-08-2008 à 19:50:13  profilanswer
 

josedsf a écrit :

Dans la série Boule de cristal, Jon Stokes de Ars table sur 20% de perfs en moins pour le Larabee par rapport à l'équivalent GPU hardware Nvidia HDG sous Direct X :
http://arstechnica.com/articles/pa [...] erview.ars
 
La console PS4 serait en outre visée.


 
comme d'autres rumeurs parlent d'un gpu intel dans la xbox 3 au final tout se contredit mais bo nintel sera surement dans la prochaine console car ce sera une bonne occasio nd'imposer le ray tracing dans les jeux vidéos en plus du pc


Message édité par dragonlore le 21-08-2008 à 19:50:22
n°6553926
tfpsly
Sly
Posté le 21-08-2008 à 19:59:47  profilanswer
 

Citation :

On a related note, I've also heard that Sony has learned its lesson about foisting hard-to-program architectures on console developers, only to watch them target cross-platform ports at the lower common hardware denominator

C'est qui ce con? Sony n'a fait et continue à ne faire que des consoles avec des architectures, disons, "particulières". La PS3 ne change rien là dessus, ni ne les fera changer d'avis.

n°6554007
Geniefou
Génie le jour, fou la nuit
Posté le 21-08-2008 à 20:59:52  profilanswer
 

marllt2 a écrit :

http://www.hardware.fr/news/9887/i [...] rabee.html
 

Citation :

Lors d'une table ronde, Pat Gelsinger, Senior Vice President Enterprise Group d'Intel, nous a réaffirmé, sans ambiguïté possible, les prétentions d'Intel avec Larrabee : prendre la tête du marché GPU haut de gamme.  
 
Et de préciser que cela signifie bel et bien de dépasser en performances les GPUs de Nvidia et d'AMD qui seront disponibles à ce moment-là, et ce dans les modes Direct3D et OpenGL !  
 
[...] et précise par ailleurs qu'une fois utilisé en mode natif il laissera sur place les GPUs.



 
ils sont pas très optimiste chez Intel  :whistle:  
 

metha a écrit :

Ils en ont les moyens c sur, en gros ils ont la technologie, ils ont l'envie, il ne leur manque plus que de réussir et je leur souhaite vraiment d'y  arriver.
Mais si jamais ils arrive à tenir  la dragée haute à Ati et Nvidia avec leur 1er """"GPU"""" haut de gamme, la franchement bravo :jap: :jap:


 
et si leur larrabee est vraiment un produit haut de gamme comparable à Nvidia ainsi qu'à AMD, je n'essaye même pas d'imaginer le prix :pt1cable:


---------------
un vrai geek croit que dans 1 kilomètre il y a 1024 mètres et que dans 1 mètre il y a 1024 millimètres
n°6554241
josedsf
Posté le 21-08-2008 à 23:12:33  profilanswer
 

tfpsly a écrit :

Citation :

On a related note, I've also heard that Sony has learned its lesson about foisting hard-to-program architectures on console developers, only to watch them target cross-platform ports at the lower common hardware denominator

C'est qui ce con? Sony n'a fait et continue à ne faire que des consoles avec des architectures, disons, "particulières". La PS3 ne change rien là dessus, ni ne les fera changer d'avis.


héhé, c'est celui qui fait les articles de vulgarisation (à mon sens assez bien faits) sur les cpu
http://arstechnica.com/authors.ars/hannibal
http://arstechnica.com/articles/paedia/cpu.ars


---------------
Guide cpu/ DrK@jose99m
n°6554301
Zeross
Posté le 21-08-2008 à 23:45:46  profilanswer
 

tfpsly a écrit :

Citation :

On a related note, I've also heard that Sony has learned its lesson about foisting hard-to-program architectures on console developers, only to watch them target cross-platform ports at the lower common hardware denominator

C'est qui ce con? Sony n'a fait et continue à ne faire que des consoles avec des architectures, disons, "particulières". La PS3 ne change rien là dessus, ni ne les fera changer d'avis.


 
La PS ou la PSP sont des architectures relativement classiques pour leurs époques respectives, nettement plus simple que leurs concurrentes (Saturn et DS qui sont vraiment tarabiscotées) donc on peut pas être catégorique.

n°6554545
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 22-08-2008 à 05:16:34  profilanswer
 
n°6554557
tfpsly
Sly
Posté le 22-08-2008 à 07:31:24  profilanswer
 

Zeross a écrit :

La PS ou la PSP sont des architectures relativement classiques pour leurs époques respectives, nettement plus simple que leurs concurrentes (Saturn et DS qui sont vraiment tarabiscotées) donc on peut pas être catégorique.

Question 3D, la PSP et la DS se valent en terme d'API. Les différences : la DS a des limitations arbitraires très basses en nombre de polygones et scanlines affichables, alors que la PSP brille par son incroyable absence de clipping, un vrai retour technologique en arrière.

 

Pour PS1 vs Saturn, je ne peux me prononcer.

 

Par contre les PS2 et PS3 brillent par leur complexité vs concurrence.

Message cité 1 fois
Message édité par tfpsly le 22-08-2008 à 07:31:57
n°6555295
Zeross
Posté le 22-08-2008 à 14:20:36  profilanswer
 

tfpsly a écrit :

Question 3D, la PSP et la DS se valent en terme d'API. Les différences : la DS a des limitations arbitraires très basses en nombre de polygones et scanlines affichables, alors que la PSP brille par son incroyable absence de clipping, un vrai retour technologique en arrière.


 
Oui je pensais pas en termes d'API mais plus en termes de hardware, la DS est quand même sacrément bizarre avec ses différentes banques mémoires que le programmeur peut dédier à certaines tâches, sa limite en nombre de polys par frame comme tu dis et la quasi obligation de faire le rendu à 60 fps sous peine d'avoir des gros artefacts de rendus.
 
Par contre je savais pas pour cette histoire de clipping sur PSP, sur PS2 je savais que le clipping se faisait sur l'EE, mais il me semblait qu'ils avaient un GPU un peu plus moderne sur la PSP, d'autant qu'il gère le T&L donc c'est bizarre... T'as plus d'infos ?
 

Citation :

Pour PS1 vs Saturn, je ne peux me prononcer.


 
Les avis sont unanimes et il suffit de regarder de plus près l'archi de la Saturn pour comprendre que ça devait être un sacré casse tête à programmer :
 
-2CPU SH2 : pas SMP non non ce serait trop facile là un est esclave de l'autre et a une priorité moindre dans l'accés à la RAM. Du coup pour compenser ils ont configuré son cache en Scratchpad RAM mais bon 2Ko c'est cheap
-1 SH1 comme contrôleur CD mais il est pas programmable directement.
-1 contrôleur de bus avec DMA : classique mais bon il intègre aussi un ptit DSP si jamais tu veux faire des calculs dessus
-VDP-1 pour les polygones/sprites
-VDP-2 pour les backgrounds et le display
-68EC00 : hop encore un CPU au cas où on en manquait
-SCSP : un DSP pour accélérer le traitement du son
 
4 CPU dont 3 programmables et 4 DSP.
 

Citation :

Par contre les PS2 et PS3 brillent par leur complexité vs concurrence.


 
Là aussi les avis sont unanimes, je suis d'accord même si la PS3 a quand même fait un pas en avant en utilisant un GPU standard, du coup tu peux quasi ignorer les SPU et avoir quelque chose qui tourne (trèèès lentement) alors que sur PS2 pas moyen d'y couper tu dois utiliser les VU (enfin le VU1 en tout cas)
 
Mais je suis un peu HS là ;)

mood
Publicité
Posté le 22-08-2008 à 14:20:36  profilanswer
 

n°6555314
tfpsly
Sly
Posté le 22-08-2008 à 14:29:16  profilanswer
 

Zeross a écrit :

Oui je pensais pas en termes d'API mais plus en termes de hardware, la DS est quand même sacrément bizarre avec ses différentes banques mémoires que le programmeur peut dédier à certaines tâches, sa limite en nombre de polys par frame comme tu dis et la quasi obligation de faire le rendu à 60 fps sous peine d'avoir des gros artefacts de rendus.

En effet pour les banks (héritage des GB SP/color/original). Par contre non, pas obligé de faire du 60 fps. 30 fps est tout à fait faisable (et fait :jap:).
 

Zeross a écrit :

Par contre je savais pas pour cette histoire de clipping sur PSP, sur PS2 je savais que le clipping se faisait sur l'EE, mais il me semblait qu'ils avaient un GPU un peu plus moderne sur la PSP, d'autant qu'il gère le T&L donc c'est bizarre... T'as plus d'infos ?

Simple : y'a pas de clipping de polygones, seulement du culling sur un frustum un peu plus large que la caméra. Et pas d'unité à la PS2 permettant d'exécuter le clipping hors du CPU. Donc y'a que 2 solutions, soit clipper sur le CPU (ralentit fortement), soit découper tous les triangles trop grands pour être sûr qu'ils rentrent dans la marge entre la caméra et le frustum de culling (assez gratuit, les perfs de rendu sur PSP n'étant pas trop limitées par le nombre de polygones mais principalement par le nombre de pixels).
 

Zeross a écrit :

Là aussi les avis sont unanimes, je suis d'accord même si la PS3 a quand même fait un pas en avant en utilisant un GPU standard, du coup tu peux quasi ignorer les SPU et avoir quelque chose qui tourne (trèèès lentement) alors que sur PS2 pas moyen d'y couper tu dois utiliser les VU (enfin le VU1 en tout cas)

Oui mais c'est suicidaire ça ;) Et impossible à corriger par la suite. Le moteur doit être pensé PS3 dès le début (ce qui est la raison pour laquelle les studios ont arrêté de développer d'abord sur X360 puis de porter sur PS3).

n°6555430
Zeross
Posté le 22-08-2008 à 15:15:19  profilanswer
 

tfpsly a écrit :

En effet pour les banks (héritage des GB SP/color/original). Par contre non, pas obligé de faire du 60 fps. 30 fps est tout à fait faisable (et fait :jap:).
 


 
Tout à fait c'est pour ça que j'avais mis "quasi", je voulais juste souligner le fait qu'il fallait que le programmeur le prévoit, si tu balances trop de polys et que tu t'attends à ce qu'au pire le rendu soit juste plus lent tu as une mauvaise surprise.
 

tfpsly a écrit :

Simple : y'a pas de clipping de polygones, seulement du culling sur un frustum un peu plus large que la caméra. Et pas d'unité à la PS2 permettant d'exécuter le clipping hors du CPU. Donc y'a que 2 solutions, soit clipper sur le CPU (ralentit fortement), soit découper tous les triangles trop grands pour être sûr qu'ils rentrent dans la marge entre la caméra et le frustum de culling (assez gratuit, les perfs de rendu sur PSP n'étant pas trop limitées par le nombre de polygones mais principalement par le nombre de pixels).
 


 
Intéressant, merci pour l'info :jap: je me demande comment ils en sont arrivés à un design comme ça encore... C'est sûr que le clipping c'est pas gratuit, les GPU récents utilisent des guard band region plus large que le frustum pour justement éviter de clipper trop de polys mais ils effectuent quand même un vrai clipping lorsque ça sort de cette région et qu'ils sont aussi dans la "vraie" clipping region. Alors que sur PSP visiblement dés qu'un vertex sort de la guard band region le triangle n'est pas rendu !

n°6555462
bjone
Insert booze to continue
Posté le 22-08-2008 à 15:24:49  profilanswer
 

intéressant toutes ces petites restrictions :)

n°6556003
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 22-08-2008 à 18:51:27  profilanswer
 

Si intel arrive à diviser par deux la conso électrique de son bébé d'ici sa sortie, ça serait fantastique !


---------------
~ Sondage sur un lieu d'apprentissage de l'autonomisme ~ Camping la ressource ; Le survivalisme accessible ~
n°6558998
-heat-
Posté le 24-08-2008 à 19:14:24  profilanswer
 

C'est censé sortir quand ce joujou au fait ?

n°6559002
sasuke87
Posté le 24-08-2008 à 19:16:08  profilanswer
 

Voilà ce qu'en pense nvidia: "Larrabee en 2010 proposera des performances proches des cartes Nvidia et AMD de 2006!"  :lol:  
 
http://www.puissance-pc.net/cartes [...] ?Itemid=49

n°6559062
w4r3zz
Posté le 24-08-2008 à 19:59:57  profilanswer
 

sasuke87 a écrit :

Voilà ce qu'en pense nvidia: "Larrabee en 2010 proposera des performances proches des cartes Nvidia et AMD de 2006!"  :lol:  
 
http://www.puissance-pc.net/cartes-graphiques/quand-nvidia-parle-du-larrabee.html?Itemid=49


Ouai , intel a un peu trop fumé le jour de la déclaration que le larrabee exploserait le rv770 et GT200  :lol:

n°6559136
marllt2
Posté le 24-08-2008 à 20:44:08  profilanswer
 

nVidia n'a pas vu venir les perfs du RV770, et ils dissertent sur un chip novateur qui doit sortir dans 18 mois...
 
Puis intel ne parle pas que du scaling, mais dit bien qu'ils vont dépasser en perf nV et AMD (ils pensent sûrement aux GT300 et R800).

Message cité 1 fois
Message édité par marllt2 le 24-08-2008 à 20:45:34
n°6559553
m16
Posté le 25-08-2008 à 06:28:31  profilanswer
 

marllt2 a écrit :

nVidia n'a pas vu venir les perfs du RV770, et ils dissertent sur un chip novateur qui doit sortir dans 18 mois...
 
Puis intel ne parle pas que du scaling, mais dit bien qu'ils vont dépasser en perf nV et AMD (ils pensent sûrement aux GT300 et R800).


 
c'est pas faux.
 
..et mimun 6 mois a s'en remettre.(si le R800 ne lui fout pas une claque lui aussi :sol: )

n°6560791
vibroboy_f​r
Posté le 25-08-2008 à 18:45:27  profilanswer
 

je vais faire un gros HS mais je ne peux m' empecher d' avoir une poussée d' ego en voyant que ma gargouille (image page 2) est tjs utilisée pour des démos, 11 ans apres sa créa. Ca fait plaisir.
 
HS terminé
 
De mon coté meme si j' aime bien l' idée de voir Intel mettre les pieds dans le plat j' ai un peu peur quand meme. une bagarre ATI_Nvidia ça fait du bien au porte feuille, mais une guerre de technologie (rappel blueray vs HD-DVD) ça fait du mal au secteur car il va y avoir des clivages severes, surtout si intel décroche des contrats "consoles".


Message édité par vibroboy_fr le 25-08-2008 à 18:49:15
n°6560892
sapphire a​depte xd
Online : bisondacier
Posté le 25-08-2008 à 19:28:08  profilanswer
 

Cool j'savais pas que c'était de toi :p  
 
Tu as tout a fait raison mais bon faut aussi savoir que c'est le business et sa ne nous a pas empêché de vivre notre passion avec du matos abordable. Mais il est vrai que les ingé ont intéret à s'accrocher pour garder des GPUs performants et au niveau des autres, sinon un va couler direct et on va se retrouver avec deux concurrents comme maintenant mais sans doute pas les deux memes... :/

n°6561091
Geniefou
Génie le jour, fou la nuit
Posté le 25-08-2008 à 20:46:37  profilanswer
 

sapphire adepte xd a écrit :

Cool j'savais pas que c'était de toi :p  
 
Tu as tout a fait raison mais bon faut aussi savoir que c'est le business et sa ne nous a pas empêché de vivre notre passion avec du matos abordable. Mais il est vrai que les ingé ont intéret à s'accrocher pour garder des GPUs performants et au niveau des autres, sinon un va couler direct et on va se retrouver avec deux concurrents comme maintenant mais sans doute pas les deux memes... :/


 
ouais moi aussi je pense à celà... d'un certain côté que le géant de Santa Clara arrive dans ce marché soit bien car c'est un gros concurrent pour Nvidia et AMD donc ils vont se bouger le *** pour pas perdre mais d'un autre côté j'espère pas que Intel réussisse trop bien son Larrabe car il pourrait écraser tous le monde (AMD, Nvidia et bien d'autres) et Intel aura le monopole
donc les produits genres 260 GTX ou HD4870 (bons et pas chères) on peut leur dires au revoir [:sweatv]
 
 
 
Dans le fond... j'aimerais bien que Nvidia n'ait pas trop tord pour une fois avec son...  

Citation :

"Larrabee en 2010 proposera des performances proches des cartes Nvidia et AMD de 2006!"


---------------
un vrai geek croit que dans 1 kilomètre il y a 1024 mètres et que dans 1 mètre il y a 1024 millimètres
n°6561732
metha
Crévindious, didjiou la Marie!
Posté le 26-08-2008 à 07:17:32  profilanswer
 

Geniefou a écrit :


 
ouais moi aussi je pense à celà... d'un certain côté que le géant de Santa Clara arrive dans ce marché soit bien car c'est un gros concurrent pour Nvidia et AMD donc ils vont se bouger le *** pour pas perdre mais d'un autre côté j'espère pas que Intel réussisse trop bien son Larrabe car il pourrait écraser tous le monde (AMD, Nvidia et bien d'autres) et Intel aura le monopole
donc les produits genres 260 GTX ou HD4870 (bons et pas chères) on peut leur dires au revoir [:sweatv]
 
 
 
Dans le fond... j'aimerais bien que Nvidia n'ait pas trop tord pour une fois avec son...  

Citation :

"Larrabee en 2010 proposera des performances proches des cartes Nvidia et AMD de 2006!"



 
Vi un 3eme larron est une très bonne chose dans le monde du gpu (edit : très haut de gamme puisque Intel fait déjà dans le gpu de daube :D ), Ati et Nvidia seront obligé de se bouger, maintenant Intel a peut être une très bonne idée, avec une archi comme ça ils peuvent faire se qu'ils veulent semble t il, très souple, trop peut être ;) , bien vu pour les développateurs <= humour , mais vont ils s'y coller, certainement plus simplement qu'avec cuda, menfin qui vivra verra toussa


Message édité par metha le 26-08-2008 à 07:19:06

---------------
De l'humilité ? C'est pas quand il y a des infiltrations ?
n°6563024
Rayaki
Posté le 26-08-2008 à 20:07:19  profilanswer
 

Geniefou a écrit :


 
ouais moi aussi je pense à celà... d'un certain côté que le géant de Santa Clara arrive dans ce marché soit bien car c'est un gros concurrent pour Nvidia et AMD donc ils vont se bouger le *** pour pas perdre mais d'un autre côté j'espère pas que Intel réussisse trop bien son Larrabe car il pourrait écraser tous le monde (AMD, Nvidia et bien d'autres) et Intel aura le monopole
donc les produits genres 260 GTX ou HD4870 (bons et pas chères) on peut leur dires au revoir [:sweatv]


 
Je ne m'avancerai pas jusque là pour le moment...
Pour le moment, on n'a que des descriptifs courts de techno (32 coeurs à 2Ghz pour faire les 2 teraflops hypothetiques en simple précision soit le double des gpu actuels en simple coeur... joli mais les flops ne font pas tout, loin de là) et les habituels effets d'annonce de fabriquants !
 
le i740 devait déjà faire son trou dans l'univers graphique, on a vu ce que ca a donné...

Message cité 1 fois
Message édité par Rayaki le 26-08-2008 à 20:13:47

---------------
Clan Torysss.
n°6563067
Geniefou
Génie le jour, fou la nuit
Posté le 26-08-2008 à 20:39:38  profilanswer
 

Rayaki a écrit :


 
Je ne m'avancerai pas jusque là pour le moment...
Pour le moment, on n'a que des descriptifs courts de techno (32 coeurs à 2Ghz pour faire les 2 teraflops hypothetiques en simple précision soit le double des gpu actuels en simple coeur... joli mais les flops ne font pas tout, loin de là) et les habituels effets d'annonce de fabriquants !
 
le i740 devait déjà faire son trou dans l'univers graphique, on a vu ce que ca a donné...


 
bien sûr c'est que des suposition mais tu as compris ou je voulais en venir


---------------
un vrai geek croit que dans 1 kilomètre il y a 1024 mètres et que dans 1 mètre il y a 1024 millimètres
n°6564036
pelos83
Posté le 27-08-2008 à 13:06:31  profilanswer
 

ce que ca a donné le I740 : c etait une tres bonne carte et pas tres chere en plus,
le soucis c est qu il n y pas eu de successeur... comme chez ati/nvidia

n°6565571
darkorel
Posté le 28-08-2008 à 02:22:36  profilanswer
 

Hello, bon moi je n'y connais rien en rendu 3D, donc je m'adresse à ceux qui semblent connaitre, genre tfpsly ou bjones:
bon si j'ai à peu près suivi, le truc octree machin chose ça découpe l' objet 3d en cubes que l' on peu rendre super petit, et chaque cube aurait ses propres info à lui, genre texture, couleur.....
Ce que je ne pige pas bien, c'est en quoi c mieu? dans ma tête de néophyte ces petits cubes sont des objets en 3d, et ça me semble super lourd à calculer non?
et en quoi le modèle des polygones actuel est il limité?: vous dites que le truc des petits cubes ça fait des contours plus "rond", mais pour moi c' est le même principe que les triangles, ça reste de la fausse courbe vu que formé de plein de petits segments, pourquoi on ne fait pas de tout petits triangles alors? c'est juste une question de puissance du matériel à les calculer??( dailleur zavez vu les prévisions nvidia pour 2013, même si c'est loin : http://www.puissance-pc.net/cartes [...] ?Itemid=49 )  
 
Et finalement pourquoi changer de technique? Quand on voit crysis par exemple, les roues des véhicules sont quasiment rondes, les têtes des persos aussi,l' eau est nikel ainsi que le rendu global, donc ben heuuu voila quoi.


Message édité par darkorel le 28-08-2008 à 02:38:39
n°6565575
tfpsly
Sly
Posté le 28-08-2008 à 02:34:06  profilanswer
 

Les cubes n'ont pas de texture, juste une couleur, et de quoi calculer un éclairage (vecteur de la normale...). Ils ne permettent pas vraiment d'avoir plus de courbe non. Ces cubes sont stoqués hiérarchiquement, dans des cubes parents plus gros : les cubes de génération N donnant un rendu bien plus grossier que les cubes de génération N+1.

 

Et oui c'est lourd à calculer, c'est pourquoi aucune plateforme actuelle ne peut faire ce genre de calculs (à part peut-être les dernières Geforces et Larrabee). Par contre ces cubes ne sont pas des objets 3D, il n'y a aucun polygone, pas de cotés... L'affichage se fait en lançant des rayons de chaque pixel de la caméra à travers le SVO et de calculer quelle cube est touché et quelle est sa couleur.

 

Le gros avantage est qu'on n'est pas obligé de charger toute la géométrie pour l'affichage : pour ce qui est proche de la caméra on charge tous les détails jusqu'aux plus petits cubes ; mais pour les objets lointains, on ne charge que des niveaux de détails plus grossiers : Carmack a l'air de dire qu'il économise en mémoire (mouais à voir). Et quand la caméra se déplace, on streame depuis le disque dur ou le dvd/BR les niveaux de cubes plus détaillés dans les zones nécessaires.

 

Les plus petits cubes vus de loin sont plus petits que des pixels et donc inutiles, pas besoin de les charger.

 

Au final Carmack espère avoir un affichage bien plus détaillé, tout en ne faisant pas exploser les besoins mémoire.

 

Par contre je me demande ce qu'ils vont faire pour les objets animés et/ou en mouvement : mettre à jour le SVO comme a l'air de le dire Olik? Affichage traditionnel à base de polygones (ce que je ferai, même si ça nécessite un second moteur de rendu : un pour le terrain/décors et un pour les persos)?


Message édité par tfpsly le 28-08-2008 à 02:37:47
n°6565953
bjone
Insert booze to continue
Posté le 28-08-2008 à 12:36:49  profilanswer
 

il est vrai que pour un moteur de terrain cette technique a des avantages.
 
mais pour tout ce qui est non-naturel (objets techniques: voitures, structures) ça me parait inadapté vu que l'information est initialement polygonale / math (nurbs).
 
le skinning étant effectivement toujours un problème pour ce genre de trucs.


Message édité par bjone le 28-08-2008 à 12:37:12
n°6566095
darkorel
Posté le 28-08-2008 à 13:45:18  profilanswer
 

Bon ok pour la technique j'ai compris, merci tfpsly. Mais tu n'as pas répondu à ma question essentielle en fait: est ce que l explosion en terme de puissance et de quantité de mémoire embarquée prévue pour les années à venir ne permettent pas finalement de s'affranchir par exemple des limites que tu as cité au dessus? est ce qu'au final il ne faut pas tout simplement garder la technique de programmation la plus simple et la plus rapide en terme de durée de développement de jeux en comptant sur les capacités hardware à venir. Et d'ailleurs quelle est  justement la technique la plus simple à programmer (une foi le moteur 3D terminé), et ce à rendu graphique équivalent?

n°6566259
vibroboy_f​r
Posté le 28-08-2008 à 14:35:57  profilanswer
 

darkorel:
En fait tu introduis un nouveau facteur dans l' équation: avant on parlait que de puissance GPU, framrate dans une appli/jeux...La tu inclus la durée de dev des jeux et c' est un facteur important. La quantité de données inclut dans un jeu a été multiplié de façon factiorielle d' année en année depuis 30 ans mais les temps de dev eux sont tjs les memes (18 mois en moyenne)
Pour arriver a un tel degré de qualité 3d sans exploser les temps de prods (et les budgets meme si de ce point de vue ça explose aussi) l' avenir de la 3D est la tesselation. Deja connu depuis de nombreuses années en 3D conventionnelle (pour le cinéma et les cinématiques de jeu) l' idée est de pouvoir smoother les objets de façon hardware (pris en charge par le gpu, c' est d' ailleurs une feature centrale de dx11 et les cartes ati R600 et sup ont deja une unité hard pour cela mais non utilisée).
Le moteur de carmarck semble bien adaptée a cette philosophie car tesselation et génération de voxels sont identiques (fonctionnement par niveau d' itération/génération)
 
La méthode actuelle de programmation, adaptée a la tesselation implique de manipuler des millions de poly par objets, des milliards pour une scene... Impossible actuellement et difficile pour l' avenir surtout a cause de probleme de coup de dev du hardware, de la conso, etc  
Le but est de s' affranchir des coordonnées, de la transformation et du clipping par point pour se concentré sur une vision plus globale de la scene. C' est la clé pour passer a la prochaine étape en matiere de rendu visuel.

Message cité 1 fois
Message édité par vibroboy_fr le 28-08-2008 à 14:41:36
n°6566313
bjone
Insert booze to continue
Posté le 28-08-2008 à 15:15:10  profilanswer
 

tessellation ou pas le coût en année.homme augmentera toujours sur des titres AAA.

n°6566347
tfpsly
Sly
Posté le 28-08-2008 à 15:34:23  profilanswer
 

darkorel a écrit :

est ce qu'au final il ne faut pas tout simplement garder la technique de programmation la plus simple et la plus rapide

:lol: sauf que la technique traditionnelle est au contraire celle qui devient de plus en plus compliquée et lentes. Plus on veut un rendu réaliste avec les triangles et scanlines, plus le code devient compliqué et lent.
La proposition de Carmack est un nouveau départ, avec une méthode "simple" mais à paralléliser un max pour avoir des perfs correctes.

vibroboy_fr a écrit :

l' avenir de la 3D est la tesselation.

Tesseler = découper en figures de base = trianguler = old fation  [:yoskeletone] [:blessure]
La technique dont on parle est le Voxel, aka le V de SVO.


Message édité par tfpsly le 28-08-2008 à 15:37:13
n°6566351
vibroboy_f​r
Posté le 28-08-2008 à 15:38:50  profilanswer
 

Bjone je suis d' accord avec toi.
 
quand je disais tesselation je pensais surtout a l' introduction de zbrush et mudbox dans les pipelines de prod modernes mais je voulais pas etre trop technique. Donc je pensais plutot normal map, displacement sous le terme de tesselation hard.


Message édité par vibroboy_fr le 28-08-2008 à 15:39:29
n°6566397
darkorel
Posté le 28-08-2008 à 16:06:27  profilanswer
 

Pour moi tesselation c'est rapport à une unité présente dans le gpu de ma xbox 360, qui avait été imposée par microsoft à ati, et qui si je me souviens bien était faite pour " arrondir" les contours, encréant des "angles" de plus sur un contour par exemple, de façon "automatique".  
J ai bon ou je suis a côté de la plaque?

n°6566419
tfpsly
Sly
Posté le 28-08-2008 à 16:11:56  profilanswer
 

Tesselation = création de faces sur une figure. Donc trianguler un modèle à sa création sous Maya/Max. Ou le retrianguler dans les unités de tesselation des GPU.

n°6566434
darkorel
Posté le 28-08-2008 à 16:19:56  profilanswer
 

tfpsly a écrit :

Tesselation = création de faces sur une figure. Donc trianguler un modèle à sa création sous Maya/Max. Ou le retrianguler dans les unités de tesselation des GPU.


Oui donc j'ai bon, j ai ramené ça à une image plane "2D" pour faire plus simple, mais tu répond pas à ma question, est ce que cela est fait " automatiquement" par les unité de tesselations?

n°6566469
tfpsly
Sly
Posté le 28-08-2008 à 16:34:48  profilanswer
 

darkorel a écrit :

Oui donc j'ai bon, j ai ramené ça à une image plane "2D" pour faire plus simple[/quote]Dans quel poste as tu bon? Celui suivant mon explication des SVO? Non, puisqu'il n'y a plus de polygones ni tesselation ; que du ray casting.
[quotemsg=6566434,197,597727]mais tu répond pas à ma question, est ce que cela est fait " automatiquement" par les unité de tesselations?

T'avais pas posé cette question ;)
Non, faut utiliser des extensions.
Exemple : http://developer.amd.com/gpu_asset [...] angles.txt (pour R8500 je crois).


Message édité par tfpsly le 28-08-2008 à 16:36:35
n°6572708
charangobo​y
Posté le 01-09-2008 à 10:58:53  profilanswer
 

L'équipe de développement des pilotes pour Larrabee ne sera pas la même que pour ceux des IGP :
 

Citation :

Larrabee driver team is different from the IGP one
Written by Fuad Abazovic    
Monday, 01 September 2008 10:20
 
Thank God
 
Larrabee has at least one positive thing that surrounds this mystery product. This multi core mystery GPU / computational chip actually has its own driver team.
 
Intel is still not happy with the number of people that it has as it wants more. This driver will be the toughest part of Larrabee birth and we can assure you that this new Intel GPU attempt will have many driver issues. Just think for a second how many games is out on the market and how many new games will be out from today till 2010 when this chip allegedly has to arrive.
 
We are talking about tens of thousands of games that might have compatibility and speed problems but Intel will naturally focus on top 20 and try to make them as good as it possibly can.
 
This won’t change the fact that a semiconductor company never made money on its first chip and Intel’s 740i was a nice attempt that failed some ten years ago.


 
http://www.fudzilla.com/index.php? [...] 7&Itemid=1

n°6572714
alexreunio​n
Portez un masque
Posté le 01-09-2008 à 11:02:22  profilanswer
 

charangoboy a écrit :

L'équipe de développement des pilotes pour Larrabee ne sera pas la même que pour ceux des IGP :
 

Citation :

Larrabee driver team is different from the IGP one
Written by Fuad Abazovic    
Monday, 01 September 2008 10:20
 
Thank God
 
Larrabee has at least one positive thing that surrounds this mystery product. This multi core mystery GPU / computational chip actually has its own driver team.
 
Intel is still not happy with the number of people that it has as it wants more. This driver will be the toughest part of Larrabee birth and we can assure you that this new Intel GPU attempt will have many driver issues. Just think for a second how many games is out on the market and how many new games will be out from today till 2010 when this chip allegedly has to arrive.
 
We are talking about tens of thousands of games that might have compatibility and speed problems but Intel will naturally focus on top 20 and try to make them as good as it possibly can.
 
This won’t change the fact that a semiconductor company never made money on its first chip and Intel’s 740i was a nice attempt that failed some ten years ago.


 
http://www.fudzilla.com/index.php? [...] 7&Itemid=1


 
Fudzilla, roi du Troll en tout genre... :o


---------------
Mon feedback
n°6573022
m16
Posté le 01-09-2008 à 13:42:21  profilanswer
 

il disent tellement de connerie, que forcement sur le lot , yen aura une de vrai.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13  14  15  16

Aller à :
Ajouter une réponse
 

Sujets relatifs
Baisse de prix intel le 21 Juillet.Température procceseur Intel
Baisse des prix INTEL du 20 JuilletLe ventirad de l'Intel box est il silencieux ?
Performance : Drivers pour chipset intel P45 (P5Q XXX et autres)Intel Q 9450 & carte(s) mère ASUS = CHALEUR!(?)
[Topic Unique] ATI Radeon HD 5800 et 5900 Series (RV870 inside)Màj de mon ancienne config, qu'en pensez vous ?
Plus de sujets relatifs à : [Topic unique] INTEL Larrabee - MAJ 05/12/2009


Copyright © 1997-2018 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR