Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3417 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  909  910  911  ..  1004  1005  1006  1007  1008  1009
Auteur Sujet :

Graphical open bar (des infos, des intox, aux extraits de TheInq)

n°7215576
blazkowicz
Posté le 21-11-2009 à 11:22:06  profilanswer
 

Reprise du message précédent :

Gigathlon a écrit :


Mal foutu et inexploitable en l'état pour la mouture GPU.
 
C'est comme utiliser une DLL écrite en VB.NET/C# faisant des appels système dans un programme en C++: complètement absurde (accès système par le biais de la machine virtuelle dans un programme "natif" quand on pourrait simplement faire les accès système en C++...)
 
La mouture CPU n'est pas forcément mauvaise, mais sachant qu'on ne peut pas exploiter correctement l'unité la plus apte à réaliser ces calculs, il faut revoir complètement le concept.


 
la possibilité d'exécuter plusieurs kernels en même temps va probablement arranger les choses pour le physx, i.e. plus besoin de l'exécuter sur un second GPU pour avoir de bonnes perfs (ce qui jusqu'ici nie un peu l'intérêt du truc!)
http://www.hardware.fr/articles/77 [...] uting.html
 
pour ton autre post.. tu mentionnes les compute shaders en tant que partie du pipeline 3D.. moi qui croyait que leur intérêt c'est de ne pas en faire partie :D. je crois pas que ce soient des shaders.

mood
Publicité
Posté le 21-11-2009 à 11:22:06  profilanswer
 

n°7215658
Gigathlon
Quad-neurones natif
Posté le 21-11-2009 à 12:12:29  profilanswer
 

blazkowicz a écrit :

la possibilité d'exécuter plusieurs kernels en même temps va probablement arranger les choses pour le physx, i.e. plus besoin de l'exécuter sur un second GPU pour avoir de bonnes perfs (ce qui jusqu'ici nie un peu l'intérêt du truc!)
http://www.hardware.fr/articles/77 [...] uting.html
 
pour ton autre post.. tu mentionnes les compute shaders en tant que partie du pipeline 3D.. moi qui croyait que leur intérêt c'est de ne pas en faire partie :D. je crois pas que ce soient des shaders.


La gestion simultanée de plusieurs contexte est une chose, mais ça demandera toujours d'exporter et réimporter des données.
 
Pour les Compute Shaders, ils font bel et bien partie de Direct3D, par contre ils sont accompagnés de DirectCompute qui permet de les exploiter en dehors.

n°7215849
Oxygen3
Tears from the moon
Posté le 21-11-2009 à 14:30:04  profilanswer
 

Rafale06 a écrit :

Si j'ai bien compris la ram ECC ne sera pas dans les Geforces (désactivés ????) et on verra le reste par la suite ^^


 
Il semble surtout que la gestion ECC soit réalisée directement par Fermi et pas "par la RAM". Conséquence prévisible, les perfs mémoires seraient amputées en raison de la gestion "software" de l'ECC.
 
Du coup, sur une version "sans ECC" utilisée sur les GF, on pourrait récupérer une partie des perfs utilisées uniquement pour la gestion de l'ECC...
 
Spéculation, toussa :o


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°7215918
asmomo
Modérateur
Posté le 21-11-2009 à 15:27:49  profilanswer
 

Je crois pas que ça demande beaucoup de boulot l'ECC, c'est ultra simple, ça bouffe juste de la mémoire et ça ajoute des latences. Vu que les contrôleurs mémoire sont prévus pour, les latences devraient être assez bien masquées, j'ose espérer.


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°7215974
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 21-11-2009 à 16:23:51  profilanswer
 

mikestewart a écrit :

Enfin, du coup ça fait un titre sympa. :o


 
C'est bien le seul intérêt, oui.

n°7216273
0b1
There's good in him
Posté le 21-11-2009 à 19:52:16  profilanswer
 

Gigathlon a écrit :


La 2e édition est un pwal loufoque... :o
 
Quel fabricant de RAM irait faire des puces de GDDR5 spécifiquement pour Fermi? [:gratgrat]  
Mais qu'est-ce qu'on en a à foutre des "condensateurs de qualité supérieure"? :heink:  
Et en françois, ça donne quoi "Tesla cGPUs differ from GeForce with activated transistors that significantly increase the sustained performance, rather than burst mode"? :o


Pour l'Overclocking par exemple?

n°7216399
seu
Posté le 21-11-2009 à 22:12:16  profilanswer
 

il vont peut etre mettre en place un mode un peu comme le mode turbo d'intel....  
 
(profil 2D , 3D , 3D full charge?  ) afin de gerer au mieux la dissipation et la conso?

n°7216404
Gigathlon
Quad-neurones natif
Posté le 21-11-2009 à 22:16:25  profilanswer
 

0b1 a écrit :

Pour l'Overclocking par exemple?


Ca fait plus de 5 ans que c'est en place sur les cartes graphiques, même une antiquité de Radeon 9700 était en full solid caps... comme quand MSI parle de "condensateurs de qualité supérieure", c'est bien de ça qu'il s'agit, des condensateurs à électrolyte solide qualifiés à 105°C...
 
A croire que c'était une réponse au "pure ceramic capacitors" du slide vantant l'overclocking de la HD5970, tout aussi stupide.


Message édité par Gigathlon le 21-11-2009 à 22:17:31
n°7216520
asmomo
Modérateur
Posté le 22-11-2009 à 00:42:06  profilanswer
 

On parle de Tesla donc je sais pas ce qu'ils vont faire, mais c'est certainement pas pour l'OC ^^


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°7216595
bjone
Insert booze to continue
Posté le 22-11-2009 à 02:24:40  profilanswer
 

Gigathlon a écrit :


Faut pas rêver, c'est bien pour cette implémentation abracadabrantesque qu'ils l'ont acquis...
 
Maintenant on peut prendre un autre exemple: quel intérêt pourrait-on avoir à gérer les textures séparément de l'aspect géométrique d'un rendu? C'est exactement le même souci, c'est juste beaucoup plus parlant quand on parle de textures, mais un moteur physique a bel et bien pour objectif de lier un comportement à un objet au même titre qu'une texture, et il n'y a strictement aucune raison de sortir du pipeline 3D pour le faire => coucou tessellation/geometry shaders/compute shaders :hello:  
 
 
Au passage, j'ai bien ri en refaisant le tour des articles locaux sur CUDA... ils nous vendaient une possible utilisation des données du pipeline D3D, et au final ils viennent nous dire que Fermi permet une certaine abstraction du contexte d'exécution, ce qui sous-entend que CUDA nécessite un changement de contexte et rend leurs propos antérieurs limite mensongers.


 
Sans déconner, il serait temps que t'aille faire un peu de dev 3D ça te ferait du bien.

mood
Publicité
Posté le 22-11-2009 à 02:24:40  profilanswer
 

n°7216624
marllt2
Posté le 22-11-2009 à 05:54:28  profilanswer
 

marllt2 a écrit :

Hum, un mystérieux décompte "it's coming" vient de se déclencher :
 
http://www.evga.com/blackfriday/


1699,99 $  :pt1cable:  
 

Citation :

be first in line to get the next generation of graphics when they are released. Everyone that purchases this deal will have a special option to get a next-generation powered card at launch!


[:afrojojo]

n°7216644
Gigathlon
Quad-neurones natif
Posté le 22-11-2009 à 09:16:01  profilanswer
 

bjone a écrit :

Sans déconner, il serait temps que t'aille faire un peu de dev 3D ça te ferait du bien.


Tout ce que je vois, c'est que d'un point de vue conceptuel, le comportement physique d'un objet modélisé est à son squelette (ou plus d'ailleurs) ce qu'une texture procédurale est à une surface.
 
Après, que très peu de moteurs voire aucun moteur ne fonctionne de la sorte, ça n'est pas le problème, le fait est qu'il est bien plus logique de lier un compute shader que d'exporter des données pour en réimporter de nouvelles.

n°7216725
0b1
There's good in him
Posté le 22-11-2009 à 11:00:44  profilanswer
 

marllt2 a écrit :


1699,99 $  :pt1cable:  
 

Citation :

be first in line to get the next generation of graphics when they are released. Everyone that purchases this deal will have a special option to get a next-generation powered card at launch!


[:afrojojo]


Bah 1699.99$ pour une carte mère à 500~600$ + 4 x GPU à 300~400$ c'est pas trop cher.
C'est ce qui se fait de mieux sur nVIDIA à l'heure actuelle et eVGA est le seul à le proposer.
 
De plus ils proposent l'évolution vers le prochain GPU HDG nVIDIA.
Je trouve que c'est un super coup marketing.

n°7216760
blazkowicz
Posté le 22-11-2009 à 11:26:10  profilanswer
 

ya moins cher en carte-mère :whistle: mais après cela ne fait peut-être pas marcher quatre GTX285 en SLI.
http://www.topachat.com/pages/deta [...] ine=clubic
 
je suis "curieux", ou plutôt j'ai envie de me foutre de la gueule de quiconque achèterait ça pour jouer.. en toute probabilité le 4-way aura les perfs du 3-way.

n°7216801
0b1
There's good in him
Posté le 22-11-2009 à 11:48:39  profilanswer
 

blazkowicz a écrit :

ya moins cher en carte-mère :whistle: mais après cela ne fait peut-être pas marcher quatre GTX285 en SLI.
http://www.topachat.com/pages/deta [...] ine=clubic
 
je suis "curieux", ou plutôt j'ai envie de me foutre de la gueule de quiconque achèterait ça pour jouer.. en toute probabilité le 4-way aura les perfs du 3-way.


Oui y'a moins cher, d'un autre côté quelle carte mère permet de faire tourner 4 GTX285 ensemble?
A priori les test effectués sont positifs.

n°7217161
asmomo
Modérateur
Posté le 22-11-2009 à 15:16:05  profilanswer
 

marllt2 a écrit :

1699,99 $  :pt1cable:  
 

Citation :

be first in line to get the next generation of graphics when they are released. Everyone that purchases this deal will have a special option to get a next-generation powered card at launch!


[:afrojojo]


 
C'est EVGA. Tout ce qu'ils vendent est 100€ trop cher, mais comme ça ils font une réduc' de 100€ à ceux qui enchaînent les cartes EVGA.


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°7217166
asmomo
Modérateur
Posté le 22-11-2009 à 15:19:00  profilanswer
 

La supercomputer a 4 ports 8X et le tri-SLI donc ce quad SLI peut marcher, faut trouver le pont, quoi. De toute façon aux dernières nouvelles c'est pas standard, si ?


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°7217175
Profil sup​primé
Posté le 22-11-2009 à 15:24:57  answer
 

:non:
Ces cartes sont conçues par EVGA
Il est le seul à les fabriquer

n°7217179
Zack38
Posté le 22-11-2009 à 15:27:10  profilanswer
 


 
+1
Le Quad-SLI ne fonctionne que sur la (ou les ?) carte(s)-mère eVGA équipées de quatre ports PCI-Express 16x 2.0 .

n°7217251
moggbomber
War, war never changes
Posté le 22-11-2009 à 16:09:34  profilanswer
 

et part taper les benchs ca sert a quoi cette config? :o


---------------
"les principes ne sont rien si ils ne sont pas confrontés au réel, sinon ils se transforment en dogmes"
n°7217255
Zack38
Posté le 22-11-2009 à 16:13:33  profilanswer
 

moggbomber a écrit :

et part taper les benchs ca sert a quoi cette config? :o


 
A sortir EDF de la crise, pourquoi ? :heink:

n°7217257
Fouge
Posté le 22-11-2009 à 16:16:48  profilanswer
 

moggbomber a écrit :

et part taper les benchs ca sert a quoi cette config? :o

C'est réellement si puissant que ça ? :heink:  

n°7217277
asmomo
Modérateur
Posté le 22-11-2009 à 16:23:54  profilanswer
 


 
Elles ont quoi de spécial, des decelerator NF200, comme dit charlie ?
 

Fouge a écrit :

C'est réellement si puissant que ça ? :heink:


 
Par rapport à 2 5970, la question se pose.


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°7217287
asmomo
Modérateur
Posté le 22-11-2009 à 16:27:25  profilanswer
 

Ah ah je viens de remarquer un truc qui va faire bondir Tridam :
 
http://hfr-rehost.net/www.evga.com/blackfriday/images/4waypreview.jpg
 
Les 285 EVGA ont 3*6 pins PCIe ! Au lieu de 8+6.
 
ça va être chaud de faire un boîtier bien rangé ^^


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°7217295
Zack38
Posté le 22-11-2009 à 16:30:17  profilanswer
 

Ca va surtout être chaud de trouver une alim qui a 12 câbles pcie 6 pins ... :sweat:

n°7217379
picturaw
Posté le 22-11-2009 à 17:20:09  profilanswer
 

asmomo a écrit :

Ah ah je viens de remarquer un truc qui va faire bondir Tridam :
 
http://hfr-rehost.net/http://www.e [...] review.jpg
 
Les 285 EVGA ont 3*6 pins PCIe ! Au lieu de 8+6.
 
ça va être chaud de faire un boîtier bien rangé ^^


Je me disais bien aussi qu'il y avait un truc zarbi sur ces cartes ...
 
N'empêche une config qui doit consommer près de 1 000 W (si ce n'est plus  :whistle: ) en burn juste pour jouer ça me laisse pantois


---------------
=> Vends compte iRacing. Plus de détails par MP.
n°7217385
Zack38
Posté le 22-11-2009 à 17:24:57  profilanswer
 

Faut aussi avoir un boîtier gigantesque et pourvu d'une ventilation solide ... parce que ça doit chauffer ! :sweat:  
M'enfin, c'est aussi inutile qu'un SLI de GTX295, ce genre de machin ... enfin, ça l'est encore plus, puisque ça consomme/chauffe plus et que ça prend bcp de place ... :whistle:

n°7217408
blazkowicz
Posté le 22-11-2009 à 17:40:38  profilanswer
 

pour une bécane cuda ça fait une bonne affaire, reste à trouver un boîtier noir et rouge.

 

pas besoin de nf200, sur ce socket tu peux avoir 4x8 lignes PCIexpress pour les cartes vidéo en natif. (pareil avec un AMD 790FX)

Message cité 1 fois
Message édité par blazkowicz le 22-11-2009 à 17:41:20
n°7217415
0b1
There's good in him
Posté le 22-11-2009 à 17:45:59  profilanswer
 

Zack38 a écrit :

Faut aussi avoir un boîtier gigantesque et pourvu d'une ventilation solide ... parce que ça doit chauffer ! :sweat:
M'enfin, c'est aussi inutile qu'un SLI de GTX295, ce genre de machin ... enfin, ça l'est encore plus, puisque ça consomme/chauffe plus et que ça prend bcp de place ... :whistle:


Ou un CF de HD5970...

 
blazkowicz a écrit :

pour une bécane cuda ça fait une bonne affaire, reste à trouver un boîtier noir et rouge.

 

pas besoin de nf200, sur ce socket tu peux avoir 4x8 lignes PCIexpress pour les cartes vidéo en natif. (pareil avec un AMD 790FX)


Nan mais pour du 3 WAY / 4 WAY SLI il faut le NF200

Message cité 1 fois
Message édité par 0b1 le 22-11-2009 à 17:46:51
n°7217478
moggbomber
War, war never changes
Posté le 22-11-2009 à 18:33:18  profilanswer
 

justement un comparo Xfire SLI  
http://www.hexus.net/content/item. [...] 212&page=1
bon y a pas de quad ou tri certes mais on voit clairement qui est devant (remarquez c'est normal, c'est pas la meme génération de revisions non plus)


---------------
"les principes ne sont rien si ils ne sont pas confrontés au réel, sinon ils se transforment en dogmes"
n°7217523
asmomo
Modérateur
Posté le 22-11-2009 à 18:57:17  profilanswer
 

blazkowicz a écrit :

pour une bécane cuda ça fait une bonne affaire, reste à trouver un boîtier noir et rouge.
 
pas besoin de nf200, sur ce socket tu peux avoir 4x8 lignes PCIexpress pour les cartes vidéo en natif. (pareil avec un AMD 790FX


 
Pas besoin de nf200 pour avoir ces ports, je sais, mais pour avoir du quad SLI @nvidia, pas sûr.
 
Sinon il y a des fous qui ont des farm de GTX295 avec 3 ou 4 par mobo, juste pour SETI  :whistle:  
 
Bon, d'un côté, ça consomme moins que l'équivalent avec uniquement des CPU (faudrait genre 2 i7 920 par GTX295).


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°7217533
nhemles
Mort aux assistés
Posté le 22-11-2009 à 19:03:03  profilanswer
 

0b1 a écrit :


Nan mais pour du 3 WAY / 4 WAY SLI il faut le NF200


http://www.presence-pc.com/actuali [...] 200-33096/
 

Citation :

Le chipset nForce 200 de NVIDIA, utilisé sur certaines cartes mères X58 haut de gamme pour profiter d’un SLI de trois cartes en PCI-Express 16x, offre-t-il réellement de meilleures performances qu’un 3-way SLI géré exclusivement par le chipset X58 (donc en 16x-8x-8x) ?


 
Cultive-toi au lieu de penser et de parler comme si tu avais toujours raison :/ .

n°7217918
bjone
Insert booze to continue
Posté le 22-11-2009 à 22:54:59  profilanswer
 

Gigathlon a écrit :


Tout ce que je vois, c'est que d'un point de vue conceptuel, le comportement physique d'un objet modélisé est à son squelette (ou plus d'ailleurs) ce qu'une texture procédurale est à une surface.
 
Après, que très peu de moteurs voire aucun moteur ne fonctionne de la sorte, ça n'est pas le problème, le fait est qu'il est bien plus logique de lier un compute shader que d'exporter des données pour en réimporter de nouvelles.


Rien compris :D  [:z-bob]

n°7218110
asmomo
Modérateur
Posté le 23-11-2009 à 09:02:25  profilanswer
 

On dirait que l'image de facebook est un fake :
 
http://hfr-rehost.net/www.abload.de/img/nvda_nv100_gf100_dx11_djk6.png


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°7218153
Gigathlon
Quad-neurones natif
Posté le 23-11-2009 à 10:08:37  profilanswer
 

bjone a écrit :

Rien compris :D  [:z-bob]


Ca revient au problème de la DLL C# faisant des appels système utilisée dans un prog C++: on fait les calculs sur le GPU, mais on passe par une couche intermédiaire qui en fait sortir les données et les lui renvoie.
 
Quand on utilise un GPU dédié "PPU", ça ne pose pas de problème, mais quand on tourne sur un seul GPU, ça saccage tout.
 
Mon avis est que plutôt que de proposer une bête interface comme le fait PhysX, il faudrait développer un moteur 3D intégrant une interface similaire pour le développeur de contenu mais générant un code directement exécutable, sans changement de contexte comme c'est le cas avec PhysX, ce qui reviendrait à utiliser les compute shaders et leurs cousins des geometry shaders. Le seul souci que ça pourrait poser, c'est une certaine consommation de mémoire, mais dans pas mal de cas on la gaspille déjà (textures énormes et non compressées en tête).
 
Un exemple tout con de "gestion physique" qui me vient à l'esprit, c'est la désintégration lors d'une explosion: on peut casser le maillage et associer à chaque vertex résultant des données de vélocité et de masse, ce qui aura pour effet des débris retombant de façon plus ou moins réaliste. Ca ressemble assez à l'approche "particle physics" du SDK DirectX au passage, donc ça n'est pas totalement irréaliste.
 
On peut d'ailleurs penser à plusieurs niveaux de "réalisme" dans cette simulation, pouvant aller jusqu'à gérer les déformations par tessellation avec rupture à des joints faibles, mais évidemment on arrive à un niveau de complexité qui n'a plus rien à voir avec ce qu'on a pu voir de PhysX jusqu'à présent.

Message cité 1 fois
Message édité par Gigathlon le 23-11-2009 à 10:09:15
n°7218164
Charles K
Posté le 23-11-2009 à 10:17:41  profilanswer
 

asmomo a écrit :

On dirait que l'image de facebook est un fake :

 

http://hfr-rehost.net/http://www.a [...] 1_djk6.png

 

on arrive pas bien a distinguer ...

 

C'est un photoshopage où l'image de l'écran a été mal collée ?


Message édité par Charles K le 23-11-2009 à 10:26:57
n°7218208
asmomo
Modérateur
Posté le 23-11-2009 à 10:53:25  profilanswer
 

Bah c'est toshopé d'une manière ou d'une autre, après quoi est collé sur quoi, j'en sais rien.


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°7218760
mikestewar​t
Air Roll Spinnin'
Posté le 23-11-2009 à 19:15:33  profilanswer
 

Citation :

More Fermi Rumors - Not Good
 
NVIDIA had a big get-together in Hong Kong last week where a lot of the NVIDIA upper brass was on hand. It is being rumored that the first "Fermi build kits" were supposed to be prepped to go out to AIBs but NVIDIA missed the mark on having its Fermi tech ready to pass off to builders. We also heard the "Gemini" name being batted around as well and this seems to be connected to a dual GPU Fermi card. We still feel as though NVIDIA is aiming for getting Fermi shipping by the last week of February, but still think it will miss this mark. HardOCP's best guess right now is late March with any quantity to speak and we are still giving NVIDIA about even odds of marking March. April 2010 is looking more reasonable to us at this time.


 
http://hardocp.com/news/2009/11/23 [...] umors_good
 
Un retard une fois de plus confirmé (ce qui n'étonnera pas certains  :o ), HardOCP évoque Avril 2010.  
 
La bi-Fermi, déjà mentionnée dans de précédentes rumeurs, refait surface, et aurait comme nom de code "Gemini". La mono-Fermi ne serait pas assez puissante pour rivaliser avec la 5970 ?  :(  
 
edit : info similaire chez DriverHeaven :
 

Citation :

We heard word a short while ago from our contacts in the Far East that Fermi may very well be delayed even longer than the initial launch estimate in January. We reported last week that the goal for nVidia was to launch the product on some level at CES with reviewer kits to go out shortly afterwards. Our sources tell us today that the Fermi Build Kits were meant to go to AIBs last week but nVidia has missed this time frame. They also told us that "Gemini" is meant to be the code name for the new dual GPU Fermi card although nVidia are not confirming this.
 
Going on this and other inside information passed to us at the weekend it appears that the initial launch date in January may very well be pushed back until March or possibly even early April. Giving solid dates for the launch is going to be hard as nVidia seem to be running into more issues every week.


 
http://www.driverheaven.net/news.p [...] z0Xhun3tPA


Message édité par mikestewart le 23-11-2009 à 19:29:15
n°7218842
bjone
Insert booze to continue
Posté le 23-11-2009 à 20:02:16  profilanswer
 

Gigathlon a écrit :


Ca revient au problème de la DLL C# faisant des appels système utilisée dans un prog C++: on fait les calculs sur le GPU, mais on passe par une couche intermédiaire qui en fait sortir les données et les lui renvoie.
 
Quand on utilise un GPU dédié "PPU", ça ne pose pas de problème, mais quand on tourne sur un seul GPU, ça saccage tout.
 
Mon avis est que plutôt que de proposer une bête interface comme le fait PhysX, il faudrait développer un moteur 3D intégrant une interface similaire pour le développeur de contenu mais générant un code directement exécutable, sans changement de contexte comme c'est le cas avec PhysX, ce qui reviendrait à utiliser les compute shaders et leurs cousins des geometry shaders. Le seul souci que ça pourrait poser, c'est une certaine consommation de mémoire, mais dans pas mal de cas on la gaspille déjà (textures énormes et non compressées en tête).
 
Un exemple tout con de "gestion physique" qui me vient à l'esprit, c'est la désintégration lors d'une explosion: on peut casser le maillage et associer à chaque vertex résultant des données de vélocité et de masse, ce qui aura pour effet des débris retombant de façon plus ou moins réaliste. Ca ressemble assez à l'approche "particle physics" du SDK DirectX au passage, donc ça n'est pas totalement irréaliste.
 
On peut d'ailleurs penser à plusieurs niveaux de "réalisme" dans cette simulation, pouvant aller jusqu'à gérer les déformations par tessellation avec rupture à des joints faibles, mais évidemment on arrive à un niveau de complexité qui n'a plus rien à voir avec ce qu'on a pu voir de PhysX jusqu'à présent.


 
A terme le couplage D3D/OpenGl et PhysX via Cuda sera plus optimal. Le SDK 3 est pour l'année prochaine et sera complètement refactorisé.
Après l'implémentation optimale au sein d'un moteur est une autre chose :) Mais oui il y a encore du jus à tirer d'un point de vue optimisation globale.
Si tu prends Havok, PhysX, Bullet, PhysX a fait quelque trucs drôles, Bullet semble assez capable et fait son petit bonhomme de chemin, Havok a jamais fait de démos de simulation des fluides (mais ils y travaillent).
Fin rien n'est parfait, mais c'est pareil partout.

n°7219295
cbo
Posté le 24-11-2009 à 07:39:14  profilanswer
 
n°7219348
0b1
There's good in him
Posté le 24-11-2009 à 09:45:09  profilanswer
 

nhemles a écrit :


http://www.presence-pc.com/actuali [...] 200-33096/

 
Citation :

Le chipset nForce 200 de NVIDIA, utilisé sur certaines cartes mères X58 haut de gamme pour profiter d’un SLI de trois cartes en PCI-Express 16x, offre-t-il réellement de meilleures performances qu’un 3-way SLI géré exclusivement par le chipset X58 (donc en 16x-8x-8x) ?

 

Cultive-toi au lieu de penser et de parler comme si tu avais toujours raison :/ .


Je parle en 3x/4x 16x inculte :o


Message édité par 0b1 le 24-11-2009 à 09:45:29
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  909  910  911  ..  1004  1005  1006  1007  1008  1009

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Demande infos] Top AchatComment imprimer les infos du bios ?
Quel carte Open Gl la mieux adapte a 3dsMAXBesion d'infos sur les Graveur de DVD chui perdu
couldn't load open glNEC ND-1300: cherche infos
Mise a jour bios KT7A, prob direct x et open gl geforce 2 pro!!Salut je voudrait des infos sur l'instalation d'un processeur
Rech infos sur le nouveau graveur de DVD liteon multiformat !!!![INFOS a la con] si vous avez des PB avec votre ABIT NF7-S REV2.0
Plus de sujets relatifs à : Graphical open bar (des infos, des intox, aux extraits de TheInq)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)