Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2947 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  53  54  55  ..  1028  1029  1030  1031  1032  1033
Auteur Sujet :

[Topic Unique] NVIDIA GeForce GTX 660Ti/670/680/690/760/770 (GK104)

n°8205374
hyksos_sow​o
Posté le 01-02-2012 à 16:13:31  profilanswer
 

Reprise du message précédent :

mightmagic a écrit :


Retard car ils essayent d'incorporer le hardware des ppu directement dans le gpu au lieu de faire de l'émulation par gpgpu.  
 
Je doute que cela soit le cas.


ça serait un méchant fail le cas échéant...
 
"Nos GPU ne sont pas fait pour faire des calculs physique, désolé de vous avoir induit en erreur"

mood
Publicité
Posté le 01-02-2012 à 16:13:31  profilanswer
 

n°8205419
NoradII
Il y a 17 ans naquit un PC
Posté le 01-02-2012 à 17:03:44  profilanswer
 

mightmagic a écrit :

Retard car ils essayent d'incorporer le hardware des ppu directement dans le gpu au lieu de faire de l'émulation par gpgpu.  
Je doute que cela soit le cas.

t'as loupé un chapitre ?
La chaîne de gestion des particules par PhysX est déjà incorporé dans Fermi. Le reste qui reste à incorporer c'est le collide_engine avec ce qui n'est pas généré par PhysX, et ça c'est pas comme si Kepler aller ajouter des "prises" pour brancher les modules existants.
Donc je doute avec toi, bien qu'il reste une possibilité sur les implantations difficiles à travailler [:transparency]


---------------
valid.x86.fr/575505 /842925 /902578
n°8205475
mightmagic
Posté le 01-02-2012 à 18:07:01  profilanswer
 

NoradII a écrit :

t'as loupé un chapitre ?
La chaîne de gestion des particules par PhysX est déjà incorporé dans Fermi. Le reste qui reste à incorporer c'est le collide_engine avec ce qui n'est pas généré par PhysX, et ça c'est pas comme si Kepler aller ajouter des "prises" pour brancher les modules existants.
Donc je doute avec toi, bien qu'il reste une possibilité sur les implantations difficiles à travailler [:transparency]


Je n'ai fait que répété ce qui est dit dans l'article de la page avant.

n°8205476
NoradII
Il y a 17 ans naquit un PC
Posté le 01-02-2012 à 18:07:42  profilanswer
 

autant pour moi, j'avais pas fait le lien [:the geddons]


---------------
valid.x86.fr/575505 /842925 /902578
n°8205479
raptor68
Pouet !
Posté le 01-02-2012 à 18:11:25  profilanswer
 

"ils essayent" donc n'auraient pas encore réussi, donc encore en phase d'engineering => impossible

n°8205480
mightmagic
Posté le 01-02-2012 à 18:11:49  profilanswer
 

NoradII a écrit :

autant pour moi, j'avais pas fait le lien [:the geddons]


Pas grave :)

n°8205484
dark oopa
PSN: Dark_Oopa
Posté le 01-02-2012 à 18:13:34  profilanswer
 

et surtout ça serait pas du tout bon pour nous
parce que sans jeu développés pour ça, ça sert à rien, donc ça coute du fric et ça consomme pour que dalle.
et le temps que els jeux arrivent en masse, s'ils arrivent en masse un jour, les cartes de cette gen seront obsoletes
 
déjà qu'aucun jeu n'utilise physx correctement à part les batmans, je vois aps l'interet.
 

n°8205485
NoradII
Il y a 17 ans naquit un PC
Posté le 01-02-2012 à 18:13:46  profilanswer
 

raptor68 a écrit :

"ils essayent" donc n'auraient pas encore réussi, donc encore en phase d'engineering => impossible

:??:

dark oopa a écrit :

déjà qu'aucun jeu n'utilise physx correctement à part les batmans, je vois aps l'interet.

simplifier l'appel à ces techniques de sophistication de rendu, les rendant ainsi transparentes. Le but ultime étant de générer une bibliothèque qui appliquera automatiquement, l'apport PhysX sans que le jeu soit nécessairement optimiser pour. par le biais de geometry shader, ou domain shader modifié, entraînant la possibilité d'intervenir sur la tesselation une fois celle-ci parsemée par un impacte de balle. de la modification en temps réel quoi. Sans avoir de long shader à exécuter ni de latence du au pipeline géométrique devenu dantesque tant le nombre de triangles passerait le million.


Message édité par NoradII le 01-02-2012 à 18:18:37

---------------
valid.x86.fr/575505 /842925 /902578
n°8205495
mightmagic
Posté le 01-02-2012 à 18:20:44  profilanswer
 

dark oopa a écrit :

et surtout ça serait pas du tout bon pour nous
parce que sans jeu développés pour ça, ça sert à rien, donc ça coute du fric et ça consomme pour que dalle.
et le temps que els jeux arrivent en masse, s'ils arrivent en masse un jour, les cartes de cette gen seront obsoletes
 
déjà qu'aucun jeu n'utilise physx correctement à part les batmans, je vois aps l'interet.
 


Peut être ils préparent le terrain pour les jeux ps4 si nvidia replace ses cartes chez sony avec cette fois-ci du temps pour travailler (pas comme la ps3 où il a fallu tout faire en grande vitesse à cause de sony)

n°8205526
maerens
Posté le 01-02-2012 à 18:51:55  profilanswer
 

mightmagic a écrit :


Peut être ils préparent le terrain pour les jeux ps4 si nvidia replace ses cartes chez sony avec cette fois-ci du temps pour travailler (pas comme la ps3 où il a fallu tout faire en grande vitesse à cause de sony)


pense pas, la PS4 elle est pas près de sortir...


---------------
Crossfire R9-290x/290 (1Ghz 1300mhz;1Ghz 1350),I5 4690K 4,6Ghz 1,25V; Asus sabertooth Z97 Mark2; Cooler Master HAF X; Samsung 840 PRO 128GO ; Caviar Green EARS 1TO; Caviar RED EFRX 2TO; 8GB G-SKILL 1600 cl8; CORSAIR AX860I .
mood
Publicité
Posté le 01-02-2012 à 18:51:55  profilanswer
 

n°8205544
mightmagic
Posté le 01-02-2012 à 19:09:35  profilanswer
 

maerens a écrit :


pense pas, la PS4 elle est pas près de sortir...


La préparation ce n'est pas 6 mois avant mais 2 ans avant et la ps4 sortira surement fin 2013 donc nvidia doit préparer le terrain pour imposer sur PC et sur PS4. Cela ne reste que supposition mais s'ils veulent imposer le physx je ne vois que cette méthode à moins que le Pc retrouve le même rayonnement que dans les années 90 et là les consoles ne serviraient pas à grand chose.

Message cité 1 fois
Message édité par mightmagic le 01-02-2012 à 19:12:00
n°8205682
Invite_Sur​prise
Racaille de Shanghaï
Posté le 01-02-2012 à 21:16:03  profilanswer
 

L'article posté hier soir (merdique) répond désormais au nouvel article de CD.
Pour faire clair, nVidia va tricher comme pas possible en mettant du PhysX partout. Le GK104 n'est finalement pas si super que ça comparé à Tahiti. C'est le marketing menteur de NV qui va faire croire qu'une carte GK104, consommant bien moins et avec un chip + petit va "trouncer" la gamme Tahiti qui est elle pure et honnête ...
 
Du coup, on a déjà 2 articles traitant de la question (grosso merdo : PhysX pour sauver Kepler), donc, ça ne peut-être que vrai et ce n'est plus semi-accurate.
 

Spoiler :

[:power600]

Message cité 1 fois
Message édité par Invite_Surprise le 01-02-2012 à 21:16:37
n°8205698
maerens
Posté le 01-02-2012 à 21:39:37  profilanswer
 

mightmagic a écrit :


La préparation ce n'est pas 6 mois avant mais 2 ans avant et la ps4 sortira surement fin 2013 donc nvidia doit préparer le terrain pour imposer sur PC et sur PS4. Cela ne reste que supposition mais s'ils veulent imposer le physx je ne vois que cette méthode à moins que le Pc retrouve le même rayonnement que dans les années 90 et là les consoles ne serviraient pas à grand chose.


pourtant d'après les rumeurs Sony ne veut plus d'une console inmaitrisable et surpuissante à la sortie, il parait que c'est du Fusion AMD qui a été retenu, bref wait and see, pour ca et wait and see pour kepler qui commence franchement à se faire attendre, et on se demande franchement si leurs souhaits sont matérialisés à l'heure actuelle ou toujours sur papier... Parce que la moi ca commence un peu à me gaver... et si ils relevent pas un peu la tete le marché HDG vas leur passer sous le nez pendant des mois.... et tout le monde sait que ce qui fait vendre les articles d'une marque c'est le HDG...


---------------
Crossfire R9-290x/290 (1Ghz 1300mhz;1Ghz 1350),I5 4690K 4,6Ghz 1,25V; Asus sabertooth Z97 Mark2; Cooler Master HAF X; Samsung 840 PRO 128GO ; Caviar Green EARS 1TO; Caviar RED EFRX 2TO; 8GB G-SKILL 1600 cl8; CORSAIR AX860I .
n°8205702
maerens
Posté le 01-02-2012 à 21:42:01  profilanswer
 

Invite_Surprise a écrit :

L'article posté hier soir (merdique) répond désormais au nouvel article de CD.
Pour faire clair, nVidia va tricher comme pas possible en mettant du PhysX partout. Le GK104 n'est finalement pas si super que ça comparé à Tahiti. C'est le marketing menteur de NV qui va faire croire qu'une carte GK104, consommant bien moins et avec un chip + petit va "trouncer" la gamme Tahiti qui est elle pure et honnête ...
 
Du coup, on a déjà 2 articles traitant de la question (grosso merdo : PhysX pour sauver Kepler), donc, ça ne peut-être que vrai et ce n'est plus semi-accurate.
 

Spoiler :

[:power600]



c'est une blague??? merde ou quoi? il vont pas nous forcer à plafonner à 18FPS avec une radeon sous tout les jeux quand même les bouffons?. Parce que moi je compte quand même garder une radeon dans 1 de mes PC...
sérieusement on peut porter plainte contre ça? c'est clairement de la concurrence déloyale...
 
j'ai quand même du mal à y croire... c'est impossible Kepler ne peut être foireux à ce point...


Message édité par maerens le 01-02-2012 à 21:43:50

---------------
Crossfire R9-290x/290 (1Ghz 1300mhz;1Ghz 1350),I5 4690K 4,6Ghz 1,25V; Asus sabertooth Z97 Mark2; Cooler Master HAF X; Samsung 840 PRO 128GO ; Caviar Green EARS 1TO; Caviar RED EFRX 2TO; 8GB G-SKILL 1600 cl8; CORSAIR AX860I .
n°8205703
raptor68
Pouet !
Posté le 01-02-2012 à 21:46:01  profilanswer
 

maerens a écrit :


pourtant d'après les rumeurs Sony ne veut plus d'une console inmaitrisable et surpuissante à la sortie, il parait que c'est du Fusion AMD qui a été retenu, bref wait and see, pour ca et wait and see pour kepler qui commence franchement à se faire attendre, et on se demande franchement si leurs souhaits sont matérialisés à l'heure actuelle ou toujours sur papier... Parce que la moi ca commence un peu à me gaver... et si ils relevent pas un peu la tete le marché HDG vas leur passer sous le nez pendant des mois.... et tout le monde sait que ce qui fait vendre les articles d'une marque c'est le HDG...


 
en tout cas pour la xbox "720" c'est une radeon 6670 qui as été retenue (=> xbox gen)
 
personnellement, le coup de physx pour sauver kepler j'y crois pas trop, ils ont déjà voulu sauver les séries 9 avec ça et ça as été un gros flop ...
 
donc je ne pense pas qu'ils referont la même erreur, il savent qu'un écosystème logiciel c'est bien, mais que du matériel qui fait tournée également le reste, c'est mieux
 

n°8205705
fire du 57
The futur is Fusion
Posté le 01-02-2012 à 21:46:23  profilanswer
 

Et AMD est pas capable de gérer la PhysX en utilisant la puissant GPGPU des 7k ? Ou c'est bloqué au niveau Software ? Je suis loin d'être un pro de la PhysX alors je me pose des questions....

 

PS : Si c'est le cas , ça va finir aux tribunaux....

Message cité 1 fois
Message édité par fire du 57 le 01-02-2012 à 21:47:55

---------------
"Si vous ne changez pas en vous-même, ne demandez pas que le monde change"
n°8205711
maerens
Posté le 01-02-2012 à 21:53:35  profilanswer
 

raptor68 a écrit :


 
en tout cas pour la xbox "720" c'est une radeon 6670 qui as été retenue (=> xbox gen)
 
personnellement, le coup de physx pour sauver kepler j'y crois pas trop, ils ont déjà voulu sauver les séries 9 avec ça et ça as été un gros flop ...
 
donc je ne pense pas qu'ils referont la même erreur, il savent qu'un écosystème logiciel c'est bien, mais que du matériel qui fait tournée également le reste, c'est mieux
 


crois tu? en 2009 ils annonçaient que directx11 n'avait pas d'avenir et que Physx en avait un, ils ont tout interet justement à imposer Physx, il ont pas racheté ageia pour rien non plus...
 
Fire:théoriquement les nouvelles radeons sont capable d'allouer des unités à physx, mais Physx devrait être porté sur celles ci pour fonctionner, et je continue à penser qu'Havoc reste un meilleurs choix... au moins nos CPU 4,6,8 coeurs nous seraient utiles... donc l'affaire n'ira pas au tribunal car nV détient les droits Physx, sauf si ils l'utilisent de facon déloyale... mais avant que ca arrive au tribunal 10 ans se seront écoulés...


---------------
Crossfire R9-290x/290 (1Ghz 1300mhz;1Ghz 1350),I5 4690K 4,6Ghz 1,25V; Asus sabertooth Z97 Mark2; Cooler Master HAF X; Samsung 840 PRO 128GO ; Caviar Green EARS 1TO; Caviar RED EFRX 2TO; 8GB G-SKILL 1600 cl8; CORSAIR AX860I .
n°8205720
raptor68
Pouet !
Posté le 01-02-2012 à 22:01:12  profilanswer
 

c'est niveau de l'architecture hardware (CUDA) il faudrait le porter sous OpenCL pour les 7k...
 
et surtout physx bride en cas d'incompatibilité (détérioration de la qualité physique en cas d'absence de périphérique accélérateur)


Message édité par raptor68 le 01-02-2012 à 22:02:17
n°8205722
fire du 57
The futur is Fusion
Posté le 01-02-2012 à 22:03:50  profilanswer
 

De toute façon quel devs à envie de foutre du PhysX dans son jeu....Je dis pas ça rend bien...mais contrairement à un moteur graphique c'est lourd pour peu de gains visuel ...et clairement ça ne profite qu'aux GTX...

 

Je pense que c'est une perte de temps pour les dev's .Car PhysX n'a pas tellement d'interet , je me trompe ?  Moi j'attends OpenCL sur du GPU...à minimum 45Fps...

 

Je pense qu'avec du Cuda Core et du GCN on peut faire bien mieux que se qu'on a actuellement...Je ne saurais que citer le Frosbite 2 (2012 ) qui est "magnifique" mais le CryEngine 2 ( 2007 ) de Crytek fait aussi bien...il n'avait rien de révolutionnaire en soit...il a juste innové...il était en avance sur son temps !

 

Si seulement on pouvait avoir un moteur graphique en avance sur son temps...tout en restant facilement otimisable...Bref un moteur graphique  que tout les joueurs PC attendent pour pouvoir exploiter leur GPU dans sa totalité...

 

Après , c'est peut-être un nouveau marché qui vas se créer avec des cartes juste pour la PhysX et pour l'OpenCL ! ;)

Message cité 2 fois
Message édité par fire du 57 le 01-02-2012 à 22:04:54

---------------
"Si vous ne changez pas en vous-même, ne demandez pas que le monde change"
n°8205728
mightmagic
Posté le 01-02-2012 à 22:08:08  profilanswer
 

maerens a écrit :


pourtant d'après les rumeurs Sony ne veut plus d'une console inmaitrisable et surpuissante à la sortie, il parait que c'est du Fusion AMD qui a été retenu, bref wait and see, pour ca et wait and see pour kepler qui commence franchement à se faire attendre, et on se demande franchement si leurs souhaits sont matérialisés à l'heure actuelle ou toujours sur papier... Parce que la moi ca commence un peu à me gaver... et si ils relevent pas un peu la tete le marché HDG vas leur passer sous le nez pendant des mois.... et tout le monde sait que ce qui fait vendre les articles d'une marque c'est le HDG...


Rumeurs. Je doute que sony se contente du fusion d'amd ne serait-ce que parce que ce sera surement pas un x86 et encore moins une carte graphique inférieure en puissance à celle de la ps3.

 

De plus puissante et inmaitrisable ne sont pas corrélés. Il suffit de voir la x360 et le PC par exemple. Sony a malheureusement fait des choix discutables avec la ps2 et la ps3 qui sont 2 consoles à archi très complexes (du temps de la ps2 pas trop de problème car il n'y avait pas de concurrent valable mais avec la ps3 ce fut le contraire) et c'est ça qu'ils ne veulent plus car ça signifie leur fin mais en aucun cas ils feront une console au rabais niveau performance ou alors ils n'y croient plus aux consoles.

Message cité 1 fois
Message édité par mightmagic le 01-02-2012 à 22:17:22
n°8205731
fire du 57
The futur is Fusion
Posté le 01-02-2012 à 22:09:40  profilanswer
 

mightmagic a écrit :


Rumeurs. Je doute que sony se contente du fusion d'amd ne serait-ce que parce que ce sera surement pas un x86 et encore moins une carte graphique inférieure en puissance à celle de la ps3.


 
C'est quoi le GPU de la PS3 ?


---------------
"Si vous ne changez pas en vous-même, ne demandez pas que le monde change"
n°8205736
mightmagic
Posté le 01-02-2012 à 22:11:35  profilanswer
 

raptor68 a écrit :

 

en tout cas pour la xbox "720" c'est une radeon 6670 qui as été retenue (=> xbox gen)

 

personnellement, le coup de physx pour sauver kepler j'y crois pas trop, ils ont déjà voulu sauver les séries 9 avec ça et ça as été un gros flop ...

 

donc je ne pense pas qu'ils referont la même erreur, il savent qu'un écosystème logiciel c'est bien, mais que du matériel qui fait tournée également le reste, c'est mieux

 



Rumeur IGN pour la hd6670 et reprise par d'autre sites (la 2ème rumeur parle de HD7xxx qui est bien plus crédible), rumeur hautement improbable à moins que microsoft s'oriente uniquement sur le créneau wii.

 

Microsoft ne sortant pas sa console avant 2013 la carte graphique sera en toute logique largement plus puissante qu'une hd6670 et autre chose qu'une carte graphique qui aura déjà 2 ans. En général sony ou microsoft possèdent une CG du niveau de celles sortant à leur sortie et se situant dans le milieu-hdg à leur sortie.

fire du 57 a écrit :

 

C'est quoi le GPU de la PS3 ?


Une 7800gtx-like en gros

 
fire du 57 a écrit :

Et AMD est pas capable de gérer la PhysX en utilisant la puissant GPGPU des 7k ? Ou c'est bloqué au niveau Software ? Je suis loin d'être un pro de la PhysX alors je me pose des questions....

 

PS : Si c'est le cas , ça va finir aux tribunaux....


Impossible de finir aux tribunaux car le physx appartient à nvidia et nvidia est libre de l'ouvrir ou pas.

 

AMd ou tout autre cpu est capable de gérer le physx vu que le physx est un moteur software comme le havok. Par contre les gpu d'AMD ne sont pas capables de gérer le physx hardware car nvidia ne le permet pas pour des raisons évidentes

Message cité 1 fois
Message édité par mightmagic le 01-02-2012 à 22:19:53
n°8205737
dark oopa
PSN: Dark_Oopa
Posté le 01-02-2012 à 22:13:03  profilanswer
 

fire du 57 a écrit :

De toute façon quel devs à envie de foutre du PhysX dans son jeu....Je dis pas ça rend bien...mais contrairement à un moteur graphique c'est lourd pour peu de gains visuel ...et clairement ça ne profite qu'aux GTX...  
 
Je pense que c'est une perte de temps pour les dev's .Car PhysX n'a pas tellement d'interet , je me trompe ?  Moi j'attends OpenCL sur du GPU...à minimum 45Fps...
 
Je pense qu'avec du Cuda Core et du GCN on peut faire bien mieux que se qu'on a actuellement...Je ne saurais que citer le Frosbite 2 (2012 ) qui est "magnifique" mais le CryEngine 2 ( 2007 ) de Crytek fait aussi bien...il n'avait rien de révolutionnaire en soit...il a juste innové...il était en avance sur son temps !  
 
Si seulement on pouvait avoir un moteur graphique en avance sur son temps...tout en restant facilement otimisable...Bref un moteur graphique  que tout les joueurs PC attendent pour pouvoir exploiter leur GPU dans sa totalité...
 
Après , c'est peut-être un nouveau marché qui vas se créer avec des cartes juste pour la PhysX et pour l'OpenCL ! ;)


 
je trouve quand meme que le certains effets physx tuent la gueule dans batman et que ça sert à rien d'améliorer els textures indéfiniment si on a pas de nouveaux effets comme ceux là

n°8205744
mightmagic
Posté le 01-02-2012 à 22:19:27  profilanswer
 

dark oopa a écrit :

 

je trouve quand meme que le certains effets physx tuent la gueule dans batman et que ça sert à rien d'améliorer els textures indéfiniment si on a pas de nouveaux effets comme ceux là


Oui et non.
Les 2 sont obligatoires car pour améliorer le graphisme l'un ne va pas sans l'autre.
Le problème c'est qu'en général les effets sont utilisés dans les jeux consoles pour cacher la misère de la modélisation et autres textures et cela fait que les effets comme le HDr, bloom ou autres blur sont mal considérer depuis plusieurs années par les joueurs.

 
fire du 57 a écrit :

De toute façon quel devs à envie de foutre du PhysX dans son jeu....Je dis pas ça rend bien...mais contrairement à un moteur graphique c'est lourd pour peu de gains visuel ...et clairement ça ne profite qu'aux GTX...

 

Je pense que c'est une perte de temps pour les dev's .Car PhysX n'a pas tellement d'interet , je me trompe ?  Moi j'attends OpenCL sur du GPU...à minimum 45Fps...


Les mêmes qui ont envie d'utiliser le havok ou n'importe quel middleware. Un gain de temps et d'argent. Le physx existe depuis très longtemps et est apprécié tout comme l'havok et ont à peu près les mêmes capacités.

 

Concernant le physx hardware que tu critiques (il ne faut pas tout mélanger car ce sont 2 choses différentes), ce n'est pas que le physx en soit ne sert à rien mais c'est comme dx11 ou dx10, c'est que le physx hardware n'est quasiment pas exploité du fait qu'il est limité par nvidia aux seules geforce et donc le physx hardware est seulement utilisé pour des effets cosmétiques annexes et non pour la physique au coeur du gameplay.

 

C'est le problème de toute api propriétaire dont le propriétaire ne veut pas le rendre dispo aux concurrents.

 

Si le physx hardware était dispo à amd on aurait aujourd'hui des jeux utilisant le physx accéléré pour tous les effets physiques du jeu et ce serait un gros plus car ces jeux là auraient une physique bien plus élaboré potentiellement parlant (car qui peut le plus peut le moins aussi) que les jeux d'aujourd'hui cantonné aux moteurs physiques software.

Message cité 1 fois
Message édité par mightmagic le 01-02-2012 à 22:26:22
n°8205752
fire du 57
The futur is Fusion
Posté le 01-02-2012 à 22:26:12  profilanswer
 

dark oopa a écrit :

 

je trouve quand meme que le certains effets physx tuent la gueule dans batman et que ça sert à rien d'améliorer els textures indéfiniment si on a pas de nouveaux effets comme ceux là

 

Je ne dis pas le contraire mais d'autre logiciel "libre" et plus léger doivent exister...et c'est la le problème ! La PhysX reste très lourd pour des résultats visuel finalement pas exceptionnelle ( même si il faut l'avouer impressionnant ! ) les effets de particules sont utilisés dans plusieurs dizaine,centaines de jeux sans pour autant être un effet handicapent contrairement à PhysX ! Havok commence à se faire vieux , peut-être que PhysX pourrait-être la relève ? Mais dans qu'elle condition ? C'est bien la le problème ! Si seul les Cuda core et les cartes Nvidia sont compatible et que la "totalité" des jeux comportent PhysX alors AMD vas se retrouver à la rue et ne pourra rien faire pour combattre Nvdia sauf peut-être la création d'un nouveau moteur physique avec moins de contrainte et fonctionnant sur du Nvidia et du AMD...

 

Franchement je vois mal le futur pour AMD si Nvidia impose PhysX...

Message cité 1 fois
Message édité par fire du 57 le 01-02-2012 à 22:28:55

---------------
"Si vous ne changez pas en vous-même, ne demandez pas que le monde change"
n°8205753
mightmagic
Posté le 01-02-2012 à 22:27:10  profilanswer
 

fire du 57 a écrit :

 

Je ne dis pas le contraire mais d'autre logiciel "libre" et plus léger doivent exister...et c'est la le problème ! La PhysX reste très lourde pour des résultats visuel finalement pas exceptionnelle les effets de particules sont utilisé dans plusieurs dizaine,centaines de jeux sans pour autant être un effet handicapent contrairement à PhysX ! Havok commence à se faire vieux , peut-être que PhysX pourrait-être la relève ? Mais dans qu'elle condition ? C'est bien la le problème ! Si seul les Cuda core et les cartes Nviidia sont compatible et que la "totalité" des jeux comporte du PhysX alors AMD vas se retrouver à la rue et ne pourra rien faire pour combattre Nvdia sauf peut-être la création d'un nouveau moteur physique avec moins de contrainte et fonctionnant sur du Nvidia et du AMD...

 

Franchement je vois mal le futur pour AMD si Nvidia impose PhysX...


Tu mélanges physx software, havok et physx hardware.

 

Et ne t'inquiète pas, vu l'état du marché du jeu vidéo actuel et la direction vers laquelle elle se dirige (faire des jeux qui touchent le plus large public et développés sur console ce qui va totalement à l'encontre de jeux cantonnés aux seules cartes nvidia), tu n'auras jamais de jeux utilisant le physx hardware pour le coeur du gameplay sauf démo technique. Pour le physx software aucun problème car ce n'est plus le gpu qui s'en occupe mais le cpu.

Message cité 2 fois
Message édité par mightmagic le 01-02-2012 à 22:30:02
n°8205757
fire du 57
The futur is Fusion
Posté le 01-02-2012 à 22:29:51  profilanswer
 

mightmagic a écrit :


Tu mélanges physx software, havok et physx hardware.
 
Et ne t'inquiète pas, vu l'état du marché du jeu vidéo actuel et la direction vers laquelle elle se dirige, tu n'auras jamais de jeux utilisant le physx hardware pour le coeur du gameplay sauf démo technique. Pour le physx software aucun problème car ce n'est plus le gpu qui s'en occupe mais le cpu.


 
Effectivement je crois que je mélange le PhysX Hardware et Software...pour Havok j'ai compris :D


---------------
"Si vous ne changez pas en vous-même, ne demandez pas que le monde change"
n°8205761
raptor68
Pouet !
Posté le 01-02-2012 à 22:36:13  profilanswer
 

mightmagic a écrit :

Une 7800gtx-like en gros


 
en fait, tu prend une 7800GTX en performance et tu lui donne l'architecture du G80 en gros (architecture scalaire mais moins performante que le monde du PC et surtout moins gourmand, batisé RSX)
 
Moi je dis, le jeux vidéo n'évoluera pas fondamentalement avant la prochaine génération de console (regardez moi ces brides avec 512Mo de mémoire partagée qui doivent tirer du Full HD à 60FPS, même Dice n'y croyait pas quand on vois la res native de BF3 (un 1400x quelque chose))
 
bref, pour en revenir à physx, c'est beau, c'est cheun, mais c'est un gouffre à performance avec des optimisations uniquement sur des jeux maintenant développé sous XBOX (basé sur le Unreal => Gears of war qui n'est plus porté sur PC depuis le 2) et donc tout le monde s'en est détourné parce que sans une carte nvidia c'est moche et ça fous la honte aux devs qui on fait 3x plus de boulot pour implémenter une gestion CUDA et physx dans leurs jeux et voir que le résultat ne peut être apprécié par tout les joueurs

n°8205762
mightmagic
Posté le 01-02-2012 à 22:37:35  profilanswer
 

fire du 57 a écrit :

 

Effectivement je crois que je mélange le PhysX Hardware et Software...pour Havok j'ai compris :D


Le physx c'est un moteur physique tout comme le havok ou d'autres moteurs physiques.
La différence est qu'aegia (les créateurs du moteur physique) ont permis à ce moteur d'offrir en plus une accélération hardware alors que les autres sont cantonnés à l'accélération software.

 

Le physx en tant que moteur physique reste open source tout comme le havok et peut être utilisé librement par tous les développeurs car comme tout moteur software c'est le cpu qui s'occupe des calculs et comme l'archi reste du x86 pour les cpus amd ou intel, cela fonctionne sans problème et contrairement aux rumeurs de certains faboys pro amd, le physx software est autant multicoeur que le havok. Exemple: trine 2 qui utilise le moteur physx pour gérer la physique du jeu mais uniquement en software.

 

Le physx comme dit au dessus est le seul moteur physique offrant l'accélération hardware (havok le principal concurrent n'a pas voulu et depuis qu'intel a racheté il ne faut pas espéré que cela change) sauf que nvidia ferme cette accélération hardware à ses seules gpus et donc le moteur ne peut pas être accéléré par un autre gpu que ceux de chez nvidia. Donc si un effet est accéléré par le gpu c'est seulement sur une geforce.

 

Comme à l'heure actuelle et contrairement à la fi ndes années 90, on ne fait plus un jeu qui ne fonctionnerait que pour une famille de cartes, les effets accélérés par le physx ne peuvent être que des effets qui ne touchent pas le coeur du gameplay afin que celui qui joue sur ati ou celui qui joue sur nvidia aient la même expérience de jeu. Les effets physx accélrés sont donc des effets cosmétiques comme on peut le voir dans un batman ou dans un autre jeu et ne touchent pas le gameplay (les débris par exemple en plus libéré ne vont pas te blesser alors que ça pourrait être une interaction possible).

 

Si nvidia avait rendu libre l'aspect accélération hardware on aurait pu avoir des jeux dont tout les effets et calculs physiques seraient accélérés par le gpu (et comme un gpu a largement plus de puissance pour ce type de calcul que les cpus on pourrait avoir une utilisation de la physique bien plus performante qu'à l'heure actuelle) mais ce n'est pas le cas et aucun développeur et éditeur ne. va risquer de faire un jeu seulement pour les possesseurs de carte nvidia vu que déjà les développeurs qui font des gros jeux techniquement ambitieux uniquement pour le PC sont très très rares de nos jours.

 
raptor68 a écrit :

 

en fait, tu prend une 7800GTX en performance et tu lui donne l'architecture du G80 en gros (architecture scalaire mais moins performante que le monde du PC et surtout moins gourmand, batisé RSX)

 

Moi je dis, le jeux vidéo n'évoluera pas fondamentalement avant la prochaine génération de console (regardez moi ces brides avec 512Mo de mémoire partagée qui doivent tirer du Full HD à 60FPS, même Dice n'y croyait pas quand on vois la res native de BF3 (un 1400x quelque chose))


Vive les machines non évolutives et le dénigrement du PC par les éditeurs (appât du mouton) :(

 

Tant au temps de la snes avec les jeux 2D ce n'était pas très gênant (suffit de voir le magnifique donkey kong de la snes en 95 pour s'en rendre compte) tant avec la 3d ça l'est vraiment (rien que la ps1 avec ses jeux en 320*200 face au svga et plus du PC, c'était le jour et la nuit).

Message cité 1 fois
Message édité par mightmagic le 01-02-2012 à 22:48:59
n°8205774
ever_over
Posté le 01-02-2012 à 22:50:34  profilanswer
 

PhysX ne peut s'imposer à tous les jeux pour 2 raisons :
- Limité aux CG NVidia qui représentent seulement 60% du marché, un dev de jeux ne va donc pas se priver des 40% d'utilisateurs AMD.
- La gestion poussée de la physique dans les jeux s'accorde mal avec les jeux multijoueur (ça utilise trop de bande passante) qui sont majoritaires aujourd'hui.

n°8205775
mightmagic
Posté le 01-02-2012 à 22:51:20  profilanswer
 

raptor68 a écrit :


bref, pour en revenir à physx, c'est beau, c'est cheun, mais c'est un gouffre à performance avec des optimisations uniquement sur des jeux maintenant développé sous XBOX (basé sur le Unreal => Gears of war qui n'est plus porté sur PC depuis le 2) et donc tout le monde s'en est détourné parce que sans une carte nvidia c'est moche et ça fous la honte aux devs qui on fait 3x plus de boulot pour implémenter une gestion CUDA et physx dans leurs jeux et voir que le résultat ne peut être apprécié par tout les joueurs


C'est toujours le problème des solutions propriétaires fermés (suffit de voir que l'eax qui a connu un énorme succès quand il était open source (eax 1 et 2) et a décliné quand creative a voulu le rendre fermé avec l'eax3,4 et 5).

 

Le PC est justement devenu la machine incontournable car ibm a rendu open source et libre de droit la fabrication d'un PC.

 
ever_over a écrit :

PhysX ne peut s'imposer à tous les jeux pour 2 raisons :
- Limité aux CG NVidia qui représentent seulement 60% du marché, un dev de jeux ne va donc pas se priver des 40% d'utilisateurs AMD.


Ce serait de préciser de quel physx tu parles car là tu parles de physx hardware et tu vas perdre les autres qui vont te lire.

 
Citation :


- La gestion poussée de la physique dans les jeux s'accorde mal avec les jeux multijoueur (ça utilise trop de bande passante) qui sont majoritaires aujourd'hui.


Faux, ce n'est en aucun cas une raison valable. Les vraies raisons sont seulement à cherche du côté du premier point que tu soulèves


Message édité par mightmagic le 01-02-2012 à 22:53:36
n°8205777
NoradII
Il y a 17 ans naquit un PC
Posté le 01-02-2012 à 22:52:56  profilanswer
 

mightmagic a écrit :

Oui et non.
Les 2 sont obligatoires car pour améliorer le graphisme l'un ne va pas sans l'autre.
Le problème c'est qu'en général les effets sont utilisés dans les jeux consoles pour cacher la misère de la modélisation et autres textures et cela fait que les effets comme le HDr, bloom ou autres blur sont mal considérer depuis plusieurs années par les joueurs.

++

fire du 57 a écrit :

De toute façon quel devs à envie de foutre du PhysX dans son jeu....Je dis pas ça rend bien...mais contrairement à un moteur graphique c'est lourd pour peu de gains visuel
Je pense que c'est une perte de temps pour les dev's. Car PhysX n'a pas tellement d'interet, je me trompe ? Moi j'attends OpenCL sur du GPU...à minimum 45Fps...
(...)
Si seulement on pouvait avoir un moteur graphique en avance sur son temps...tout en restant facilement optimisable...Bref un moteur graphique  que tout les joueurs PC attendent pour pouvoir exploiter leur GPU dans sa totalité...
(...)

-Lourd ? :lol: non ! Mais la gestion des particules et du moteur de collision l'a toujours était. Et pour cause, pour 15.000 particules tu peux avoir jusqu'à 1.500.000 interactions de ces dernières, par seconde. Et alors ? très peu de scènes ou physX est présent, se contentent de 15.000 particules. Donc les interactions sont d'autant nombreuses qu'il y a de cycles opérationnels et d'unités de traitement, dans un GPU MdG d'aujourd'hui, soit près de 300.000.000 !! Un exemple concret "Geeks3D PhysX FluidMark" et son système d'interaction simplifié (particule "liquide" mais sans vent, ni courant et gravité normal) ça rame, même avec une 9800GTX+. Mais il y a aussi des systèmes simples, comme la démo PhysX de NVIDIA et leur "château d'eau" avec un nombre hyper-contenu de particules, où même une GT220 fait >30fps.

 

-OpenCL sur GPU ? tu veux dire PhysX pour AMD, je suppose. AMD s'en fout, Havok "développe" avec "eux" [:rhetorie du chaos]

 

-Une réponse simple l'Unreal Engine 3.3 et SAMARITAN =>> Video Link Pour le niveau global des passes de rendu, ça efface pas mal de moteur de rendu [:prodigy]

mightmagic a écrit :

Et ne t'inquiète pas, vu l'état du marché du jeu vidéo actuel et la direction vers laquelle elle se dirige (faire des jeux qui touchent le plus large public et développés sur console ce qui va totalement à l'encontre de jeux cantonnés aux seules cartes nvidia), tu n'auras jamais de jeux utilisant le physx hardware pour le coeur du gameplay sauf démo technique. Pour le physx software aucun problème car ce n'est plus le gpu qui s'en occupe mais le cpu.

-Bah voyons :sarcastic:

 

-Tu veux peut-être parler de Havok dans ce cas ? qui est une bibliothèque décodée par le CPU, mais rendu par GPU [:eerilie]

Message cité 1 fois
Message édité par NoradII le 01-02-2012 à 22:56:23

---------------
valid.x86.fr/575505 /842925 /902578
n°8205779
mightmagic
Posté le 01-02-2012 à 22:55:26  profilanswer
 

NoradII a écrit :

-Bah voyons :sarcastic:

 

-Tu veux peut-être parler de Havok dans ce cas ? qui est une bibliothèque décodée par le CPU, mais rendu par GPU [:eerilie]


Le havok ne gère que le cpu et pas le gpu. Pas d'accélération hardware chez Havok. Ils l'ont toujours dit et intel l'a racheté justement pour mettre en avant l'aspect multicoeur qui devait être une vitrine de son GPU qui devait tout déchirer et qui finalement s'est déchiré de lui même (le Larabee)

 
mightmagic a écrit :


Oui et non.
Les 2 sont obligatoires car pour améliorer le graphisme l'un ne va pas sans l'autre.
Le problème c'est qu'en général les effets sont utilisés dans les jeux consoles pour cacher la misère de la modélisation et autres textures et cela fait que les effets comme le HDr, bloom ou autres blur sont mal considérer depuis plusieurs années par les joueurs.

 




Il faut même rajouter que c'est 3DFX qui a mis en avant en premier ses effets grâce au T-buffer (avec l'aa aussi) introduit par les voodoo 5 afin de permettre une qualité cinéma avec le même type d'effets et de rendus dans les jeux (politique reprise avec le nv30 par la suite mais qui a fait choux blanc vu la piètre qualité du nv30) et pas pour faire office de cache misère comme ce fut le cas dans la majorité des titres depuis que ces effets se sont démocratisés (depuis les sm3 en 2005 qui ont popularisé le hdr et le blur))

 

3DFX étaient des visionnaires et je suis certain qu'on aurait tout autre chose s'ils existaient encore aujourd'hui vu à quel point ils ont révolutionné la 3D et ont fait faire un bon de géant à  l'industrie à l'époque.


Message édité par mightmagic le 01-02-2012 à 23:07:30
n°8205784
NoradII
Il y a 17 ans naquit un PC
Posté le 01-02-2012 à 22:57:30  profilanswer
 

oui c'est donc le CPU qui affiche les images et non le GPU [:frag_facile] !


---------------
valid.x86.fr/575505 /842925 /902578
n°8205786
mightmagic
Posté le 01-02-2012 à 22:58:30  profilanswer
 

NoradII a écrit :

oui c'est donc le CPU qui affiche les images et non le GPU [:frag_facile] !


Sauf que là on ne parle pas de ça car je vois que tu joues sur les mots :lol:

 

Les calculs concernant la physique sont faits par le cpu pour havok comme tous les moteurs physiques. Seule le physx offre une accélération hardware permettant que les calculs soient effectués par le gpu (avant ppu chez aegia mais c'est le même principe)car bien plus performant pour ce type de tache

Message cité 1 fois
Message édité par mightmagic le 01-02-2012 à 23:00:05
n°8205801
maerens
Posté le 01-02-2012 à 23:13:53  profilanswer
 

mightmagic a écrit :


Sauf que là on ne parle pas de ça car je vois que tu joues sur les mots :lol:  
 
Les calculs concernant la physique sont faits par le cpu pour havok comme tous les moteurs physiques. Seule le physx offre une accélération hardware permettant que les calculs soient effectués par le gpu (avant ppu chez aegia mais c'est le même principe)car bien plus performant pour ce type de tache


non il dit justement que c'est le CPU qui calcules les infos, même du temps de dark force rendu par CPU il fallait une carte d'affichage pout afficher... incroyable non...? :D


---------------
Crossfire R9-290x/290 (1Ghz 1300mhz;1Ghz 1350),I5 4690K 4,6Ghz 1,25V; Asus sabertooth Z97 Mark2; Cooler Master HAF X; Samsung 840 PRO 128GO ; Caviar Green EARS 1TO; Caviar RED EFRX 2TO; 8GB G-SKILL 1600 cl8; CORSAIR AX860I .
n°8205805
mightmagic
Posté le 01-02-2012 à 23:15:28  profilanswer
 

maerens a écrit :


non il dit justement que c'est le CPU qui calcules les infos, même du temps de dark force rendu par CPU il fallait une carte d'affichage pout afficher... incroyable non...? :D


Je sais et c'est pour ça que je dis qu'il joue sur les mots car il a bien compris ce sur quoi on parlait.

n°8205808
NoradII
Il y a 17 ans naquit un PC
Posté le 01-02-2012 à 23:16:24  profilanswer
 

maerens a écrit :

non il dit justement que c'est le CPU qui calcules les infos, même du temps de dark force rendu par CPU il fallait une carte d'affichage pout afficher... incroyable non...? :D

Et appliqué les effets,  les calculs d'interaction et les collisions. et cela, juste pour Havok, hein [:o_doc]

mightmagic a écrit :

Je sais et c'est pour ça que je dis qu'il joue sur les mots car il a bien compris ce sur quoi on parlait.

et ce sur quoi, vous vous égarez aussi :jap:

Message cité 1 fois
Message édité par NoradII le 01-02-2012 à 23:17:07

---------------
valid.x86.fr/575505 /842925 /902578
n°8205820
maerens
Posté le 01-02-2012 à 23:21:04  profilanswer
 

NoradII a écrit :

Et appliqué les effets,  les calculs d'interaction et les collisions. et cela, juste pour Havok, hein [:o_doc]


en ce temps la Havok ça n'incubait même pas... je t'en prie essaye de jouer à cette bouillie de pixel aujourd'hui et tu comprendras ce que c'était de pas avoir de CG in your PC.

NoradII a écrit :

et ce sur quoi, vous vous égarez aussi :jap:



---------------
Crossfire R9-290x/290 (1Ghz 1300mhz;1Ghz 1350),I5 4690K 4,6Ghz 1,25V; Asus sabertooth Z97 Mark2; Cooler Master HAF X; Samsung 840 PRO 128GO ; Caviar Green EARS 1TO; Caviar RED EFRX 2TO; 8GB G-SKILL 1600 cl8; CORSAIR AX860I .
n°8205822
NoradII
Il y a 17 ans naquit un PC
Posté le 01-02-2012 à 23:22:38  profilanswer
 

maerens a écrit :

en ce temps la Havok ça n'incubait même pas... je t'en prie essaye de jouer à cette bouillie de pixel aujourd'hui et tu comprendras ce que c'était de pas avoir de CG in your PC.

[:ayalou]
L'était où ton Super-sampling, coco [:typiquement] ?


---------------
valid.x86.fr/575505 /842925 /902578
n°8205828
abencq
Posté le 01-02-2012 à 23:33:31  profilanswer
 

Comme promis depuis la semaine dernière, Charlie de S|A donne enfin quelques news: http://semiaccurate.com/2012/02/01 [...] k104-fast/

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  53  54  55  ..  1028  1029  1030  1031  1032  1033

Aller à :
Ajouter une réponse
 

Sujets relatifs
Concours Nvidia / questions sur les... questionsCartes Mères Z68 GIGABYTE, laquelle choisir ?
Panneau de configuration NVIDIA ?[HFR] Actu : 5 cartes A75 FM1 pour ASRock
Probleme aprés installation carte NVIDIA GEFORCE 8400 GS[HFR] Actu : Nvidia lance les GTX 580M et 570M
[HFR] Actu : 4 cartes Socket FM1 pour Gigabyte[Topic Unique] Problème pour mettre à jour sa carte réseau
Gestion des ventilateurs 3 pins avec les cartes mères P67Configuration MCP73VE NVIDIA MCP73
Plus de sujets relatifs à : [Topic Unique] NVIDIA GeForce GTX 660Ti/670/680/690/760/770 (GK104)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)