Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3187 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  146  147  148  ..  624  625  626  627  628  629
Auteur Sujet :

[Topic-Unique] nVIDIA GeForce GTX 590/580/570 ** GF110 inside **

n°7690052
newcat
Posté le 08-12-2010 à 09:51:24  profilanswer
 

Reprise du message précédent :

romje a écrit :

Bonsoir, j'aurais des questions sur la gestion du son avec ma GTX580. Que j'ai un peux testé depuis hier et j'ai remarqué que le pilote de nvidia intégrait un pilote de son HD qui s'implémente en complément du son géré par windows seven et en complément de celui de ma carte son...
 
Résultat, c'est l'bordel et je ne comprends pas trop comment gérer cela.
 
Par exemple j'ouvre winamps, lance de la musique comme je fais souvent car mon pc est aussi ma chaine hifi, des que mes écrans se mettent en veille le son de winamps se met en veille.
 
Quand je lance un bluray, avec totalmediatheatre, le son du bluray se met a fond. impossible de baisser le son par windows ou ma carte ou les pilotes hd audio de nvidia, meme totalmediatheatre ou en baissant ou désactivant le son, il reste a fond. Ayant une audigy, si le son n'est pas géré par elle, avec mes Z680, je me retrouve avec les bass par défaut, et vous imaginez le résultat avec ces enceintes.  :D  
 
J'ai constaté plein de truc comme ça, je rencontre déjà pas mal de soucis avec seven et la gestion du son avec ma carte son. Il semblerait que l'implémentation d'une 3 ème source de gestion du son semble poser pas mal de problème.
 
L'idéale serait de ne pas utiliser les pilotes de nvidia mais ils sont implémentés dans leur pilote graphique. :sweat:


 
 
 Option de controle audio / propriétés  / selectionner les applications a prendre le controle ....  / >>> decocher "Autoriser le peripherique a  


---------------
Rien n'est vrai... mais tout est bien expliqué !!!
mood
Publicité
Posté le 08-12-2010 à 09:51:24  profilanswer
 

n°7690066
loneliness
BTC accepted here
Posté le 08-12-2010 à 10:02:16  profilanswer
 

romje a écrit :

Y a un truc que j'ai remarqué. Sur BFC2, jouant en 1920 * 1200 - aniso * 16 - fsaa * 2 sur mon 3008, on peut dire que je vois tout les détails graphique.  :D
 
J'y ai pas mal joué sur ma hd5970 malgré tout les bug et problème que j'ai rencontré, et j'ai remarqué un aspect plus fade graphiquement sur la 580 GTX. j'ai essayé de comprendre pourquoi, et j'ai mi en avant des petit détails comme par exemple la neige dans les map ou il y en a.
Dans la réalité quand il neige, les flocons venant de tomber étant des cristaux reflètent la lumière du soleil pour donner l'impression de million de petit scintillement sur la neige au sol.
 
On ressentait bien cet effet sur la hd5970. Avec la gtx580 on ne perçoit qu'une simple texture sans aucun effet de ce type. Les rochers aussi semble avoir une texture différente, plus lissé...il y a beacoup moins de cailloux et petit rocher au sol aussi.
 
Bon ce ne sont que des détails mais je préférait quand même le rendu avec ma 5970. :D  
 
En tout cas quel bonheur de pouvoir enfin jouer sans bug graphique voir très peux, clignotement de textures, de fumées, apparition d'herbes et cailloux a profusion pendant le jeu, "retour sous windows (lié au fait qu'il était installé sur un ssd bug totalement disparu depuis que j'ai repassé mon systeme et mes jeux sur disque mécanique)"...


 
Ahah toi tu utilisait les drivers 10.5 ou précédent qui rajoutait des textures et des détails là ou il ne devait pas y en avoir (comme de l'herbe en plein milieu d'une route goudronnée), un bug parmi tant d'autres sur les catalysts et pour les effets de reflets tu as du simplement désactiver le bloom....

n°7690070
loneliness
BTC accepted here
Posté le 08-12-2010 à 10:04:15  profilanswer
 

djffff a écrit :


 
Pour ceux qui aurai demandé un code, ne vous attendez pas à avoir un mail.
 
Il faut retourner sur :  
 
http://www.evga.com/articles/00594/
 
Le code sera affiché qq temps après la demande au lieu d'avoir "waiting for approval"
 


 
Bizarre j'ai eu mon code hier soir !!!

n°7690087
djffff
Time's like ocean in storm.
Posté le 08-12-2010 à 10:22:48  profilanswer
 

Moi j'ai du retourner sur la page :) pas de mail !

n°7690102
Many as On​e
Posté le 08-12-2010 à 10:48:22  profilanswer
 

djffff a écrit :


 
Pour ceux qui aurai demandé un code, ne vous attendez pas à avoir un mail.
 
Il faut retourner sur :  
 
http://www.evga.com/articles/00594/
 
Le code sera affiché qq temps après la demande au lieu d'avoir "waiting for approval"
 


merci beaucoup pour l'info, je commençais à me poser des questions.
Bizarre quand même chez EVGA, déjà ils ont dit qu'ils enverraient un mail pour nous prévenir quand souscrire, mais ce mail n'est jamais arrivé, il faut aller de soit même sur le site.
Ensuite une fois souscrit, ils redisent qu'il faut attendre un mail alors qu'en fait il faut à nouveau y aller soit même...  
S'ils envoient pas de mail, je ne vois pas pourquoi il disent d'en attendre  :??:  
 
Enfin bon, c'est pas très grave, j'ai le code, c'est tout ce qui compte. Merci pour l'info en tout cas.
 

Activation a écrit :

question débile:
 
pourquoi vous passé par un dvi/hdmi alors que les carte ont du hdmi chez AMD et du miniHDMI chez nvidia (là c'est plus con)
 
note: la partie audio des gtx570/580 est loin d'être aussi complète que celle des HD68xx / HD69xx ou même HD5xxx (en dessous de HD6xxx)
 
après ça se constate surtout avec des blu ray, pour du jeu video on y verra pas goute


Perso, je passe par un cable mini-HDMI-HDMI. EVGA en fournit un dans le bundle, et sinon ça coûte pas super cher.


Message édité par Many as One le 08-12-2010 à 10:54:57
n°7690118
Dionγsos
Posté le 08-12-2010 à 11:04:16  profilanswer
 

o_BlastaaMoof_o a écrit :

Ouais, Palit quoi :/


 

Pinto a écrit :

C'est clair! Pour moi Gainward avec leurs modèles autre que de référence c'est pareil  :kaola:


 
C'est à dire ?


---------------
La différence entre la théorie et la pratique, c'est qu'en théorie il n'y a pas de différence, mais qu'en pratique il y en a une.
n°7690123
0b1
There's good in him
Posté le 08-12-2010 à 11:06:26  profilanswer
 

secalex a écrit :


Cherche pas, il est certain que la 3D et PhysX c'est des features super utiles. [:aras qui rit]  
Il est pas capable de voir plus loin que le bout de sont nez et de réfléchir que les solutions dont il parle étaient limitées à 2 écrans à part à passer par un boîtier externe supplémentaire. :pfff:  
Avec une simple 5770 tu fais du triple screen sur de 30" ce qui est pratique pour ceux qui bossent comme dans mon cas. :hello:  
Même avec un marteau ça lui rentrera pas dans le crane. [:aras qui rit]


 
 

secalex a écrit :


Pas de pb de pilote chez Nv, c'est bien connu. [:aras qui rit]


Pas mal, 2 post : 2 troll.
100% d'efficacité.

n°7690134
kaiser52
Posté le 08-12-2010 à 11:14:59  profilanswer
 

secalex a écrit :


Cherche pas, il est certain que la 3D et PhysX c'est des features super utiles. [:aras qui rit]  
Il est pas capable de voir plus loin que le bout de sont nez et de réfléchir que les solutions dont il parle étaient limitées à 2 écrans à part à passer par un boîtier externe supplémentaire. :pfff:  
Avec une simple 5770 tu fais du triple screen sur de 30" ce qui est pratique pour ceux qui bossent comme dans mon cas. :hello:  
Même avec un marteau ça lui rentrera pas dans le crane. [:aras qui rit]


 
T'as jamais eu plus de 2 écrans sur un PC sans boitier externe et EyeSix auparavant ?
Pourtant, c'était plutôt simple.
1 carte graphique = 1 écran.
 
J'ai eu 3 écrans, avec une carte en AGP et 2 en PCI. [:spamafote]
 
Et hop, 3 écrans ! :love:
 
Bon chaque écran était indépendant, une application ne pouvais pas aller d'un écran à l'autre, mais t'avais quand même 3 écrans sans boitier externe. [:spamafote].
Donc 3 écran en 2D pour la bureautique.

Message cité 2 fois
Message édité par kaiser52 le 08-12-2010 à 11:15:39

---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°7690161
secalex
Stalker forever
Posté le 08-12-2010 à 11:36:25  profilanswer
 

0b1 a écrit :


Pas mal, 2 post : 2 troll.
100% d'efficacité.


D'accord pour le post 2 [:aras qui rit]  mais pas pour le 1. ;)  
 
Pour le 1 j'essaie d'expliquer à MEI pourquoi cela intéresse certains mais cela semble impossible. :jap:


---------------
FEED-BACK /   I phoque PiseptO (Paidai i7 Owner)
n°7690162
o_BlastaaM​oof_o
Posté le 08-12-2010 à 11:37:21  profilanswer
 

kaiser52 a écrit :


 
T'as jamais eu plus de 2 écrans sur un PC sans boitier externe et EyeSix auparavant ?
Pourtant, c'était plutôt simple.
1 carte graphique = 1 écran.
 
J'ai eu 3 écrans, avec une carte en AGP et 2 en PCI. [:spamafote]
 
Et hop, 3 écrans ! :love:
 
Bon chaque écran était indépendant, une application ne pouvais pas aller d'un écran à l'autre, mais t'avais quand même 3 écrans sans boitier externe. [:spamafote].
Donc 3 écran en 2D pour la bureautique.


Non mais sans déconner, faut quand même être un putain de hater pour ne pas reconnaître qu'AMD propose une solution bien plus pratique et bon marché que ce qu'on avait auparavant pour gérer plusieurs écrans.

mood
Publicité
Posté le 08-12-2010 à 11:37:21  profilanswer
 

n°7690163
kaiser52
Posté le 08-12-2010 à 11:38:34  profilanswer
 

o_BlastaaMoof_o a écrit :


Non mais sans déconner, faut quand même être un putain de hater pour ne pas reconnaître qu'AMD propose une solution bien plus pratique et bon marché que ce qu'on avait auparavant pour gérer plusieurs écrans.


 
Ha mais clairement, mais de la a dire que ce n'etait pas possible avant.  :??:


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°7690167
o_BlastaaM​oof_o
Posté le 08-12-2010 à 11:40:27  profilanswer
 

kaiser52 a écrit :


 
Ha mais clairement, mais de la a dire que ce n'etait pas possible avant.  :??:


C'était possible, certes, mais au prix de contraintes pratiques ou financières non négligeables.

n°7690168
secalex
Stalker forever
Posté le 08-12-2010 à 11:40:36  profilanswer
 

kaiser52 a écrit :


 
T'as jamais eu plus de 2 écrans sur un PC sans boitier externe et EyeSix auparavant ?
Pourtant, c'était plutôt simple.
1 carte graphique = 1 écran.
 
J'ai eu 3 écrans, avec une carte en AGP et 2 en PCI. [:spamafote]
 
Et hop, 3 écrans ! :love:
 
Bon chaque écran était indépendant, une application ne pouvais pas aller d'un écran à l'autre, mais t'avais quand même 3 écrans sans boitier externe. [:spamafote].
Donc 3 écran en 2D pour la bureautique.


Non, jamais :jap:  
Avant la sortie de 5870 je pensais prendre un triple head 2Go. ;)  
 
Il faillait donc payé plus pour trois écrans que ce soit avec ou sans boîtier externe. :hello:  
 
Pourquoi ne pas accepter que c'est bien pratique une CG et 3 écran et un seul bureau. [:spamafote]


---------------
FEED-BACK /   I phoque PiseptO (Paidai i7 Owner)
n°7690171
secalex
Stalker forever
Posté le 08-12-2010 à 11:42:26  profilanswer
 

o_BlastaaMoof_o a écrit :


Non mais sans déconner, faut quand même être un putain de hater pour ne pas reconnaître qu'AMD propose une solution bien plus pratique et bon marché que ce qu'on avait auparavant pour gérer plusieurs écrans.


+1 :jap:  
 

kaiser52 a écrit :


 
Ha mais clairement, mais de la a dire que ce n'etait pas possible avant.  :??:


J'ai pas dis cela mais tu interprètes à ta façon pour faire dire aux autres ce qu'il n'ont pas dit. :hello:  
 

o_BlastaaMoof_o a écrit :


C'était possible, certes, mais au prix de contraintes pratiques ou financières non négligeables.


+1 :jap:  


---------------
FEED-BACK /   I phoque PiseptO (Paidai i7 Owner)
n°7690172
0b1
There's good in him
Posté le 08-12-2010 à 11:42:55  profilanswer
 

secalex a écrit :


Non, jamais :jap:  
Avant la sortie de 5870 je pensais prendre un triple head 2Go. ;)  
 
Il faillait donc payé plus pour trois écrans que ce soit avec ou sans boîtier externe. :hello:  
 
Pourquoi ne pas accepter que c'est bien pratique une CG et 3 écran et un seul bureau. [:spamafote]


Ou accepter que la 3D et PhysX apportent - peuvent apporter - un plus?
:D

n°7690175
o_BlastaaM​oof_o
Posté le 08-12-2010 à 11:44:31  profilanswer
 

0b1 a écrit :


Ou accepter que la 3D et PhysX apportent - peuvent apporter - un plus?
:D


La 3D oui, pas PhysX dans la mesure où des solutions non propriétaires font la même chose.

n°7690176
secalex
Stalker forever
Posté le 08-12-2010 à 11:45:31  profilanswer
 

0b1 a écrit :


Ou accepter que la 3D et PhysX apportent - peuvent apporter - un plus?
:D


Ob1, c'était une pique [:aras qui rit]  
Pour la 3D je suis dubitatif  :( et pour PhysX j'ai une 8800GT pour le faire. ;)  
PhysX peu clairement être un plus si bien utilisé/codé/non bridé. :hello:


---------------
FEED-BACK /   I phoque PiseptO (Paidai i7 Owner)
n°7690182
0b1
There's good in him
Posté le 08-12-2010 à 11:49:33  profilanswer
 

o_BlastaaMoof_o a écrit :


La 3D oui, pas PhysX dans la mesure où des solutions non propriétaires font la même chose.


Comme Eyefinity ;)
 
Reste que PhysX est le plus connu / mis en avant a l'heure actuelle.
 
Du reste, c'est vraiment subjectif, cf la contradiction entre ton post et celui de secalex ;)

n°7690189
o_BlastaaM​oof_o
Posté le 08-12-2010 à 11:53:44  profilanswer
 

0b1 a écrit :


Comme Eyefinity ;)
 
Reste que PhysX est le plus connu / mis en avant a l'heure actuelle.
 
Du reste, c'est vraiment subjectif, cf la contradiction entre ton post et celui de secalex ;)


Eyefinity, c'est une solution propriétaire matérielle, l'analogie est tout à fait foireuse.
 
PhysX, c'est tellement bien que Crytek a décidé de ne pas s'en servir pour Crysis 2.

n°7690197
secalex
Stalker forever
Posté le 08-12-2010 à 12:04:25  profilanswer
 

0b1 a écrit :


Comme Eyefinity ;)
 
Reste que PhysX est le plus connu / mis en avant a l'heure actuelle.
 
Du reste, c'est vraiment subjectif, cf la contradiction entre ton post et celui de secalex ;)


Rien n'empêche Nv de faire pareil. :jap:  
Ce serait aussi un plus pour les possesseurs de cartes Nv non? :??:


---------------
FEED-BACK /   I phoque PiseptO (Paidai i7 Owner)
n°7690205
Profil sup​primé
Posté le 08-12-2010 à 12:12:51  answer
 

moi osef physx, osef eyefinity, osef cuda & co
 
tout ce que je veux quand j'achete une CG cest des perfs, que ça envoie du bois et roxe du poney, cest tout .....

n°7690208
wolfflyter
Posté le 08-12-2010 à 12:15:04  profilanswer
 


 
 
Comme c'est lié aux jeux utilisés c'est pas évident.
 
 :)


---------------
該反思的是,往往有幫助
n°7690210
Many as On​e
Posté le 08-12-2010 à 12:16:11  profilanswer
 

l'apport de PhysX dans Mirror's Edge ou Arkham Asylum est vraiment impressionnant je trouve. Mais je pense que du fait de sa fermeture, la technologie n'a pas d'avenir. J'ai l'impression que le nombre de jeu prévu la supportant ne fait que diminuer. Et le fait que 3DMark 11 abandonne PhysX est vraiment révélateur. NVidia ne dispose plus que d'une toute petite fenêtre pour ouvrir la technologie et la faire repartir sinon elle est vouée à disparaitre, imo.

n°7690211
o_BlastaaM​oof_o
Posté le 08-12-2010 à 12:16:20  profilanswer
 


Les features prennent de plus en plus d'importance puisqu'elles deviennent exploitables, c'est normal que ça intervienne au moment du choix.

n°7690214
Profil sup​primé
Posté le 08-12-2010 à 12:18:50  answer
 

non je vous dis que je OSEF !
et les jeux qui utilisent ces technos je ny jouent pas ! à part Mafia2 mais le physx est sur medium ....


Message édité par Profil supprimé le 08-12-2010 à 12:19:06
n°7690216
secalex
Stalker forever
Posté le 08-12-2010 à 12:20:51  profilanswer
 

Many as One a écrit :

l'apport de PhysX dans Mirror's Edge ou Arkham Asylum est vraiment impressionnant je trouve. Mais je pense que du fait de sa fermeture, la technologie n'a pas d'avenir. J'ai l'impression que le nombre de jeu prévu la supportant ne fait que diminuer. Et le fait que 3DMark 11 abandonne PhysX est vraiment révélateur. NVidia ne dispose plus que d'une toute petite fenêtre pour ouvrir la technologie et la faire repartir sinon elle est vouée à disparaitre, imo.


Gros +1 :jap:  
 
Arkham Asylum avec ou sans PhysX c'est pas tout à fait le même jeu :love:


---------------
FEED-BACK /   I phoque PiseptO (Paidai i7 Owner)
n°7690220
kaiser52
Posté le 08-12-2010 à 12:27:07  profilanswer
 

secalex a écrit :


J'ai pas dis cela mais tu interprètes à ta façon pour faire dire aux autres ce qu'il n'ont pas dit. :hello:  


 
[HS]
Euh,
 
Je dois interpréter ca comment :
 

Citation :

Il est pas capable de voir plus loin que le bout de sont nez et de réfléchir que les solutions dont il parle étaient limitées à 2 écrans à part à passer par un boîtier externe supplémentaire.


 
Ce que j'en conclu c'est que tout ce qu'a dit MEI est limité à 2 écrans a part en passant par un boitier externe supplémentaire.
Sachant qu'il parlait de plusieurs CG, j'en conclu, d’après ta phrase, qu'il était impossible de faire plus de 2 écran peut import le nombre de CG sans passer par un boitier externe.  :pt1cable:  
 
--------------------------------------------------------
 
Pour moi, le seul viable pour le moment, c'est CUDA :o
Mais c'est par ce que ça se rapport à ce que je fais tous les jours, mon boulot quoi.
 
Pour un particulier, que ce soit Eyefinity/TripleHead/X GPU, 3DVision/HD3D, PhysX/Bullet, Cuda/Stream, c'est beaucoup trop de contrainte. [:spamafote]
Qu'elle soit sous forme budgétaire, de place, de contrainte ou de compatibilité. :jap:
[/HS]

Message cité 1 fois
Message édité par kaiser52 le 08-12-2010 à 12:29:09

---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°7690223
o_BlastaaM​oof_o
Posté le 08-12-2010 à 12:29:18  profilanswer
 

Many as One a écrit :

l'apport de PhysX dans Mirror's Edge ou Arkham Asylum est vraiment impressionnant je trouve. Mais je pense que du fait de sa fermeture, la technologie n'a pas d'avenir. J'ai l'impression que le nombre de jeu prévu la supportant ne fait que diminuer. Et le fait que 3DMark 11 abandonne PhysX est vraiment révélateur. NVidia ne dispose plus que d'une toute petite fenêtre pour ouvrir la technologie et la faire repartir sinon elle est vouée à disparaitre, imo.


Effectivement, la liste des jeux est mince. Et c'est normal, les développeurs n'ont pas envie de trop se lier à NVIDIA et de se couper de leurs clients potentiels équipés de cartes AMD, d'autant que celles-ci sont compétitives.
 
L'apport de la physique est évident mais le résultat aurait été le même avec un autre moteur. Pas besoin de PhysX pour ça. Et d'ailleurs, plus généralement, je trouve étrange de vouloir confier cette tâche au GPU alors que le nombre de coeurs des CPU augmente rapidement sans que les développeurs puissent en tirer pleinement partie. Ne vaudrait-il pas mieux confiner l'usage du GPU au rendu ?

n°7690225
loneliness
BTC accepted here
Posté le 08-12-2010 à 12:30:07  profilanswer
 

secalex a écrit :


Gros +1 :jap:  
 
Arkham Asylum avec ou sans PhysX c'est pas tout à fait le même jeu :love:


 
Oui enfin ces effets à l'heure actuelle peuvent être crée grâce à dx11 et donc on se passe de physx qui va disparaître au fur et à mesure.

n°7690237
wolfflyter
Posté le 08-12-2010 à 12:36:42  profilanswer
 

o_BlastaaMoof_o a écrit :


Effectivement, la liste des jeux est mince. Et c'est normal, les développeurs n'ont pas envie de trop se lier à NVIDIA et de se couper de leurs clients potentiels équipés de cartes AMD, d'autant que celles-ci sont compétitives.
 
L'apport de la physique est évident mais le résultat aurait été le même avec un autre moteur. Pas besoin de PhysX pour ça. Et d'ailleurs, plus généralement, je trouve étrange de vouloir confier cette tâche au GPU alors que le nombre de coeurs des CPU augmente rapidement sans que les développeurs puissent en tirer pleinement partie. Ne vaudrait-il pas mieux confiner l'usage du GPU au rendu ?


 
Demander a un fabricant de Gpu de faire en sorte que le Cpu soit plus chargé, ne risque t'il pas de ce tirer une
balle dans le pied avec ces Gpu haut de gamme ?  :whistle:  
 
Il me semble également que pour Cpu ce n'est pas que la charge qui compte, il y a d'autres choses qui
doivent entrer en ligne de compte.
 
 :)


---------------
該反思的是,往往有幫助
n°7690238
canard rou​ge
coin coin
Posté le 08-12-2010 à 12:36:42  profilanswer
 

PhysX = Glide des effets physiques.


Message édité par canard rouge le 08-12-2010 à 12:36:54

---------------
Fait's comme les petits canards Et pour que tout l'monde se marre Remuez le popotin En f'sant coin-coin
n°7690244
seu
Posté le 08-12-2010 à 12:39:22  profilanswer
 

Le seul truc con de PhysX , c'est de s'être enfermé , ils auraient put juste proposer une accélération meilleure sur Gforce que sur Radeon (mais qui fonctionne sur les deux supports)  
 
Surtout quand tu vois certaines démo D'Havok  (qui est mieux implanté dans le monde console , et vu que celles ci sont prédominantes...)

n°7690249
Many as On​e
Posté le 08-12-2010 à 12:40:41  profilanswer
 

o_BlastaaMoof_o a écrit :


Effectivement, la liste des jeux est mince. Et c'est normal, les développeurs n'ont pas envie de trop se lier à NVIDIA et de se couper de leurs clients potentiels équipés de cartes AMD, d'autant que celles-ci sont compétitives.
 
L'apport de la physique est évident mais le résultat aurait été le même avec un autre moteur. Pas besoin de PhysX pour ça. Et d'ailleurs, plus généralement, je trouve étrange de vouloir confier cette tâche au GPU alors que le nombre de coeurs des CPU augmente rapidement sans que les développeurs puissent en tirer pleinement partie. Ne vaudrait-il pas mieux confiner l'usage du GPU au rendu ?


C'est possible, mais je n'ai rien vu qui s'en approche. Perso, je crois vraiment à l'accélération GPU du moteur physique. Seulement, je miserais plus sur un moteur utilisant une API ouverte comme OpenCL ou DirectCompute plutôt que CUDA. Imo, c'est ça l'avenir.

Message cité 1 fois
Message édité par Many as One le 08-12-2010 à 12:42:13
n°7690253
wolfflyter
Posté le 08-12-2010 à 12:42:07  profilanswer
 

Many as One a écrit :


C'est possible, mais je n'ai rien vu qui s'en approche. Perso, je crois vraiment à l'accélération GPU du moteur physique. Seulement, je miserais plus sur un moteur utilisant une API ouverte comme OpenCL ou DirectCompute. Imo, c'est ça l'avenir.


 
 :jap:  
 
 :D


---------------
該反思的是,往往有幫助
n°7690260
johnny-vul​ture
Wesh wesh ma poule !
Posté le 08-12-2010 à 12:52:21  profilanswer
 

Le PhysX c'est pour vous inciter à acheter du Nvidia
 
[:ayalou]


Message édité par johnny-vulture le 08-12-2010 à 12:52:31

---------------
http://forum.hardware.fr/hfr/Discu [...] 2237_1.htm
n°7690271
o_BlastaaM​oof_o
Posté le 08-12-2010 à 13:03:36  profilanswer
 

wolfflyter a écrit :


 
Demander a un fabricant de Gpu de faire en sorte que le Cpu soit plus chargé, ne risque t'il pas de ce tirer une
balle dans le pied avec ces Gpu haut de gamme ?  :whistle:  
 
Il me semble également que pour Cpu ce n'est pas que la charge qui compte, il y a d'autres choses qui
doivent entrer en ligne de compte.
 
 :)


Je n'ai pas dit que NVIDIA devait s'en charger, à mon sens ils n'auraient même pas dû se lancer là-dedans.

n°7690280
kaiser52
Posté le 08-12-2010 à 13:12:36  profilanswer
 

o_BlastaaMoof_o a écrit :


Je n'ai pas dit que NVIDIA devait s'en charger, à mon sens ils n'auraient même pas dû se lancer là-dedans.


 
Une entreprise de cette envergure se doit de se diversifier.
Ils ont choisi cette voie en plus du GPGPU.
 
Au pire, PhysX sera confiné dans le monde pro. :jap:
 


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°7690284
o_BlastaaM​oof_o
Posté le 08-12-2010 à 13:13:38  profilanswer
 

kaiser52 a écrit :


 
Une entreprise de cette envergure se doit de se diversifier.
Ils ont choisi cette voie en plus du GPGPU.
 
Au pire, PhysX sera confiné dans le monde pro. :jap:
 


PhysX dans le monde pro ? Qu'est-ce que les pros peuvent bien en avoir à secouer ?

n°7690285
wolfflyter
Posté le 08-12-2010 à 13:13:38  profilanswer
 

o_BlastaaMoof_o a écrit :


Je n'ai pas dit que NVIDIA devait s'en charger, à mon sens ils n'auraient même pas dû se lancer là-dedans.


 
C'est pourtant une bonne question que tu as posé  :jap:  


---------------
該反思的是,往往有幫助
n°7690288
0b1
There's good in him
Posté le 08-12-2010 à 13:16:02  profilanswer
 

secalex a écrit :


Rien n'empêche Nv de faire pareil. :jap:  
Ce serait aussi un plus pour les possesseurs de cartes Nv non? :??:


Ils le font, mais avec deux cartes.
C'est pas forcément idiot, de toute façon le mec qui achète du Eyefinity et qui joue a certainement au moins 2 cartes...

n°7690292
kaiser52
Posté le 08-12-2010 à 13:19:43  profilanswer
 

o_BlastaaMoof_o a écrit :


PhysX dans le monde pro ? Qu'est-ce que les pros peuvent bien en avoir à secouer ?


 
Il est déjà dans l'imagerie de synthèse.
Ils pourront très bien lui trouver une utilitée / d'autres secteurs. :jap:


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  146  147  148  ..  624  625  626  627  628  629

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Topic Unique] Lian Li PC-V1020[Topic Unique] IN WIN Dragon Slayer
[topic unique] Shuttle XPC SH55J2[Topic Unik] boitier PCHC Antec fusion / micro / max / nsk1480 & 2480
[Topic Unique] J&W Minix 890GX-USB3 [Mini-ITX][Test][Topic unique] Samsung Ecogreen F4 - 2 To (HD204UI)
[Topic unique] Cooler Master HAF 912 Plus[TOPIC UNIQUE] Asus Rampage 3 formula
[Topic Unique] Fractal Design Define R6 / R5 / R4 / R3 
Plus de sujets relatifs à : [Topic-Unique] nVIDIA GeForce GTX 590/580/570 ** GF110 inside **


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)