Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3159 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  13  14  15  ..  73  74  75  76  77  78
Auteur Sujet :

[Topic Unique] GT300 // La nouvelle bête de combat nvidia en 40nm

n°6958789
kaiser52
Posté le 16-05-2009 à 00:32:39  profilanswer
 

Reprise du message précédent :

Wirmish a écrit :

"En plus de cela les Radeon HD 4800 conservent bien entendu l'unité de tesselation, même si celle-ci n'est toujours utilisée par aucun jeu…"
 
À la vue du graphique ci-dessus, je comprend enfin pourquoi aucun jeu n'utilise le Tesselator.
L'explication est fort simple: Les GeForce se font casser la gueule.
Ils ont sûrement tout fait pour que personne n'utilise cette techno... qui date pourtant de 2002.
Dire que le Tesselator se retrouve aussi dans la XBox et qu'un seul jeu l'utilise... c'est triste.
 
Heureusement que DX11 arrive...


 
L'explication est fort simple, la teselation ne fait pas parti des spécifications DX10.
 
Pour faire grossier, tu mettrais 3 piles dans une lampe qui en utilise deux pour fonctionner a 100% ?


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
mood
Publicité
Posté le 16-05-2009 à 00:32:39  profilanswer
 

n°6958798
wizerty
Posté le 16-05-2009 à 00:41:54  profilanswer
 

kaiser52 a écrit :


 
L'explication est fort simple, la teselation ne fait pas parti des spécifications DX10.
 
Pour faire grossier, tu mettrais 3 piles dans une lampe qui en utilise deux pour fonctionner a 100% ?


Ca je connais, et oui tu peux, ça clairera plus fort  :lol: , mais pour combien de temps  :heink:  

n°6958820
kaiser52
Posté le 16-05-2009 à 01:05:30  profilanswer
 

wizerty a écrit :


Ca je connais, et oui tu peux, ça clairera plus fort  :lol: , mais pour combien de temps  :heink:  


 
Métaphore pas compris !  :o  
 
En gros t'as la lampe :
 
Cul                  Chassi
 v                        v
                                                 ____
 __        ______________________/      |                      :love:  
|  |       |                                         |                      :love:  
|_|       |______________________      |                      :love:  
                                                \___|                       :love:  
 
1) Ta notice te dit qu'il te faut 2 piles pour faire contact (Sachant que les piles font office de câble et de batterie en même temps), que ta lampe s'allume et que les piles ne tombent pas !      
2) Si tu en mets 3, va falloir tirer un câble du châssis au cul pour fermer le circuit pour que le courant passe, et que tu scotches le bordel pour que les piles ne tombes pas !      
 
Bah DirectX 10 c'est le châssis, les 2 premières piles c'est les SP, la 3iéme c'est le tesselator, le cul c'est le programme et la notice c'est les spécifications DirectX 10.  
 
Donc en 1) ca marche partout sans être bancale et ca respectes les spécifications.  
Et en 2) ca marché aussi, mais ca risque d'être bancale et ca ne respect pas les spécifications.
 
 :jap:


Message édité par kaiser52 le 16-05-2009 à 01:06:35

---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°6958845
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 16-05-2009 à 01:40:24  profilanswer
 

kaiser52 a écrit :

L'explication est fort simple, la teselation ne fait pas parti des spécifications DX10.


Petite rectification...
 
La tesselation a été retirée des specs finales de DX10 à la demande de nVidia qui ne l'avait pas implémenté à temps, mais elle fesait parti des premières spécifications. Lorsque Microsoft a plié les genoux devant nVidia, l'archi d'ATi était déja trop avancée pour la modifier. Les techs d'ATi ont donc perdu pas mal de temps à implémenter des trucs inutiles (pcq non utilisés), tandis que les techs de nVidia se concentrait sur la puissance brute et laissait de côté tout ce qui fait parti de DX10.1. Cela a permis à nVidia de sortir son G80 en premier et de rêgner en maître pendant presque 2 ans. De son côté ATi a livré son R600 en retard pcq sa puce respectait à la lettre les premières spécifications de DX10.
DX10.1 est en fait ce qu'aurait dû être DX10, et si on ajoute les compute shaders on a pratiquement les specs de DX11. http://www.dame-tortue.com/smileys%20kolobok/KOLOBOK/remake/rtfm.gif
En fait c'est comme si nVidia avait implémenté un genre de DirectX 9.5 et que Crossoft l'a renommé DX10.
Et afin de ne pas trop mettre en rogne ATi, Microsoft a eu la bonté de créer un DX10.1 exprès pour eux.
Suffisait ensuite à nVidia de menacer payer "suggérer" aux concepteurs de jeux de ne pas utiliser le DX10.1.
 
Microsoft a cédé aux supplications de nVidia, tout comme il a cédé à celles d'Intel en offrant un Vista sans Aero à cause des IGP de merde incapables de faire tourner 3 ou 4 babioles. La seule fois où Crossoft a cédé à AMD, c'était pour le 64 bit.

n°6958865
bjone
Insert booze to continue
Posté le 16-05-2009 à 02:23:38  profilanswer
 

Ouais enfin c'est un peu plus subtile que ça, faut pas être aussi manichéen.

n°6958867
sasuke87
Posté le 16-05-2009 à 02:37:52  profilanswer
 

Wirmish a écrit :


Petite rectification...

 

La tesselation a été retirée des specs finales de DX10 à la demande de nVidia qui ne l'avait pas implémenté à temps, mais elle fesait parti des premières spécifications. Lorsque Microsoft a plié les genoux devant nVidia, l'archi d'ATi était déja trop avancée pour la modifier. Les techs d'ATi ont donc perdu pas mal de temps à implémenter des trucs inutiles (pcq non utilisés), tandis que les techs de nVidia se concentrait sur la puissance brute et laissait de côté tout ce qui fait parti de DX10.1. Cela a permis à nVidia de sortir son G80 en premier et de rêgner en maître pendant presque 2 ans. De son côté ATi a livré son R600 en retard pcq sa puce respectait à la lettre les premières spécifications de DX10.
DX10.1 est en fait ce qu'aurait dû être DX10, et si on ajoute les compute shaders on a pratiquement les specs de DX11. http://www.dame-tortue.com/smileys [...] e/rtfm.gif
En fait c'est comme si nVidia avait implémenté un genre de DirectX 9.5 et que Crossoft l'a renommé DX10.
Et afin de ne pas trop mettre en rogne ATi, Microsoft a eu la bonté de créer un DX10.1 exprès pour eux.
Suffisait ensuite à nVidia de menacer payer "suggérer" aux concepteurs de jeux de ne pas utiliser le DX10.1.

 

Microsoft a cédé aux supplications de nVidia, tout comme il a cédé à celles d'Intel en offrant un Vista sans Aero à cause des IGP de merde incapables de faire tourner 3 ou 4 babioles. La seule fois où Crossoft a cédé à AMD, c'était pour le 64 bit.

 

:lol:

 

Je présume que tu fais une petite allusion à assassin creed (entre autre)  :whistle:

Message cité 2 fois
Message édité par sasuke87 le 16-05-2009 à 02:38:33
n°6958875
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 16-05-2009 à 03:10:17  profilanswer
 

sasuke87 a écrit :

:lol:  
 
Je présume que tu fais une petite allusion à assassin creed (entre autre)  :whistle:


C'est fort possible.
 
J'ai même cru comprendre que certains programmeurs d'Ubisoft n'étaient pas très heureux de devoir zigouiller le code path de DX10.1.
Mais je dis ça comme ça. C'est pas comme si je connaissais personnellement certains de ces programmeurs...

n°6958878
campi
V8 FTW
Posté le 16-05-2009 à 03:32:14  profilanswer
 

Après voir avoir lu j'ai vu que certains disaient que le G80 était une daube... Ok suivant vos bench différents ça se tient.
 
Mais ayant testé une 8800 ultra en jeu il n'y a aucun rapport et on pourra me parler de n'importe quelle théorie pour moi cette carte en a toujours dans le ventre :)


---------------
Aye aye aye, s'il va sur l'autoroute il est mort, on a plus de puiZZanZe!
n°6958879
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 16-05-2009 à 03:33:53  profilanswer
 

La daube c'est le GT200... si on regarde le rapport perfs/taille.

n°6958881
Profil sup​primé
Posté le 16-05-2009 à 03:54:10  answer
 

le GT200 est parfait. Pour du haut de gamme. Malheureusement ça concerne une niche d'acheteur.
Le max des ventes c'est l'entrée, puis le milieu de gamme, impossible à créer à partir du GT200.
D'ou l'astuce de prendre la génération précédente (G80) et décaler la gamme d'un cran (haut->milieu, milieu->entrée).
 

mood
Publicité
Posté le 16-05-2009 à 03:54:10  profilanswer
 

n°6958884
marllt2
Posté le 16-05-2009 à 04:18:41  profilanswer
 

wizerty a écrit :

Si ils ont des cartes plus performante et qui dispose de techno facilitant la programmation les développeurs devraint se tourner naturellement vers ses technos non?


C'est oublier le TWIMTB.
 

bjone a écrit :

Ouais enfin c'est un peu plus subtile que ça, faut pas être aussi manichéen.


Un représentant de MS à une conférence de nVidia a été lui beaucoup moins subtil. En disant que DX10.1 ne servait à rien.
 
Si MS lui-même dit que DX10.1 ne sert à rien, c'est qu'il y a un petit problème quelque part...
 

sasuke87 a écrit :

Je présume que tu fais une petite allusion à assassin creed (entre autre)  


Et que dire de Far Cry 2 (TWIMTBP), où les développeurs ont dit que DX10.1 n'apportait rien part rapport à DX10.
 
Sauf qu'ils ont quand même implémenté un mode DX10.1. Très logique ça. [:yamusha]  
 
 

campi a écrit :

Après voir avoir lu j'ai vu que certains disaient que le G80 était une daube... Ok suivant vos bench différents ça se tient.
 
Mais ayant testé une 8800 ultra en jeu il n'y a aucun rapport et on pourra me parler de n'importe quelle théorie pour moi cette carte en a toujours dans le ventre :)


Ok un autre exemple:
 
En 2007, MS Aces studio (TWIMTBP là aussi) était en train de développer un patch DX10 pour FSX. Ils voulaient au départ implémenter des Geometry Shaders (le genre de truc donc FS aurait besoin).
 
Quand ils ont reçu des 2900XT ils ont donc testé les GS, et ont constaté qu'ils étaient bien plus perf qu'une 8800 GTX:  http://blogs.msdn.com/ptaylor/

Citation :

"We really want to see final ATI hw and production quality NV and ATI drivers before we ship our DX10 support.  
Early tests on ATI hw show their geometry shader unit is much more performant than the GS unit on the NV hw. That could influence our feature plan."


Problème: avec la part de marché de nV sur les cartes DX10 (facile > 80%), ils n'allaient pas mettre une fonction qui met à la ramasse 80% du parc installé. Surtout que déjà sans ça FSX était déjà assez lent.
 
Confirmé par HFR: http://www.hardware.fr/articles/67 [...] -2400.html
 

Citation :

Pour ce test, nous avons décidé de n'intégrer aucun des jeux DirectX 10 disponibles puisque l'un est développé dans le camp Nvidia et l'autre dans le camp AMD. Nous préférons donc attendre pour y voir plus clair.
 
Néanmoins, nous pouvons maintenant confirmer sans le moindre doute que les GeForce 8 souffrent d'un gros problème de performances lorsque l'amplification de la géométrie est utilisée dans les geometry shaders. La raison est que ces GPUs doivent garder toutes les données dans le GPU, or l'amplification de la géométrie peut en générer énormément. Pour leur permettre de rester dans le GPU, les GeForce 8 doivent réduire le nombre d'éléments traités en parallèle. [...]  
 
Du côté d'AMD, un cache L2 général qui permet de cacher les lectures écritures est utilisé pour offrir au GPU un nombre virtuellement illimité de registres accessibles plus ou moins efficacement. Ils permettent au GPU de continuer à fonctionner d'une manière optimale en écrivant les valeurs générées par le geometry shader dans la mémoire vidéo dès qu'il n'y a plus assez de registres "hardware".  
 
Le gain en performances peut être énorme, nous avons remarqué des différences de l'ordre de 50X (pas %!) entre AMD et Nvidia. Bien entendu reste à voir ce que vont faire les développeurs de cette possibilité. Nvidia ne les incitera bien entendu pas à en abuser.

Message cité 1 fois
Message édité par marllt2 le 16-05-2009 à 04:30:39
n°6958929
god is dea​d
Demain, j'arrête de poster.
Posté le 16-05-2009 à 09:37:33  profilanswer
 

Dans un joli monde, dans lequel l'argent n'aurait pas lieu, pas + que la concurrence, le monopole et tout le bordel, le r600 aurait été favorisé vu qu'il collait le + aux spec de dx10.  
 
Pour autant, le g80 étant arrivé avant et bénéficiant des performances de très haut vol sous dx9, le tout combiné aux grave lacunes du r600 ,dont on ne parle curieusement pas tiens, que devaient faire les dev ? Utiliser à fond les potentialités du r600 dx10 en limitant au maximum le texturing et le filtrage, en délaissant ainsi la très grande majorité des joueurs équipés de g80 au profit d'une minorité ?
 
Je ne veux pas dire, mais si le r600 n'avait pas était en retard et si il avait été plus efficace et équilibré (puissance de filtrage ridicule et aa douteux), on aurait peut être eu autre chose.  
 
Alors oui, Nvidia profite de sa position monopolistique, comme le ferait sans doute son concurrent. En attendant ATI a merdé dans la conception de son r600. Il avait beau coller à dx10, ses perfs en retrait sur les applis du moment et les divers problèmes d'archi, de conso et de bruit, ne sont pas à éluder.
 
Faudrait un peu se sortir de cette image du méchant Nvidia et du gentil ATI qu'on empêche de vivre. Le r600 n'est pas une réussite, ça c'est un fait, et la faute n'incombe pas à Nvidia.
 
:spamafote:

Message cité 2 fois
Message édité par god is dead le 16-05-2009 à 09:41:45

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°6958931
mac fly
Posté le 16-05-2009 à 09:41:32  profilanswer
 

+1 :jap: ça me parait tout aussi évident.

n°6958937
ftp381
ça fûme!
Posté le 16-05-2009 à 09:49:03  profilanswer
 

bien dommage pour ATI ce foirage R600 (sauf sans AA où il était bien perf).
 
ils sont quand même sortis du creux de la vague avec leurs nouvelles gammes dont le prix de revient est mieux maîtrisé que chez NV... ce qui leur permet d'être compétitifs sans sacrifier leur marge.
 
pour le consommateur c'est bien et cela oblige NV à ne pas dormir sur ses lauriers.
 
a priori que du bon pour nous :)


---------------
"Bite my shiny metal ass."
n°6958947
marllt2
Posté le 16-05-2009 à 09:59:25  profilanswer
 

god is dead a écrit :

Je ne veux pas dire, mais si le r600 n'avait pas était en retard et si il avait été plus efficace et équilibré (puissance de filtrage ridicule et aa douteux), on aurait peut être eu autre chose.  
 
Alors oui, Nvidia profite de sa position monopolistique, comme le ferait sans doute son concurrent. En attendant ATI a merdé dans la conception de son r600. Il avait beau coller à dx10, ses perfs en retrait sur les applis du moment et les divers problèmes d'archi, de conso et de bruit, ne sont pas à éluder.


On a pas dit le contraire.  ;) Mon post était juste pour clôre l'histoire des GS.

n°6958957
god is dea​d
Demain, j'arrête de poster.
Posté le 16-05-2009 à 10:06:12  profilanswer
 

Je parle pas pour toi, je sais que t'es objectif et neutre. Mais ce n'est pas le cas de tout le monde ici, hein :d


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°6958991
Activation
21:9 kill Surround Gaming
Posté le 16-05-2009 à 10:38:26  profilanswer
 

moi je sais pas mais ça à bon dos
 
pourquoi ne pas avoir fais au dit jeu(x) un patch pour ati et un patch pour nvidia alors
là je pense à assassin's creed
car bon désolé mais quand je vois le patch de ce jeu... 35Mo
 
nop désolé ça les aurait pas tué dans faire 2 un part constructeur si ça arrachait sa maman et envoyait tant de bois
 
mais c est bien sur j oubliais le truc important de l histoire... meme sans le patch (donc en dx10.1) le jeu était déjà fluide aussi bien chez ati que chez nvidia
 
moi dans l idée que les devs on juste eu pas envie de se faire chier pour rien, alors le "la machination nvidia c'est des salopes" j'y croit moyen car franchement... quel interet
 
surtout que y a un truc clairement evident ... c est que ce jeu est bourré de bug suite à un portage plutot foireux (le fait que ça soit fluide ne veut pas dire qu il y a pas de bug)
 
 
ça d ailleurs ça m enerve quand une nouvelle carte sort c'est toujours le sacro saint framerate qui fait loi
que dans le jeu les texture clignote le ciel soit vert l herbe bleu on s'en tamponne le coquillage
le critère le sacro saint framerate de merde
 
avec les petites paroles genre YEEEEEEEEESSS ma ati fait 85fps et ta nvidia fait 82fps ... je t ai baiissssssssééé
 
perso moi c est plutot de la stabilité que je cherche et que j attend d'une carte (ce qu'un possesseur de winXP cracheur sur vista peut pas comprendre... malheureusement très répandu ces petites bete)
 
cette stabilité c est le drivers qui l apporte pour le plus gros
 
après appelé ça pas de bol, ou mauvaise fois, j ai toujours été moins emmerdé par les nvidia que les ati (genre avoir attendu 5 mois pour un drivers stable pour les HD48xx alors que le RV770 n est qu une evo du RV670)
 
au passage on parle de assassin's creed comme l'exemple de la polémique dx10/dx10.1
mais faut m expliquer un truc
Prince Of Persia du meme editeur sorti en dec 2008
visiblement utilisant le meme moteur (perso je vois pas trop la diff entre notre cher assassin et le petit prince)
 
bref les spécialiste du "complot" ils l on pas décrié ce jeu "prince of persia"
ils l ont pas décortiqué dans tout les sens
ce sont ils meme posé la question "il est dx10 ou dx10.1 celui là ?"
 
pas de patch à bah merde, pas moyen de faire un scandale
 
mais si ça se trouve le vil nvidia à mit dans prince of persia une ligne de code qui désinstalle vos catalyst quand vous y joué avec une ati
voilà j'ai lancé la vague de parano sur ce jeu, tout bon marchand de complot qui parcours ce forum ira installé prince of persia pour donner de la vigueur à sont venin si il arrive à prouver que les ati sont 10% plus rapide que les nvidia car peut etre que secretement dx10.1 est de retour sur ce jeu niark niark niark

n°6959019
Activation
21:9 kill Surround Gaming
Posté le 16-05-2009 à 11:03:43  profilanswer
 

marllt2 a écrit :


 
 
En 2007, MS Aces studio (TWIMTBP là aussi) était en train de développer un patch DX10 pour FSX. Ils voulaient au départ implémenter des Geometry Shaders (le genre de truc donc FS aurait besoin).
 
Quand ils ont reçu des 2900XT ils ont donc testé les GS, et ont constaté qu'ils étaient bien plus perf qu'une 8800 GTX:  http://blogs.msdn.com/ptaylor/

Citation :

"We really want to see final ATI hw and production quality NV and ATI drivers before we ship our DX10 support.  
Early tests on ATI hw show their geometry shader unit is much more performant than the GS unit on the NV hw. That could influence our feature plan."


Problème: avec la part de marché de nV sur les cartes DX10 (facile > 80%), ils n'allaient pas mettre une fonction qui met à la ramasse 80% du parc installé. Surtout que déjà sans ça FSX était déjà assez lent.
 


 
 
moi j aurais été eux je les aurait mit tout de meme  
meme si pour autant ça aurais couché les CG
 
les FS est une serie de jeu à part (et terminé ??? y aura t il seulement un nouveau FS vu que microsoft à quasi fermé toute ses branche de dev de jeux ? pas de nouveau age of empires à l horizon, pas de nouveau midtown madness)
 
bref partant de là et vu que les accros de ce jeu sont pas à l achat d une carte graph "dédié"  
 
déjà que FS-X était de toute facon plombé par ses perf de "merde" aux yeux du grand public (qui lui s'en fout un peu de Flight simulator)
bref au moins ça aurait pérénisé le jeu sur l avenir
 
moi le gout amer que FSX m'a laissé je suis plutot resté sur FS2004 (dont j ai des add on qu on jamais été porté sur FS-X d ailleurs)
 
et niveau simu me suis mit en plus à ship simulator
 
au passage c est nul car y a plein de simu sympa (genre engin de chantier et etc...) qui n arrive pas en france
 
pourtant c est en allemagne bref...  
http://www.astragon.de/index.php?cPath=33

n°6959087
sasuke87
Posté le 16-05-2009 à 12:23:16  profilanswer
 

campi a écrit :

Après voir avoir lu j'ai vu que certains disaient que le G80 était une daube... Ok suivant vos bench différents ça se tient.

 

Mais ayant testé une 8800 ultra en jeu il n'y a aucun rapport et on pourra me parler de n'importe quelle théorie pour moi cette carte en a toujours dans le ventre :)

 

Attention je ne dis pas que le g80 est une daube en jeu, je dis juste qu'il n' a pas vraiment favorisé l'implantation des news techno de DX10... Bon le R600 n' a pas changé grand chose vu qu'il avait des lacunes ailleurs...


Message édité par sasuke87 le 16-05-2009 à 12:43:43
n°6959095
sasuke87
Posté le 16-05-2009 à 12:30:52  profilanswer
 

god is dead a écrit :

Dans un joli monde, dans lequel l'argent n'aurait pas lieu, pas + que la concurrence, le monopole et tout le bordel, le r600 aurait été favorisé vu qu'il collait le + aux spec de dx10.  
 
Pour autant, le g80 étant arrivé avant et bénéficiant des performances de très haut vol sous dx9, le tout combiné aux grave lacunes du r600 ,dont on ne parle curieusement pas tiens, que devaient faire les dev ? Utiliser à fond les potentialités du r600 dx10 en limitant au maximum le texturing et le filtrage, en délaissant ainsi la très grande majorité des joueurs équipés de g80 au profit d'une minorité ?
 
Je ne veux pas dire, mais si le r600 n'avait pas était en retard et si il avait été plus efficace et équilibré (puissance de filtrage ridicule et aa douteux), on aurait peut être eu autre chose.  
 
Alors oui, Nvidia profite de sa position monopolistique, comme le ferait sans doute son concurrent. En attendant ATI a merdé dans la conception de son r600. Il avait beau coller à dx10, ses perfs en retrait sur les applis du moment et les divers problèmes d'archi, de conso et de bruit, ne sont pas à éluder.
 
Faudrait un peu se sortir de cette image du méchant Nvidia et du gentil ATI qu'on empêche de vivre. Le r600 n'est pas une réussite, ça c'est un fait, et la faute n'incombe pas à Nvidia.
 
:spamafote:


 
+1
 
Mias là où ils "merdent" le plus, c'est dans l'implantation de leurs techno chez les développeurs. Il serait temps qu'AMD se bouge pour avoir quelque chose d'équivalent au twimtb.
 

god is dead a écrit :


Pour autant, le g80 étant arrivé avant et bénéficiant des performances de très haut vol sous dx9, le tout combiné aux grave lacunes du r600 ,dont on ne parle curieusement pas tiens, que devaient faire les dev ? Utiliser à fond les potentialités du r600 dx10 en limitant au maximum le texturing et le filtrage, en délaissant ainsi la très grande majorité des joueurs équipés de g80 au profit d'une minorité ?


 
C'est ce qui ce fait sur les jeux xbox non?  :whistle:  
 

Activation a écrit :

moi je sais pas mais ça à bon dos
 
pourquoi ne pas avoir fais au dit jeu(x) un patch pour ati et un patch pour nvidia alors
là je pense à assassin's creed
car bon désolé mais quand je vois le patch de ce jeu... 35Mo
 
nop désolé ça les aurait pas tué dans faire 2 un part constructeur si ça arrachait sa maman et envoyait tant de bois
 
mais c est bien sur j oubliais le truc important de l histoire... meme sans le patch (donc en dx10.1) le jeu était déjà fluide aussi bien chez ati que chez nvidia
 
moi dans l idée que les devs on juste eu pas envie de se faire chier pour rien, alors le "la machination nvidia c'est des salopes" j'y croit moyen car franchement... quel interet
 
surtout que y a un truc clairement evident ... c est que ce jeu est bourré de bug suite à un portage plutot foireux (le fait que ça soit fluide ne veut pas dire qu il y a pas de bug)
 
 
ça d ailleurs ça m enerve quand une nouvelle carte sort c'est toujours le sacro saint framerate qui fait loi
que dans le jeu les texture clignote le ciel soit vert l herbe bleu on s'en tamponne le coquillage
le critère le sacro saint framerate de merde
 
avec les petites paroles genre YEEEEEEEEESSS ma ati fait 85fps et ta nvidia fait 82fps ... je t ai baiissssssssééé
 
perso moi c est plutot de la stabilité que je cherche et que j attend d'une carte (ce qu'un possesseur de winXP cracheur sur vista peut pas comprendre... malheureusement très répandu ces petites bete)
 
cette stabilité c est le drivers qui l apporte pour le plus gros
 
après appelé ça pas de bol, ou mauvaise fois, j ai toujours été moins emmerdé par les nvidia que les ati (genre avoir attendu 5 mois pour un drivers stable pour les HD48xx alors que le RV770 n est qu une evo du RV670)
 
au passage on parle de assassin's creed comme l'exemple de la polémique dx10/dx10.1
mais faut m expliquer un truc
Prince Of Persia du meme editeur sorti en dec 2008
visiblement utilisant le meme moteur (perso je vois pas trop la diff entre notre cher assassin et le petit prince)
 
bref les spécialiste du "complot" ils l on pas décrié ce jeu "prince of persia"
ils l ont pas décortiqué dans tout les sens
ce sont ils meme posé la question "il est dx10 ou dx10.1 celui là ?"
 
pas de patch à bah merde, pas moyen de faire un scandale
 
mais si ça se trouve le vil nvidia à mit dans prince of persia une ligne de code qui désinstalle vos catalyst quand vous y joué avec une ati
voilà j'ai lancé la vague de parano sur ce jeu, tout bon marchand de complot qui parcours ce forum ira installé prince of persia pour donner de la vigueur à sont venin si il arrive à prouver que les ati sont 10% plus rapide que les nvidia car peut etre que secretement dx10.1 est de retour sur ce jeu niark niark niark


 
Tu es fou  :lol:

Message cité 1 fois
Message édité par sasuke87 le 16-05-2009 à 13:37:37
n°6959097
campi
V8 FTW
Posté le 16-05-2009 à 12:33:00  profilanswer
 

A oui c'est sur :jap:
 
Mais le R600 souffrait en AA... Donc dans les deux cas on aurait eu une solution pourrie :D
 
Et vista ne courrait pas les rues non plus, donc nvidia avait bien calculé le truc quand même en privilégiant la puissance en dx9


---------------
Aye aye aye, s'il va sur l'autoroute il est mort, on a plus de puiZZanZe!
n°6959168
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 16-05-2009 à 13:23:57  profilanswer
 

Je n'ai rien contre le fait qu'une compagnie calcule le temps qu'il faudrait pour implémenter quelques trucs en DX10.1 dans un jeu, puis abandonne l'idée car trop coûteuse, ou trop compliquée.
 
Par contre, ce qui me dégoute totalement, c'est quand un fabriquant de carte graphique paie des compagnies (4 millions pour Ubisoft) afin que celles-ci ne développent pas de jeux qui tournent plus rapidement (DX10.1 + AA), ou sont plus beaux (Tesselation), sur les cartes du concurrent, tout simpement parce que cette compagnie n'a pas implémenté ces technologie. "Ne faites pas ça car moi je peux pas le faire!"
 
Dans les faits l'implémentation de DX10.1, dans certaines parties du code, ne prend qu'une semaine, est simple a mettre en oeuvre, et augmente considérabement les perfs lorsqu'on utilise les filtres.
 
De plus, dans l'exemple d'Assassin Creed, il ne faut pas oublier que c'est le jeu original qui était compatible DX10.1, et que Ubisoft a développé un patch (temps + argent) qui fesait disparaître les optimisations DX10.1. Et en plus ils ont eu le culot d'inventer une histoire de bug, qui a naturellement été impossible à détecter par tous les sites de hardware qui ont testé le jeu sans le patch. Mais ce qu'ils ont détecté, c'est que le jeu sans patch était bien plus rapide sur les Radeons lorsqu'on activait les filtres (+25% FPS).
 
C'est la même chose qu'Intel qui paie des compagnies afin qu'elles ne vendent pas, ou retarde de 6 mois la sortie de PC équippés de processeurs AMD. C'est non seulement immoral, mais c'est aussi illégal.
 
Au lieu de vanter la qualité/puissance/conso de leur produits afin de convaincre les compagnies qu'ils sont les meilleurs, nVidia et Intel leur donne de l'argent, paient leurs pubs, ou leur offre des ristournes, à la condition de mettre AMD de côté. Ils ne se battent pas avec leurs produits, mais avec leur argent. Une vraie bande de pleutres.
 
Voilà.

n°6959177
sasuke87
Posté le 16-05-2009 à 13:32:53  profilanswer
 

AMD n'a qu'à faire pareil et tout le monde sera content  :D Et on l'aura le merveilleux monde dont God is not Dead nous parle.

n°6959190
kaiser52
Posté le 16-05-2009 à 13:45:36  profilanswer
 

sasuke87 a écrit :


 
+1
 
Mias là où ils "merdent" le plus, c'est dans l'implantation de leurs techno chez les développeurs. Il serait temps qu'AMD se bouge pour avoir quelque chose d'équivalent au twimtb.
 


 
Mais c'est déjà le cas ^^
Tu prends doom 3, il est TWIMTBP et GITG (Get In The Game) c'est juste que ATI ne paye pas pour avoir son logo.
Le programme GITG de ATI comporte autant de jeux que celui de TWIMTBP.
 
J'avais posté un lien jadis sur HFR, je vais rechercher cette liste.
 
[Edit :]

kaiser52 a écrit :


 
T'es sur ??
Ce serait le pied que les Jeux sortent, et que'on trouve un patch GITG ou un patch TWIMTBP, comme ca plus de problemes de perfs. Ce serait Genail mais ca doit couter bien chere.
 
edit :
 
J'ai trouvé ca :  


Mais Crysis n'aparait pas sur la liste de ATI ???
 
edit2 : Doom3, FarCry, Stalker sont TWIMTBP et GITG XD
à en croire que y'à que nvidia qui paye pour avoir son logo.


 
liens hfr
 
Mais le liens ne marche plus, il faut reussir a retrouver cette liste sur le nouveau site  :lol:


Message édité par kaiser52 le 16-05-2009 à 13:52:39

---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°6959217
kaiser52
Posté le 16-05-2009 à 14:03:55  profilanswer
 

Wirmish a écrit :


Je n'ai rien contre le fait qu'une compagnie calcule le temps qu'il faudrait pour implémenter quelques trucs en DX10.1 dans un jeu, puis abandonne l'idée car trop coûteuse, ou trop compliquée.
 
On est d'accord !
 
Par contre, ce qui me dégoute totalement, c'est quand un fabriquant de carte graphique paie des compagnies (4 millions pour Ubisoft) afin que celles-ci ne développent pas de jeux qui tournent plus rapidement (DX10.1 + AA), ou sont plus beaux (Tesselation), sur les cartes du concurrent, tout simpement parce que cette compagnie n'a pas implémenté ces technologie. "Ne faites pas ça car moi je peux pas le faire!"
 
Tu te souviens pas d'il y'a peut-être 8ans de ca, quand ATI faisait la promotion de leur tesselation (N-Patch) ? (Avec la tete de l'anti de CS 1.5, ou le Mother truc de Quake 2 !), quand de sont coté nVIDIA essayait avec les RT-Patchs ?
Ca a pas percé dans le monde du jeux video car personne n'en voulait, même sir les N-Patch étaient plus simple a programmer.
Pourtant il a bien fait une apparition sur Return To Castle Wolfenstein.
 
Dans les faits l'implémentation de DX10.1, dans certaines parties du code, ne prend qu'une semaine, est simple a mettre en oeuvre, et augmente considérabement les perfs lorsqu'on utilise les filtres.
 
De plus, dans l'exemple d'Assassin Creed, il ne faut pas oublier que c'est le jeu original qui était compatible DX10.1, et que Ubisoft a développé un patch (temps + argent) qui fesait disparaître les optimisations DX10.1. Et en plus ils ont eu le culot d'inventer une histoire de bug, qui a naturellement été impossible à détecter par tous les sites de hardware qui ont testé le jeu sans le patch. Mais ce qu'ils ont détecté, c'est que le jeu sans patch était bien plus rapide sur les Radeons lorsqu'on activait les filtres (+25% FPS).

 
Pour moi, DX10.1 c'est comme le 64Bits. C'est bien mais pour le moment le grand public n'en a rien a faire (même si je suis passé en 64bits  :love: ), et ca se devellope pas.
Surtout que jusqu'à présent DX10.1 n'améliore pas le visuel.
 
C'est la même chose qu'Intel qui paie des compagnies afin qu'elles ne vendent pas, ou retarde de 6 mois la sortie de PC équippés de processeurs AMD. C'est non seulement immoral, mais c'est aussi illégal.
 
Et le coup du Ion ? Y'a pas que AMD qui est touché !
 
Au lieu de vanter la qualité/puissance/conso de leur produits afin de convaincre les compagnies qu'ils sont les meilleurs, nVidia et Intel leur donne de l'argent, paient leurs pubs, ou leur offre des ristournes, à la condition de mettre AMD de côté. Ils ne se battent pas avec leurs produits, mais avec leur argent. Une vraie bande de pleutres.
 
C'est ca le marketing...
 
Voilà.



---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°6959230
god is dea​d
Demain, j'arrête de poster.
Posté le 16-05-2009 à 14:11:49  profilanswer
 

Oui enfin le marketing ne fait pas tout... Qui peut mettre en doute l'efficacité du g80 et des core 2 ? Qui peut mettre en doute l'échec du r600 et encore + du Phenom ? Le marketing est d'autant plus efficace que le produit vanté est réellement intéressant. Ce qui n'était pas le cas du r600 et du Phenom.
 
A l'heure actuelle on ne peut vraiment pas dire que le rv770 soit délaissé, vu les perfs. Ni sous-médiatisé non plus.
 
Donc bon, y a marketing et qualité des produits. Wirmish semble découvrir les lois qui régissent le marché, qui régissent la société, qui régissent le monde finalement, étonnant.

Message cité 2 fois
Message édité par god is dead le 16-05-2009 à 14:12:21

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°6959240
sapphire a​depte xd
Posté le 16-05-2009 à 14:18:31  profilanswer
 

La société de conso au final avec tous les facteurs libéraux/capitalistes qui les entourents :/

n°6959246
god is dea​d
Demain, j'arrête de poster.
Posté le 16-05-2009 à 14:20:48  profilanswer
 

Après c'est à nous d'être vigilant et de se renseigner au préalable. Faudrait pas non plus tout mettre sur le dos du marketing, si un produit est réellement bon, on a le moyen de le savoir. D'où HFR, d'où Mat.Be, d'où les forums, etc.


Message édité par god is dead le 16-05-2009 à 14:21:04

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°6959256
sapphire a​depte xd
Posté le 16-05-2009 à 14:29:35  profilanswer
 

Biensur, et de toute façon si on ne fonctionne pas comme un mouton, le fait d'être des êtres humains nous a gentiment offert un cerveau avec un esprit critique ( certes plus ou moins developpé après...) !

n°6959381
sasuke87
Posté le 16-05-2009 à 16:08:47  profilanswer
 

god is dead a écrit :

Oui enfin le marketing ne fait pas tout... Qui peut mettre en doute l'efficacité du g80 et des core 2 ? Qui peut mettre en doute l'échec du r600 et encore + du Phenom ? Le marketing est d'autant plus efficace que le produit vanté est réellement intéressant. Ce qui n'était pas le cas du r600 et du Phenom.
 
A l'heure actuelle on ne peut vraiment pas dire que le rv770 soit délaissé, vu les perfs. Ni sous-médiatisé non plus.
 
Donc bon, y a marketing et qualité des produits. Wirmish semble découvrir les lois qui régissent le marché, qui régissent la société, qui régissent le monde finalement, étonnant.


 
Le marketing ne fait pas tout, c'est clair... mais le négliger est à mon sens une grave erreur. Justement tu as pris l'exemple du RV770, tous les connaisseurs sont d'accord pour dire que ce chip est une réussite au niveau de son architecture. Mais lorsque l'on observe les pdm, j'ai pas trop l'impression qu'il y ai eu un quelconque changement depuis le R600. Les cartes 48xx/46xx ont beau avoir un excellent rapport perf/prix, meilleur que celui de nvidia, le résultat est là nvidia reste nettement devant en terme de pdm, parce qu'ils savent vendre leurs cartes. Le constat est identique avec AMD vs INTEL (quand AMD a une meilleur puce  :D ). Savoir vendre est plus important que savoir créer? Je te laisse y répondre.
 
Autre chose, ce que je te reproche dans ta manière d'analyser, c'est que tu ne tiens compte qu'uniquement des résultats finaux sans même essayer de comprendre le pourquoi de cette situation (du moins tu délaisses certains éléments pourtant important dans l'équation). Alors oui, le g80 est plus équilibré que ne l'a été le R600, et oui les perfs dans les jeux DX9 comme DX10 (le sont-ils vraiment???) sont souvent nettement meilleures et plus homogènes grace l'archi novatrice de nvidia mais aussi grace à leur programme twimtb très influent, VISTA pas si populaire (donc DX10 en souffre), console de jeu qui dicte le marché du jeu vidéo (et elles ne sont pas DX10)... Bref il n'y a pas que l'archi du g80 qui a fait son succès.
 
Bon maintenant, je ne dis pas que le R600/RV770 sont exempts de défauts, mais reconnais tout de même qu'il n y a que l'archi qui fait le succès ou l'échec d'un produit. Et d'ailleurs on pourrait en parler pendant des pages si tu veux des défauts du R600 (hé oui y a de la matière), mais ce serait encore encombrer ce topic inutilement.
 
Maintenant pour répondre à Kaiser52, lorsque tu dis "le tesselator (ou truform de l'époque) n' a pas eu de succès auprès des développeurs car il n'est pas dans DX". Pourquoi pas, mais dans ce cas explique moi pourquoi le physX prend de plus en plus de place dans le monde du jeu vidéo, d'ailleurs nvidia fera sans doute pareil avec le 3dvision. Perso j'ai l'impression que quand les ingénieurs de nvidia se casse la tête pour implanter des news technos (pas toujours new ok  :D ), le twimtb fait toujours en sorte d'imposer au maximum "la théorie" dans la "pratique". Autrement dit, faire en sorte que que ces transistors supplémentaires puissent jouer un rôle dans les jeux ou autres. Alors que chez ATI/AMD on se limite à concevoir, sans réel suivi dans la pratique. je reste persuadé que si la tesselation avait été une techno de nvidia, le nécessaire aurait été fait pour les développeurs s'y intéressent (raisonnement identique si nvidia était meilleur dans la gestion des GS que ATI). Attention je ne reproche rien à nvidia (ils ne font que leur boulot), c'est plutôt à AMD/ATI de se bouger.
 
Ensuite tu parles de l'inutilité de DX10.1, je regrette mais lorsque je vois des gains de 20/25%, c'est tout sauf inutile... Encore une fois, nvidia a très bine joué le coup si tu arrives à croire le contraire (et ça c'est pas le rôle du marketing????).
 
Edit: oui c'est vrai le "get in the game" existe mais quand je vois des trucs du genre "crysis a été développé avec et pour les geforce 8800" de la part des développeurs eux même, je me dis que le "get in the game" a encore du pain sur la planche.

Message cité 1 fois
Message édité par sasuke87 le 16-05-2009 à 16:14:10
n°6959389
Gigathlon
Quad-neurones natif
Posté le 16-05-2009 à 16:22:47  profilanswer
 

god is dead a écrit :

Oui enfin le marketing ne fait pas tout... Qui peut mettre en doute l'efficacité du g80 et des core 2 ? Qui peut mettre en doute l'échec du r600 et encore + du Phenom ?


Il n'empêche qu'arriver à imposer des coupes franches dans une norme tierce, c'est assez fort...
 
Le Phenom est clairement un gros loupé, mais n'excuse pas pour autant Intel des pratiques illégales qui ont probablement contribué à cette situation en limitant la part de marché d'AMD à l'époque où leurs CPU étaient plus que compétitifs.
 
Concernant le R600 par contre, je serais curieux de voir ce qui aurait pu se passer si il était sorti avant le G80 ou si Micro$oft n'avait pas cédé à Intel et nVidia concernant DX10, car il avait beau être mauvais avec AA, ça restait un GPU particulièrement avancé, malgré son problème de granularité.

n°6959461
kaiser52
Posté le 16-05-2009 à 17:35:18  profilanswer
 

sasuke87 a écrit :


 
Maintenant pour répondre à Kaiser52, lorsque tu dis "le tesselator (ou truform de l'époque) n' a pas eu de succès auprès des développeurs car il n'est pas dans DX". Pourquoi pas, mais dans ce cas explique moi pourquoi le physX prend de plus en plus de place dans le monde du jeu vidéo, d'ailleurs nvidia fera sans doute pareil avec le 3dvision. Perso j'ai l'impression que quand les ingénieurs de nvidia se casse la tête pour implanter des news technos (pas toujours new ok  :D ), le twimtb fait toujours en sorte d'imposer au maximum "la théorie" dans la "pratique". Autrement dit, faire en sorte que que ces transistors supplémentaires puissent jouer un rôle dans les jeux ou autres. Alors que chez ATI/AMD on se limite à concevoir, sans réel suivi dans la pratique. je reste persuadé que si la tesselation avait été une techno de nvidia, le nécessaire aurait été fait pour les développeurs s'y intéressent (raisonnement identique si nvidia était meilleur dans la gestion des GS que ATI). Attention je ne reproche rien à nvidia (ils ne font que leur boulot), c'est plutôt à AMD/ATI de se bouger.
 
PhysX, 3D vision et la tesselation c'est 3 mondes différents, mais ils sont tous les 3 aussi vieux.
- PhysX implante la gestion de la physique sur les GPU : Pas nouveau, mais renforce le "GPU Computing", donc ils en parlent pour attaquer sur un autre front, et montrer qu'un GPU en a plus dans le ventre qu'un CPU
- 3D vision implante le "Tout 3D" : Remise au gout du jour, mais avec un vrai suivi derriere, change l'immersion dans un jeux.
- La Tesselation va faire en sorte que se soit plus "rond" : les deux, que se soient Ati ou nVIDIA l'ont promu dans leur temps et encore avec DX10, si ca a pas percé à l'époque ou les models faisaient 500polys et qui n'avaient pas de bump et autres traitements, je vois pas pourquoi ca percerait quand les models font 10 000polys avec du bump et des traitements dans tous les senses. De nos jours ca n'amliorera pas l'immersion, et ca ne mettra pas en avant le GPU Computing

 
Ensuite tu parles de l'inutilité de DX10.1, je regrette mais lorsque je vois des gains de 20/25%, c'est tout sauf inutile... Encore une fois, nvidia a très bine joué le coup si tu arrives à croire le contraire (et ça c'est pas le rôle du marketing????).
 

J'ai juste dis qu'il n'y avait pas d'évolution visuel, pour le grand public (donc la masse qui rapport le plus d'argent), DX10 a fait un floppe à cause de la non évolution visuel et de vista, dx10.1 n'apport pas plus de qualitée visuel. 20/25% c'est bien, mais si, comme le cas de hawx ca n'apporte rien de plus, Mr Dupont, qu'est ce qu'il en a à faire de passé de 60 a 80fps alors qu'il est habitué a joué a 30fps sur console ?

 
Edit: oui c'est vrai le "get in the game" existe mais quand je vois des trucs du genre "crysis a été développé avec et pour les geforce 8800" de la part des développeurs eux même, je me dis que le "get in the game" a encore du pain sur la planche.
 

C'est du coté de la comm qu'ils ont du pain sur la planche, mais ils sont bien présent lors du dev, je pense pas que ce se fini a coup de gants de box et c'est celui qui est K.O. qui code pas.

 


Message édité par kaiser52 le 16-05-2009 à 17:36:34

---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°6959480
Khaomaster
Posté le 16-05-2009 à 17:48:23  profilanswer
 

[:cerveau drapal]


Message édité par Khaomaster le 16-05-2009 à 17:51:52
n°6959488
Activation
21:9 kill Surround Gaming
Posté le 16-05-2009 à 17:56:26  profilanswer
 

sasuke87:
 
en meme temps c est pas une nouveauté que nvidia met les petits plats dans les grands à chaque fois en terme tools et kit de developpement
 
ati en général privilégie du codage "pure"  
c'est plus perf mais c'est plus chiant à mettre en place
faut des mecs doué pour ça
et pense bien que les mecs doué pour du codage pure bas niveau ça va pas en se développant
 
les dits gars doué en général tu les trouve dans des grosse boite (genre konami) avec des projets qui sortent à une cadence genre 1 jeu/projet tout les 3ans (car c est des gros hit de tueur donc l'editeur y met la creme de la creme pour pas foiré la franchise)
 
tu prend un tomb raider  
le premier opus, génial
les suivant daubes sur daubes pratiquement
sauf qu entre temps la team premiere faisait autre chose
 
il aura fallut combien d années à Eidos pour remttre l'equipe de gars compétent sur tomb raider  pour revoir cet icone du jeu video revivre avec la sortie de tomb raider legend en 2006
 
c'est un exemple parmis tant d autres mais le constat est là
 
la majorité des devs sont des developpeur de niveau moyen, pas des surhomme de gars qui n'en veulent passionné par ce qu ils font (c'est de la denrée rare ceux là)
 
nvidia il est pas con il l'a compris et il fait un max d accompagnement après qu il impose aussi un peu c est idée surement, mais il faut se genre de boite
 
regarde opengl ça part dans tout les sens depuis des lustres personne qui tape du point sur la table
faut mieux allez qqpart et se tromper et repartir dans une autres direction que de jamais partir sinon tu fait du surplace (toujours opengl)
 
tu prend linux c est pareil, on parle de communauté
mais y a quoi 100 distribution
bref 100 chamaillerie diverse qui font que ils arrivent pas à se mettre d accord pour ramener à quoi... 3 distribution définitive
genre chacun veux son gateau, sa part de gloire
mais au final linux s impose pas car l'utilisateur lambda veut pas prendre le risque
combien de fois j ai vu sur des forum des mecs à se batailler "ouhh toi ta fedora c est nul moi j ai ubuntu" "oooh l autre ubuntu pour les tapette debian y a que ça de vrai"
 
bref c est caricaturé mais on se croierait dans une cours de collège
 
voilà juste pour dire que
1) ati a peut etre choisi de la perf pure mais le marché est ridicule
se que demande les devs c est des trucs simple
après qu il faut une machine de compet le dev dans la plupart des cas il s en tape
car le dev d une maison d edition lui sont imperatif c est "date buttoir"
 
ça c est la logique "EAGames" si c est pas finit, c est pas grave
du moment que ça marche après les trucs qu on a pas mit ça fera des addon payant
 
le jeu est bourré de bug, on s en tape il doit etre gold pour fin debut octobre pour etre dans les rayons pour noel
après qu il marche pas osef y aura un patch en fevrier... peut etre
 
avec une telle logique de cycle de developpement tu peut pas faire du code pointu
donc tu fait du code pas pointu avec des sdk qui t assiste un nombre incalculable de fois
 
qui plus est du code pointu pas finit... le soft/jeu marche pas faut pas revé
du code qui est pas bas niveau avec des sdk qui t assiste un max... bah c est pas grave tu as plus de chance de désactivé le truc qui marche pas sans que le reste s'en voit affecté
 
enfin voilà quoi c est la mondialisation, l argent à cours terme
mieux encore si la boite à le fric avant de faire quoi que se soit (la folie des startup bidons il y a qqs années, bien fait pourceux qu on investi des sommes folles dans des projet à la con tout ça par l'appat du gain de l argent facile)
 
bref le petit code optimisé avec amour, ça ça ne se vois que dans le monde du freeware (souvent car celui qui developpe le soft y vois d abord un interet pour son usage perso)
ou dans le secteur du shareware (et là il se dit après tout il est bien syumpa mon soft j en ai chié, pourquoi pas le monnaié... et il a bien raison si son soft est efficace, j en ai acheté plusieurs de ces shareware moi)
 
rarement dans les grosse boite de logiciel (mais y a qqs exception, genre polyphony digital, ... allez on va dire que les studios avec des grosse pointure... ça représente quoi... 18% des jeux)

n°6959494
sasuke87
Posté le 16-05-2009 à 18:06:02  profilanswer
 

Pour répondre à Kaiser52:

 

Pas tout à fait d'accord, je ne suis pas sûr que le "get in the game" ait le même poids que le "The Way It's Meant To Be Played", l'épisode d'assassin creed en est la preuve, 3dmark Vantage (sans dx10.1 aussi) et peut être d'autres... Suis-je parano?
Bref y a pas que dans la com, que AMD/ATI est en retard, ça se voit aussi avec le physX, nvidia a déjà fait ses preuves avec des jeux comme "mirror edge", la physique via les cg nvidia ça marche (maintenant est-ce un plus sur ce jeu, ça c'est discutable)... Et chez ATI alors? Quelques bidouilleurs ont réussi à faire tourner des trucs pour cg nvidia avec du ATI, mais AMD n'a encore rien sorti de concret, aucun jeu ne supporte la physique via les radeons, aucun jeu ne fait usage de la tesselation (ah si un à ce qu'il parait), aucun jeu ne met en avant l'avantage de la gestion des GS d'AMD/ATI... Bon en contre partie, on commence réellement à voir des jeux profiter de DX10.1, mais seulement à la veille de DX11, c'est un peu juste quand même.

 

Pour ce qui est du gain de 20/25%, c'est clair y aura toujours des personnes qui n'y verront rien, mais moi si et je ne suis pas le seul. D'ailleurs il me semble que nvidia dispose également dans son archi des technos qui permettent les gains de DX10.1, c'est juste que ça ne se fait pas automatiquement chez eux, et il faut coder pour chaque jeu (c'est utilisé dans far cry 2, et aussi STALKER maintenant vu les gains dans les derniers benchs).

 

Hmmmm j'ai l'impression qu'on pourrait débattre sans fin  :D

  

Je suis tout à fait d'accord avec toi, que nvidia aide les développeurs, je n'y voit aucun inconvénient. Mais quand ça dérape comme dans Ass Creed... là c'est plus problématique. Et ce qui l'est encore plus, c'est le manque d'intérêt d'AMD dans ce domaine (pas les mêmes moyens financiers je le reconnais) et c'est pareil avec Intel. On doit faire avec ok, mais c'est quand même intéressant d'en parler, même si ça ne fait pas avancer les choses.


Message édité par sasuke87 le 16-05-2009 à 18:15:13
n°6959499
kaiser52
Posté le 16-05-2009 à 18:16:06  profilanswer
 

clair ^^
Pour moi le seul truc vrai c'est l'Ambiant Occlusion de nVIDIA !  :o  
Ca au moins ca rajeunis quelques vieux hits  :jap:
 
Apres DX10.1 c'est plus pour améliorer les perfs en AA en utilisant les Z-buffer nan ?
Vue les perfs en Z-buffer des CG nVIDIA, une émulation permettrait de les mettres au même niveu de perf !


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°6959509
sasuke87
Posté le 16-05-2009 à 18:26:52  profilanswer
 

kaiser52 a écrit :

clair ^^
Pour moi le seul truc vrai c'est l'Ambiant Occlusion de nVIDIA !  :o
Ca au moins ca rajeunis quelques vieux hits  :jap:

 

Apres DX10.1 c'est plus pour améliorer les perfs en AA en utilisant les Z-buffer nan ?
Vue les perfs en Z-buffer des CG nVIDIA, une émulation permettrait de les mettres au même niveu de perf !

 

j'adoooooooooore aussi  :love:

 

Pour DX10.1 y avait une news de HFR qui expliquait assez bien le problème, mais de ce que j'avais compris: ce que ATI fait avec DX10.1, nvidia peut aussi le faire (et ils le font déjà, dans certains jeux).

Message cité 1 fois
Message édité par sasuke87 le 16-05-2009 à 18:31:58
n°6959513
Gigathlon
Quad-neurones natif
Posté le 16-05-2009 à 18:29:34  profilanswer
 

sasuke87 a écrit :

j'adoooooooooore aussi  :love:
 
Pour DX10.1 y avait une news de HFR qui expliquait assez le problème, mais de ce que j'avais compris: ce que ATI fait avec DX10.1, nvidia peut aussi le faire (et ils le font déjà, dans certains jeux).


Oui, nVidia fait coder en dur des optis équivalentes (pour LEURS GPU)... alors que DX10.1 standardise la chose. Reste que DX10 devait être l'API 3D remise à plat et du coup ça n'est plus qu'un espèce de machin qui ne sert à rien.


Message édité par Gigathlon le 16-05-2009 à 18:30:08
n°6959518
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 16-05-2009 à 18:33:53  profilanswer
 

campi a écrit :

Mais le R600 souffrait en AA... Donc dans les deux cas on aurait eu une solution pourrie :D


Y'a une différence fondamentale entre l'AA et le DirectX 10.1:
 
L'AA on peut l'activer si on a une grosse carte graphique et plein de FPS, ou on peut le déactiver pour gagner quelques FPS.
C'est un choix qui est laissé à l'utilisateur, qu'il ait une Radeon ou une GeForce... ou un Intel GMA, ou un VIA Chrome.
 
Tandis que le DX10.1 ne fonctionne qu'avec les Radeons (et le VIA Chrome), et permet de gagner quelques FPS lorsqu'on active les filtres. Son activation augmente les perfs des Radeons, mais elle ne pénalise aucunement les performances des GeForce.
 
La grosse différence est là:
 
Les Geforce offrent les mêmes perfs dans un jeu DX10, que dans le même jeu en DX10.1.
Pour eux ça n'a aucun effet, ça ne diminue pas leur perfs, ça ne change que dalle.
 
Par contre, lorsque nVidia paie Ubisoft pour qu'il retire le DX10.1, cela affecte les perfs des Radeons.
Une compagnie peut donc payer un développeur pour qu'il diminue les perfs de son concurrent.
C'est pas du tout la même chose que de payer un développeur pour qu'il optimise d'avantage son jeu pour ses GPU.
 

Gigathlon a écrit :

Oui, nVidia fait coder en dur des optis équivalentes (pour LEURS GPU)... alors que DX10.1 standardise la chose.


nVidia fait coder en dur, pour ses GeForce, le même truc qu'il interdit au développeurs d'implémenter sur les Radeons.
 
 
nVidia a compris un truc: "Pourquoi dépenser de l'argent et du temps pour implémenter le DX10.1 dans son archi, alors qu'il suffit de dépenser de l'argent pour que les développeurs de jeux n'implémentent pas le DX10.1."
 
NOTE: Vous pouvez rempacer les mots en gras par: Tesselator, Parallel Cube Mapping, Global Illumination, ...

Message cité 1 fois
Message édité par Wirmish le 16-05-2009 à 18:50:28
n°6959536
kaiser52
Posté le 16-05-2009 à 18:48:29  profilanswer
 

Wirmish a écrit :


 
nVidia fait coder en dur, pour ses GeForce, le même truc qu'il interdit au développeurs d'implémenter sur les Radeons.
 


 
nVIDIA ne fait que détourner le flux pour qu'il passe par nVAIP et pas par le pipeline DX10.1, donc si DX10 pas de détournement.
En gros ca n'affecte en aucun cas les perfs des cartes ATI.
 
Moi je pense qu'il y avait un reel probleme avec DX10.1 sur ASC.
Sinon pourquoi il y aura Stalker CS, BattleForge, Hawk, FarCry 2 et Stormise qui seraient DX10.1 ?


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°6959546
sasuke87
Posté le 16-05-2009 à 18:53:25  profilanswer
 

kaiser52 a écrit :

 

nVIDIA ne fait que détourner le flux pour qu'il passe par nVAIP et pas par le pipeline DX10.1, donc si DX10 pas de détournement.
En gros ca n'affecte en aucun cas les perfs des cartes ATI.

 

Moi je pense qu'il y avait un reel probleme avec DX10.1 sur ASC.
Sinon pourquoi il y aura Stalker CS, BattleForge, Hawk, FarCry 2 et Stormise qui seraient DX10.1 ?

 

Dommage ça n'a jamais été réellement prouvé... Par contre ce qui est sûr c'est que c'était le premier jeu où ATI pouvait fièrement démontrer l'utilité de DX10.1 et paf Ubisoft (à cause de nvidia??? j'en suis persuadé perso) a frappé.

 

De plus il était question de réimplanter les opti DX10.1, au final baaaaah que dal.


Message édité par sasuke87 le 16-05-2009 à 18:54:05
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  13  14  15  ..  73  74  75  76  77  78

Aller à :
 

Sujets relatifs
[Topic Unique] ATI Radeon HD 4800 Series (RV790 inside)[Topic Unique] ATI Radeon 4700 Series (RV740 inside)
question sur nouvelle configComment réduire le bruit d'une nouvelle configuration ?
Nouvelle config pour bien débuter l'année :)[ topic unique ] les alimentations be quiet!
cherche conseils pour nouvelle config[HELP!] Cherche un magasin d'info sur Annecy !
[Topic Unique] Boîtier Silverstone Raven RV01 : mobo orientée à 90° ! 
Plus de sujets relatifs à : [Topic Unique] GT300 // La nouvelle bête de combat nvidia en 40nm


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)