Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2632 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  75  76  77  ..  536  537  538  539  540  541
Auteur Sujet :

[Topic Unique] GTX 465, 470, 480 - cartes Nvidia HDG - 40nm - DX11

n°7299798
dll_75
Posté le 22-01-2010 à 17:07:48  profilanswer
 

Reprise du message précédent :

lyonnais_69 a écrit :


 
 
Oui donc vu qu'il faut bien bien payer la matière, ça va etre cher, après est ce que ce sera bien ? Mystère ...
 
Nvidia FTW :lol:  
 
Allé je retourne jouer à Dirt 2 avec ma 5850 :D


 
oulala, le gros fanboy qui passe casser du caméléon entre 2 courses à Dirt2  :o  
 
à la prochaine
 :hello:  
 
 
 :D
 
EDIT: Ou entre 2 plantages et rédémarrage ;)


Message édité par dll_75 le 22-01-2010 à 17:09:58
mood
Publicité
Posté le 22-01-2010 à 17:07:48  profilanswer
 

n°7299800
bjone
Insert booze to continue
Posté le 22-01-2010 à 17:10:29  profilanswer
 

Gigathlon a écrit :


C'est bien ce que je sous-entendais, le contexte c'est ni plus ni moins que l'environnement (au sens de l'OS).
 
On ne peut pas utiliser les données d'un contexte dans un autre, pour ça il faut les copier, et c'est là que je voulais en venir.


Non.
Tu parles d'accès croisé à des ressources entre plusieurs API.
C'est pas le truc des 20µs.
 

Citation :


Le premier exemple qui me vient à l'esprit là, c'est le marshalling sous .net avec les appels système et autres types natifs (pointeurs, streams...), c'est pratique, mais généralement à éviter autant que possible sous peine de perfs désastreuses.
 
Si PhysX exploite un contexte différent comme le dit NVidia (bon, après ils disent peut-être de la merde, j'en sais rien), ça implique une efficacité variant inversement avec la complexité de la tâche, et là on rencontre le problème des rasterizers multiples qui n'ont droit qu'à 256 instructions par cycle maximum pour donner leur plein potentiel, alors si en prime il faut tenir compte d'un flush total pour le changement de contexte et que ça prend 20µs ça devient la misère.
 
Après il faut voir comment ils traitent ça, vu que dans le même temps ils parlent de multiples kernels ( = multiples contextes logiquement) pouvant s'exécuter en concurrence.
 
 
Au final, ces 4 rasterizers ont plus l'air d'une optimisation de la réjection de triangles, avec un premier étage chargé d'éliminer ceux facilement repérables comme masqués (coarse culling) et un second pour ceux chez qui c'est moins flagrant (fine culling). Reste à voir l'impact pratique sur la capacité du GPU à mieux exploiter ses ALU...


 
Non tu mélange tout (enfin pas mal :D).
 
Si le changement de contexte c'est le changement de la configuration hardware du GPU,  
 
Tu peux très bien avoir que deux changement de contextes bas-niveau GPU par frame. (D3D/OGl=>CUDA/OCl/DC=>D3D/OGL)
 
Après vient le problème d'avoir un cast rapide d'un buffer GPGPU=>3D, ou par copie d'un objet GPGPU dans un 3D, là c'est un problème API.
Et au sein d'une API unifiée comme le D3D et le DC, tu peux quand même avoir un changement de contexte GPU.
 
Enfin on manque d'info mais le switch de contexte GPU, pour moi c'est comme le switch de contexte CPU lors d'un basculement de thread par le kernel (flush interne & autre trucs). Sauf que ça se fait à la demande (si y'a une passage par CUDA/OCL/DC alors que tu faisais du D3D/OGL). (et un thread CPU c'est pas un thread GPU)
 
Enfin je sais pas, faudrait plus d'infos là je t'avoue, mais dans tous les cas pour moi c'est pas l'aspect passage de ressources entre APIs (comment tu pourrais annoncer un temps constant pour une quantité variable de données ?).
 
Même si bien ça reste une problématique a corriger si c'est faire de manière inoptimale. Dans le cas de PhysX, la version 3.0 du SDK exposera certainement l'objet CUDA sous-jacent qui maintient le buffer des résultats de la simulation dans le cas des fluides & des tissus.


Message édité par bjone le 22-01-2010 à 17:43:56
n°7299889
Gigathlon
Quad-neurones natif
Posté le 22-01-2010 à 18:27:20  profilanswer
 

Je te rejoindrai en tout cas sur le fait qu'on a pas assez de détails pour voir ce qu'il se passe réellement. Rien que ce qu'il se passe derrière le pilote est totalement masqué et on sait qu'un pilote expose généralement les choses de manière très simplifiée.
 
Y'a quand même des tests qui permettraient de mettre en évidence si oui ou non les données sortent du GPU (ou de sa RAM), en fait...
 
NBodyGravityCS11 porté en CUDA/OCL et si c'est possible reproduit via PhysX (là je sèche... ces particules ne se comportent pas comme un fluide ou quoi que ce soit d'autre mis en avant) permettrait de voir si l'occupation CPU reste au ras des pâquerettes ou non, ce qui indiquerait si oui ou non il y a transfert de données et à quel point. Enfin ça c'est sous condition que les pilotes soient décemment exploitables, ce qui n'a pas vraiment l'air d'être le cas du pilote OCL NVidia.
 
Un autre candidat est FluidMark, qui bouffe ses 100% de CPU, mais je ne sais pas si la source est dispo, le plus proche étant Advanced Particles, mais n'utilisant que DX10.


Message édité par Gigathlon le 22-01-2010 à 18:35:23
n°7299895
Zack38
Posté le 22-01-2010 à 18:32:10  profilanswer
 

NVIDIA empêche d'overclocker
 

Citation :

La dernière version des pilotes de NVIDIA, la 196.21 WHQL, empêche certains outils d'overclocking de fonctionner. RivaTuner, les outils basés dessus, le panneau de contrôle de NVIDIA, etc., n'affichent plus correctement la fréquence du moteur de shaders, quand cette dernière veut bien apparaître, et sont donc incapables de la modifier. Le problème, qui touche a priori toutes les cartes du fabricant, n'est pas — selon NVIDIA — intentionnel, il s'agit d'un « simple » bug, même si certains pensent qu'il s'agit d'un effet de bord de la prise en charge des futures cartes de la famille Fermi, sans que ce soit confirmé.
 
Reste donc à attendre une mise à jour des pilotes ou une mise à jour des logiciels. Il est tout de même dommage que ce genre de problème arrive avec des pilotes WHQL, qui sont normalement testés pour éviter les défauts, mais l'overclocking ne fait visiblement pas partie du banc de test.

n°7299912
Gigathlon
Quad-neurones natif
Posté le 22-01-2010 à 18:43:32  profilanswer
 

Hmmm... curieux, pour moi c'était plus un changement d'API d'accès aux registres de configuration qui ne peut pas être pris en compte par les logiciels.
 
C'est pas propre à ces logiciels là d'ailleurs, puisque même des gadgets de chez eux ne fonctionnent plus (ce qui tendrait à confirmer mon idée initiale).

n°7299915
seu
Posté le 22-01-2010 à 18:45:56  profilanswer
 

Rien de neuf sous le soleil? même pas un site tchétchene qui fait une préview du GF100?  :D  
 
j'veux savoir si il faut que je jette mon crossfire de 5870 pour m'acheter du Nvidia ! (Bon ok j'exagère un peu , mais avouez qu'on se perd en bla bla un peu inutile... )
 
D'apres ce qu'a dit Marc,  le test est pour bientôt ,  ça serait marrant que le schéma du G80 se reproduise... (sauf que je lacherais pas 650 e pour acheter une carte cette fois-ci lol )
Mais autant il y a de sites qui disent que ça va être une tuerie , autant d'autres descendent en flèche la bébete.
 
ça m'etonnerais quand même que Nv attende aussi longtemps pour sortir du matos foireux ( une 5800 FX? oups)

n°7299920
Rinac9
Posté le 22-01-2010 à 18:47:53  profilanswer
 

N'empeche, c'est bien triste, ca sent la geforce FX a plein nez...
 
D'une certaines facon, c'est tant mieux, sa stabilise les deux marques et évite que l'une ait un retard trop gros.


---------------
Triumph Speed Triple Orange Blazing | Ducati Monster-S 620 | Samsung NP730U3E
n°7299926
seu
Posté le 22-01-2010 à 18:53:16  profilanswer
 

Heu... si Nvidia se fait ouned façon FX , ça va pas arranger leur histoire je pense.... (et les notres... une position de monopole n'est pas bonne pour le porte-feuille du consomateur)
surtout que pour décliner un chip aussi gros en Mdg et bdg , ça risque d'être plutôt tendu....
 
Moi je serais d'avis d'avoir un super GF100 qui déchire sa mémé  , et que ATI sorte sa réplique (5890? :) ) et grosse guerre de prix !  :love:  
 
Parce que si le GF100 est juste 5 à 10%  plus perf pour bien plus cher... ça risque de le faire moyen :(
 

n°7299933
Zack38
Posté le 22-01-2010 à 18:55:37  profilanswer
 

seu a écrit :

Rien de neuf sous le soleil? même pas un site tchétchene qui fait une préview du GF100?  :D  
 
j'veux savoir si il faut que je jette mon crossfire de 5870 pour m'acheter du Nvidia ! (Bon ok j'exagère un peu , mais avouez qu'on se perd en bla bla un peu inutile... )
 
D'apres ce qu'a dit Marc,  le test est pour bientôt ,  ça serait marrant que le schéma du G80 se reproduise... (sauf que je lacherais pas 650 e pour acheter une carte cette fois-ci lol )
Mais autant il y a de sites qui disent que ça va être une tuerie , autant d'autres descendent en flèche la bébete.
 
ça m'etonnerais quand même que Nv attende aussi longtemps pour sortir du matos foireux ( une 5800 FX? oups)


 
Le Fermi est une nouvelle architecture, elle a donc pas mal de chances d'échouer . Tel est l'enseignement de l'Histoire . [:clooney15]  
Mais nVidia a déjà su faire mentir l'Histoire avec son G80 . Qui sait s'il ne va pas recommencer ?
 
A mon avis, le GF100 sera légèrement plus perf que la HD5870 sans être aussi spectaculaire que le G80 . Par contre il sera plus cher et consommera plus/chauffera plus .

n°7300087
Kenshin011
Posté le 22-01-2010 à 20:46:01  profilanswer
 

Par contre ce qui va être violent ça sera la carte qui suivra le GF100.
Elle corrigera certainement les points faibles déjà identifiés de cette génération et on aura droit à un bon truc équilibrée.
 
Comme le disais quelqu'un un peu plus haut, Fermi pose les bases d'une nouvelle architecture qui, même si elle rate un peu son entré du fait de sa jeunesse, devrait promettre de belle chose une fois évoluée.
Enfin on y est pas encore  :)

Message cité 2 fois
Message édité par Kenshin011 le 22-01-2010 à 20:46:16
mood
Publicité
Posté le 22-01-2010 à 20:46:01  profilanswer
 

n°7300096
Zack38
Posté le 22-01-2010 à 20:50:04  profilanswer
 

Kenshin011 a écrit :

Par contre ce qui va être violent ça sera la carte qui suivra le GF100.
Elle corrigera certainement les points faibles déjà identifiés de cette génération et on aura droit à un bon truc équilibrée.
 
Comme le disais quelqu'un un peu plus haut, Fermi pose les bases d'une nouvelle architecture qui, même si elle rate un peu son entré du fait de sa jeunesse, devrait promettre de belle chose une fois évoluée.
Enfin on y est pas encore  :)


 
Pas forcément . Le successeur du GF100 aura beau corriger les défauts de Fermi, le travail qui sera à accomplir sera plutôt logiciel . En soi, GF100 a toutes les chances de réussir, mais seulement si les développeurs jouent le jeu et que nVidia leur apporte le soutien software approprié ...

n°7300117
hifibuff
Posté le 22-01-2010 à 21:03:34  profilanswer
 

Je pense que tu as mis le doigt dessus zack. Le potentiel du fermi semble grand - autant que mes faibles connaissances techniques me permettent de le comprendre en tous cas - mais exploiter ce potentiel risque d'être plus ardu pour les développeurs, surtout comparé au rv870. A titre personnel, j'ai du mal à ne pas penser au cas x360 vs ps3 avec une console Sony bien plus difficile à maitriser que la machine de Microsoft mais qui, bien exploitée, est capable de prouesses techniques et de surpasser la 360.  
Pour en revenir au Fermi, je trouve vraiment bien pour l'industrie que nV tente de redistribuer les cartes avec une conception du GPU(mais peut-on seulement encore l'appeler comme ça?) vraiment neuve.


---------------
"Every man dies, not every man really lives"
n°7300129
Zack38
Posté le 22-01-2010 à 21:18:41  profilanswer
 

hifibuff a écrit :

Je pense que tu as mis le doigt dessus zack. Le potentiel du fermi semble grand - autant que mes faibles connaissances techniques me permettent de le comprendre en tous cas - mais exploiter ce potentiel risque d'être plus ardu pour les développeurs, surtout comparé au rv870. A titre personnel, j'ai du mal à ne pas penser au cas x360 vs ps3 avec une console Sony bien plus difficile à maitriser que la machine de Microsoft mais qui, bien exploitée, est capable de prouesses techniques et de surpasser la 360.  
Pour en revenir au Fermi, je trouve vraiment bien pour l'industrie que nV tente de redistribuer les cartes avec une conception du GPU(mais peut-on seulement encore l'appeler comme ça?) vraiment neuve.


 
En fait, et nVidia l'a bien compris, les développeurs n'accepteront d'utiliser massivement de nouvelles technologies que si cela ne leur demande pas trop d'efforts . Donc nVidia investit depuis déjà assez longtemps pour rendre ses technologies propriétaire accessibles aux développeurs, et la preuve de la réussite, c'est PhysX . Les studios sont de plus en plus nombreux à l'utiliser . Et plus particulièrement les jeux TWIMTBP, c'est-à-dire les jeux auxquels nVidia a "participé" d'un point de vue optimisation . Bref, le GF100 a de l'avenir, mais seulement si les outils sont au point, que les studios qui développent de gros hits adhèrent au bon moment au TWIMTBP, ... bref, GF100 a beaucoup de facteurs plus ou moins liés qui détermineront sa réussite ou son échec .
 
Le truc qui me choque le plus là-dessus, c'est quand on voit par exemple la puissance de calcul de la HD4870 : 1.20TFlops ! Un véritable monstre de puissance comparé à la GTX280 ... ! Et pourtant, c'est la GeForce qui est plus perf que la Radeon . J'ignore si c'est à cause de la politique d'AMD sur le sujet, mais si les Radeon possèdent effectivement un tel potentiel et qu'il est délaissé à ce point par les développeurs et par AMD, moi, je dis que c'est du gâchis, pur et dur . De la flemmardise de seconde zone, surtout de la part d'AMD .

n°7300134
Gein
Posté le 22-01-2010 à 21:25:52  profilanswer
 

C'est le débit de filtrage qui est différents entre les geforce et les radeon.
Le puissance brut ne suffit pas pour rendre une scène le plus rapidement possible.

n°7300164
Gigathlon
Quad-neurones natif
Posté le 22-01-2010 à 21:48:20  profilanswer
 

Zack38 a écrit :

Le truc qui me choque le plus là-dessus, c'est quand on voit par exemple la puissance de calcul de la HD4870 : 1.20TFlops ! Un véritable monstre de puissance comparé à la GTX280 ... ! Et pourtant, c'est la GeForce qui est plus perf que la Radeon . J'ignore si c'est à cause de la politique d'AMD sur le sujet, mais si les Radeon possèdent effectivement un tel potentiel et qu'il est délaissé à ce point par les développeurs et par AMD, moi, je dis que c'est du gâchis, pur et dur . De la flemmardise de seconde zone, surtout de la part d'AMD .


La puissance de calcul ne fait pas tout, et le nombre d'unités fixes non plus comme en atteste Cypress.
 
Le RV770 a certes une puissance brute monstrueuse (bien qu'encore doublée avec Cypress), mais dans le même temps elle est limitée sur pas mal de points bien en deçà d'un GT200, filtrage de textures et blending en tête avec rien de moins que 42% de puissance en moins sur ces 2 facteurs. D'autres éléments plus obscurs peuvent encore limiter l'archi, et c'est probablement eux qu'on commence à apercevoir sur Cypress, d'où des résultats plutôt aléatoires en fonction des jeux avec aussi bien du x2 (NFS Shift, ArmA 2...) que du x1.2 (WiC, HAWX...).

Message cité 1 fois
Message édité par Gigathlon le 22-01-2010 à 21:51:38
n°7300171
Zack38
Posté le 22-01-2010 à 21:52:36  profilanswer
 

Gein a écrit :

C'est le débit de filtrage qui est différents entre les geforce et les radeon.
Le puissance brut ne suffit pas pour rendre une scène le plus rapidement possible.


 

Gigathlon a écrit :


La puissance de calcul ne fait pas tout, et le nombre d'unités fixes non plus comme en atteste Cypress.
 
Le RV770 a certes une puissance brute monstrueuse (bien qu'encore doublée avec Cypress), mais dans le même temps elle est limitée sur pas mal de points bien en deçà d'un GT200, filtrage de textures et blending en tête avec rien de moins que 42% de puissance en moins sur ces 2 facteurs. D'autres éléments plus obscurs peuvent encore limiter l'archi, et c'est probablement eux qu'on commence à apercevoir sur Cypress, d'où des résultats plutôt aléatoires en fonction des jeux avec aussi bien du x2 que du x1.2.


 
Vous avez sûrement raison .
Mais pourquoi AMD continuerait-il de privilégier cette puissance de calcul, sans corriger l'architecture ? Ah, j'espère que Northern Island ne me décevra pas sur ce point-là .

n°7300340
Yoyo_5
Posté le 22-01-2010 à 23:41:31  profilanswer
 

ATI se sert une dernière fois de l'archi du R600, la prochaine sera une nouvelle. C'est un cycle classique, le G80 en avait fait autant chez nVidia avec le G92 et le GT200. ;)
Ce n'est pas si bête de la part d'ATI car ils avaient déjà une puce quasi DX11, c'est d'ailleurs grâce à ça (et au fait qu'ils avaient déjà tâté du 40nm avec la 4770) qu'ils ont pu sortir les HD5xxx avec plus de 6 mois d'avance sur nVidia.

Message cité 1 fois
Message édité par Yoyo_5 le 22-01-2010 à 23:43:32

---------------
¤ Paix et félicité ¤

n°7300353
Zack38
Posté le 22-01-2010 à 23:48:39  profilanswer
 

Yoyo_5 a écrit :

ATI se sert une dernière fois de l'archi du R600, la prochaine sera une nouvelle. C'est un cycle classique, le G80 en avait fait autant chez nVidia avec le G92 et le GT200. ;)
Ce n'est pas si bête de la part d'ATI car ils avaient déjà une puce quasi DX11, c'est d'ailleurs grâce à ça (et au fait qu'ils avaient déjà tâté du 40nm avec la 4770) qu'ils ont pu sortir les HD5xxx avec plus de 6 mois d'avance sur nVidia.


 
La chance a quand même bien aidé ATi, parce que ça m'étonnerait beaucoup que les ingénieurs qui ont conçu le R600 étaient au courant des implémentations DX11 qui seraient nécessaires des années plus tard et qu'ils avaient donc fait une archi pour les supporter plus facilement (j'ai fait d'horribles fautes de temps, je sais) .

n°7300392
couillesho​t
Les bouboules et la boubouche
Posté le 23-01-2010 à 00:50:56  profilanswer
 

Zack38 a écrit :


 
La chance a quand même bien aidé ATi, parce que ça m'étonnerait beaucoup que les ingénieurs qui ont conçu le R600 étaient au courant des implémentations DX11 qui seraient nécessaires des années plus tard et qu'ils avaient donc fait une archi pour les supporter plus facilement (j'ai fait d'horribles fautes de temps, je sais) .


ils étaient plus qu'au courant je pense et je suis sûr que les ingé d'ATI bossent déjà sur DX12 voir peut être même DX13  :o

Message cité 1 fois
Message édité par couilleshot le 23-01-2010 à 00:51:50

---------------
:o :o :o
n°7300394
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 23-01-2010 à 00:54:04  profilanswer
 

dll_75 a écrit :

le monstre c'est pour les 3 milliards de transistors je pense  :o

3.2 milliards selon mes sources.  :jap:  
 

Kenshin011 a écrit :

Par contre ce qui va être violent ça sera la carte qui suivra le GF100.
Elle corrigera certainement les points faibles déjà identifiés de cette génération et on aura droit à un bon truc équilibrée.

Et elle est prévu pour quand cette "GTX 480" ?
 
Je dis pcq du côté rouge ça n'arrête pas...

Citation :

News datée du 21 Janvier 2010 : "We are ramping the ATI Radeon HD 5000 series now, and we look forward to refreshing the entire lineup in the second half of 2010", said Dirk Meyer, chief executive officer of AMD, during quarterly conference call with financial analysts.

La Radeon HD 6870 (DX11.1) sera peut-être mienne au prochain Noël.  ;)

Message cité 1 fois
Message édité par Wirmish le 23-01-2010 à 00:54:35
n°7300439
Fouge
Posté le 23-01-2010 à 02:26:55  profilanswer
 

Zack38 a écrit :

Le truc qui me choque le plus là-dessus, c'est quand on voit par exemple la puissance de calcul de la HD4870 : 1.20TFlops ! Un véritable monstre de puissance comparé à la GTX280 ... ! Et pourtant, c'est la GeForce qui est plus perf que la Radeon . J'ignore si c'est à cause de la politique d'AMD sur le sujet, mais si les Radeon possèdent effectivement un tel potentiel et qu'il est délaissé à ce point par les développeurs et par AMD, moi, je dis que c'est du gâchis, pur et dur . De la flemmardise de seconde zone, surtout de la part d'AMD .

En fait c'est un choix architectural. Pour un nombre de transistor donné, (je vais simplifier à mort), il avaient le choix entre une grosse puissance brute mais difficilement exploitable (rendement assez moyen) ou une puissante brute moins importante mais avec un meilleure rendement (mieux exploitée). Au final, ce qui compte, c'est la puissance exploitée (= puissance théorique * rendement). AMD a opté pour la 1ère solution, nVidia pour la 2ème.
Les articles d'HFR l'expliquent assez bien.

n°7300463
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 23-01-2010 à 05:11:05  profilanswer
 


Vidéos: Partie1, partie2, partie3, partie4.
 
 
Double précision: "Nvidia has made the decision to limit DP performance in the GeForce versions of the GF100 to 64 FMA ops per clock, one fourth of what the chip can do. This is presumably a product positioning decision intended to encourage serious compute customers to purchase a Tesla version of the GPU instead."
 
AMD Radeon HD 5870 -> 544 Gflops
nVidia GeForce GF100 -> 186 Gflops
 
 
 
Un avant-goût du Nvidia 3D Vision Surround avec une GTX 285 (3D activé = barres rouges):
http://www.czechgamer.com/pics/clanky/RobertVarga_21-01-2010-19-33-59_CzechGamer-3dVisionSurroundEst.jpg

Message cité 1 fois
Message édité par Wirmish le 23-01-2010 à 05:18:33
n°7300495
MEI
|DarthPingoo(tm)|
Posté le 23-01-2010 à 09:23:32  profilanswer
 

couilleshot a écrit :


ils étaient plus qu'au courant je pense et je suis sûr que les ingé d'ATI bossent déjà sur DX12 voir peut être même DX13  :o


Ca doit etre dur de bosser sur des API meme pas en cours de developpement par MS. :o


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7300497
dll_75
Posté le 23-01-2010 à 09:25:49  profilanswer
 


Le graph de czechgamer c'est juste un peu des conneries  :o  
1 - Simulé avec une 285.
2 - la résolution MAX pour 3D Vision + Surround c'est = à 5760*1080 ! (et pas x1200)  :o

n°7300499
dll_75
Posté le 23-01-2010 à 09:30:25  profilanswer
 


A trop inonder le marché, ils risquent aussi de "dérouter" le consommateur...
 
D'autant plus qu'il faut généralement 6 mois à ATI pour sortir un driver définitif, stable et corrigeant tous les problemes.
 
De ce fait, le département "Support & DEV" risque de ne pas suivre le train imposé par le département "ingenerie & hardware"  :o

n°7300531
Ramichou
Posté le 23-01-2010 à 10:15:01  profilanswer
 

Zack38 a écrit :


 
La chance a quand même bien aidé ATi, parce que ça m'étonnerait beaucoup que les ingénieurs qui ont conçu le R600 étaient au courant des implémentations DX11 qui seraient nécessaires des années plus tard et qu'ils avaient donc fait une archi pour les supporter plus facilement (j'ai fait d'horribles fautes de temps, je sais) .


 
C'était l'histoire qui était sortie il y a quelques mois concernant les pressions faites pas Nvidia pour vider DX10 de ses specs interressantes. Du coup, ATI avait bossé sur une archi relativement proche de DX11 à l'époque (le tesselator...) alors que Nvidia avait pu faire une archi avec un DX10 pourri, mais qui turbinait bien mieux. C'est pour ça que ATI/AMD est passé aisément au DX10.1 et même au DX11 sur leur archi alors que Nvidia s'est enfermé à tirer sur DX10 le plus possible.
 
Pour ceux qui accusent AMD d'inonder le marché des cartes graphiques, à vrai dire, je ne vois pas trop en quoi : la gamme est relativement cohérente, en dehors du trou entre 130 et 260€, et des vieilles cartes qui font de la concurrence aux HD5750 et HD5670. Une fois les vieux stocks écoulés et la HD5830 sortie, la gamme sera un modèle de cohérence... Uniquement sur le desktop. Quand on voit les gammes Intel et Nvidia, la différence est vertigineuse.
 
A coté de la gamme AMD, nous aurons une gamme Nvidia mélant allègrement DX10, DX10.1 et DX11.

n°7300554
glrpignolo
Posté le 23-01-2010 à 10:48:49  profilanswer
 

[quotemsg=7300499,3035,653339]
A trop inonder le marché, ils risquent aussi de "dérouter" le consommateur...
 
D'autant plus qu'il faut généralement 6 mois à ATI pour sortir un driver définitif, stable et corrigeant tous les problemes.
 
Va falloir arreter avec les pilotes ATI maintenant.
C'est pareil chez nvidia.
 
Je t'invite à aller lire le sujet sur les pilotes nvidia, il y a bcp de gens qui se plaignent a chaque fois des nouveaux pilotes avec des cartes qui sont sorties il y a plus d'un an...

Message cité 1 fois
Message édité par glrpignolo le 23-01-2010 à 10:52:51
n°7300557
MEI
|DarthPingoo(tm)|
Posté le 23-01-2010 à 10:51:15  profilanswer
 

glrpignolo a écrit :


 
 
Va falloir arreter avec les pilotes ATI maintenant.
C'est pareil chez nvidia.
 
Je t'invite à aller lire le sujet sur les pilotes nvidia, il y a bcp de gens qui se plaignent a chaque fois des nouveaux pilotes avec des cartes qui sont sorties il y a plus d'un an...


Perso depuis que j'ai ma 8800 GTS j'ai toujours utilisé des pilotes à l'arrache, jamais de pbs majeur... (je l'ai depuis la dispo FR). En fait c'est p'tet parce que j'utilise que des pilotes BETA / WHQL qui viennent de NVIDIA et que j'ai un PC stable.
(ATI ou NVIDIA c'est pareil, mais deja avant d'accuser le driver faut regarde son oc quoi... ;))


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7300560
glrpignolo
Posté le 23-01-2010 à 10:54:48  profilanswer
 

Pareil pour moi mais du coté ATI.
Toujours réinstaller les pilotes a l'arrache par dessus les anciens avec ma 4870.
La 1ere fois que j'ai désinstaller les pilotes et utiliser driver sweeper ca a été pour faire une installe propre de mes 5770.
 
Il y a l'oc oui et aussi tout les soft de monitoring tweaking etc qui foutent la merdre.


Message édité par glrpignolo le 23-01-2010 à 10:57:30
n°7300573
Gigathlon
Quad-neurones natif
Posté le 23-01-2010 à 11:04:28  profilanswer
 

Fouge a écrit :

En fait c'est un choix architectural. Pour un nombre de transistor donné, (je vais simplifier à mort), il avaient le choix entre une grosse puissance brute mais difficilement exploitable (rendement assez moyen) ou une puissante brute moins importante mais avec un meilleure rendement (mieux exploitée). Au final, ce qui compte, c'est la puissance exploitée (= puissance théorique * rendement). AMD a opté pour la 1ère solution, nVidia pour la 2ème.
Les articles d'HFR l'expliquent assez bien.


Vala, on pourrait pas dire mieux.
 
Quant à la "chance" d'avoir pu faire évoluer le R600, c'est surtout qu'ils avaient une archi très modulaire, et au final ça a payé.
 
Le GF100 est un pwal moins modulaire à cause de blocs trop gros, mais si on le compare au G80 il y a déjà pas mal d'améliorations puisque les "transistors dédiés à l'exécution", responsables de la puissance brute, représentent une part plus importante du die.

n°7300644
Gigathlon
Quad-neurones natif
Posté le 23-01-2010 à 12:14:48  profilanswer
 

A tout hasard, si y'en a qui ont la possibilité de tester AdvancedParticles (SDK DirectX d'Aout 2009, catégorie DX10) sur GT200 avec quelques modifs ça pourrait être intéressant avec 1M de particules d'une taille aussi bien mathématique que visuelle de 0.005 (à modifier respectivement dans AdvancedParticles.cpp et AdvancedParticles.fx).
 
Le rendu est assez intéressant puisqu'on a un bel écoulement passé la phase initiale, mais ça n'est décidément pas directement comparable à FluidMark, qui gère les interactions entre les particules et pas uniquement particules/objets, mais ça permettrait de voir la différence avec l'archi rouge.

n°7300748
couillesho​t
Les bouboules et la boubouche
Posté le 23-01-2010 à 14:01:40  profilanswer
 

MEI a écrit :


Ca doit etre dur de bosser sur des API meme pas en cours de developpement par MS. :o


 
comment ça? ils bossent sur je sais pas combien d'OS et diverses expérimentation, logique que le prochain DX soit en développement, ça se fait pas en 3 mois amha  :o
il a bien fallu 4 ou 5 ans pour élaborer le G80, ça m'étonnerais que dx10 n'étais pas en chantier déjà à l'époque, ou alors on peut développer un gpu sans l'API qu'il va supporter  :??: , dans ce cas je suis sur le cul

Message cité 1 fois
Message édité par couilleshot le 23-01-2010 à 14:03:44

---------------
:o :o :o
n°7300750
Invite_Sur​prise
Racaille de Shanghaï
Posté le 23-01-2010 à 14:05:44  profilanswer
 

Wirmish a écrit :

La Radeon HD 6870 (DX11.1) sera peut-être mienne au prochain Noël.  ;)


 
Faudrait déjà commencer par en acheter des cartes graphiques (des vraies) ou tout simplement jouer aux jeux ... ;)
 
 
[:papyflingueur]

n°7300758
Gigathlon
Quad-neurones natif
Posté le 23-01-2010 à 14:12:37  profilanswer
 

Disons que déjà DirectX contient des fonctionnalités qui sont définies par le feedback des fabricants de GPU et des développeurs, donc même sans connaître précisément la future version, on peut influer grandement sur son contenu avant sa finalisation, et potentiellement même avant les premières specs préliminaires.
 
La tessellation est vraisemblablement entrée comme ça dans DirectX, après les GS qui répondaient eux à une demande des devs (pouvoir créer de la géométrie à la volée).
 
Les CS sont aussi issus des demandes des devs, puisque pour faire certaines bricoles il fallait repasser par tout le pipeline Direct3D, ce qui n'était ni facile, ni efficace. Le sample NBodyGravity montre très bien l'impact que ça peut avoir avec ses versions PS et CS.

n°7300759
Zack38
Posté le 23-01-2010 à 14:12:45  profilanswer
 

couilleshot a écrit :


 
comment ça? ils bossent sur je sais pas combien d'OS et diverses expérimentation, logique que le prochain DX soit en développement, ça se fait pas en 3 mois amha  :o
il a bien fallu 4 ou 5 ans pour élaborer le G80, ça m'étonnerais que dx10 n'étais pas en chantier déjà à l'époque, ou alors on peut développer un gpu sans l'API qu'il va supporter  :??: , dans ce cas je suis sur le cul


 
C'est une évidence, quand on invente un GPU, on est en connaissance des caractéristiques requises pour l'API qu'il devra supporter . La preuve, l'architecture du RV770 (basée sur le R600) était déjà prête pour DX11, avec un tesselator intégré . Mais comme les caractéristiques finales ont un peu évolué entre la création du RV770 et la sortie de DX11, AMD a dû modifier toute son archi (et au passage doubler la puissance de calcul) pour être en adéquation parfaite avec les pré-requis .
 
D'ailleurs, je pense qu'AMD et nVidia sont déjà en connaissance des grosses lignes des specs requises par DX12, la nouvelle API étant censée arriver fin 2012 ou à mi-2013 . Sachant qu'une archi GPU est destinée à être réutilisée plusieurs années avec quelques modifications, la future archi d'AMD sera déjà "prête" et conçue pour recevoir les modifications requises pour DX11.1 et DX12 .

n°7300765
Gigathlon
Quad-neurones natif
Posté le 23-01-2010 à 14:17:28  profilanswer
 

Peut-être aussi que la tessellation était initialement prévue pour DX10, mais mise au placard faute de performances acceptables ;)

n°7300771
Zack38
Posté le 23-01-2010 à 14:26:19  profilanswer
 

Gigathlon a écrit :

Peut-être aussi que la tessellation était initialement prévue pour DX10, mais mise au placard faute de performances acceptables ;)


 
On dit ça, en effet, mais ce qui était sûr c'est que la tesselation allait arriver à un moment ou à un autre durant l'ère d'utilisation du R600, et donc AMD a conçu son GPU de manière à la supporter . nVidia, à contrario, ne l'avait pas prévu, donc >> nouvelle architecture Fermi qui sort avec plusieurs mois de retard .

n°7300773
MEI
|DarthPingoo(tm)|
Posté le 23-01-2010 à 14:28:48  profilanswer
 

Gigathlon a écrit :

Peut-être aussi que la tessellation était initialement prévue pour DX10, mais mise au placard faute de performances acceptables ;)


Vu que la X360 a de la tesselation et une API "DX9.5" y'a des chances. ;)


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7300784
Gigathlon
Quad-neurones natif
Posté le 23-01-2010 à 14:37:50  profilanswer
 

En tout cas y'a un truc que je comprend pas avec la tessellation, c'est que visiblement malgré le max annoncé de 63/64 selon le mode il m'est rigoureusement impossible de dépasser un facteur de 11.
 
J'ai décortiqué le sample DetailTessellation, modifié le max initialement placé à 11 et il n'y a définitivement pas moyen de dépasser ce chiffre.
 
Bon, c'est à relativiser car déjà à 11 on génère un paquet de triangles, mais c'est quand même étrange.
 
Edit : bon, après un petit décompte, chaque triangle donne déjà naissance à 13 triangles en passant de 1 à 2, le max de 1024 est probablement déjà atteint à 11.

Message cité 1 fois
Message édité par Gigathlon le 23-01-2010 à 14:42:50
n°7300785
Zack38
Posté le 23-01-2010 à 14:38:59  profilanswer
 

Gigathlon a écrit :

En tout cas y'a un truc que je comprend pas avec la tessellation, c'est que visiblement malgré le max annoncé de 63/64 selon le mode il m'est rigoureusement impossible de dépasser un facteur de 11.
 
J'ai décortiqué le sample DetailTessellation, modifié le max initialement placé à 11 et il n'y a définitivement pas moyen de dépasser ce chiffre.
 
Bon, c'est à relativiser car déjà à 11 on génère un paquet de triangles, mais c'est quand même étrange.


 
Ce sera débloqué avec DirectX 11.1 [:ddr555]

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  75  76  77  ..  536  537  538  539  540  541

Aller à :
Ajouter une réponse
 

Sujets relatifs
Topic GT300 fermé, vous avez gagné!aide pour reglé ma nvidia gt240
Nvidia geforce 9800gt pilotes problemeGeForce 295 GTX MonoPCB
GTX 260 Grésillement[TOPIC UNIQUE] ASUSTeK EAH4890 FORMULA - **** Sondage Ventilateur ****
choix carte graphique nvidiaEt si on faisait une BDD/Topic unique sur nos benchs HD TUNE et ATTO ?
Plus de sujets relatifs à : [Topic Unique] GTX 465, 470, 480 - cartes Nvidia HDG - 40nm - DX11


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)