Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
4034 connectés 

 

 

Laquelle pour vous interesse ?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  60  61  62  ..  1325  1326  1327  1328  1329  1330
Auteur Sujet :

[Topic Unique] ATI Radeon 4800 Series (RV770 inside)

n°6397856
god is dea​d
Demain, j'arrête de poster.
Posté le 25-05-2008 à 17:44:11  profilanswer
 

Reprise du message précédent :
Le probème de ton raisonnement c'est que la 9800gtx est entre 40 et 60% plus perf qu'une hd 3870.
 
http://www.hardware.fr/articles/71 [...] 0-gtx.html
ou
http://www.computerbase.de/artikel [...] _qualitaet
 
Je sais pas d'où tu sors tes 24% avec filtres  [:cobraphil8]

Message cité 1 fois
Message édité par god is dead le 25-05-2008 à 17:50:35

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
mood
Publicité
Posté le 25-05-2008 à 17:44:11  profilanswer
 

n°6397861
kaiser52
Posté le 25-05-2008 à 17:51:07  profilanswer
 

god is dead a écrit :

Le probème de ton raisonnement c'est que la 9800gtx est 40/50% plus perf qu'une hd 3870.
 
http://www.hardware.fr/articles/71 [...] 0-gtx.html
 


 
Ouai mais en gros ^^.
Sa tient toujours du faite que le reste du 4870 est supérieur au 3870. Sa reste dans la même tranche de raisonnement je pense.
Tous ça pour dire que les tarifs de ATI ne sont pas la pour faire beau, mais bien pour montrer qu'il sera moins perf que la concurrence, on sort pas un Very haut de Gamme de la mort qui tue tous à 350$, mais plus dans les 600$, surtout vue leur manque d'argent.
 
Edit : He bé le 2560 8x/16x pardonne pas ^^
pour le pourcentage c'était une approximation, j'ai regardé les chiffres d'un coup d'oeil ^^

Message cité 1 fois
Message édité par kaiser52 le 25-05-2008 à 17:52:34

---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°6397864
god is dea​d
Demain, j'arrête de poster.
Posté le 25-05-2008 à 17:52:37  profilanswer
 

Nan mais on le sait déjà que le rv770 ne sera pas un compétitor en terme de perf, la hd 4870 c'est une hd 3870 X2 sans les contraintes d'un cf.


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°6397872
videderien
Posté le 25-05-2008 à 17:56:38  profilanswer
 

Y a que pas que les SP, faut aussi voir leur fréquence de fonctionnement. Sur le papier, la 4870 équivaut à très peu de choses près à une 3870X2, sauf que c'est mono core donc sûrement plus efficace... à voir.
C'est évident que la 4870X2 dépassera la 9800GX2, après ce qu'il faudrait voir c'est par rapport au GTX 260.


Message édité par videderien le 25-05-2008 à 18:00:52
n°6397874
barbare128
pas de koi se rouler par terre
Posté le 25-05-2008 à 17:57:42  profilanswer
 

kaiser52 a écrit :


 
Ouai mais en gros ^^.
Sa tient toujours du faite que le reste du 4870 est supérieur au 3870. Sa reste dans la même tranche de raisonnement je pense.
Tous ça pour dire que les tarifs de ATI ne sont pas la pour faire beau, mais bien pour montrer qu'il sera moins perf que la concurrence, on sort pas un Very haut de Gamme de la mort qui tue tous à 350$, mais plus dans les 600$, surtout vue leur manque d'argent.
 
Edit : He bé le 2560 8x/16x pardonne pas ^^
pour le pourcentage c'était une approximation, j'ai regardé les chiffres d'un coup d'oeil ^^


 
Rien n'empêche à ATI de sortir une carte à pas cher pour regagner des parts de marché. Surtout que les couts de fabrications d'ati sont bien inférieurs à ceux de nvidia.
 
Pour ce qui est des SP, c'est bien joli de compter leur nombres sans multiplier par la fréquence ...
 
Les SP d'ATI seront mieux clocké que sur le 3870, les TMUs réajusté pour ne plus avoir de problème de fillrate.
 
Les SP du GT280 et 260 seront cadensé plus lentement que le G92 !!!
 
La 4870 serra juste devant le 260, et la X2 fightera la 280.
 
Et ce n'est pas le discour marketing du patron de nvidia qui fera changer les chiffres, Il faut prendre son discours avec des pincettes.  :whistle:


---------------
Feed my back : http://forum.hardware.fr/forum2.ph [...] w=0&nojs=0
n°6397887
kaiser52
Posté le 25-05-2008 à 18:06:09  profilanswer
 

barbare128 a écrit :


 
Rien n'empêche à ATI de sortir une carte à pas cher pour regagner des parts de marché. Surtout que les couts de fabrications d'ati sont bien inférieurs à ceux de nvidia.
 
Pour ce qui est des SP, c'est bien joli de compter leur nombres sans multiplier par la fréquence ...
 
Les SP d'ATI seront mieux clocké que sur le 3870, les TMUs réajusté pour ne plus avoir de problème de fillrate.
 
Les SP du GT280 et 260 seront cadensé plus lentement que le G92 !!!
 
La 4870 serra juste devant le 260, et la X2 fightera la 280.
 
Et ce n'est pas le discour marketing du patron de nvidia qui fera changer les chiffres, Il faut prendre son discours avec des pincettes.  :whistle:


 
N'empêche que sa à pas empêche une 9800GTX(675Mhz/1688/1100) de pas faire mieux qu'une simple 8800Ultra(612/1512/1080).
Les fréquence de fonctionnement ne font pas tous, l'archi est plus importante, nvidia à changé la conception de ces SP (soit disant 50% better), alors que pour ATI on en entend pas parlé.
De mon points de vue, les fréquences compte plus du coté de ATI, que du coté de nVidia, et je pense aussi que plus les fréquences sont élevé, plus sa cache quelque chose (Intel et ces P4 par exemple), de pas forcement bon.

Message cité 2 fois
Message édité par kaiser52 le 25-05-2008 à 18:06:34

---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°6397891
videderien
Posté le 25-05-2008 à 18:07:52  profilanswer
 

Nvidia a dit 50% ou 2 fois plus puissant, pour les SP ?

n°6397903
barbare128
pas de koi se rouler par terre
Posté le 25-05-2008 à 18:12:41  profilanswer
 

kaiser52 a écrit :


 
N'empêche que sa à pas empêche une 9800GTX(675Mhz/1688/1100) de pas faire mieux qu'une simple 8800Ultra(612/1512/1080).
Les fréquence de fonctionnement ne font pas tous, l'archi est plus importante, nvidia à changé la conception de ces SP (soit disant 50% better), alors que pour ATI on en entend pas parlé.
De mon points de vue, les fréquences compte plus du coté de ATI, que du coté de nVidia, et je pense aussi que plus les fréquences sont élevé, plus sa cache quelque chose (Intel et ces P4 par exemple), de pas forcement bon.


 
Le G92 était un G80 castré sur le bus en dieshrink.
 
c'est le même gpu, donc aucun raport avec l'archi ... mais simplement le castrage du bus ...
 
actuellement les shaders de nvidia sont à plus de 1500mhz ... et bien même s'ils passent à 240, il vont perdre en fréquence, et donc ce ne serra pas 87% d'augmentation.
 
Et quand le CEO de nvidia parle de Shader version 2 ça me fait bien marrer, par ce qu'au fond on sait déjà que ce sont les mêmes shaders.
 
Et qu'avec la perte de fréquence ... nvidia tombe sur 50% d'amélioration en performance de shaders ...
 
si c'est pas la honte de mentir comme ça .... et dire qu'ils ont renommé le G92 en 9800  :lol:


---------------
Feed my back : http://forum.hardware.fr/forum2.ph [...] w=0&nojs=0
n°6397907
god is dea​d
Demain, j'arrête de poster.
Posté le 25-05-2008 à 18:14:04  profilanswer
 

Y a rien de définitif concernant les fréquences du gt 200, ce sont juste des spéculations. M'est avis que 600 mhz pour une gtx 280 ça me parait bien peu, je table + sur 650-700. M'est avis également que la hd 4870 sera inférieure à la gtx-260, et si ce n'est pas le cas, elle sera vendu au même prix.  
 
Une carte n'est pas chère parce que ses perfs ne sont "pas chères" également. La hd 2900 xt était un poil plus perf que la 8800 gts 640 et elle était logiquement un poil plus chère.  
 
Faudrait arrêter de rêver en s'imaginant qu'AMD vendrait une carte 100 euros moins chère que celle de son concurrent, tout en étant plus perf (pourquoi pas Vista fournit en bundle aussi ?), ça c'est dans les bisounours.
 
Et le fillrate dépend des ROPs, pas des TMUs :d

Message cité 1 fois
Message édité par god is dead le 25-05-2008 à 18:15:31

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°6397910
adolph
eh blondin !
Posté le 25-05-2008 à 18:16:39  profilanswer
 

kaiser52 a écrit :


 
N'empêche que sa à pas empêche une 9800GTX(675Mhz/1688/1100) de pas faire mieux qu'une simple 8800Ultra(612/1512/1080).
Les fréquence de fonctionnement ne font pas tous, l'archi est plus importante, nvidia à changé la conception de ces SP (soit disant 50% better), alors que pour ATI on en entend pas parlé.
De mon points de vue, les fréquences compte plus du coté de ATI, que du coté de nVidia, et je pense aussi que plus les fréquences sont élevé, plus sa cache quelque chose (Intel et ces P4 par exemple), de pas forcement bon.


 
 
de toutes facons meme moi a 700 mhz crysis est injouable en dx10

mood
Publicité
Posté le 25-05-2008 à 18:16:39  profilanswer
 

n°6397913
barbare128
pas de koi se rouler par terre
Posté le 25-05-2008 à 18:17:34  profilanswer
 

god is dead a écrit :

Y a rien de définitif concernant les fréquences du gt 200, ce sont juste des spéculations. M'est avis que 600 mhz pour une gtx 280 ça me parait bien peu, je table + sur 650-700. M'est avis également que la hd 4870 sera inférieure à la gtx-260, et si ce n'est pas le cas, elle sera vendu au même prix.  
 
Une carte n'est pas chère parce que ses perfs ne sont "pas chères" également. La hd 2900 xt était un poil plus perf que la 8800 gts 640 et elle était logiquement un poil plus chère.  
 
Faudrait arrêter de rêver en s'imaginant qu'AMD vendrait une carte 100 euros moins chère que celle de son concurrent, tout en étant plus perf (pourquoi pas Vista fournit en bundle aussi ?), ça c'est dans les bisounours.
 
Et le fillrate dépend des ROPs, pas des TMUs :d


 
Oui je parle de TMU, mais en réalité chez ATI on ne parle ni TMU ni ROP, c'est simplement pour que vous compreniez  :sleep:


---------------
Feed my back : http://forum.hardware.fr/forum2.ph [...] w=0&nojs=0
n°6397915
kaiser52
Posté le 25-05-2008 à 18:18:07  profilanswer
 

barbare128 a écrit :


 
Le G92 était un G80 castré sur le bus en dieshrink.
 
c'est le même gpu, donc aucun raport avec l'archi ... mais simplement le castrage du bus ...
 
actuellement les shaders de nvidia sont à plus de 1500mhz ... et bien même s'ils passent à 240, il vont perdre en fréquence, et donc ce ne serra pas 87% d'augmentation.
 
Et quand le CEO de nvidia parle de Shader version 2 ça me fait bien marrer, par ce qu'au fond on sait déjà que ce sont les mêmes shaders.
 
Et qu'avec la perte de fréquence ... nvidia tombe sur 50% d'amélioration en performance de shaders ...
 
si c'est pas la honte de mentir comme ça .... et dire qu'ils ont renommé le G92 en 9800  :lol:


 
Tu travails chez nvidia  :heink:
Enfin qui vivra verra, mais je suis sur que mes spéculations sont bonnes !


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°6397925
god is dea​d
Demain, j'arrête de poster.
Posté le 25-05-2008 à 18:21:16  profilanswer
 

barbare128 a écrit :


 
Oui je parle de TMU, mais en réalité chez ATI on ne parle ni TMU ni ROP, c'est simplement pour que vous compreniez  :sleep:


Ah bon, on parle pas de ROPs chez ATI ? ni de TMUs ? Ça n'existe pas ?
 
Le fillrate c'est le nombre de ROPs x fréquence gpu et les TMUs déterminent (en partie) la puissance de texturing/filltrage, et ça marche aussi chez ATI. Admet que t'as confondu fillrate et filtrage :o

Message cité 1 fois
Message édité par god is dead le 25-05-2008 à 18:22:17

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°6397931
barbare128
pas de koi se rouler par terre
Posté le 25-05-2008 à 18:23:16  profilanswer
 

kaiser52 a écrit :


 
Tu travails chez nvidia  :heink:
Enfin qui vivra verra, mais je suis sur que mes spéculations sont bonnes !


 
des shaders 50% plus rapide  :lol:  
 
C'est commercial ...
 
Comment peut-on croire le discours d'un mec qui te vends des 9800 alors que ce sont les mêmes que les 8800GT ...
 
87% d'augmentation du nombre de shaders +50% d'amélioration sur les perfs des shaders ...
 
soir 280% d'amélioration par rapport à une 9800 ...
 
Il faut arrêter la branlette le dimanche ...  :hello:


---------------
Feed my back : http://forum.hardware.fr/forum2.ph [...] w=0&nojs=0
n°6397933
barbare128
pas de koi se rouler par terre
Posté le 25-05-2008 à 18:23:51  profilanswer
 

god is dead a écrit :


Ah bon, on parle pas de ROPs chez ATI ? ni de TMUs ? Ça n'existe pas ?
 
Le fillrate c'est le nombre de ROPs x fréquence gpu et les TMUs déterminent (en partie) la puissance de texturing/filltrage, et ça marche aussi chez ATI. Admet que t'as confondu fillrate et filtrage :o


 
Chez ATI on parle de RBE, c'est un peu différent.  :whistle:


---------------
Feed my back : http://forum.hardware.fr/forum2.ph [...] w=0&nojs=0
n°6397934
videderien
Posté le 25-05-2008 à 18:24:05  profilanswer
 

que les ROPs et TMUs soient un sujet tabou chez ATI, c'est possible pare que ça se sent sur leur carte graphique :D

n°6397935
Activation
21:9 kill Surround Gaming
Posté le 25-05-2008 à 18:24:20  profilanswer
 

barbare128 a écrit :


 
Le G92 était un G80 castré sur le bus en dieshrink.
 
c'est le même gpu, donc aucun raport avec l'archi ... mais simplement le castrage du bus ...
 
actuellement les shaders de nvidia sont à plus de 1500mhz ... et bien même s'ils passent à 240, il vont perdre en fréquence, et donc ce ne serra pas 87% d'augmentation.
 
Et quand le CEO de nvidia parle de Shader version 2 ça me fait bien marrer, par ce qu'au fond on sait déjà que ce sont les mêmes shaders.
 
Et qu'avec la perte de fréquence ... nvidia tombe sur 50% d'amélioration en performance de shaders ...
 
si c'est pas la honte de mentir comme ça .... et dire qu'ils ont renommé le G92 en 9800  :lol:


 
le G80 et le G92 les unité shader sont pas les meme ... mais pour ça faut utiliser cuda pour s'en rendre compte
 
maintenant est ce que les unité shader du G92 était pas déjà celle qu on doit censé seulement voir la couleur dans le "G200" ça c'est moins sur
nvidia nous en a bien caché sur les G9x et à bien joué la langue de bois
car le petit G92 il en avait tout de meme un bon paquet de transistor
 
maintenant déjà present ou pas dans le G9x ... au niveau de nous joueurs... c'était ceinture (ptet pas niveau plateforme tesla avec CUDA)
donc on pourra le palper qu'avec les gtx260/280

n°6397941
barbare128
pas de koi se rouler par terre
Posté le 25-05-2008 à 18:28:15  profilanswer
 

Activation a écrit :


 
le G80 et le G92 les unité shader sont pas les meme ... mais pour ça faut utiliser cuda pour s'en rendre compte
 
maintenant est ce que les unité shader du G92 était pas déjà celle qu on doit censé seulement voir la couleur dans le "G200" ça c'est moins sur
nvidia nous en a bien caché sur les G9x et à bien joué la langue de bois
car le petit G92 il en avait tout de meme un bon paquet de transistor
 
maintenant déjà present ou pas dans le G9x ... au niveau de nous joueurs... c'était ceinture (ptet pas niveau plateforme tesla avec CUDA)
donc on pourra le palper qu'avec les gtx260/280


 
rolf j'ai pas tout compris  ....  :whistle:  
C'est pas très clair ...  :hello:


---------------
Feed my back : http://forum.hardware.fr/forum2.ph [...] w=0&nojs=0
n°6397942
Activation
21:9 kill Surround Gaming
Posté le 25-05-2008 à 18:28:48  profilanswer
 

allez 45fps de moyenne en 1920*1200 very high dx10 AA4x sous crysis et c'est bon
 
(attention impératif les fps minimum durant tout le jeu 35fps... sinon j'en veut pas  :o  )

n°6397944
Activation
21:9 kill Surround Gaming
Posté le 25-05-2008 à 18:29:36  profilanswer
 

barbare128 a écrit :


 
rolf j'ai pas tout compris  ....  :whistle:  
C'est pas très clair ...  :hello:


 
t'as pas tout compris... c'est à dire ?
 
en gros je dis selon nvidia y a shader unifié génération 1 pour G80, génération 1.5 pour G92, génération 2 pour gtx260/280
 
mais au final est ce que la génération 2 était pas en fait déjà dans le G92 meme si pas active
 
rappelons que le G92 (bref les 8800gt 8800gts512) n'était pas censé sortir aussi tot niveau planning
 
il a été avancé à cause de la sortie des HD3870 avant les période de fetes

Message cité 1 fois
Message édité par Activation le 25-05-2008 à 18:33:56
n°6397947
barbare128
pas de koi se rouler par terre
Posté le 25-05-2008 à 18:31:49  profilanswer
 

Activation a écrit :


 
t'as pas tout compris... c'est à dire ?
 
en gros je dis selon nvidia y a shader unifié génération 1 pour G80, génération 1.5 pour G92, génération 2 pour gtx260/280
 
mais au final est ce que la génération 2 était pas en fait déjà dans le G92 meme si pas active


 
c'est pas des phrases  :o


---------------
Feed my back : http://forum.hardware.fr/forum2.ph [...] w=0&nojs=0
n°6397948
adolph
eh blondin !
Posté le 25-05-2008 à 18:32:05  profilanswer
 

Activation a écrit :

allez 45fps de moyenne en 1920*1200 very high dx10 AA4x sous crysis et c'est bon
 
(attention impératif les fps minimum durant tout le jeu 35fps... sinon j'en veut pas  :o  )


 
tes optimiste  :sleep:  on en sera tres loin

n°6397949
kaiser52
Posté le 25-05-2008 à 18:34:01  profilanswer
 

barbare128 a écrit :


 
rolf j'ai pas tout compris  ....  :whistle:  
C'est pas très clair ...  :hello:


 
C'est pas compliqué, tu vas .
Tu regardes 8800Ultra et 9800GTX, tous est baissé, sauf les 128SP, à part les fréquences (10% de plus pour le GPU), et après tu regardes tous les débits (sampling, MAD et filtrage).
Y'à belle et bien une évolution.


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°6397955
Activation
21:9 kill Surround Gaming
Posté le 25-05-2008 à 18:39:04  profilanswer
 

barbare128 a écrit :


 
c'est pas des phrases  :o


 
 
tu pense détenir une License en lettres pour me dire ça  :o ... suffit de voir tes posts pas beaucoup plus avant dans ce topic


Message édité par Activation le 25-05-2008 à 18:39:37
n°6397963
barbare128
pas de koi se rouler par terre
Posté le 25-05-2008 à 18:44:39  profilanswer
 

kaiser52 a écrit :


 
C'est pas compliqué, tu vas .
Tu regardes 8800Ultra et 9800GTX, tous est baissé, sauf les 128SP, à part les fréquences (10% de plus pour le GPU), et après tu regardes tous les débits (sampling, MAD et filtrage).
Y'à belle et bien une évolution.


 
Qui te dis que cela ne viens pas de Cuda lui même et non des shaders ?
 
Cuda est un langage évolué très loin du language machine, et donc facilement optimisable.
 
 
Et tu va me dire, alors pourquoi les anciennes CG n'en profite pas ?
 
Ben simplement chez nvidia, c'est pas la volonté de vendre des vieux GPUs mais vendre beaucoup de nouveaux GPUs, les améliorations dans les pilotes dans anciennes CG sur les performances on n'en vois jamais.


---------------
Feed my back : http://forum.hardware.fr/forum2.ph [...] w=0&nojs=0
n°6397967
kaiser52
Posté le 25-05-2008 à 18:46:48  profilanswer
 

barbare128 a écrit :


 
Qui te dis que cela ne viens pas de Cuda lui même et non des shaders ?
 
Cuda est un langage évolué très loin du language machine, et donc facilement optimisable.
 
 
Et tu va me dire, alors pourquoi les anciennes CG n'en profite pas ?
 
Ben simplement chez nvidia, c'est pas la volonté de vendre des vieux GPUs mais vendre beaucoup de nouveaux GPUs, les améliorations dans les pilotes dans anciennes CG sur les performances on n'en vois jamais.


 
Gnié ?
C'est les spec de HFR là ^^
Il est ou le rapport avec CUDA ?


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°6397972
barbare128
pas de koi se rouler par terre
Posté le 25-05-2008 à 18:48:19  profilanswer
 

kaiser52 a écrit :


 
Gnié ?
C'est les spec de HFR là ^^
Il est ou le rapport avec CUDA ?


 
Cuda est une api qui transforme le code en langage GPU ...  :pt1cable:


---------------
Feed my back : http://forum.hardware.fr/forum2.ph [...] w=0&nojs=0
n°6397975
Activation
21:9 kill Surround Gaming
Posté le 25-05-2008 à 18:49:03  profilanswer
 

bah voyons ça vient du SDK de cuda
 
pour caricaturer le sdk va transformer des unité de calcul entier en unité de calcul flottant
 
méééé bien sur

n°6397978
kaiser52
Posté le 25-05-2008 à 18:49:33  profilanswer
 

barbare128 a écrit :


 
Cuda est une api qui transforme le code en langage GPU ...  :pt1cable:


 
Nan mais sa je sais, mais tu cotes mon post, et il n'a rien à voire avec CUDA.
Je me pose la question c'est tous ^^


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°6397987
barbare128
pas de koi se rouler par terre
Posté le 25-05-2008 à 18:53:18  profilanswer
 

kaiser52 a écrit :


 
Nan mais sa je sais, mais tu cotes mon post, et il n'a rien à voire avec CUDA.
Je me pose la question c'est tous ^^


 
Cuda compile ton code en langage GPU plus ou moins performant. Et au début les perfs étaient vraiment pourri. Ils ont fait une maj uniquement en faveur du G92 et basta.
 
Les shaders sont les mêmes et ça se vois dans les jeux ...


---------------
Feed my back : http://forum.hardware.fr/forum2.ph [...] w=0&nojs=0
n°6397991
kaiser52
Posté le 25-05-2008 à 18:57:37  profilanswer
 

barbare128 a écrit :


 
Cuda compile ton code en langage GPU plus ou moins performant. Et au début les perfs étaient vraiment pourri. Ils ont fait une maj uniquement en faveur du G92 et basta.
 
Les shaders sont les mêmes et ça se vois dans les jeux ...


 
Oui mais les spec et débit sur le tableau de HFR, c'est pas CUDA qui les a sorti.


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°6397994
campi
V8 FTW
Posté le 25-05-2008 à 19:01:08  profilanswer
 

vous disputez pas, je vais aller dans le futur avec la dolorean et je vous ferai un bench pour vous dire :D


---------------
Aye aye aye, s'il va sur l'autoroute il est mort, on a plus de puiZZanZe!
n°6397996
Activation
21:9 kill Surround Gaming
Posté le 25-05-2008 à 19:04:07  profilanswer
 

campi a écrit :

vous disputez pas, je vais aller dans le futur avec la dolorean et je vous ferai un bench pour vous dire :D


 
 
qui à aller dans le futur moi j'irais pour voir les résultat de 3/4 prochain loto
 
comme ça hop gagne le gros lot
 
baraque voiture et triple way de gtx280 :lol:
 
(mieux je ramene du futur un triple way de gtx880 ... avec les pilote sinon ça va etre la merde pour trouver les pilotes aujourd hui d'une carte qu existe pas  :o )

Message cité 1 fois
Message édité par Activation le 25-05-2008 à 19:05:33
n°6397997
barbare128
pas de koi se rouler par terre
Posté le 25-05-2008 à 19:05:39  profilanswer
 

kaiser52 a écrit :


 
Oui mais les spec et débit sur le tableau de HFR, c'est pas CUDA qui les a sorti.


 
Le code de hfr pour avoir ces chiffres est passé par cuda.  :whistle:


---------------
Feed my back : http://forum.hardware.fr/forum2.ph [...] w=0&nojs=0
n°6398003
kaiser52
Posté le 25-05-2008 à 19:09:07  profilanswer
 

barbare128 a écrit :


 
Le code de hfr pour avoir ces chiffres est passé par cuda.  :whistle:


 
Et il passait par CUDA à l'époque des Geforces 6 et des X800 ????
Je dis ça je dis rien  :kaola:


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°6398005
campi
V8 FTW
Posté le 25-05-2008 à 19:09:42  profilanswer
 

Activation a écrit :


 
 
qui à aller dans le futur moi j'irais pour voir les résultat de 3/4 prochain loto
 
comme ça hop gagne le gros lot
 
baraque voiture et triple way de gtx280 :lol:
 
(mieux je ramene du futur un triple way de gtx880 ... avec les pilote sinon ça va etre la merde pour trouver les pilotes aujourd hui d'une carte qu existe pas  :o )


 
Oui bon ben quitte à aller dans le futur je me prend tout mais qui viens de 200 ans plus tard :D  
 
Bon stop HS.
 
Vite les tests! :cry:


---------------
Aye aye aye, s'il va sur l'autoroute il est mort, on a plus de puiZZanZe!
n°6398013
Profil sup​primé
Posté le 25-05-2008 à 19:18:47  answer
 

campi a écrit :


 
Oui bon ben quitte à aller dans le futur je me prend tout mais qui viens de 200 ans plus tard :D  
 
Bon stop HS.
 
Vite les tests! :cry:


 
 
c est une phrase qui revient souvent en effet... [:unicode]


Message édité par Profil supprimé le 25-05-2008 à 19:18:55
n°6398026
videderien
Posté le 25-05-2008 à 19:25:24  profilanswer
 

plus que 3 semaines, et encore on a souvent des tests quelques jours avant qui sortent...


Message édité par videderien le 25-05-2008 à 19:29:25
n°6398039
videderien
Posté le 25-05-2008 à 19:31:08  profilanswer
 


Recto/verso : http://www.nordichardware.com/news,7789.html
 
"We've been informed that this is not the final design, the card gets too hot with just the one heatpipe." (X2)
"Both the 4870 and 4850 are suppose to be very quiet and worthy successors for the 3870/3850 coolers. "


Message édité par videderien le 25-05-2008 à 19:33:33
n°6398040
bikkemberg​s
Posté le 25-05-2008 à 19:31:25  profilanswer
 

qui compte acheter le jour de la sortie ?
 
sinon sa serait sympa de poster quelque tof du bundle ect...pour voir la difference entre chaque marque
 
et un petit screen de bench aussi ^^
 
moi j'attend la nouvelle x2 :)


---------------
mon feed : http://forum.hardware.fr/hfr/Achat [...] 5896_1.htm
n°6398053
Skandranon
☻ X-Trem ☻
Posté le 25-05-2008 à 19:35:53  profilanswer
 

Bah tu as le temps :d
 
J'ai posté les photos mais c'est chiant cette limitation du nombre de Photos :o


---------------
• Asus ROG STRIX B550-E - AMD Ryzen 7 5800X3D - 32Go Corsair Vengeance - Sapphire Nitro+ RX7900XT - 3 x SSD - Corsair RM850x V3 - Corsair 5000X - H150i Capellix •
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  60  61  62  ..  1325  1326  1327  1328  1329  1330

Aller à :
Ajouter une réponse
 

Sujets relatifs
ATI ou problème d'isolation électrique?[Topic Unique] Gigabyte GA-P31-DS3L
[ATI 1950gt] pas d'image hors mode VGA par défaut RADEON 9600 PRO 256 DDR2 est ce compatible ?
carte AGP - Radeon HD2600XT ou X1950Pro ?[Topic Unique] DFI LANPARTY "DK" : P35 T2RS et X38
[Topic Unique] Timings Mémoire [travail commun][Topic Unique] - Western digital 640 Go et 320Go (plateau(x) de 320Go)
Lire une source video extérieur sur le PC avec ATI control center[Topic Unique] DFI LANParty LT X38-T2R
Plus de sujets relatifs à : [Topic Unique] ATI Radeon 4800 Series (RV770 inside)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)