Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2887 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  14  15  16  ..  73  74  75  76  77  78
Auteur Sujet :

[Topic Unique] GT300 // La nouvelle bête de combat nvidia en 40nm

n°6959546
sasuke87
Posté le 16-05-2009 à 18:53:25  profilanswer
 

Reprise du message précédent :

kaiser52 a écrit :

 

nVIDIA ne fait que détourner le flux pour qu'il passe par nVAIP et pas par le pipeline DX10.1, donc si DX10 pas de détournement.
En gros ca n'affecte en aucun cas les perfs des cartes ATI.

 

Moi je pense qu'il y avait un reel probleme avec DX10.1 sur ASC.
Sinon pourquoi il y aura Stalker CS, BattleForge, Hawk, FarCry 2 et Stormise qui seraient DX10.1 ?

 

Dommage ça n'a jamais été réellement prouvé... Par contre ce qui est sûr c'est que c'était le premier jeu où ATI pouvait fièrement démontrer l'utilité de DX10.1 et paf Ubisoft (à cause de nvidia??? j'en suis persuadé perso) a frappé.

 

De plus il était question de réimplanter les opti DX10.1, au final baaaaah que dal.


Message édité par sasuke87 le 16-05-2009 à 18:54:05
mood
Publicité
Posté le 16-05-2009 à 18:53:25  profilanswer
 

n°6959566
Gigathlon
Quad-neurones natif
Posté le 16-05-2009 à 19:07:19  profilanswer
 

kaiser52 a écrit :

Moi je pense qu'il y avait un reel probleme avec DX10.1 sur ASC.
Sinon pourquoi il y aura Stalker CS, BattleForge, Hawk, FarCry 2 et Stormise qui seraient DX10.1 ?


Le "problème" évoqué concernait le HDR qui aurait été foireux... sauf qu'en pratique, c'est celui estampillé DX10 qui l'était, vu que ça a été corrigé avec le fameux patch [:gratgrat]

n°6959578
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 16-05-2009 à 19:19:42  profilanswer
 

kaiser52 a écrit :

nVIDIA ne fait que détourner le flux pour qu'il passe par nVAIP et pas par le pipeline DX10.1, donc si DX10 pas de détournement.
En gros ca n'affecte en aucun cas les perfs des cartes ATI.


1. Un développeur code un jeu XYZ.
 
2. nVidia envoit des techs chez le développeur pour qu'ils implémentent certains trucs qu'on retrouve dans DX10.1 (grâce à des fonctions cachées dans ses GeForce) mais en contournant les drivers DirectX 10.1 de Microsoft.
 
3. nVidia donne une certaine somme d'argent au développeur afin qu'il n'implémente pas les mêmes fonctions sur les Radeons grâce à DX10.1.
 
4. Le jeu XYZ sort, est testé par plein de sites, qui constatent que les GeForce sont légèrement plus perfs que les Radeon.
 
En réalité, dans ce jeu XYZ, les GeForce utilisent un genre de "DirectX 10.05", alors que les Radeon utilisent le DX10 standard. Naturellement, cela avantage les cartes de nVidia, qui sont pourtant technologiquement moins avancées.
Conclusion: Celui qui a un retard technologique termine premier... grâce à l'argent.
 
 
Heureusement, depuis quelques temps nVidia n'a plus beaucoup d'argent, et il est donc moins généreux avec les concepteurs de jeux. Cela fait en sorte que de plus en plus de jeux compatibles DX10.1 voient le jour. Et on peut enfin constater que les Radeon sont plus performantes que ce que laissaient penser les anciens benchs.
 
Avec DX11 nVidia ATi se battront enfin à armes égales.
On verra alors qui gagnera la prochaine bataille.
Je prédis qu'en fait, les vrais gagnants, ce sera toi, moi, lui, eux, et nous tous.
 
C'est tout ce que j'ai a dire sur ce sujet.

Message cité 1 fois
Message édité par Wirmish le 16-05-2009 à 19:22:37
n°6959588
kaiser52
Posté le 16-05-2009 à 19:37:30  profilanswer
 

Wirmish a écrit :


1. Un développeur code un jeu XYZ.
2. nVidia envoit des techs chez le développeur pour qu'ils implémentent certains trucs qu'on retrouve dans DX10.1 (grâce à des fonctions cachées dans ses GeForce) mais en contournant les drivers DirectX 10.1 de Microsoft.
3. nVidia donne une certaine somme d'argent au développeur afin qu'il n'implémente pas les mêmes fonctions sur les Radeons grâce à DX10.1.
4. Le jeu XYZ sort, est testé par plein de sites, qui constatent que les GeForce sont légèrement plus perfs que les Radeon.
 

Sachant que ca passe par nVAPI, les radeons ne pourraient pas en profiter, d'ou le faite qu'ils sont obligé de laissé l'alternative DX10.1 API, ce qui ne change en rien les perfs des radeons car elles n'auront pas acces a la parti du code en question.
 
Encore une theorie de complot contre le tous faible ATI qui est impuissant face à se monde cruel.... en gros ils appellent la fonction DX ou nVAPI, les devs du jeux n'ont pas a réecrir cette fonction, ca veut juste dire que l'archi de nVIDIA est compatible avec les fonctions de DX10.1, mais que l'API n'est pas en mesure d'y acceder (trouver le chemin, le path quoi) ce qui fait qu'elles ne sont pas DX10.1.
 
[Edit :]
en gros :
 
fonction effet_en_question (coord[3] coords, RGB[3] rgb, directx* dx)
{
 if (nvidia)
   dynamic_cast<nvapi*>(dx)->effet_en_question(coord, rgb);
else
  dx->effet_en_question(coords, rgb);
}
 

 
En réalité, dans ce jeu XYZ, les GeForce utilisent un genre de "DirectX 10.05", alors que les Radeon utilisent le DX10 standard. Naturellement, cela avantage les cartes de nVidia, qui sont pourtant technologiquement moins avancées.
Conclusion: Celui qui a un retard technologique termine premier... grâce à l'argent.
 
 
Heureusement, depuis quelques temps nVidia n'a plus beaucoup d'argent, et il est donc moins généreux avec les concepteurs de jeux. Cela fait en sorte que de plus en plus de jeux compatibles DX10.1 voient le jour. Et on peut enfin constater que les Radeon sont plus performantes que ce que laissaient penser les anciens benchs.
 

Moi ce que je constate a l'heure actuel c'est que le classement reste le même, DX10.1 ou pas

 
Avec DX11 nVidia ATi se battront enfin à armes égales.
On verra alors qui gagnera la prochaine bataille.
Je prédis qu'en fait, les vrais gagnants, ce sera toi, moi, lui, eux, et nous tous.
 

La on est d'accord

 
C'est tout ce que j'ai a dire sur ce sujet.


Message édité par kaiser52 le 16-05-2009 à 19:42:34

---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°6959590
Paul-Hewso​n
C'est-y pas mignon ?
Posté le 16-05-2009 à 19:46:28  profilanswer
 

Ca sert à quoi de parler de DX 10, DX 10.1, du G80, de l'architecture GT200 et R600, et R670. C'est le topic GT300 il me semble ?
 
Y a pt-être des meilleurs sujets dans le forum pour parler de ça, non ?


---------------
Vds rien (pour l'instant)|Vds rien (pour l'instant)
n°6959622
Gigathlon
Quad-neurones natif
Posté le 16-05-2009 à 20:22:11  profilanswer
 

Paul-Hewson a écrit :

Ca sert à quoi de parler de DX 10, DX 10.1, du G80, de l'architecture GT200 et R600, et R670. C'est le topic GT300 il me semble ?
 
Y a pt-être des meilleurs sujets dans le forum pour parler de ça, non ?


Libre à toi de relayer les innombrables infos sur le GT300 hein, ton post ne fait pas plus (moins?) avancer le schmilblick...


Message édité par Gigathlon le 16-05-2009 à 20:22:29
n°6959638
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 16-05-2009 à 20:37:48  profilanswer
 

Surtout que le GT300 sera compatible DX10.1, donc on reste quand même dans le sujet...

n°6959699
Profil sup​primé
Posté le 16-05-2009 à 21:45:29  answer
 

Perso ce débat m'intéresse bien. Ça me permet de me tenir au courant des différentes technos et de savoir comment ça se passait avant.
De toute façon, à part quelques rumeurs fumeuses, il n'y a rien à se mettre sous la dent au sujet des futures CG de nVidia et AMD (et Intel accessoirement).

n°6959702
Paul-Hewso​n
C'est-y pas mignon ?
Posté le 16-05-2009 à 21:47:31  profilanswer
 

Une excuse bidon plutôt. On connait déjà tout de DX 10.1 et rien du GT300.
 
Mon post ne fait pt-être pas avancer le sujet, mais JUSTEMENT je suis le seul à m'étonner de voir 15 pages dont la plupart rempli d'un débat g80, gt200 vs R600/RV770 et où on parle des supers atout de DX10 / DX10.1 ?
 
Si y a pas d'infos sur le GT300 c'est pas la peine de parler des anciennes puces sur ce topic là. Vous pouvez ouvrir votre propre topic pour faire vos débats sur les anciennes architectures d'ATI & d'nVidia et de DX10 vs DX10.1 ..


---------------
Vds rien (pour l'instant)|Vds rien (pour l'instant)
n°6959708
god is dea​d
Demain, j'arrête de poster.
Posté le 16-05-2009 à 21:53:56  profilanswer
 

T'es là depuis 4ans. Tu devrais donc savoir que le topic d'un nouveau futur gpu, censé sortir dans quelques mois, mais qui est tjrs fatalement reporté, finit tjrs en débat de ce genre, vu qu'on a rien à se mettre sous la dent :d
 
G80, r600, g92, rv670, gt 200, rv770, que de la branlette et des débats un peu HS mais pas trop pendant des dizaines de page :o


Message édité par god is dead le 16-05-2009 à 21:54:12

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
mood
Publicité
Posté le 16-05-2009 à 21:53:56  profilanswer
 

n°6959835
atilla1975
Posté le 16-05-2009 à 23:42:39  profilanswer
 

Salut,tos le monde. je viens de monter un config I7 965 ;En vendant l ancienne.J avais une 4870X2.Et avant ca du 6800 Ultra.
A votre avie ,vers quel futur solution GPU devrais je me retourner?
Ati ou Nvidia?

Message cité 2 fois
Message édité par atilla1975 le 16-05-2009 à 23:42:57

---------------
d-_-b
n°6959852
White Sh4d​ow
GHz-O-Meter !
Posté le 17-05-2009 à 00:02:01  profilanswer
 

tu t'achètes un i7 mais tu laisses le rad d'origine ? ...
pour la question de la cg, ca dépend de quand tu veux l'acheter, mais aussi du budget (pas un problème, c'est ca ?) :)

n°6959855
Activation
21:9 kill Surround Gaming
Posté le 17-05-2009 à 00:04:40  profilanswer
 

atilla1975 a écrit :

Salut,tos le monde. je viens de monter un config I7 965 ;En vendant l ancienne.J avais une 4870X2.Et avant ca du 6800 Ultra.
A votre avie ,vers quel futur solution GPU devrais je me retourner?
Ati ou Nvidia?


 
 [:michaeldell] une nouvelle HD4870X2  [:musaran]

n°6959873
sasuke87
Posté le 17-05-2009 à 00:21:52  profilanswer
 

Paul-Hewson a écrit :

Une excuse bidon plutôt. On connait déjà tout de DX 10.1 et rien du GT300.
 
Mon post ne fait pt-être pas avancer le sujet, mais JUSTEMENT je suis le seul à m'étonner de voir 15 pages dont la plupart rempli d'un débat g80, gt200 vs R600/RV770 et où on parle des supers atout de DX10 / DX10.1 ?
 
Si y a pas d'infos sur le GT300 c'est pas la peine de parler des anciennes puces sur ce topic là. Vous pouvez ouvrir votre propre topic pour faire vos débats sur les anciennes architectures d'ATI & d'nVidia et de DX10 vs DX10.1 ..


 
On parle des anciennes archis pour deviner l'avenir  :D

n°6959920
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 17-05-2009 à 01:45:43  profilanswer
 

atilla1975 a écrit :

Salut, tout le monde. Je viens de monter une config I7 965 ; En vendant l'ancienne. J'avais une 4870X2. Et avant ça une 6800 Ultra.
A votre avis, vers quelle future solution GPU devrais-je me retourner?
Ati ou Nvidia?


D'après certaines infos, le Ci7 serait plus à l'aise avec les Radeon.... et le Phenom II n'aurait pas de préférence.
 
Un article à lire: Performances du Core i7 dans les jeux : un biais ?
 
Extrait: "En 640 x 480 — une mesure des performances majoritairement synthétique —, le Core i7 fait aussi la course en tête associé à une Geforce GTX 280. Mais dans ce cas, la charge sur la carte graphique est minimale. Dans n'importe quelle résolution plus haute, même du 1280 x 1024 que l'on pourrait aussi croire être limitée par le CPU, la Geforce n'est plus capable de traduire la supériorité de l'architecture Core i7 en un avantage en fps, et c'est le Phenom II qui prend la tête, comme nous le constations dans notre article original et comme vous pouvez le voir dans ces deux dernières pages."

n°6959929
campi
V8 FTW
Posté le 17-05-2009 à 02:03:57  profilanswer
 

Wirmish a écrit :


D'après certaines infos, le Ci7 serait plus à l'aise avec les Radeon.... et le Phenom II n'aurait pas de préférence.
 
Un article à lire: Performances du Core i7 dans les jeux : un biais ?
 
Extrait: "En 640 x 480 — une mesure des performances majoritairement synthétique —, le Core i7 fait aussi la course en tête associé à une Geforce GTX 280. Mais dans ce cas, la charge sur la carte graphique est minimale. Dans n'importe quelle résolution plus haute, même du 1280 x 1024 que l'on pourrait aussi croire être limitée par le CPU, la Geforce n'est plus capable de traduire la supériorité de l'architecture Core i7 en un avantage en fps, et c'est le Phenom II qui prend la tête, comme nous le constations dans notre article original et comme vous pouvez le voir dans ces deux dernières pages."


 
j'ai vu ce test mais j'ai lu je ne sais plus où que ça a été corrigé, à vérifier...
 
Par contre 2*4870X2 avec un i7 965 ça envoie pas mal :D
 
Et ça je l'ai vu tourner :D


---------------
Aye aye aye, s'il va sur l'autoroute il est mort, on a plus de puiZZanZe!
n°6959938
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 17-05-2009 à 02:29:42  profilanswer
 

http://www.clipartof.com/images/emoticons/xsmall2/272_person_talking_through_a_megaphone.gif Nvidia G300 mastered tape-out !
 
 
http://www.clipartof.com/images/emoticons/xsmall2/1980_boogie_down.gif
 

Citation :

When the G300 alias GTX 380 with 2.4-billion-transistors will see the light of day, cannot be determined. Though on the intern Nvidia roadmap it is prebooked for the last quarter of this year.
 
Additionally they push the production of GDDR5 memory, which is ought to work on 1 GHz on the top model, despite of the 512 Bit memory interface, and therefore offer more than 256 GB/s memory bandwidth.


 
Autres infos ICI http://www.clipartof.com/images/emoticons/xsmall2/2014_whistling_and_rolling_eyes.gif

Citation :

According to our sources, nVidia got the silicon a while ago, meaning that the chip taped out between January and March. The silicon is A1, but neither of our sources wanted to confirm is this the final silicon or will nVidia be forced to tape out A2 silicon to get production-grade yields. We heard that both ATI and nVidia have issues with TSMC's 40nm, and both companies are testing with the alternative company. If 40nm production yields don't satisfy, expect 32nm bulk silicon parts coming out of a certain Foundry with Global intentions sooner than later.
 
The specifications are identical to the rumored ones - given that now we have multiple sources close to the heart of the company confirming the specifications to us, we now feel comfortable and no longer consider GT300 information to be in the rumor territory.


 
http://www.clipartof.com/images/emoticons/xsmall2/1947_eating_popcorn_and_drinking_beer.gif

Message cité 1 fois
Message édité par Wirmish le 17-05-2009 à 03:51:01
n°6959945
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 17-05-2009 à 03:54:40  profilanswer
 

Merci, je link la new. Exptdrr ton smiley http://www.clipartof.com/images/emoticons/xsmall2/1947_eating_popcorn_and_drinking_beer.gif
 
EDIT : << We heard that both ATI and nVidia have issues with TSMC's 40nm, and both companies are testing with the alternative company. If 40nm production yields don't satisfy, expect 32nm bulk silicon parts coming out of a certain Foundry with Global intentions sooner than later.  >> AHAH !!  :lol:


Message édité par super_newbie_pro le 17-05-2009 à 04:03:42

---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°6959951
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 17-05-2009 à 04:13:49  profilanswer
 

"the alternative company" -> UMC

n°6959952
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 17-05-2009 à 04:16:19  profilanswer
 

Je leur souhaite de tout cœur de réussir, ça ferait du bien à UMC financièrement parlant et ça ne relancerait que de plus belle la compète pour les prochaines finesses de gravure


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°6959954
mikestewar​t
Air Roll Spinnin'
Posté le 17-05-2009 à 05:39:21  profilanswer
 

Ça fait plaisir.  :D
 
256Go/s de BP, 73% de plus qu'une GTX285. Ça va.  ;)

n°6959955
marllt2
Posté le 17-05-2009 à 06:10:05  profilanswer
 

Citation :

kaiser52 a écris:
 
ca veut juste dire que l'archi de nVIDIA est compatible avec les fonctions de DX10.1, mais que l'API n'est pas en mesure d'y acceder (trouver le chemin, le path quoi) ce qui fait qu'elles ne sont pas DX10.1.


nVidia ne supporte pas le gather4, donc pas compatibles avec toutes les fonctions DX10.1.
 

->

Citation :

the chip taped out between January and March


Charlie dit lui Juin.  Lesquel est le plus crédible (le moins incrédible ???) des deux ?
 
Dans tous les cas même si le G300 (puisqu'il faut l'appeller comme ça parait-il) était prêt au Q3, nVidia devrait attendre avant de le lancer.
A moins de faire un paper-launch pour contrer le RV870...
 
Parce qu'avec les yields et le leakage du 40nm de TSMC, 140mm² ça passe assez facile, mais un chip > 400mm² c'est autre chose.
 
Et puis pas sûr sur qu'ils aient envie de batte un nouveau record de (faible) yield. Le GT200 était à 40%, et le RV770 à quasiment 80%.
 
Et puis même sans parler de > 400mm², on attend toujours les GT218, 216, et 215. Dont le dernier doit concurrencer le RV740.
 

Citation :

nVidia's old-timers still call the chip NV70 [...] nVidia's current parts, the GeForce GTX 285 are all based on NV65 chips.


Pour ce qu'on sache, le G80 est NV50, et le GT200 est NV55.
 
 

Citation :

but you can expect that Jen-Hsun and the rest of the exec gang will be bullish about their upcoming products.


C'est pas vraiment ce qu'il a laissé percevoir dans sa dernière conférence aux investisseurs. C'est plutôt "notre gamme est parfaitement compétitive, pas besoin de parler des futurs produits"
 

Citation :

if you roam in the halls of Graphzilla's Building C in Santa Clara, you might find papers with NV70 all over it

Building C... voyons voyons... [:fredoloco]  
 
C'était pas le building où a été prise la fameuse soit-disante vidéo espionne, montrant le labo dans lequel étaient testées les 1 ères FX 5800 ?  [:brainbugs]
 
Vidéo qui a d'ailleurs inspiré AMD, puisqu'ils ont faite le même genre de vidéo pour faire monter le buzz autour du Phenom.
 

mikestewart a écrit :

256Go/s de BP, 73% de plus qu'une GTX285. Ça va.

Wirmish a écrit :

Citation :

offer more than 256 GB/s memory bandwidth.



Le truc c'est que ça commence à faire vraiment beaucoup. AMD est en train de déplacer le ratio BP/shaders, et le GT200 était déjà inférieur sur ce point au RV770.
 
Avec DX11 ce sont les shaders qui devraient être privilégiés. Donc à moins que le G300 soit un bulldozer et triple la capacité arithmétique du GT200, auquel cas la BP doit suivre un minimum.  
 
Soit nV se dirige vers un design sans ROPs...


Message édité par marllt2 le 17-05-2009 à 07:34:29
n°6959962
mikestewar​t
Air Roll Spinnin'
Posté le 17-05-2009 à 07:41:08  profilanswer
 

Clair que BrightSideofNews est complètement pro-Nvidia. (le GT300 au Q3 2009 selon eux)

 

Mais :

 

1) Juin c'est dans un mois seulement.
2) L'info est aussi donnée par un site allemand qui parle de "several sources".

 

Le même site allemand annonce un gain de 113% sur les shaders. (512)

 


Message édité par mikestewart le 17-05-2009 à 08:03:39
n°6960000
kaiser52
Posté le 17-05-2009 à 10:09:44  profilanswer
 

Wirmish a écrit :

"the alternative company" -> UMC


 
Se serait cool ca !
Quand j'ai demandé pourquoi ils n'allaient pas vers UMC on m'à dit qu’il ne produisait pas autant en masse que TSMC.
Mais la si c'est que pour le HDG, donc : moins de produits vendu = moins de productions :heink:  
Ca paraitrait crédible  :o  
 
Hum hum,
Un designe sans ROP ?
WTF ? c'est possible ?
 
Sinon y'a 32rops sur les 280, je ne sais pas quelle taille fait un ROP, mais dans ce cas, a taille égale, ca fait combien de SP en plus ? 10 / 20% ?
 


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°6960018
marllt2
Posté le 17-05-2009 à 10:40:33  profilanswer
 

kaiser52 a écrit :

Quand j'ai demandé pourquoi ils n'allaient pas vers UMC on m'à dit qu’il ne produisait pas autant en masse que TSMC.
Mais la si c'est que pour le HDG, donc : moins de produits vendu = moins de productions  
Ca paraitrait crédible


Ils sont d'ailleurs en train de tester le GT215 chez UMC.
 
Le problème c'est que UMC n'a que peu de compétences par rapport à TSMC sur la gravure de gros GPU en process avancé.
 

kaiser52 a écrit :

Hum hum,
Un designe sans ROP ?
WTF ? c'est possible ?


Oui, et c'est ce que fera le Larrabee. Ou alors nVidia a été inspiré par le R600.
 

kaiser52 a écrit :

Sinon y'a 32rops sur les 280, je ne sais pas quelle taille fait un ROP, mais dans ce cas, a taille égale, ca fait combien de SP en plus ? 10 / 20% ?


Si on prend comme base le GT200:
 
http://www.puissance-pc.net/images/stories/articles/gtx285_295/img_descriptif_die_gt200.jpg
 
+ 96 SP environ (+40%).

Message cité 2 fois
Message édité par marllt2 le 17-05-2009 à 10:44:47
n°6960063
Gigathlon
Quad-neurones natif
Posté le 17-05-2009 à 11:22:50  profilanswer
 

marllt2 a écrit :

Si on prend comme base le GT200:
 
http://www.puissance-pc.net/images [...] _gt200.jpg
 
+ 96 SP environ (+40%).


M'est d'avis qu'il y a un bug dans la disposition :o
 
nVidia devait tabler sur 288SP... on voit bien les 10 groupes de SP, qui sont organisés en 3 unités SIMD8.


Message édité par Gigathlon le 17-05-2009 à 11:25:51
n°6961552
bjone
Insert booze to continue
Posté le 18-05-2009 à 11:56:29  profilanswer
 

marllt2 a écrit :


Oui, et c'est ce que fera le Larrabee. Ou alors nVidia a été inspiré par le R600.


 
Si le GT300 donne accès en lecture au framebuffer pour faire du blending shaderisé, c'est un pas dans la bonne direction.

n°6961652
couillesho​t
Les bouboules et la boubouche
Posté le 18-05-2009 à 13:32:37  profilanswer
 

http://www.puissance-pc.net/cartes [...] ?Itemid=49  :heink:  
c'est un gros bordel cette histoire


---------------
:o :o :o
n°6961751
jeanjean15
buy cheap, buy twice
Posté le 18-05-2009 à 14:43:34  profilanswer
 
n°6961763
n0naud
Posté le 18-05-2009 à 14:59:06  profilanswer
 


 


 
EUH... Oui, oui, c'est ce que disait le lien juste au dessus du tien  :whistle:

n°6961798
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 18-05-2009 à 15:36:35  profilanswer
 

HEU... Oui, oui, c'est ce que disait mon lien au centre de la page.  :whistle:² (Posté le 16-05-2009 à 20:29:42)  

n°6961804
Activation
21:9 kill Surround Gaming
Posté le 18-05-2009 à 15:42:04  profilanswer
 

Wirmish a écrit :

HEU... Oui, oui, c'est ce que disait mon lien au centre de la page.  :whistle:² (Posté le 16-05-2009 à 20:29:42)  


 
 
ouep mais on te lit pas dans le topic nvidia  :o  
vu que t es sur que la force est toujours coté AMD  [:vince_astuce]

n°6961806
Ill Nino
Love
Posté le 18-05-2009 à 15:43:54  profilanswer
 

Wirmish a écrit :

HEU... Oui, oui, c'est ce que disait mon lien au centre de la page.  :whistle:² (Posté le 16-05-2009 à 20:29:42)  


J'ai cru que c'etait une nouvelle feature la date en grisé ! [:tibo2002]


---------------
Faut qu'on court comme des lions, des tigres et des ours!
n°6961817
Gigathlon
Quad-neurones natif
Posté le 18-05-2009 à 15:51:04  profilanswer
 

Hmmm... la source... :sarcastic:
 
J'allais dire que pour une fois j'y croyais, mais en lisant le post du forum TechPowerUP le doute n'est plus vraiment possible.
 
http://forums.techpowerup.com/showthread.php?t=94525
 

Citation :

Source: Bright Side of News

Message cité 1 fois
Message édité par Gigathlon le 18-05-2009 à 15:54:30
n°6961831
jeanjean15
buy cheap, buy twice
Posté le 18-05-2009 à 16:03:09  profilanswer
 

n0naud a écrit :


 
EUH... Oui, oui, c'est ce que disait le lien juste au dessus du tien  :whistle:


 
 Certes mais ça va mieux en le disant ! [:aloy2]


---------------
mes_feeds
n°6961843
aliss
Rhyme the Rhyme Well
Posté le 18-05-2009 à 16:14:05  profilanswer
 

Gigathlon a écrit :

Hmmm... la source... :sarcastic:
 
J'allais dire que pour une fois j'y croyais, mais en lisant le post du forum TechPowerUP le doute n'est plus vraiment possible.
 
http://forums.techpowerup.com/showthread.php?t=94525
 

Citation :

Source: Bright Side of News



 
C'était prévisible,
 
Bonne nouvelle à propos du GT300 ---> Theo
Mauvaise nouvelle à propos du GT300 ---> Charlie
 
 :D

n°6961878
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 18-05-2009 à 16:38:23  profilanswer
 

Donc une nouvelle moyenne ?

n°6961927
ftp381
ça fûme!
Posté le 18-05-2009 à 17:11:58  profilanswer
 

pour chaque nouvelle gamme de GPU on pourrait faire du copier-coller d'une bonne partie de nos réflexions... on sait qu'ils entretiennent les info et les intox et ça nous tient tjs en haleine :D
 
ce que je sais, c'est que ni NV ni ATI ne choisissent les dates de lancement.
 
cela répond à des impératifs d'une autre nature que l'aptitude à sortir le wafer.
 
il s'agit tout bêtement de mon acte d'achat.
 
à chaque fois que j'achète une CG après en avoir eu marre d'attendre la next gen, ils sortent leur CG 2 mois après. :sweat:
 
là, je ne viens pas de changer : vous avez encore au moins 2 mois à patienter.
 
et ça, c'est de l'info plus sûr que la plupart des news :D
 
pourtant la GTX275 me tenterait bien, mais en l'absence de nouveaux jeux qui déchirent, je patiente.
 
pas de bol pour vous, ça repousse la sortie du GT300.


---------------
"Bite my shiny metal ass."
n°6961951
White Sh4d​ow
GHz-O-Meter !
Posté le 18-05-2009 à 17:26:49  profilanswer
 

ftp > ça fûme, en effet ! :D

n°6961952
ftp381
ça fûme!
Posté le 18-05-2009 à 17:29:45  profilanswer
 

:D
 
mais c'est vrai  [:dawao] !


Message édité par ftp381 le 18-05-2009 à 17:30:41

---------------
"Bite my shiny metal ass."
n°6961990
White Sh4d​ow
GHz-O-Meter !
Posté le 18-05-2009 à 17:50:06  profilanswer
 

un peu trop à mon goût  :pt1cable:

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  14  15  16  ..  73  74  75  76  77  78

Aller à :
 

Sujets relatifs
[Topic Unique] ATI Radeon HD 4800 Series (RV790 inside)[Topic Unique] ATI Radeon 4700 Series (RV740 inside)
question sur nouvelle configComment réduire le bruit d'une nouvelle configuration ?
Nouvelle config pour bien débuter l'année :)[ topic unique ] les alimentations be quiet!
cherche conseils pour nouvelle config[HELP!] Cherche un magasin d'info sur Annecy !
[Topic Unique] Boîtier Silverstone Raven RV01 : mobo orientée à 90° ! 
Plus de sujets relatifs à : [Topic Unique] GT300 // La nouvelle bête de combat nvidia en 40nm


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)