Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3195 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  27  28  29  ..  73  74  75  76  77  78
Auteur Sujet :

[Topic Unique] GT300 // La nouvelle bête de combat nvidia en 40nm

n°6990168
Profil sup​primé
Posté le 09-06-2009 à 22:21:14  answer
 

Reprise du message précédent :
Ce qui démontre que pour provoquer de l'agitation, pas besoin de grand discours
Tu changes une référence et tout le monde en parle & pendant longtemps, rapporté au nombre de changements de réfs. ^^


Message édité par Profil supprimé le 09-06-2009 à 23:45:59
mood
Publicité
Posté le 09-06-2009 à 22:21:14  profilanswer
 

n°6990175
Mekky76
Posté le 09-06-2009 à 22:27:40  profilanswer
 

C'est vraiment une mauvaise chose d'acheter une 260 GTX aujourd'hui ? j'ai vu une asus à 159 euros, ça parait donné ! ...

n°6990180
Yoyo_5
Posté le 09-06-2009 à 22:29:32  profilanswer
 

Non, c'est une très bonne chose. :jap:


---------------
¤ Paix et félicité ¤

n°6990181
Profil sup​primé
Posté le 09-06-2009 à 22:30:16  answer
 

C'est le milieu du haut de gamme actuel, au prix du vrai milieu de gamme d'il y a 6 mois je dirais
Soit un arrière goût de crise éco., qu'on peut remercier je pense :d!
EDIT: [:yanhoupa]

Message cité 1 fois
Message édité par Profil supprimé le 09-06-2009 à 22:30:38
n°6990190
Yoyo_5
Posté le 09-06-2009 à 22:38:35  profilanswer
 


Burned, certes, mais tu l'as dit avec tellement plus de poésie... :D


---------------
¤ Paix et félicité ¤

n°6990194
Mekky76
Posté le 09-06-2009 à 22:46:34  profilanswer
 

au vu du graphique, tu as tout à fait raison pour la 260 GTX :

 

http://www.achetezfacile.com/graph.php?idproduit=311288&typegraph=2

 

Sinon il semble que de façon globale, il y a une baisse généralisée... dans le magasin près de chez moi, le I7 920 a chuté de 279 à 249 euros (1 semaine), les cartes X58 aussi (la P6T d'asus a perdu 20 euros), une DDR3 3x2go corsair de 114 à 96 euros... je sens que c'est du à la baisse des ventes mais surtout une préparation pour la rentrée de septembre, avec l'arrivée de windows 7, mac os X snow leopard, les cartes directX 11... Ca va dégommer pas mal de portefeuilles autant de choses en meme temps  :lol:


Message édité par Mekky76 le 09-06-2009 à 22:46:53
n°6990216
mikestewar​t
Air Roll Spinnin'
Posté le 09-06-2009 à 23:07:22  profilanswer
 

Le prix du matériel baisse en général avec le temps mais sur les cartes Nvidia c'est simple : la concurrence. Je me demande à quel prix serait les cartes Nvidia si ATI avait raté ses 4xxx.

 

Là avec l'annonce récente de la baisse sur les 48xx, Nvidia devrait suivre et c'est tout bon pour le consommateur.  :love:


Message édité par mikestewart le 09-06-2009 à 23:07:43
n°6990354
Gigathlon
Quad-neurones natif
Posté le 10-06-2009 à 06:23:46  profilanswer
 


Ouep, aussi bizarre que ça puisse paraître, en jeu l'AF ATI a parfois un meilleur rendu que celui théoriquement proche de la perfection de nVidia.
 
Il semblerait que l'utilisation de mipmaps trop précis pose parfois problème.

n°6990410
TheRealObi​-One
♥ Maître Jedi du Taunt ♥
Posté le 10-06-2009 à 09:33:40  profilanswer
 

Gigathlon a écrit :


Ouep, aussi bizarre que ça puisse paraître, en jeu l'AF ATI a parfois un meilleur rendu que celui théoriquement proche de la perfection de nVidia.
 
Il semblerait que l'utilisation de mipmaps trop précis pose parfois problème.


 
J'ai souvent eu cette impression également :jap: (même si je préfère NV :D )


---------------
(Ex one1504) - [VDS] - Feed - Nostalg33k du PiseptO
n°6990414
Yoyo_5
Posté le 10-06-2009 à 09:45:37  profilanswer
 

TheRealObi-One a écrit :

J'ai souvent eu cette impression également :jap: (même si je préfère NV :D )


T'es malade mon One, tu dis des choses gentilles sur ATI malgré tes mauvaises expériences...?  [:radiohead2113]  [:paradise974]


---------------
¤ Paix et félicité ¤

mood
Publicité
Posté le 10-06-2009 à 09:45:37  profilanswer
 

n°6990418
TheRealObi​-One
♥ Maître Jedi du Taunt ♥
Posté le 10-06-2009 à 09:50:55  profilanswer
 

Yoyo_5 a écrit :


T'es malade mon One, tu dis des choses gentilles sur ATI malgré tes mauvaises expériences...?  [:radiohead2113]  [:paradise974]


On peut ne pas aimer leur drivers pourrites où le fait que mes X² ne montaient pas en fréquence, mais par contre apprécier leur qualité d'image non :o ?


---------------
(Ex one1504) - [VDS] - Feed - Nostalg33k du PiseptO
n°6990427
Yoyo_5
Posté le 10-06-2009 à 09:56:24  profilanswer
 

TheRealObi-One a écrit :

On peut ne pas aimer leur drivers pourrites où le fait que mes X² ne montaient pas en fréquence, mais par contre apprécier leur qualité d'image non :o ?


Ne pas aimer l'interface graphique toute pourrite de leurs drivers [:cerveau aloy]
Je n'ai pas eu l'occasion de tester en détail une CG avec GT200 pour pouvoir comparer. :jap:

Spoiler :

[:eddy_]


---------------
¤ Paix et félicité ¤

n°6990430
TheRealObi​-One
♥ Maître Jedi du Taunt ♥
Posté le 10-06-2009 à 09:58:42  profilanswer
 

Yoyo_5 a écrit :


Ne pas aimer l'interface graphique toute pourrite de leurs drivers [:cerveau aloy]
Je n'ai pas eu l'occasion de tester en détail une CG avec GT200 pour pouvoir comparer. :jap:

Spoiler :

[:eddy_]



 
Personne n'est parfait :jap:  

Spoiler :

[:eddy_]


Spoiler :

[:megabug]



---------------
(Ex one1504) - [VDS] - Feed - Nostalg33k du PiseptO
n°6990471
Yoyo_5
Posté le 10-06-2009 à 10:31:16  profilanswer
 

[:ddr555]


---------------
¤ Paix et félicité ¤

n°6991003
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 10-06-2009 à 15:30:50  profilanswer
 

TheRealObi-One a écrit :

Personne n'est parfait :jap:


Personne, sauf moi.  :jap:  
 
Voici d'ailleurs une de mes photos qui le prouve: ICI


Message édité par Wirmish le 10-06-2009 à 15:31:42
n°6991010
TheRealObi​-One
♥ Maître Jedi du Taunt ♥
Posté le 10-06-2009 à 15:32:36  profilanswer
 

tu devrais arrêter le McDo :o


---------------
(Ex one1504) - [VDS] - Feed - Nostalg33k du PiseptO
n°6991012
Yoyo_5
Posté le 10-06-2009 à 15:33:14  profilanswer
 

Ou fumer plus... :o


---------------
¤ Paix et félicité ¤

n°6991218
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 10-06-2009 à 17:15:53  profilanswer
 

Yoyo_5 a écrit :

Ou fumer plus... :o


... ou fumer un truc plus fort -> http://www.lamaisondupastel.com/colors/open_box.png

n°6991227
TheRealObi​-One
♥ Maître Jedi du Taunt ♥
Posté le 10-06-2009 à 17:21:11  profilanswer
 


Tu dis assez d'âneries comme ça je pense :jap:  

Spoiler :

:whistle:


Message édité par TheRealObi-One le 10-06-2009 à 17:24:49

---------------
(Ex one1504) - [VDS] - Feed - Nostalg33k du PiseptO
n°6993103
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 12-06-2009 à 00:36:25  profilanswer
 

Citation :

"GT200 with GDDR5 was rumoured last year and now, it's becoming a reality and without any expectations we even got DirectX 10.1 with it, and all this got packed in 40nm. We dare to say that this will probably be GT200 done right, as the power consumption and the chip size will be much better than the original 65nm GT200." - Fuad


 
Donc le GT300 ne serait qu'un shrink du GT200 avec la compatibilité DX10.1 et un contrôleur GDDR5 ?  :pt1cable:

Message cité 2 fois
Message édité par Wirmish le 12-06-2009 à 00:36:43
n°6993106
Yoyo_5
Posté le 12-06-2009 à 00:39:45  profilanswer
 

Wirmish a écrit :

Citation :

"GT200 with GDDR5 was rumoured last year and now, it's becoming a reality and without any expectations we even got DirectX 10.1 with it, and all this got packed in 40nm. We dare to say that this will probably be GT200 done right, as the power consumption and the chip size will be much better than the original 65nm GT200." - Fuad

 

Donc le GT300 ne serait qu'un shrink du GT200 avec la compatibilité DX10.1 et un contrôleur GDDR5 ?  :pt1cable:


Un GT216 quoi... :whistle:


Message édité par Yoyo_5 le 12-06-2009 à 00:53:08

---------------
¤ Paix et félicité ¤

n°6993111
marllt2
Posté le 12-06-2009 à 00:42:36  profilanswer
 

Wirmish a écrit :

Citation :

"GT200 with GDDR5 was rumoured last year and now, it's becoming a reality and without any expectations we even got DirectX 10.1 with it, and all this got packed in 40nm. We dare to say that this will probably be GT200 done right, as the power consumption and the chip size will be much better than the original 65nm GT200." - Fuad


 
Donc le GT300 ne serait qu'un shrink du GT200 avec la compatibilité DX10.1 et un contrôleur GDDR5 ?  :pt1cable:


Cf ce topic: http://forum.hardware.fr/hfr/Hardw [...] 4498_1.htm
 
Ce donc parle Fudo c'est le GT215 / GT215. Et on se demande comment nV va justifier le DX10.1 si c'est le cas...  
 
Comme dirait Tridam:

Citation :

Inutile d’insister [...], sous peine de se retrouver face au mur de la communication de Nvidia bien décidé à nous faire accepter que ce que la société ne fait pas ne doit pas être fait.


Message édité par marllt2 le 12-06-2009 à 00:44:40
n°6993114
Giz
Posté le 12-06-2009 à 00:45:52  profilanswer
 

Activation a écrit :


 
ça aura changé de nom d ici là
 
ça s appelera 590XHC
 
car nvidia aura encore et encore changé sa politique de nommage pour toujours plus nous paumer :o


 
M'en fou du nommage, je regarde que les benchs et le prix !  :sol:  


---------------
Asus P5Q Pro | C2D E8400 3GHz@4GHz + Noctua NH-C12P | 2x2Go Patriot Extreme PC-8500 | GeForce GTX 460@Stock 1Go GLH | Crucial SSD M4 64Go Sata3
n°6993158
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 12-06-2009 à 02:42:36  profilanswer
 

Giz a écrit :


 
M'en fou du nommage, je regarde que les benchs et le prix !  :sol:  


Donc si je te comprends bien, par les temps qui courrent tu ne regardes que du côté d'ATi ?
 
http://endjetsesfolies.e.n.pic.centerblog.net/6ohf4g1b.gif

n°6993166
sharshar
Slava Ukraini
Posté le 12-06-2009 à 03:07:03  profilanswer
 

wan again a bistoufly fuck Nvidia!!!!!
 
ATI POWAAAAAAA!!!!!!!

n°6993168
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 12-06-2009 à 03:15:37  profilanswer
 

http://etu.univ-lyon2.fr/images/photos/0007/img_1174912199091.gif

n°6993229
Giz
Posté le 12-06-2009 à 09:01:40  profilanswer
 

Khaomaster a écrit :


Par contre, je cherche toujours le jeu DX10 qui apporte une vraie différence par rapport à DX9.


 
A refiler du vista ! :o


---------------
Asus P5Q Pro | C2D E8400 3GHz@4GHz + Noctua NH-C12P | 2x2Go Patriot Extreme PC-8500 | GeForce GTX 460@Stock 1Go GLH | Crucial SSD M4 64Go Sata3
n°6993457
Ramichou
Posté le 12-06-2009 à 11:30:06  profilanswer
 

Stakler clear sky
 
De rien.

n°6993511
mikestewar​t
Air Roll Spinnin'
Posté le 12-06-2009 à 11:53:27  profilanswer
 

Wirmish a écrit :


Donc si je te comprends bien, par les temps qui courrent tu ne regardes que du côté d'ATi ?

 

http://endjetsesfolies.e.n.pic.cen [...] hf4g1b.gif

 

Amusant de voir un posteur avec un avatar comme ça alors que juste au dessus il y a une très "jolie" et vraie citation sur Nvidia. Je ne sais pas comment on peux être fan. :o

 

Au passage, remercier aussi ATI/AMD qui permet aux fans Nvidia d'acheter leur cartes moins chères qu'en temps normal.  :jap: (et de "catalyser" l'apparition de la GTX275 entre autres)


Message édité par mikestewart le 12-06-2009 à 12:00:39
n°6994574
Khaomaster
Posté le 12-06-2009 à 21:45:12  profilanswer
 

Giz a écrit :


 
A refiler du vista ! :o


 
???  :whistle:  
 

Ramichou a écrit :

Stakler clear sky
 
De rien.


 
Par rapport à Crysis en DX9, je suis pas, convaincu qu'il y ait une grande différence.

n°6994775
ultraeurl
Posté le 13-06-2009 à 01:06:52  profilanswer
 

Activation a écrit :


 
 
 
 
 
 
 
et que dans la catégorie du traitement de l image autodesk règne maintenant en quasi monopole (il  d ailleurs il y a pas si longtemps racheté softimage... donc bon si tu veux faire de la 3D maintenant autodesk c est devenu quasi obligatoire)
 
aussi avec tout le chemin parcouru le long de la route autodesk, et le suivi de projet de jeux en regardant comment se comporte les devs (dont l ecoute de ceux ci qui a valu pas mal de mise à jours des sdk de cuda et des version de cuda)
 
nop franchement je pense pas que les ingenieurs de nvidia soit complètement con


 
Je me permets de répondre à ce post...  
 
c'est vraiment prendre les ingenieurs nvidia pour des cons
 
Croyez moi, ils n'y sont pour rien. les décisions et stratégies ne sont pas prises par les techos, mais par par des managers haut placés qui basent leur décision sur de vagues excel sheets censées
1/ justifier leur salaire et la place qu'ils occupent
2/ accessoirement faire évoluer la compagnie
Ce sont ces même managers qui peuvent annuler un projet mené de A à Z et l'annuler juste avant qu'il soit "tapped out".
 
nvidia nous a montré que quand ils s en donne les moyen il peut le faire (exemple G80) depuis le temps que dx10.1 est sorti qui plus est je pense tout de meme qu ils se sont rendu compte que qqchose n allait pas avec le GT200 alors dire que le gt300 sera une merde.... euuh comment dire
 
C'est une peu comme un cargo sir mer. Une fois engagé, ça peut prendre des plombes avant de l'arrêter (quelques kilomètres dans le cas du cargo). Si Nvidia s'est engagé dans la mauvaise direction à un moment donné, et qu'il y a en plus consacré l'essentiel de son énergie, cela risque vraiment d'être chaud pour eux. Ce qui m'incline à croire ce scénario possible est qu'il y a 1 an seulement, tout le monde voyait le couple AMD-ATI mort presque né. Ce qui justifierait qu'Nvidia se soit plutôt vu comme concurrent d'intel et donc du CPU .
 
moi je vais dire une truc... y a beaucoup de bla bla de qqun qui pense que le GT300 est une merde alors qu il est pas encore tapeout
 
J'ai lu aussi bien que possible l'article du Inquirer et je l'ai trouvé plutôt pertinent. Mais effectivement, peut être le journaliste a t'il été très bien reçu dans les salon privés ATI alors qu'Nvidia aura osé le faire voyager en 1ere  plutôt qu'en business class dans le cadre d'une de ses expos. Seulement, son argumentaire technique est pertinent et les délais annoncés entre la tape out et le "foundry out (j'invente le terme)" (6 semaines) me paraissent convenables. Et quand  il dit que c'est une vision très optimiste, j'abonde dans son sens. Je crois qu'on aurait au mieux, à Nvidia de voir, une GT300 "redux". Je n'imagine pas un first draft sans bug en tous les cas. Bien sur,  à l'heure actuelle, les outils de conception sont censés permettre le "first time right silicon". Mais si Nvidia est réellement en retard, il se doit d'être agressif, ce qui veut dire moins de marge pour le yied (on peut concevoir une puce en managant le yied, par exemple en doublant le nombre de contact, en évitant de travailler avec des règles de dessin au minimum permis par le process; le compromis étant alors de perdre de la place).
 
je pense aussi que nvidia a compris qu'à l'avenir on se dirige vers du rendu raytracing temps reel
Si effectivement ça aide à la gestion des ombres (suffit de réduire le paramètre sous Crysis pour se rendre compte à quel point ça impacte), ce serait une très bonne chose :) . Seulement, on parle là d'avenir à long voir très long terme (1 an minimum) Donc cela ne résoud en rien le problème à venir sur le court terme, à savoir les 3/6 prochains mois.

n°6994811
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 13-06-2009 à 03:38:05  profilanswer
 

Le vrai problème c'est que nVidia, même avec un énorme budget de R&D, n'a encore rien en 40nm, rien en DX10.1, et rien en DX11.
 
Mais qu'à donc fait nVidia depuis le lancement du G80 ? http://www.mamoumelu.net/forum/images/smiles/kosse.gif
 
On a l'impression qu'ils n'ont rien fait de spécial, à part le GT200 qui a un rapport perfs/transistors totalement ridicule.
Sérieusement ce GT200 est une véritable honte, et les techs de nVidia ne doivent pas en être fiers. http://www.mamoumelu.net/forum/images/smiles/timide.gif
 
Encore une fois, qu'est-ce que les techs de nVidia ont fait de leur avance quasi insurmontable ?
Où est passé l'argent de la R&D des 4 dernières années ?
 
On a l'impression que nVidia n'est plus concentré.
Il divise ses forces: Drivers GeForce/Quadro, PhysX, CUDA, OpenCL, Tegra, Tesla, 3D Vision.
 
Il se laisser rattrapper, et même dépasser, par ATi, qui était presque mort.
Ça montre à quel point ça ne tourne pas rond chez le caméléon. http://f-ani.x0.com/rept/parsons-chameleon/i1.gif

Message cité 2 fois
Message édité par Wirmish le 13-06-2009 à 03:43:33
n°6994937
Ramichou
Posté le 13-06-2009 à 11:10:15  profilanswer
 

C'en est d'ailleurs bluffant au vu de la comparaison avec Intel et AMD, ou Intel gère très bien son avance, à la fois pour ne pas trop se prendre de procès anti trust, mais aussi pour conserver la tête des perfs, et se fait une marge honteusement gigantesque sur la fin du socket 775...
 
Sinon les ingénieurs, ceux qui concoivent les puces, concoivent ce qu'on leur donne l'ordre de concevoir. Je doute fort qu'ils soient pour quelque chose dans la merde ou s'est fourrée Nvidia a l'heure actuelle.
Cependant Nvidia a d'autres marchés : technologies GPGPU plus avancée qu'ATI... jusqu'a DX11 ? :D

n°6994944
ultraeurl
Posté le 13-06-2009 à 11:17:19  profilanswer
 

Wirmish a écrit :


Le vrai problème c'est que nVidia, même avec un énorme budget de R&D, n'a encore rien en 40nm, rien en DX10.1, et rien en DX11.
..........................................
 
Encore une fois, qu'est-ce que les techs de nVidia ont fait de leur avance quasi insurmontable ?
Où est passé l'argent de la R&D des 4 dernières années ?
 
http://f-ani.x0.com/rept/parsons-chameleon/i1.gif


 
J'ignore ce qu'il en est des drivers et de leur implémentation. On entre de plein pied dans l'architecture et il faudrait un véritable "reverse engineering" pour se prononcer. Une nouvelle fois, The Inquirer est le mieux placer pour commander ce genre d'études; sinon, la vérité est sur le silicon et les test nous diront ce qu'il en est.
 
Concernant les tech de Nvidia, ils ont fait ce qu'on leur a dit de faire. Clairement, nombre d'entre vous pourraient occuper des postes soi disant haut placés; on y entre dans un monde tehcnico marketing où la règle de trois est plus souvent utilisée qu'un outil de design (exemple simple: j'ai un process de 40 nm, j'avais un die 155 mm² en 55 nm, quelle sera la taille approximative de mon die en 40nm?).  
 
Où est passé l'argent de la R & D? Ceci est un poin t de vue personnel, mais il peut aller dans 2 autres endroit que les labos: dans le marketing et dans les poches de shareholders. Les deux ont en commun de ne pas avoir n projet industriel sur le long terme, mais au contraire une vision financière sur le court terme.
 
Une remarque: on tape beaucoup sur Nvidia en tant que tel; mais n'oublions pas que l'accès d'ATI aux process et au savoir faire d'AMD est un énorme avantage (et probablement une bouffée d'air frais pour ATI). Et que cette alliance en général semble plutôt bien se passer (ATI et AMD étant tous deux en difficulté dès le départ, ça aide à se serrer les coudes). Et avouons le; même si financièrement ce fut peut être une maladresse (le deal leur a beaucoup couté dixit AMD itself), AMD a malgré tout acquis un petit bijou de technology. AMD aurait pu tout gâcher. Il a au contraire su en profiter. Et l'accès privilègié aux process de GLobalFoundry leur promet de belles perspectives.

n°6994973
Kawamashi
Posté le 13-06-2009 à 11:51:35  profilanswer
 

ultraeurl a écrit :

alors qu'Nvidia aura osé le faire voyager en 1ere  plutôt qu'en business class dans le cadre d'une de ses expos.


 
Ton analyse est très pertinente, mais je me permets de préciser que la first a toujours été au dessus de la biz, hein ! ;)

n°6994987
Gigathlon
Quad-neurones natif
Posté le 13-06-2009 à 12:03:24  profilanswer
 

ultraeurl a écrit :

Concernant les tech de Nvidia, ils ont fait ce qu'on leur a dit de faire. Clairement, nombre d'entre vous pourraient occuper des postes soi disant haut placés; on y entre dans un monde tehcnico marketing où la règle de trois est plus souvent utilisée qu'un outil de design (exemple simple: j'ai un process de 40 nm, j'avais un die 155 mm² en 55 nm, quelle sera la taille approximative de mon die en 40nm?).


Euh... un senior product manager est aussi un techos généralement, et surtout il consulte les avis de ses subalternes sur les différentes pistes...
 
nVidia n'a pas pris la mauvaise direction pour ce qui est des capacités (le traitement parallèle est clairement en progression fulgurante), mais concernant la rentabilité à court/moyen terme. Ils tablaient certainement sur de bien meilleurs shrinks comme Intel à l'époque de Netburst.

n°6995259
White Sh4d​ow
GHz-O-Meter !
Posté le 13-06-2009 à 15:50:25  profilanswer
 

Wirmish a écrit :

Le vrai problème c'est que nVidia, même avec un énorme budget de R&D, n'a encore rien en 40nm, rien en DX10.1, et rien en DX11.


 
Nvidia c'est récemment lancé dans le 40nm et dx10.1 pour portables, comme dit précedemment, ce qui pourrait leur permettre de dompter ces téchnologies au minimum (vaut mieux tard que jamais) avant de balancer le gt300 sur le grill.

n°6995433
Activation
21:9 kill Surround Gaming
Posté le 13-06-2009 à 18:14:35  profilanswer
 

clair que 3D vision à mon sens c est de la connerie
 
surtout qu on parle déjà de tv 3D sans aucun besoin de lunette

n°6995511
Giz
Posté le 13-06-2009 à 19:11:16  profilanswer
 

campi a écrit :

J'ai une 1000W donc il m'en reste 700 pour le reste de la config, ça devrait le faire :D
 
Perso osef de la consommation sur ce genre de carte... Si on est radin sur la facture d'électricité on prend un portable ça consomme pas...


 
Justement non, pas de portable c'est trop cher ! :ouch:  
Vaut mieux payé des factures d'élec "élevée" et H T un desktop qui rox !  :sol:


---------------
Asus P5Q Pro | C2D E8400 3GHz@4GHz + Noctua NH-C12P | 2x2Go Patriot Extreme PC-8500 | GeForce GTX 460@Stock 1Go GLH | Crucial SSD M4 64Go Sata3
n°6995577
marllt2
Posté le 13-06-2009 à 20:00:53  profilanswer
 

White Sh4dow a écrit :

Nvidia c'est récemment lancé dans le 40nm et dx10.1 pour portables, comme dit précedemment, ce qui pourrait leur permettre de dompter ces téchnologies au minimum (vaut mieux tard que jamais) avant de balancer le gt300 sur le grill.


Pourquoi est-ce qu'ils implantent DX10.1 maintenant, alors que depuis 18 mois ils ont dit (et fait dire par MS) que ça n'apportait rien ?
 

Activation a écrit :

clair que 3D vision à mon sens c est de la connerie
 
surtout qu on parle déjà de tv 3D sans aucun besoin de lunette


Heu, comment chaque oeil peut capter une image différente sans lunettes ? :heink:


Message édité par marllt2 le 13-06-2009 à 20:01:55
n°6995608
Fantryt
Posté le 13-06-2009 à 20:26:26  profilanswer
 

Tu croyais sincèrement que la technologie 3DVision de nVIDIA était la seule et unique solution pour qu'un écran puisse afficher en 3D ???!  :ouch:  
Non, ce procédé est probablement le plus rentable, parmi les dizaines d'autres procédés et technologies qui existent déjà pour qu'un écran affiche en 3D sans lunettes .

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  27  28  29  ..  73  74  75  76  77  78

Aller à :
 

Sujets relatifs
[Topic Unique] ATI Radeon HD 4800 Series (RV790 inside)[Topic Unique] ATI Radeon 4700 Series (RV740 inside)
question sur nouvelle configComment réduire le bruit d'une nouvelle configuration ?
Nouvelle config pour bien débuter l'année :)[ topic unique ] les alimentations be quiet!
cherche conseils pour nouvelle config[HELP!] Cherche un magasin d'info sur Annecy !
[Topic Unique] Boîtier Silverstone Raven RV01 : mobo orientée à 90° ! 
Plus de sujets relatifs à : [Topic Unique] GT300 // La nouvelle bête de combat nvidia en 40nm


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)