Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1827 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  68  69  70  ..  1028  1029  1030  1031  1032  1033
Auteur Sujet :

[Topic Unique] NVIDIA GeForce GTX 660Ti/670/680/690/760/770 (GK104)

n°8214115
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 11-02-2012 à 04:45:44  profilanswer
 

Reprise du message précédent :

glrpignolo a écrit :

Reste à savoir ce qu'on met derriere le terme Sp ou cuda core...


Un "CUDA Core" c'est très beaucoup plus puissant qu'un simple SP.
 

Spoiler :

[:kassrol:1]


mood
Publicité
Posté le 11-02-2012 à 04:45:44  profilanswer
 

n°8214149
husbeck
Cosa Nostra Forever
Posté le 11-02-2012 à 09:12:23  profilanswer
 

Invite_Surprise a écrit :


Pas moi. Vu les rumeurs, je pense que NV va partir sur un autre type d'archi.
Certes, Fermi est une archi performante en 40nm mais elle possède trop de tares en ce qui concerne la conso et le rapport perf/mm².
 
Si NV a appris de ses erreurs, ils vont partir sur quelque chose de différent. Le rapport puissance/conso est le nerf de la guerre et les nombreux ingés en chef de la maison verte parlent essentiellement de ce focus.


 
 
Puisses tu dire vrai !!!!
 
Cette course à la perf/watt est dictée par le marché des mobiles et NV peut compter sur des clients bien éduqués, qui ne regardent même pas cette donnée.
D'ailleurs à part HFR combien donnent cette info lors des tests ?
Une 680 qui consomme 30% de plus en charge qu'une 7970 pour 10% de perf en plus fera leur joie. [:bouchon2]  
 

n°8214185
actaruxs
Posté le 11-02-2012 à 10:50:12  profilanswer
 

husbeck a écrit :


 
 
Puisses tu dire vrai !!!!
 
Cette course à la perf/watt est dictée par le marché des mobiles et NV peut compter sur des clients bien éduqués, qui ne regardent même pas cette donnée.
D'ailleurs à part HFR combien donnent cette info lors des tests ?
Une 680 qui consomme 30% de plus en charge qu'une 7970 pour 10% de perf en plus fera leur joie. [:bouchon2]  
 


 
Moi... si j'en tiens compte.
 
env 400W max en cg... sinon, le prix des cg est trop cher :D
 
En 2009, je devais remplacer mon cf de 8800gts (g92). J'ai opté pour un CF (+ perf et moins cher), malgrés les mises en gardes dûes a l'utilisation de plusieurs cg chez ati/amd... Sans vraiment expliquer les différents pb.
 
Donc, si tu compte jouer en 3D et ne pas trop etre embété par plusieurs cartes... Vaut mieux prendre nVidia. Si tu veux une seule cg et jouer en tri-screen -> Prendre un modele ATI/AMD bien cher, car en cf on cummules les pb...
 
Voilà, pour simplifier, hein ;)
 


Message édité par actaruxs le 11-02-2012 à 10:51:47
n°8214204
glrpignolo
Posté le 11-02-2012 à 11:14:50  profilanswer
 

Oui c'est simplifié et pas vraiment orienté hein :D


Message édité par glrpignolo le 11-02-2012 à 11:14:59
n°8214227
Profil sup​primé
Posté le 11-02-2012 à 11:37:57  answer
 

Si tu es propriétaire, ce n'est pas un bon investissement la carte graphique :spamafote:
 :d !


Message édité par Profil supprimé le 11-02-2012 à 11:38:05
n°8214234
actaruxs
Posté le 11-02-2012 à 11:46:57  profilanswer
 

En meme temps locataire ou proprietaire... L'électricité tu la paye pareil :D
 
Mais je vois sque tu veux dire... 400w c'est pas suffisant :lol:
 
Mon cf légèrement o/c plus cpu @4.4, je suis aux alentour de 900w... ça c'est mieux niveau chauffage ;)


Message édité par actaruxs le 11-02-2012 à 11:49:44
n°8214237
Profil sup​primé
Posté le 11-02-2012 à 11:49:33  answer
 

La déperdition pour un prix donné, non ce n'est pas pareil
Et sur l'année tu fais autre chose de cette somme, elle ne dort pas
Sur des années après, tu en sens encore les bénéfices
L'argent dépensé en carte graphique à côté => luxe de loisir tout au plus :o
Bref :d ...

n°8214244
actaruxs
Posté le 11-02-2012 à 11:54:28  profilanswer
 

Oué... faut voir... si tu est en hlm... le chauffage est dit "central"... contrairement au tout éléctrique...
 
Faut tenir compte aussi de l'isolation... Mon frangin dans son ancien apart dépensait env 2000€/an principalement en chauffage.
 
Maintenant, dans ton raisonnement, tu as oublié l'achat des radiateur :D
 
Dans mon ancien apart (hlm... donc a chauffage central), dés que l'immeuble a été rénové ( et isolé), l'hiver mon simple cpu dualcore watercoolé avec rad 3x120, suffisait presque a chauffer la chambre... L'été la pièce prenait 1°/h de jeu... Passé 35° dans la pièce c'était moyen.
 
EDIT:
 
Chez mes parents (en semaine et ce week end aussi), maison bien isolée, chambre chauffée a 22° (chauuffe au sol basse conso)... Mon pc non o/c, la pièce est a 24°


Message édité par actaruxs le 11-02-2012 à 12:05:35
n°8214322
Invite_Sur​prise
Racaille de Shanghaï
Posté le 11-02-2012 à 13:21:03  profilanswer
 

Citation :

First and foremost, in NVIDIA's internal nomenclature, this part should be named GeForce GTX 660 (the company is debating GeForce GTX 660, 670 or 680 - and the final verdict will 99% be GTX 680). This is a 349-399 dollar part which in conventional way would replace the 300-dollar "GeForce GTX 560 Ti 2GB", but will offer higher performance than GTX 580. Significantly higher… and more importantly, not just beating the $449 Radeon HD 7950 3GB, but also endangering the $549 Radeon HD 7970. Yeah, it is that fast.


Citation :

The base combinations for NVIDIA future GPUs now are 96 (1SM), 384 (1GPC), 768 (2GPC), 1536 (4GPC), 2304 CUDA cores/Stream Processors (6GPC). Given that we our sources are telling us the big monolithic die comes with 2304 SP, the question is what can be done with the memory controller


 
http://www.brightsideofnews.com/ne [...] k-out.aspx

n°8214333
aliss
Rhyme the Rhyme Well
Posté le 11-02-2012 à 13:33:20  profilanswer
 

Je suis curieux de voir comment va se comporter ce gpu vs le GF110 et Tahiti avec une bp qui paraît relativement "faiblarde".

mood
Publicité
Posté le 11-02-2012 à 13:33:20  profilanswer
 

n°8214337
Invite_Sur​prise
Racaille de Shanghaï
Posté le 11-02-2012 à 13:37:30  profilanswer
 

On est tous curieux de savoir ce que renferme ce GK104  :D

n°8214344
canard rou​ge
coin coin
Posté le 11-02-2012 à 13:46:34  profilanswer
 

ça sent quand même pas mal le lobbying n'achetez pas les nouvelles rouges attendez un peu les nôtres qui seront tellement puissantes que le FBI va interdire leur vente à la Corée du Nord bla bla bla


---------------
Fait's comme les petits canards Et pour que tout l'monde se marre Remuez le popotin En f'sant coin-coin
n°8214371
NoradII
Il y a 17 ans naquit un PC
Posté le 11-02-2012 à 14:05:03  profilanswer
 

Invite_Surprise a écrit :

Citation :

First and foremost, in NVIDIA's internal nomenclature, this part should be named GeForce GTX 660 (the company is debating GeForce GTX 660, 670 or 680 - and the final verdict will 99% be GTX 680). This is a 349-399 dollar part which in conventional way would replace the 300-dollar "GeForce GTX 560 Ti 2GB", but will offer higher performance than GTX 580. Significantly higher… and more importantly, not just beating the $449 Radeon HD 7950 3GB, but also endangering the $549 Radeon HD 7970. Yeah, it is that fast.


Citation :

The base combinations for NVIDIA future GPUs now are 96 (1SM), 384 (1GPC), 768 (2GPC), 1536 (4GPC), 2304 CUDA cores/Stream Processors (6GPC). Given that we our sources are telling us the big monolithic die comes with 2304 SP, the question is what can be done with the memory controller

 

http://www.brightsideofnews.com/ne [...] k-out.aspx

des récentes notes que je viens de lire (datant d'aujourd'hui) Ils ont supprimés des étages, augmenter les registres diminuer le coup d'une seul pass .. Bref il n'y a que les cons qui ne change pas d'avis. Je reviens sur ma position : Il semblerai qu'il y ai quelque chose derrière ces nombres inédits d'unités de traitement. Vérité ou simple leak, sur ce coup j'en sais rien :/ Il y a encore trop de sites qui rapportent les fameux 768 et 1024cc auxquels 75% des expectatifs s'attendent à voir débouler respectivement en mars et septembre, pour ne pas les considérer.

aliss a écrit :

Je suis curieux de voir comment va se comporter ce gpu vs le GF110 et Tahiti avec une bp qui paraît relativement "faiblarde".

Si tout ce tiens, les notes de "Daily", les sources de valeurs, il se peut que les besoin en BP ce soit cassé la gueule. Une sorte d'amélioration dans la profondeur des envois qui ne nécessite plus un nombre incalculable de requêtes exponentiellement grand, et en rapport direct avec le nombres d'unités présentes.


Message édité par NoradII le 11-02-2012 à 14:08:03

---------------
valid.x86.fr/575505 /842925 /902578
n°8214394
wnorton
Je suis néerlandophone
Posté le 11-02-2012 à 14:24:39  profilanswer
 

Si j'ai bien lu ici:
 

Citation :

First and foremost, in NVIDIA's internal nomenclature, this part should be named GeForce GTX 660 (the company is debating GeForce GTX 660, 670 or 680 - and the final verdict will 99% be GTX 680). This is a 349-399 dollar part which in conventional way would replace the 300-dollar "GeForce GTX 560 Ti 2GB", but will offer higher performance than GTX 580. Significantly higher… and more importantly, not just beating the $449 Radeon HD 7950 3GB, but also endangering the $549 Radeon HD 7970. Yeah, it is that fast.
 
 


il explique qu'une simple milieu gamme, une GTX 660 serait au-dessus d'une HD 7970!


---------------
Je suis néerlandophone une fois
n°8214406
Charles K
Posté le 11-02-2012 à 14:31:25  profilanswer
 

Non moi ce que je vois c'est qu'une 680 (gk104), donc une carte haut de gamme sera plus performante qu'une 580/7950 et menaçant une 7970 ; et que le gk110 sera la puce utilisée dans la carte haut de gamme (surement) de la génération suivante, les 7xx qui arriveront assez rapidement mais trop tard pour être considérée comme des 6xx.
Niveau marketing perso je trouve ça habile, ça permet de justifier des sorties rapprochées avec des écarts plus faibles en performance.


Message édité par Charles K le 11-02-2012 à 14:36:24
n°8214413
aliss
Rhyme the Rhyme Well
Posté le 11-02-2012 à 14:36:36  profilanswer
 

Mis à part le prix, ça ressemble énormément aux propos de Vardant (ou OBR...selon Invite_Surprise) sur le forum d'XS.

n°8214415
glrpignolo
Posté le 11-02-2012 à 14:38:18  profilanswer
 

wnorton a écrit :

Si j'ai bien lu ici:

 
Citation :

First and foremost, in NVIDIA's internal nomenclature, this part should be named GeForce GTX 660 (the company is debating GeForce GTX 660, 670 or 680 - and the final verdict will 99% be GTX 680). This is a 349-399 dollar part which in conventional way would replace the 300-dollar "GeForce GTX 560 Ti 2GB", but will offer higher performance than GTX 580. Significantly higher… and more importantly, not just beating the $449 Radeon HD 7950 3GB, but also endangering the $549 Radeon HD 7970. Yeah, it is that fast.

 



il explique qu'une simple milieu gamme, une GTX 660 serait au-dessus d'une HD 7970!

 


Non mais sérieux...
Faut arreter avec ça, ton gk104 chéri a 99% de chance de s'appeler gtx680, ce qu'on pouvait franchement penser depuis très longtemps.
La 660 ne battra donc pas la 7970 puisque ça sera du gk104 bridé ou du gk106.

 

Et il y a aussi de grande chance que le gk110 ne soit pas appellé gtx 6XX mais bien gtx 7xx.
Il ne ne sont pas privé de le faire entre les 400 et les 500 alors que la diff pourrait etre moindre qu'entre gk104 et gk110.
Après ça dépend du timing des sorties.


Message édité par glrpignolo le 11-02-2012 à 14:41:27
n°8214421
Invite_Sur​prise
Racaille de Shanghaï
Posté le 11-02-2012 à 14:42:17  profilanswer
 

aliss a écrit :

Mis à part le prix, ça ressemble énormément aux propos de Vardant (ou OBR...selon Invite_Surprise) sur le forum d'XS.


C'est les mêmes specs que 3Dcenter et MfA (kaktus1907) avaient donné depuis quelques temps. Bien avant Vardant/OBR, facile + d'un mois ou deux  ;)

n°8214429
aliss
Rhyme the Rhyme Well
Posté le 11-02-2012 à 14:47:03  profilanswer
 

Invite_Surprise a écrit :


C'est les mêmes specs que 3Dcenter et MfA (kaktus1907) avaient donné depuis quelques temps. Bien avant Vardant/OBR, facile + d'un mois ou deux  ;)


 
Si celà se confirme, ça va forcer AMD à baisser ses tarifs ce qui n'est pas un mal.
 
Néanmoins quelle stagnation en terme de performances depuis l'apparition des premiers gpu's dx11... :/

n°8214437
Profil sup​primé
Posté le 11-02-2012 à 14:52:50  answer
 

Il faut les jeux qui exploitent les cartes !
Quand ce sont des portages console, là ...


Message édité par Profil supprimé le 11-02-2012 à 14:53:13
n°8214449
NoradII
Il y a 17 ans naquit un PC
Posté le 11-02-2012 à 14:59:06  profilanswer
 

Invite_Surprise a écrit :

C'est les mêmes specs que 3Dcenter et MfA (kaktus1907) avaient donné depuis quelques temps. Bien avant Vardant/OBR, facile + d'un mois ou deux  ;)

entre-nous, toi qui semble lurker, quelque chose de sévère. c'est quoi qui te paraît le plus plausible :

 

-une augmentation (+100%) des unités de traitement avec l'architecture connus typé Cores-Scalaires, des G80 ; récemment revue et corrigé via Tesla et Fermi.
Ou
-Une ramification des implantations des unités brutes spécialisés plus une simplification (à défaut de dire amélioration) des latences internes, et ce accompagné de 2 à 4 fois plus de ces "nouveaux" processeur de flux.

Message cité 2 fois
Message édité par NoradII le 11-02-2012 à 15:00:22

---------------
valid.x86.fr/575505 /842925 /902578
n°8214471
Invite_Sur​prise
Racaille de Shanghaï
Posté le 11-02-2012 à 15:18:01  profilanswer
 

NoradII a écrit :

entre-nous, toi qui semble lurker, quelque chose de sévère. c'est quoi qui te paraît le plus plausible :
 
-une augmentation (+100%) des unités de traitement avec l'architecture connus typé Cores-Scalaires, des G80 ; récemment revue et corrigé via Tesla et Fermi.
Ou
-Une ramification des implantations des unités brutes spécialisés plus une simplification (à défaut de dire amélioration) des latences internes, et ce accompagné de 2 à 4 fois plus de ces "nouveaux" processeur de flux.


Je suis pas dans le secret des dieux  :sweat:  
 
Je pense qu'il est désormais acquis que c'est fini pour le hotclock, qu'effectivement nVidia va s'attaquer directement à Tahiti avec son GK104, qu'ils vont partir sur un design plus efficace en terme énergétique et que la puce à venir plus tard (GK110, PHK parle de Q3) sera bien plus performante en DP que ce qui se fait actuellement du côté vert.
Les rumeurs d'un GK104 ~20-30% supérieur au GF110 sont assez insistantes et cela pourrait déboucher sur une guerre des prix que l'on attend tous.

Message cité 1 fois
Message édité par Invite_Surprise le 11-02-2012 à 15:30:12
n°8214473
Activation
21:9 kill Surround Gaming
Posté le 11-02-2012 à 15:22:08  profilanswer
 

en même temps ça parle conso/watt tout ça
 
mais nvidia n'a jamais travaillé sur la gestion de l'energie dans ces gpu,  
 
à chaque fois ça a été de la bidouille software dans le drivers ce qui a valu qqs carte crevé à cause du drivers (le meilleur exemple récent fut les gtx590)
 
bref y a pas forcément besoin de revoir les cc core, mais plutôt revoir les cc dans la gestion de leur statut/état
 
nop car quand on voit le progrès fait en terme gestion d’énergie entre un tegra 2 et un tegra 3, sans même tenir compte du "core compagnon"
 
 
 
je vais dire juste une chose  :o  
 
 
  ----------------      vSMP          ----------------


Message édité par Activation le 11-02-2012 à 15:22:53
n°8214497
NoradII
Il y a 17 ans naquit un PC
Posté le 11-02-2012 à 15:48:40  profilanswer
 

Invite_Surprise a écrit :


Je suis pas dans le secret des dieux  :sweat:  
 
Je pense qu'il est désormais acquis que c'est fini pour le hotclock, qu'effectivement nVidia va s'attaquer directement à Tahiti avec son GK104, qu'ils vont partir sur un design plus efficace en terme énergétique et que la puce à venir plus tard (GK110, PHK parle de Q3) sera bien plus performante en DP que ce qui se fait actuellement du côté vert.
Les rumeurs d'un GK104 ~20-30% supérieur au GF110 sont assez insistantes et cela pourrait déboucher sur une guerre des prix que l'on attend tous.

mouais pas très sain, comme bruit de couloir :/
cette efficacité énergétique pue le chien brûlé (ça s'entend dans tous les sujets respectable ce problème de 300W de TDP pour une puce prévue à 225W.)


---------------
valid.x86.fr/575505 /842925 /902578
n°8214500
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 11-02-2012 à 15:51:40  profilanswer
 

NoradII a écrit :

-Une ramification des implantations des unités brutes spécialisés plus une simplification (à défaut de dire amélioration) des latences internes, et ce accompagné de 2 à 4 fois plus de ces "nouveaux" processeur de flux.


Facile de multiplier les SP par quatre.
 
On prend un SP qui fait des ADD/SUB, des MUL, et des FMA, et on crée 1 SP qui fait des ADD/SUB, 1 SP qui fait des MUL, et 1 SP-Bridge qui utilise les 2 SP précédents pour faire des FMA.
Ensuite on fait la même chose pour les unités spéciales, et on annonce ensuite que notre nouvelle archi intègre 10 fois plus de SP pour une taille pratiquement équivalente !

n°8214504
Invite_Sur​prise
Racaille de Shanghaï
Posté le 11-02-2012 à 15:54:58  profilanswer
 

NoradII a écrit :

cette efficacité énergétique pue le chien brûlé


C'est ton avis ... Pour ma part, je pense que c'est pas du vent.  :whistle:  

n°8214505
NoradII
Il y a 17 ans naquit un PC
Posté le 11-02-2012 à 15:56:17  profilanswer
 

Wirmish a écrit :

Facile de multiplier les SP par quatre.
On prend un SP qui fait des ADD/SUB, des MUL, et des FMA, et on crée 1 SP qui fait des ADD/SUB, 1 SP qui fait des MUL, et 1 SP-Bridge qui utilise les 2 SP précédents pour faire des FMA.
Ensuite on fait la même chose pour les unités spéciales, et on annonce ensuite que notre nouvelle archi intègre 10 fois plus de SP pour une taille pratiquement équivalente !

Euh attend voir .. non !
T'es viré [:the real moins moins]

Invite_Surprise a écrit :

C'est ton avis ... Pour ma part, je pense que c'est pas du vent.  :whistle:  

j'ai jamais dit ça :ange:

Message cité 1 fois
Message édité par NoradII le 11-02-2012 à 15:57:05

---------------
valid.x86.fr/575505 /842925 /902578
n°8214506
actaruxs
Posté le 11-02-2012 à 15:56:18  profilanswer
 

Citation :

First and foremost, in NVIDIA's internal nomenclature, this part should be named GeForce GTX 660 (the company is debating GeForce GTX 660, 670 or 680 - and the final verdict will 99% be GTX 680). This is a 349-399 dollar part which in conventional way would replace the 300-dollar "GeForce GTX 560 Ti 2GB", but will offer higher performance than GTX 580. Significantly higher… and more importantly, not just beating the $449 Radeon HD 7950 3GB, but also endangering the $549 Radeon HD 7970. Yeah, it is that fast.


Pas trop compris...  
ça veut dire qu'ils ont débattu sur le nom de la GTX660 (~gtx580)... Et qu'au final elle s'appelera GTX680 ?
 
Donc de toute façon, il y a un stock énorme de GTX560 et 580 a écouler... donc je pense qu'on aura pas de cg a pas trop cher...
 
Moi, ce que je voulais, c'était partir sur une base de perf/conso équivalent a la GTX570... Et en prendre 2 pour éviter d'avoir un modele de ref + 1 modele custom :/
 
Et je ne suis pas sur de retirer un bénéfice (en perf) en prenant 2 équivalent a la 560 :/

n°8214507
Activation
21:9 kill Surround Gaming
Posté le 11-02-2012 à 15:56:39  profilanswer
 

Wirmish a écrit :


Facile de multiplier les SP par quatre.
 
On prend un SP qui fait des ADD/SUB, des MUL, et des FMA, et on crée 1 SP qui fait des ADD/SUB, 1 SP qui fait des MUL, et 1 SP-Bridge qui utilise les 2 SP précédents pour faire des FMA.
Ensuite on fait la même chose pour les unités spéciales, et on annonce ensuite que notre nouvelle archi intègre 10 fois plus de SP pour une taille pratiquement équivalente !


 
l'inventeur du bullbouze sort de ce corps :o
 
sorti de ça.... ils ont qu'à appeler GT680 celle avec un gk104  et gtx680 celle avec un gk100
 
 [:tang]


Message édité par Activation le 11-02-2012 à 15:59:47
n°8214525
Invite_Sur​prise
Racaille de Shanghaï
Posté le 11-02-2012 à 16:15:55  profilanswer
 

NoradII a écrit :

j'ai jamais dit ça :ange:


 
Faut dire que les 3/4 du temps, tes propos sont inintelligibles. S'il faut sortir le décodeur pour essayer de comprendre ce que tu veux dire, y'a mieux à faire ... :/

n°8214534
NoradII
Il y a 17 ans naquit un PC
Posté le 11-02-2012 à 16:25:24  profilanswer
 

tiens, c'est bizarre.
Je pensais bien être sur un forum hardware, pourtant :/


Message édité par NoradII le 11-02-2012 à 16:25:30

---------------
valid.x86.fr/575505 /842925 /902578
n°8214558
raptor68
Pouet !
Posté le 11-02-2012 à 16:48:04  profilanswer
 

bref, a quand la fin du nda ?
 
ils pourraient donner une date de sortie officielle à défaut d'information dont on puisse être sur à 100%

n°8214570
actaruxs
Posté le 11-02-2012 à 17:01:54  profilanswer
 

NoradII a écrit :

mouais pas très sain, comme bruit de couloir :/
cette efficacité énergétique pue le chien brûlé (ça s'entend dans tous les sujets respectable ce problème de 300W de TDP pour une puce prévue à 225W.)


 
En meme temps... Les archi changeant constamment, ils ont pas le temps d'améliorer ça (en tout cas d'optimiser le truc)... Tant que la pupuce grille pas ça fera l'affaire.

n°8214573
actaruxs
Posté le 11-02-2012 à 17:03:14  profilanswer
 

raptor68 a écrit :

bref, a quand la fin du nda ?
 
ils pourraient donner une date de sortie officielle à défaut d'information dont on puisse être sur à 100%


 
Eh bien... je dirai... La veille de la sortie officielle :lol:
 
PS: normal... Faut prendre AMD de vitesse


Message édité par actaruxs le 11-02-2012 à 17:05:03
n°8214581
NoradII
Il y a 17 ans naquit un PC
Posté le 11-02-2012 à 17:09:41  profilanswer
 

actaruxs a écrit :

En meme temps... Les archi changeant constamment, ils ont pas le temps d'améliorer ça (en tout cas d'optimiser le truc)... Tant que la pupuce grille pas ça fera l'affaire.

Toi t'as raté l'épisode NV30 (NOT AGAIN :sweat: )


---------------
valid.x86.fr/575505 /842925 /902578
n°8214587
actaruxs
Posté le 11-02-2012 à 17:22:05  profilanswer
 

Eh oui... J'ai pas connu le pb... J'était chez ati (radeon 8500 et 9600xt... pour attendre la serie 7800 de nVidia ;) )
 
Mon commentaire était si parlant que ça ?


Message édité par actaruxs le 11-02-2012 à 17:24:37
n°8214589
NoradII
Il y a 17 ans naquit un PC
Posté le 11-02-2012 à 17:23:31  profilanswer
 

ça a une odeur familière, oui.


---------------
valid.x86.fr/575505 /842925 /902578
n°8214599
actaruxs
Posté le 11-02-2012 à 17:32:02  profilanswer
 

Le NV30... C'était bien le Geforce FX ?
 
Entre la radeon 8500 et 9600, j'ai eu une Geforce 4 mx440... moins perf que ma 8500... Je me suis rabattu sur la 9600. J'ai donc pas eu connaissance du pb (en tout cas je m'en souviens pas)

n°8214633
mightmagic
Posté le 11-02-2012 à 18:06:47  profilanswer
 

actaruxs a écrit :

Le NV30... C'était bien le Geforce FX ?
 
Entre la radeon 8500 et 9600, j'ai eu une Geforce 4 mx440... moins perf que ma 8500... Je me suis rabattu sur la 9600. J'ai donc pas eu connaissance du pb (en tout cas je m'en souviens pas)


Le nv30 est avec le nv1 le pire ratage de nvidia (mais le nv30 est connu alors que le nv1 est peu voir très peu connu vu l'époque)

n°8214658
Activation
21:9 kill Surround Gaming
Posté le 11-02-2012 à 18:40:46  profilanswer
 

je pense pas qu'on puisse dire que le NV1 fut un ratage en soit
 
elle a tout de même fait parlé d'elle comme l'une des premier carte accélératrice 3D au format PCI,  
elle faisait un peut four tout avec l intégration du son.... de nos jour passé du son grace au hdmi on trouve ça banal
y avait aussi l'aura de la marque "diamond" de l'époque (surtout connu à l'air des carte 2D)
 
le nv30 oui là ça a été un gros fail
perso j'avais acheté une fx5600 à l'époque je passais d'une geforce 2 gts à la fx5600 pour que command & conquer generals passe de "diapositive" à jouable
 
bon ensuite y a eu l'époque glorieuse de la petite bombinette qu'était la geforce 6600gt
 
disons que le NV30 ça a surtout paru un gros fail pour ce venant des geforce 4
 
perso venant d'une geforce 2 gts c'était limite miraculeux le nv30  :lol:  
 
faut dire que la geforce 3/4 ça tombait un peu durant mes fins d'études et début à la vie active... donc j'avais un peu autre chose à foutre que jouer :lol:

Message cité 1 fois
Message édité par Activation le 11-02-2012 à 18:46:19
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  68  69  70  ..  1028  1029  1030  1031  1032  1033

Aller à :
Ajouter une réponse
 

Sujets relatifs
Concours Nvidia / questions sur les... questionsCartes Mères Z68 GIGABYTE, laquelle choisir ?
Panneau de configuration NVIDIA ?[HFR] Actu : 5 cartes A75 FM1 pour ASRock
Probleme aprés installation carte NVIDIA GEFORCE 8400 GS[HFR] Actu : Nvidia lance les GTX 580M et 570M
[HFR] Actu : 4 cartes Socket FM1 pour Gigabyte[Topic Unique] Problème pour mettre à jour sa carte réseau
Gestion des ventilateurs 3 pins avec les cartes mères P67Configuration MCP73VE NVIDIA MCP73
Plus de sujets relatifs à : [Topic Unique] NVIDIA GeForce GTX 660Ti/670/680/690/760/770 (GK104)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)