Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3450 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  104  105  106  ..  1028  1029  1030  1031  1032  1033
Auteur Sujet :

[Topic Unique] NVIDIA GeForce GTX 660Ti/670/680/690/760/770 (GK104)

n°8238567
Invite_Sur​prise
Racaille de Shanghaï
Posté le 08-03-2012 à 08:34:32  profilanswer
 

Reprise du message précédent :
GeForce GTX 680 Features Speed Boost, Arrives This Month, etc., etc. - TPU
 

Citation :

First, and most interesting: with some models of the GeForce 600, NVIDIA will introduce a load-based clock speed-boost feature (think: Intel Turbo Boost), which steps up clock speeds of the graphics card when subjected to heavy loads. If there's a particularly stressing 3D scene for the GPU to render, it overclocks itself, and sees the scene through.


 

Citation :

Third, the many-fold increase in CUDA cores doesn't necessarily amount to a linear increase in performance, when compared to the previous generation. The GeForce GTX 680 is about 10% faster than Radeon HD 7970, in Battlefield 3. In the same comparison, the GTX 680 is slower than HD 7970 at 3DMark 11.


 

Citation :

Fourth, the NVIDIA GeForce GTX 680 will very much launch in this month. It won't exactly be a paper-launch, small quantities will be available for purchase, and only through select AIC partners. Quantities will pick up in later months.


 

Citation :

Next up, NVIDIA is preparing a dual-GPU graphics card based on the GK104, it is slated for May, NVIDIA will use Graphics Technology Conference (GTC), as its launch-pad.


 

Citation :

Lastly, GK110, the crown-jewel of the Kepler GPU family, will feature as many as 2,304 CUDA cores. There's absolutely no word on its whereabouts.

mood
Publicité
Posté le 08-03-2012 à 08:34:32  profilanswer
 

n°8238570
Marc
Chasseur de joce & sly
Posté le 08-03-2012 à 08:35:49  profilanswer
 

Les 500 Mo c'est uniquement pour la lighting pass, rien de plus
La résolution c'est celle des screenshot, rien de plus

n°8238583
wnorton
Je suis néerlandophone
Posté le 08-03-2012 à 09:03:25  profilanswer
 

Invite_Surprise a écrit :

GeForce GTX 680 Features Speed Boost, Arrives This Month, etc., etc. - TPU
 

Citation :

First, and most interesting: with some models of the GeForce 600, NVIDIA will introduce a load-based clock speed-boost feature (think: Intel Turbo Boost), which steps up clock speeds of the graphics card when subjected to heavy loads. If there's a particularly stressing 3D scene for the GPU to render, it overclocks itself, and sees the scene through.


 

Citation :

Third, the many-fold increase in CUDA cores doesn't necessarily amount to a linear increase in performance, when compared to the previous generation. The GeForce GTX 680 is about 10% faster than Radeon HD 7970, in Battlefield 3. In the same comparison, the GTX 680 is slower than HD 7970 at 3DMark 11.


 

Citation :

Fourth, the NVIDIA GeForce GTX 680 will very much launch in this month. It won't exactly be a paper-launch, small quantities will be available for purchase, and only through select AIC partners. Quantities will pick up in later months.


 

Citation :

Next up, NVIDIA is preparing a dual-GPU graphics card based on the GK104, it is slated for May, NVIDIA will use Graphics Technology Conference (GTC), as its launch-pad.


 

Citation :

Lastly, GK110, the crown-jewel of the Kepler GPU family, will feature as many as 2,304 CUDA cores. There's absolutely no word on its whereabouts.



 
J'ai l'impression qui garde le GK110 pour la série 700 trop puissante pour maintenant  :whistle:  


---------------
Je suis néerlandophone une fois
n°8238591
Gein
Posté le 08-03-2012 à 09:20:17  profilanswer
 

J'ai surtout l'impression qu'ils n'arrivent pas a le produire  :whistle:

n°8238624
0b1
There's good in him
Posté le 08-03-2012 à 10:01:15  profilanswer
 

J'ai surtout l'impression qu'une telle puissance paraît démesurée à l'heure actuelle pour le gamer.
 
A moins d'être sur des résolutions improbables ou des configurations de 2, 3, 12 écrans et en 3D.
Tout ceci représente une population marginale, qui, dans le cas de multi-screen ne sert pas souvent à jouer mais plutôt à travailler.

n°8238626
wnorton
Je suis néerlandophone
Posté le 08-03-2012 à 10:03:25  profilanswer
 

0b1 a écrit :

J'ai surtout l'impression qu'une telle puissance paraît démesurée à l'heure actuelle pour le gamer.
 
A moins d'être sur des résolutions improbables ou des configurations de 2, 3, 12 écrans et en 3D.
Tout ceci représente une population marginale, qui, dans le cas de multi-screen ne sert pas souvent à jouer mais plutôt à travailler.


 
 
+1


---------------
Je suis néerlandophone une fois
n°8238628
raviere
Posté le 08-03-2012 à 10:06:50  profilanswer
 

0b1 a écrit :

J'ai surtout l'impression qu'une telle puissance paraît démesurée à l'heure actuelle pour le gamer.
 
A moins d'être sur des résolutions improbables ou des configurations de 2, 3, 12 écrans et en 3D.
Tout ceci représente une population marginale, qui, dans le cas de multi-screen ne sert pas souvent à jouer mais plutôt à travailler.


y'a pas que les besoins de gamer j'ai une nvidia 570 pour cuda et boinc (en sus des jeux) et c'est cuda qui m'a motivé pour ne plus avoir d'ati, car dans le monde du calcul sur gpu nvidia est très soutenue à l'inverse d'ati

n°8238629
Invite_Sur​prise
Racaille de Shanghaï
Posté le 08-03-2012 à 10:09:15  profilanswer
 

0b1 a écrit :

J'ai surtout l'impression qu'une telle puissance paraît démesurée à l'heure actuelle pour le gamer.
 
A moins d'être sur des résolutions improbables ou des configurations de 2, 3, 12 écrans et en 3D.
Tout ceci représente une population marginale, qui, dans le cas de multi-screen ne sert pas souvent à jouer mais plutôt à travailler.


Si on va par là, la 8800 GTX était vraiment hyper puissante pour l'époque et ça ne l'a pas empêché de bien se vendre.
 
Si nVidia pouvait sortir son GK110 maintenant en bonne quantité tout en pouvant bien marger dessus, le "phat chip" serait déjà disponible sur les étales.


Message édité par Invite_Surprise le 08-03-2012 à 10:10:32
n°8238639
Profil sup​primé
Posté le 08-03-2012 à 10:24:09  answer
 

0b1 a écrit :

J'ai surtout l'impression qu'une telle puissance paraît démesurée à l'heure actuelle pour le gamer.

 

A moins d'être sur des résolutions improbables ou des configurations de 2, 3, 12 écrans et en 3D.
Tout ceci représente une population marginale, qui, dans le cas de multi-screen ne sert pas souvent à jouer mais plutôt à travailler.


 
HS:ON
Je sais pas toi mais je trouve que on est bien loin du terme puissance... Pour afficher une telle qualité on est obligé de dépelotonner EDIT: Dépolygonner... les objets éloigner,
ne pas filtrer les textures trop loin.. Ect Ect.. Bref on est obligé de rusé et mettre en place des trompes l’œil pour avoir un beau truc, et de bonne perf...
Le jour ou on aura une grande puissance, c'est quand on aura un moteur physique qui simule la vrai vie et qu'on pourra afficher une foret avec tout ce qui la compose dans ça moindre  particule  :whistle:  HS:OFF

 

Bon certes je pousse le bouchon un peu loin la, c'est que la puissance pour moi.. On en est loin, même si l'évolution en informatique à été exceptionnelle ces années dernières ! Parce que j'aimerai bien tourner Bf3 en ultra avec une gt720  :lol:  Puis pour le prix aussi

Message cité 1 fois
Message édité par Profil supprimé le 08-03-2012 à 10:32:47
n°8238668
Fouge
Posté le 08-03-2012 à 10:52:38  profilanswer
 

+1 :o
Vu les très nombreux compromis qui sont fait dans les jeux vidéo, on ne peut clairement pas parler de démesure de la puissance des GPU HDG actuels. Bien au contraire, on est encore bien en-dessous des besoins réels mais on fait avec [:razorbak83]  
A la limite on pourrait parler de démesure lorsqu'une carte dissipe 300W ou lorsqu'elle est vendue plus de 500€. Mais niveau puissance ça fait tourner les jeux actuels TAF en mono-écran, ça fait ce qu'on leur demande sur des jeux qui ont été conçu pour faire en sorte que ça tourne correctement : bref, les CG font leur taf, sans plus.

mood
Publicité
Posté le 08-03-2012 à 10:52:38  profilanswer
 

n°8238705
serthus
Posté le 08-03-2012 à 11:41:41  profilanswer
 

Optimisation, multiplateforme, surcouche logicielle toussa.
La puissance on l'a np. C'est à un autre niveau qu'il faudrai voir.
 
Tu fous dans les mains de gros dev ( genre naughty dog ) une grosse config pc, et ils se basent uniquement la dessus pour dev ( donc codage en hard, sans passer par une surcouche dx11 ), et sans avoir aucun multiplateforme, tu verrai l'effet que ca fait.
 
Vivement la prochaine gen console aussi, qu'on ai du multi vraiment de qualité.

n°8238710
Fouge
Posté le 08-03-2012 à 11:48:18  profilanswer
 

serthus a écrit :

Tu fous dans les mains de gros dev ( genre naughty dog ) une grosse config pc, et ils se basent uniquement la dessus pour dev ( donc codage en hard, sans passer par une surcouche dx11 ), et sans avoir aucun multiplateforme, tu verrai l'effet que ca fait.

Y'aurait clairement du mieux, mais ils continueraient à utiliser de nombreux compromis parce que les ressources (calcul, BP, quantité de mémoire) sont limitées et ne permettent pas de faire tout ce qu'on aimerait faire. Notre imagination est infinie, elle.

n°8238717
Le bon viv​ant
Posté le 08-03-2012 à 11:54:41  profilanswer
 

serthus a écrit :

Optimisation, multiplateforme, surcouche logicielle toussa.
La puissance on l'a np. C'est à un autre niveau qu'il faudrai voir.
 
Tu fous dans les mains de gros dev ( genre naughty dog ) une grosse config pc, et ils se basent uniquement la dessus pour dev ( donc codage en hard, sans passer par une surcouche dx11 ), et sans avoir aucun multiplateforme, tu verrai l'effet que ca fait.
 
Vivement la prochaine gen console aussi, qu'on ai du multi vraiment de qualité.


 
 [:shimay:1]

n°8238723
Profil sup​primé
Posté le 08-03-2012 à 12:03:12  answer
 

+1

n°8238730
Le bon viv​ant
Posté le 08-03-2012 à 12:11:09  profilanswer
 

De tout manière, me concernant c'est pas aujourd'hui que je vais acheter une config PC, mais plutôt à Noël 2013 quand les consoles next gen sortiront !!! Il y aura un vrai changement au niveau des graphismes et gameplay (je l'espère), car là on stagne vraiment, les jeux se ressemblent etc...plus d'intérêt !!

n°8238759
couillesho​t
Les bouboules et la boubouche
Posté le 08-03-2012 à 12:53:56  profilanswer
 

Le bon vivant a écrit :

De tout manière, me concernant c'est pas aujourd'hui que je vais acheter une config PC, mais plutôt à Noël 2013 quand les consoles next gen sortiront !!! Il y aura un vrai changement au niveau des graphismes et gameplay (je l'espère), car là on stagne vraiment, les jeux se ressemblent etc...plus d'intérêt !!


ouais y'aura kinect  :o


---------------
:o :o :o
n°8238779
Gigathlon
Quad-neurones natif
Posté le 08-03-2012 à 13:17:32  profilanswer
 

serthus a écrit :

Tu fous dans les mains de gros dev ( genre naughty dog ) une grosse config pc, et ils se basent uniquement la dessus pour dev ( donc codage en hard, sans passer par une surcouche dx11 ), et sans avoir aucun multiplateforme, tu verrai l'effet que ca fait.


Aucun doute sur le fait qu'ils continueraient à passer par DirectX... si il y a une couche d'abstraction, c'est pas pour faire joli.
 
D'ailleurs, je suis loin d'être convaincu qu'ils chercheraient à tout optimiser avec une config démesurée, sachant que c'est généralement l'inverse qui se passe, il n'y a qu'à voir Crysis premier (certes beau en screenshot mais loin d'être parfait) et un paquet de jeux actuels qu'on croirait sortis du XXe siècle tellement la puissance a été utilisée à tort et à travers. C'est peut-être plus "correct", mais ça reste imperceptible et c'est fait au détriment d'autres améliorations qui auraient un impact très supérieur.

n°8238783
Profil sup​primé
Posté le 08-03-2012 à 13:23:01  answer
 

OUi ^^ alors c'est pour ça, leur Kepler qui sort autant de perf qu'un TRI SLI de 580... en 800x600 peut-être ?

n°8238788
wnorton
Je suis néerlandophone
Posté le 08-03-2012 à 13:26:33  profilanswer
 


 
 
http://t0.gstatic.com/images?q=tbn:ANd9GcSH3NO5oFi8raqDfUozu54HT7QzPDfSP3aMPv_ujQmNVQGfznAm


---------------
Je suis néerlandophone une fois
n°8238792
Rayaki
Posté le 08-03-2012 à 13:33:26  profilanswer
 

j'ai un peu de mal à croire qu'en 1080p Kepler fasse aussi bien qu'un tri-sli de 580...
 

Spoiler :

si c'est vrai, ca ne me dérangera pas hein :D ... de toutes facons j'attend le GT 7xxx


---------------
Clan Torysss.
n°8238795
Profil sup​primé
Posté le 08-03-2012 à 13:39:10  answer
 

Ah oui je n'en serais que ravi c'est sur ! Avoir une carte pour le prix de la puissance de 3x580 je dis pas non perso ^^  :lol:

n°8238798
Charles K
Posté le 08-03-2012 à 13:42:51  profilanswer
 

^ http://www.hardware.fr/news/12175/ [...] -fxaa.html

 
Citation :

Attention cela ne veut bien entendu pas dire qu'un Kepler est 3x plus performant qu'un GeForce GTX 580. D'une le framerate moyen lors des deux démos n'est pas connu, mais de plus la démo Samaritan utilise désormais un anticrénelage de type FXAA, plus performant que le MSAA dans des moteurs tels que l'UE3 utilisant un rendu différé. Il faudra donc attendre encore quelques semaines pour en savoir plus sur Kepler, sa sortie étant prévue pour ce mois.

 

:o


Message édité par Charles K le 08-03-2012 à 13:44:35
n°8238800
serthus
Posté le 08-03-2012 à 13:45:18  profilanswer
 

Gigathlon a écrit :


Aucun doute sur le fait qu'ils continueraient à passer par DirectX... si il y a une couche d'abstraction, c'est pas pour faire joli.
 
D'ailleurs, je suis loin d'être convaincu qu'ils chercheraient à tout optimiser avec une config démesurée, sachant que c'est généralement l'inverse qui se passe, il n'y a qu'à voir Crysis premier (certes beau en screenshot mais loin d'être parfait) et un paquet de jeux actuels qu'on croirait sortis du XXe siècle tellement la puissance a été utilisée à tort et à travers. C'est peut-être plus "correct", mais ça reste imperceptible et c'est fait au détriment d'autres améliorations qui auraient un impact très supérieur.


 
 
Bin cette couche d'abstraction a été créée quand même pour uniformiser le matos pc. La je parlais de travailler sur une seule config fixe, sans changement possible. Suffit de voir ce que naughty dog ont fait avec uncharted, qui est quand même totalement ouf niveau graphique ( ou god of war 3 ) alors que le gpu de la ps3 est... le gpu de la ps3 :> . Et sur ces grosses productions exclu, c'est codé direct en hard, sans passer par dx ou ogl. Apres, je suis d'accord avec toi sur ce que tu dis dans l’absolu. Je voulais juste en venir au post plus haut disant qu'on manquait encore de puissance.

Message cité 1 fois
Message édité par serthus le 08-03-2012 à 13:45:40
n°8238804
Kenshin011
Posté le 08-03-2012 à 13:51:26  profilanswer
 

Quand on voit ce qu'on arrive a sortir sur PS3 par rapport au hardware ... (notamment la démo Kara de Quantic Dream...)
La comparaison Kepler/TRI SLI de 580 est bancal puisqu'on a pas le même type d'AA et en plus on ne connait pas les FPS


Message édité par Kenshin011 le 08-03-2012 à 13:52:24

---------------
Mon Feedback ! => http://forum.hardware.fr/hfr/Achat [...] 7027_1.htm
n°8238817
0b1
There's good in him
Posté le 08-03-2012 à 14:00:39  profilanswer
 

Fouge a écrit :

+1 :o
Vu les très nombreux compromis qui sont fait dans les jeux vidéo, on ne peut clairement pas parler de démesure de la puissance des GPU HDG actuels. Bien au contraire, on est encore bien en-dessous des besoins réels mais on fait avec [:razorbak83]  
A la limite on pourrait parler de démesure lorsqu'une carte dissipe 300W ou lorsqu'elle est vendue plus de 500€. Mais niveau puissance ça fait tourner les jeux actuels TAF en mono-écran, ça fait ce qu'on leur demande sur des jeux qui ont été conçu pour faire en sorte que ça tourne correctement : bref, les CG font leur taf, sans plus.


On peut donc en conclure qu'une puissance supérieure serait inutile.
A moins d'avoir un jeu plus fluide que fluide (linge plus blanc que blanc toussa).

n°8238821
Profil sup​primé
Posté le 08-03-2012 à 14:03:55  answer
 

Non plus de puissance plus de PUUUIISSSAANNNNNNCCEEEEEEEEE !

n°8238840
Invite_Sur​prise
Racaille de Shanghaï
Posté le 08-03-2012 à 14:20:01  profilanswer
 

http://tof.canardpc.com/view/27b2d048-2be2-4028-9bf2-0cbfa3656735.jpg
 
http://we.pcinlife.com/thread-1848630-1-1.html
 
Peut-être un fake ? J'en sais rien pour être honnête ...

n°8238850
Profil sup​primé
Posté le 08-03-2012 à 14:30:58  answer
 

J'aime le petit floue pour faire genre ( Ou acheté vous un reflex les chtong..). Depuis quand Nvidia grave le nom de ça gamme sur le plastique ^^ ?

n°8238868
mukumi
RATATATA
Posté le 08-03-2012 à 14:45:45  profilanswer
 


 
Tu crois que les petits travailleurs chinois qui montent ces cartes de leur main ont de quoi acheter des reflex? :'(

n°8238872
0b1
There's good in him
Posté le 08-03-2012 à 14:47:35  profilanswer
 


Depuis Kepler :sol:
 
Bon par contre si c'est un fake, soit c'est énorme (genre précédente carte), soit les mecs sont très forts.
Là certains vont être capables de mesurer la longueur de la carte en se basant sur l'équerre PCI-E, à la suite de quoi par un savant calcul √2 te sortiront la taille du die, et forcément le nombre de transistors :o

n°8238876
Profil sup​primé
Posté le 08-03-2012 à 14:50:36  answer
 

La tu as donné des idées à certaines personnes :p

n°8238883
Invite_Sur​prise
Racaille de Shanghaï
Posté le 08-03-2012 à 14:56:56  profilanswer
 

L'image a été reprise par TPU.
 

Citation :

We're hearing more voices refer to the top GK104 part as "GeForce GTX 680" than "GTX 670 Ti". We're also hearing that NVIDIA will adopt a new GeForce logo, so that glaring "GEFORCE" badge on the top of the card looks plausible.

n°8238888
wnorton
Je suis néerlandophone
Posté le 08-03-2012 à 15:04:10  profilanswer
 

hors sujet, quelqu'un serait me dire si le benchmark Samaritan se télécharge gratuit ou payent  :hello:


---------------
Je suis néerlandophone une fois
n°8238889
Invite_Sur​prise
Racaille de Shanghaï
Posté le 08-03-2012 à 15:05:14  profilanswer
 

wnorton a écrit :

hors sujet, quelqu'un serait me dire si le benchmark Samaritan se télécharge gratuit ou payent  :hello:


Non.

n°8238892
wnorton
Je suis néerlandophone
Posté le 08-03-2012 à 15:06:42  profilanswer
 


 
Merci  :jap:


---------------
Je suis néerlandophone une fois
n°8238893
Profil sup​primé
Posté le 08-03-2012 à 15:07:18  answer
 

Ouai mais bon quand tu vois la qualité de la photo, ça laisse songeur :o  
Soit le mec il est bourré soit il ne sait vraiment pas faire des photos :pfff:  
Je m'en vais leur apprendre à ces citron comment bien le presser :jap:

n°8238901
thepilot64
Posté le 08-03-2012 à 15:20:47  profilanswer
 

http://www.nokytech.net/des_infos_ [...] 560-a.html
 
Plus d'infos ici :o
 
Fake ou pas, tout ce précise ...
 
Pas de 670Ti apparemment

n°8238907
Agent heav​y
Posté le 08-03-2012 à 15:26:47  profilanswer
 

En etant 10% plus rapide que la 7970 à BF3, ça la rend 20/30% plus rapide qu'une GTX580 ?
Sinon si nvidia projette une carte bi-gpu en si peu de temps c'est que la GTX680 va avoir une consommation très modérée.
Reste l'inconnu : La GTX 780. Elle sortira certainement en même temps que la gamme 8000 AMD comme Cayman vs Fermi B1.

 

D'un point de vu économique il est plus intelligent de nous faire poireauter avec une carte un tout petit peu plus performante que le fleuron AMD plutôt que d'envoyer un gros modèle avec des yields qui ne suivent pas.

 

La décision va être difficile à prendre. GTX680 ou wait + GTX780.

Message cité 1 fois
Message édité par Agent heavy le 08-03-2012 à 15:29:18

---------------
Feed-back
n°8238910
aliss
Rhyme the Rhyme Well
Posté le 08-03-2012 à 15:28:12  profilanswer
 

Agent heavy a écrit :

En etant 10% plus rapide que la 7970 à BF3, ça la rend 20/30% plus rapide qu'une GTX580 ?
Sinon si nvidia projette une carte bi-gpu en si peu de temps c'est que la GTX680 va avoir une consommation très modérée.  
Reste l'inconnu : La GTX 780. Elle sortira certainement en même temps que la gamme 8000 AMD comme Cayman vs Fermi.


 
Pas vraiment étant donné que la 7970 ne brille pas sur ce jeu vs le GF100.

n°8238921
Fouge
Posté le 08-03-2012 à 15:35:00  profilanswer
 

0b1 a écrit :

On peut donc en conclure qu'une puissance supérieure serait inutile.
A moins d'avoir un jeu plus fluide que fluide (linge plus blanc que blanc toussa).

Non, juste en conclure que la puissance actuelle n'est pas démesurée, loin de là.
Quant à une puissance supérieure elle serait rapidement utilisée et ne pourrait pas non plus recevoir le qualificatif de "démesurée". C'est ce qui arrive à chaque nouvelle génération de GPU.
A mon avis le jour où un GPU sera "trop puissant" n'arrivera jamais : au mieux peut-on espérer que le nombre de compromis à faire (côté dev de jeux) va diminuer avec le temps.

n°8238923
0b1
There's good in him
Posté le 08-03-2012 à 15:35:48  profilanswer
 

Reste l'inconnue prix...

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  104  105  106  ..  1028  1029  1030  1031  1032  1033

Aller à :
Ajouter une réponse
 

Sujets relatifs
Concours Nvidia / questions sur les... questionsCartes Mères Z68 GIGABYTE, laquelle choisir ?
Panneau de configuration NVIDIA ?[HFR] Actu : 5 cartes A75 FM1 pour ASRock
Probleme aprés installation carte NVIDIA GEFORCE 8400 GS[HFR] Actu : Nvidia lance les GTX 580M et 570M
[HFR] Actu : 4 cartes Socket FM1 pour Gigabyte[Topic Unique] Problème pour mettre à jour sa carte réseau
Gestion des ventilateurs 3 pins avec les cartes mères P67Configuration MCP73VE NVIDIA MCP73
Plus de sujets relatifs à : [Topic Unique] NVIDIA GeForce GTX 660Ti/670/680/690/760/770 (GK104)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)