Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3453 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  289  290  291  ..  553  554  555  556  557  558
Auteur Sujet :

[Topic Unique] NVidia GK110 - 780, 780Ti, Titan, Titan Black & Titan Z

n°8903363
ravenloft
Meilleur jeu du 20ème siècle
Posté le 20-10-2013 à 11:07:07  profilanswer
 

Reprise du message précédent :
Le contenu de ce message a été effacé par son auteur


Message édité par ravenloft le 20-10-2013 à 11:07:19
mood
Publicité
Posté le 20-10-2013 à 11:07:07  profilanswer
 

n°8903397
manut2500
Posté le 20-10-2013 à 11:26:35  profilanswer
 

oui mais ca sera surement une carte en interne a mon avis pas simplement branchée en externe sur le displayport ou hdmi ou dvi

Message cité 1 fois
Message édité par manut2500 le 20-10-2013 à 11:27:58
n°8903401
manut2500
Posté le 20-10-2013 à 11:28:40  profilanswer
 

Si ca pouvait etre simplement branché sur le port displayport ca pourrait etre intégré dans les CG.

n°8903413
btbw03
Ailurophile plutôt qu'Humain
Posté le 20-10-2013 à 11:34:09  profilanswer
 

ever_over a écrit :


Si tu dois changer d'écran, il me semble judicieux d'attendre quelques mois pour les premiers modèles compatibles G-sync. C'est quand même une petite révolution.


 
si je change d'écran, je prends un modèle coréen pour avoir un truc pas cher avec une bonne grosse réso, donc le g sync ..... :D

n°8903440
tridam
Profil : Equipe HardWare.fr
Posté le 20-10-2013 à 11:44:41  profilanswer
 

manut2500 a écrit :

oui mais ca sera surement une carte en interne a mon avis pas simplement branchée en externe sur le displayport ou hdmi ou dvi


 
Oui c'est une carte interne et du coup l'alimentation d'origine n'est plus compatible et il faut en utiliser une externe. C'est clairement du bricolage, probablement histoire d'avoir vite qqch de fonctionnel et que le bouche à oreille fasse son effet vu qu'il faut vraiment avoir un tel écran devant soi pour comprendre l'intérêt.
 
Dans un premier temps Nvidia a moddé un bon paquet d'écrans dont la moitié va aller vers les développeurs et l'autre moitié vers la presse


Message édité par tridam le 20-10-2013 à 11:45:36
n°8903569
ol1v1er
Posté le 20-10-2013 à 12:47:31  profilanswer
 

ever_over a écrit :


Si tu dois changer d'écran, il me semble judicieux d'attendre quelques mois pour les premiers modèles compatibles G-sync. C'est quand même une petite révolution.


 
Attendons les tests avant de parler de " révolution "  :o  

n°8903578
ravenloft
Meilleur jeu du 20ème siècle
Posté le 20-10-2013 à 12:50:42  profilanswer
 

Le contenu de ce message a été effacé par son auteur

n°8903581
ravenloft
Meilleur jeu du 20ème siècle
Posté le 20-10-2013 à 12:51:54  profilanswer
 

Le contenu de ce message a été effacé par son auteur

n°8903657
cyberfred
Posté le 20-10-2013 à 13:41:44  profilanswer
 

ravenloft a écrit :


Tous ceux qui ont pu tester la bête ou voir de visu les différences semble tous convaincus comme tridam donc cela suscite l'impatience et la confiance.


 
effectivement ca m'a l'air vraiment prometteur  :love:  
petit article sur guru3d ce matin qui donne une bonne idée de la chose :
http://www.guru3d.com/articles_pag [...] cle,1.html

n°8903662
Winpoks
Posté le 20-10-2013 à 13:48:38  profilanswer
 

ol1v1er a écrit :


 
Attendons les tests avant de parler de " révolution "  :o  


 
Chez Apple ça marche comme ça et personne ne le remet en cause !  [:elessar53]

mood
Publicité
Posté le 20-10-2013 à 13:48:38  profilanswer
 

n°8903690
sat 08
Team Haque-Barre
Posté le 20-10-2013 à 14:10:14  profilanswer
 

Winpoks a écrit :


 
Chez Apple ça marche comme ça et personne ne le remet en cause !  [:elessar53]


 :??:


---------------
Deuzepassimaldéjà.
n°8903692
sat 08
Team Haque-Barre
Posté le 20-10-2013 à 14:10:44  profilanswer
 

ah ça y est j'ai compris [:lex]


---------------
Deuzepassimaldéjà.
n°8903729
khalis
Stillness is the key !
Posté le 20-10-2013 à 14:35:02  profilanswer
 

L'ifoune cinq pour ne pas le cité. :o


---------------
- Life is too short to last long.
n°8903750
Lockz
Posté le 20-10-2013 à 14:56:35  profilanswer
 

A confirmer mais il parait que dans le fond ca existe depuis longtemps, mais pas pour nous.
 
Le principal c'est qu'ils arrivent à le rendre grand public c'est bien :)
 
Ce qui me fait peur c'est que ca vient d' Nvidia, qu'il se l'appoprie et si ca reste proprio, ils vont bien le faire payer.
 
 
Sinon ils n'auraient pas le pouvoir de faire bouger les constructeurs TV à nous pondre une sortie DP/DVI pour profiter de leur 600 "faux?" hertz ? :D
 
On prendrai surement ca aussi pour une revolution.


Message édité par Lockz le 20-10-2013 à 15:23:16
n°8903780
capcrash33
Posté le 20-10-2013 à 15:13:05  profilanswer
 

Hello,
 
Est-ce que le gain de perfs est significatif entre une 780 et une 580 GTX ?  
 

n°8903794
Lockz
Posté le 20-10-2013 à 15:21:39  profilanswer
 

capcrash33 a écrit :

Hello,

 

Est-ce que le gain de perfs est significatif entre une 780 et une 580 GTX ?

 



Un peu mon neuveu, mais l'ecart de prix l'est aussi !

 

Dans l'absolu, mieux vaut attendre le 24, voir ce que vaut la 290X, à moins d'etre fidele à NV, mais dans tout les cas il y a justement possibilité que cette 290x fasse baisser le prix des 780.


Message édité par Lockz le 20-10-2013 à 17:10:58
n°8903833
cyberfred
Posté le 20-10-2013 à 15:42:41  profilanswer
 

capcrash33 a écrit :

Hello,
 
Est-ce que le gain de perfs est significatif entre une 780 et une 580 GTX ?  
 


 
il me semble qu'une seule 780 (un poil o/c) fait mieux qu'un de sli de 580.
Donc , le gain doit être conséquent entre une seule 580 et une 780 !

n°8903849
burnout62
Posté le 20-10-2013 à 15:48:57  profilanswer
 

capcrash33 a écrit :

Hello,
Est-ce que le gain de perfs est significatif entre une 780 et une 580 GTX ?


Quasi x2, mais attends qqes semaines, ça va décanter là avec les AMD 290 et la 780 Ti.


---------------
The Only Thing to Fear Is Fear Itself.
n°8903871
Invite_Sur​prise
Racaille de Shanghaï
Posté le 20-10-2013 à 16:01:49  profilanswer
 

Si nVidia baisse ses prix et avec le bundle proposé, ça peut nous faire un bon duel pour cette fin d'année  [:nozdormu]

n°8903989
hifibuff
Posté le 20-10-2013 à 17:29:19  profilanswer
 

je pense effectivement, qu'au niveau des perfs entre les 290X et 780ti pour le haut de gamme, ce sera à peu près la même chose. La vraie décision entre les rouges et les vers, se fera surement les technos propriétaires : Mantle d'un coté, G-sync de l'autre.
En ce qui me concerne, je trouve les deux très intéressantes et j'attends d'en apprendre plus avant de me décider pour upgrader mes deux 680 :jap:


---------------
"Every man dies, not every man really lives"
n°8904008
uNReaLx77
üNReaL
Posté le 20-10-2013 à 17:48:04  profilanswer
 

2×680 ne s upgrade pas avant la generation d apres... gtx8xx r390

n°8904062
hifibuff
Posté le 20-10-2013 à 18:12:40  profilanswer
 

Sauf quand on est un gros G**K :O

 

Blague à part, j'attendrais peut être effectivement la génération d'après si les résultats en 1600p des 290X et des 780ti / titan ultra ne sont pas suffisamment meilleurs que ceux obtenus avec mon duo de 680 :jap:

Message cité 2 fois
Message édité par hifibuff le 20-10-2013 à 18:14:04

---------------
"Every man dies, not every man really lives"
n°8904174
jumbaii
Posté le 20-10-2013 à 19:13:54  profilanswer
 

hifibuff a écrit :

Sauf quand on est un gros G**K :O

 

Blague à part, j'attendrais peut être effectivement la génération d'après si les résultats en 1600p des 290X et des 780ti / titan ultra ne sont pas suffisamment meilleurs que ceux obtenus avec mon duo de 680 :jap:

 

Y'a aucune chance que la 290X / titan ultra ou ti fasse mieux qu'un SLI de 680


---------------
GT : jumbaii7
n°8904177
Lockz
Posté le 20-10-2013 à 19:16:05  profilanswer
 

jumbaii a écrit :


Y'a aucune chance que la 290X / titan ultra ou ti fasse mieux qu'un SLI de 680

 

Jpense que le gros GeeK en voulait 2 de Ti/290x, dommage que ca ne soit pas pour du 1080p on aurait pu en rire un peu  :lol:

Message cité 1 fois
Message édité par Lockz le 20-10-2013 à 19:17:14
n°8904236
calagan57
BF3 : calagan57
Posté le 20-10-2013 à 19:53:33  profilanswer
 

hifibuff a écrit :

Sauf quand on est un gros G**K :O
 
Blague à part, j'attendrais peut être effectivement la génération d'après si les résultats en 1600p des 290X et des 780ti / titan ultra ne sont pas suffisamment meilleurs que ceux obtenus avec mon duo de 680 :jap:


 
 
j'suis exactement dans le même cas de figure que toi  :D . Mis à part un hypothétique GTA5, je ne vois pas de jeu hyper gourmand au point de saturer un sli de 680 en 1600p dans un futur proche.... :??:  
 
Par contre l'histoire du g sync c'est un boitier qui se branhce entre la CG et l'écran ou carrément une "puce" implantée dans l'écran qui nécessitera forcément de changer d'écran...?
 
 :hello:


Message édité par calagan57 le 20-10-2013 à 19:54:07

---------------
Waterbox
n°8904295
hifibuff
Posté le 20-10-2013 à 20:33:06  profilanswer
 

Lockz a écrit :

 

Jpense que le gros GeeK en voulait 2 de Ti/290x, dommage que ca ne soit pas pour du 1080p on aurait pu en rire un peu  :lol:

 

Ce sera 3 pour moi  :hello: D'habitude j'en prends toujours trois, là j'ai fait une exception car ça m'embêtait de n'avoir que 2 gigo de ram sur le cartes :o Là, avec les 780ti, les 290X ou même d'hypothétiques titan ultra, il y aura suffisamment de ram pour faire face à mon écran, et peut être même du 4k, donc rien qui ne m'arrête pour en prendre trois :jap:

 

Sinon, pour les G-sync, c'est une carte qu'il faut intégrer à l'écran, et hélas, il semble que ce ne soit pas compatible avec n'importe quel écran; on est plus dans l'esprit "mod" que "plug'n play" :D
En espérant qu'une marque propose rapidement un écran 4k compatible G-sync et là, "shut up and take my money" :p


Message édité par hifibuff le 20-10-2013 à 20:36:33

---------------
"Every man dies, not every man really lives"
n°8904393
sat 08
Team Haque-Barre
Posté le 20-10-2013 à 21:34:05  profilanswer
 

On a le temps je pense pour la G-sync + 4K  [:skaine:1]


---------------
Deuzepassimaldéjà.
n°8904768
hifibuff
Posté le 21-10-2013 à 10:04:25  profilanswer
 

J'espère pas trop quand même :(


Message édité par hifibuff le 21-10-2013 à 10:04:35

---------------
"Every man dies, not every man really lives"
n°8904782
ravenloft
Meilleur jeu du 20ème siècle
Posté le 21-10-2013 à 10:26:15  profilanswer
 

Le contenu de ce message a été effacé par son auteur

Message cité 1 fois
Message édité par ravenloft le 21-10-2013 à 10:27:35
n°8904801
AVatar66
Oy Wazzoks !
Posté le 21-10-2013 à 10:38:28  profilanswer
 

ravenloft a écrit :


Dans 2 ans, on aura du 4k oled avec g-sync pour 300 euros.[:pikitfleur:3]


 
Généralisons le 1440p et le 1600p avant non?  [:arslan310]  
 
Quand on touchera du 1600p a -300€ le 4K sera deja au moins au double.


---------------
Topic Transactions + FeedBack  
n°8904819
hifibuff
Posté le 21-10-2013 à 10:52:24  profilanswer
 

AVatar66 a écrit :

 

Généralisons le 1440p et le 1600p avant non?  [:arslan310]

 

Quand on touchera du 1600p a -300€ le 4K sera deja au moins au double.

 

Je ne suis pas si sûr, dans la mesure où le 4k a des applications dans le domaine de la TV, contrairement au 1140/1600p (mis à part les télés 21/9 de Philips, je ne suis même pas sûr qu'ils les fassent encore), ce qui pourrait faire rapidement baisser les moniteurs 4k en dessous même des 1440 / 1600p.


Message édité par hifibuff le 21-10-2013 à 10:53:00

---------------
"Every man dies, not every man really lives"
n°8904826
Marc
Chasseur de joce & sly
Posté le 21-10-2013 à 11:00:30  profilanswer
 

La 4K mwé ... vaut-il mieux jouer en 4K en low ou en 1080p en high ? :o

n°8904834
hifibuff
Posté le 21-10-2013 à 11:05:29  profilanswer
 

en 4k ultra :o
Je prendrai autant de cartes et upgraderai aussi souvent que nécessaire pour que mon expérience 4k soit la meilleure possible.
Je me souviens comment c'était quand j'ai eu mon 30" en 2007, à cette époque, les cartes ramaient pas mal pour afficher en 1600p avec filtres; faudra surement accepter que ce soit pareil au moins pendant un temps.


---------------
"Every man dies, not every man really lives"
n°8904842
aliss
Rhyme the Rhyme Well
Posté le 21-10-2013 à 11:10:44  profilanswer
 

Le tarif des 30'' 1600p n'a pas évolué durant toutes ces années.
 
D'ici à ce que le 4k se démocratise, les GK110 et autre Hawaii ne serviront plus qu'à faire de la bureautique, voir de cales pour une table bancale.  :o

n°8904855
ravenloft
Meilleur jeu du 20ème siècle
Posté le 21-10-2013 à 11:19:14  profilanswer
 

Le contenu de ce message a été effacé par son auteur


Message édité par ravenloft le 21-10-2013 à 11:22:04
n°8904858
aliss
Rhyme the Rhyme Well
Posté le 21-10-2013 à 11:21:44  profilanswer
 

Le point noir du 4k (mis à part le prix) c'est qu'en fonction de la diagonale utilisée, ça va poser des problèmes avec tous les jeux dont la dimension de l'interface n'est pas paramétrable.

n°8904860
ravenloft
Meilleur jeu du 20ème siècle
Posté le 21-10-2013 à 11:24:27  profilanswer
 

Le contenu de ce message a été effacé par son auteur

Message cité 2 fois
Message édité par ravenloft le 21-10-2013 à 11:25:36
n°8904869
hifibuff
Posté le 21-10-2013 à 11:31:09  profilanswer
 

ravenloft a écrit :


Oui mais comme toujours. Jouer en 1600*1200 sur un 19"  à l'époque était très difficile pour certains jeux. Motocross madness 2 avait un hud illisible.
Rare sont les jeux qui ne s'adaptent pas cependant.

 

Le problème est que des jeux supportant du 4k nativement, c'est pas courant.

 

Au pire tu pourras toujours y jouer en 1080p sans déperdition de qualité car c'est un multiple du 4k et c'est un autre avantage du 4k.

 

Exactement, c'est pour ça notamment que je suis prêt à sauter le pas du 4k dès qu'on a du G-sync ou que les prix baissent un peu (3300 euros le Asus...)

 

Pour ce qui est de la taille des interfaces en jeux, je dois dire que déjà en 1600p, pour jouer à Dragon Age Origins (que je découvre sur le tard :D) les textes - et Dieux sait qu'il y en a - sont tout petit; pas pratique du tout :/


Message édité par hifibuff le 21-10-2013 à 11:31:50

---------------
"Every man dies, not every man really lives"
n°8904901
aliss
Rhyme the Rhyme Well
Posté le 21-10-2013 à 11:52:50  profilanswer
 

ravenloft a écrit :


Oui mais comme toujours. Jouer en 1600*1200 sur un 19"  à l'époque était très difficile pour certains jeux. Motocross madness 2 avait un hud illisible.
Rare sont les jeux qui ne s'adaptent pas cependant.
 
Le problème est que des jeux supportant du 4k nativement, c'est pas courant.
 
Au pire tu pourras toujours y jouer en 1080p sans déperdition de qualité car c'est un multiple du 4k et c'est un autre avantage du 4k.


 
Sur le principe et même si ça ne concerne qu'une minorité de jeux, dépenser de 3 à 5k€ pour du 1080p, ça me ferait mal quand même... :D

n°8904966
genghis77
-_-'
Posté le 21-10-2013 à 12:45:00  profilanswer
 

salut, on pourrait aussi se demander l'interet de jouer en 1600P sur un ecran avec un temps de réponse plus trop competitif :spamafote:
 
non?


---------------
Je sais que je plais pas à tout le monde... mais quand je vois à qui je plais pas... je me demande si ça me dérange vraiment
n°8904971
ravenloft
Meilleur jeu du 20ème siècle
Posté le 21-10-2013 à 13:02:55  profilanswer
 

Le contenu de ce message a été effacé par son auteur

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  289  290  291  ..  553  554  555  556  557  558

Aller à :
Ajouter une réponse
 

Sujets relatifs
[HFR] Actu : GTC: Plus de détails sur le GK110[HFR] Actu : Nvidia lance les GT 610, 620 et 630
[HFR] Actu : GTC: Nvidia lève le voile sur le GK110[HFR] Actu : GTC: GTC 2012: la semaine du GPU computing
AMD A8 3870K APU + NVIDIA GEFORCE GT...[Topic Unique] ASUS - Les Cartes mères Z77
Mise à jour NVIDIA GT 330M sur SONY VPCL14S1E[HFR] Actu : Résultats Nvidia pour le premier trimestre
[HFR] Dossier : Nvidia GeForce GTX 670 en test 
Plus de sujets relatifs à : [Topic Unique] NVidia GK110 - 780, 780Ti, Titan, Titan Black & Titan Z


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)