Forum |  HardWare.fr | News | Articles | PC | Prix | S'identifier | S'inscrire | Aide | Shop Recherche
1666 connectés 

 


 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  553  554  555  556  557  558
Auteur Sujet :

[Topic Unique] NVidia GK110 - 780, 780Ti, Titan, Titan Black & Titan Z

n°8437709
Shadow460
Posté le 03-09-2012 à 23:30:29  profilanswer
 

Reprise du message précédent :
Drapal


---------------
Sapphire Radeon HD7970 3Go | 4*4Go Gskill PC12800 | Intel  Core i5 3570K
mood
Publicité
Posté le 03-09-2012 à 23:30:29  profilanswer
 

n°8439062
Activation
21:9 kill Surround Gaming
Posté le 04-09-2012 à 22:19:19  profilanswer
 

Vince@ESIEE a écrit :

Pour ma part la prochaine Cg que je rake doit etre 2x plus perf que mon sli 580 OC...Quid de la GTX980 ?


 
cool... tu change de cg en 2015 alors  :D  ... bon allez je rigole ... fin 2014  :o gk304   :D
 
triple screen d'écran 4K  [:klemton]  
 
moi perso je vais surtout surveiller les prochains écrans 29" '21:9' de lg et philips vu à l'IFA, à savoir si on pourra réellement exploité le 2560*1080
 
si oui, je crois que je vais tout simplement laissé tomber le surround gaming pour un écran 21:9
 
(si bien sur c'est pas comme les tv 21:9 pourrite de philips qui ne permettent qu'un 1920*1080 étiré  [:dolores1:4] )
 
et puis faut que j'économise... y a la cintiq 24HD qui me la joue sirène à coté des récifs... je sent que je vais manger du riz à noël pendant plusieurs mois :o


Message édité par Activation le 04-09-2012 à 22:24:23
n°8439149
NODeath
Pouaaah, ça puire !
Posté le 04-09-2012 à 23:19:04  profilanswer
 

Il est vrai qu'un écran genre 27" voir 30" en 21:9 avec une résolution en 2560, ça pourrait vraiment être très sympa.

 

EDIT : Ah il y a que des 29" annoncé ? :o

Message cité 1 fois
Message édité par NODeath le 04-09-2012 à 23:19:56

---------------
Topic [ACH]/[VDS]
n°8439170
Shadow460
Posté le 04-09-2012 à 23:37:13  profilanswer
 

21:9 c'est un peu comme le machin AlienWare du CES de 2007/8
En gros on a un écran au lieu de plusieurs mais avec une surface similaire


---------------
Sapphire Radeon HD7970 3Go | 4*4Go Gskill PC12800 | Intel  Core i5 3570K
n°8442370
Activation
21:9 kill Surround Gaming
Posté le 07-09-2012 à 17:54:59  profilanswer
 

Shadow460 a écrit :

21:9 c'est un peu comme le machin AlienWare du CES de 2007/8
En gros on a un écran au lieu de plusieurs mais avec une surface similaire


 
de souvenir me semble que le machin alien ware c'était un double DLP dans une seule coque (il y avait une légère "cassure" au milieu de l'écran)  
 
et puis bon comme les écrans souple dans un premier temps ça va surtout être l'apanage des prochain smartphone (genre ptet fin année 2013 pour les premier sur le marché)

n°8442379
Activation
21:9 kill Surround Gaming
Posté le 07-09-2012 à 18:01:50  profilanswer
 

NODeath a écrit :

Il est vrai qu'un écran genre 27" voir 30" en 21:9 avec une résolution en 2560, ça pourrait vraiment être très sympa.
 
EDIT : Ah il y a que des 29" annoncé ? :o

 
 
bah c'est un 27" 16/9 en hauteur mais tu dois bien gagner genre 8/10 cm en largeur  (la flemme de faire les calculs :o avec mon pote pythagore :o )
 
ça doit être pour éviter un "rebus" sur la matière utilisé pour faire des 27"  
plutôt qu'un rebut, il organise peut être pour que sur la matière genre au lieu de faire 5 écrans 27" 16/9 + rebut, il y ai plutôt moyen de faire 4x 27" 16/9 + 1x29" 21/9
 
 
enfin je dit ça, j'ai pas vu la chaine de prod des dalles :o


Message édité par Activation le 07-09-2012 à 18:03:00
n°8442398
MasterSam
Paster of Muppets
Posté le 07-09-2012 à 18:13:03  profilanswer
 

Citation :


[Topic Unique] nVidia GK110 (28nm / 2013)


 
:kaola:


---------------
Feedback/Ventes/Estim | WorklogATCS -- Membre du Comité de Soutien au Format 16/10 (WUXGA FTW) - www.laquadrature.net
n°8446888
Invite_Sur​prise
Racaille de Shanghaï
Posté le 12-09-2012 à 01:29:34  profilanswer
 

Citation :

I'd been bugging Nichols for some information on the latest developments and a few days ago he emailed me, saying, "We have received 32 Keplers and put them in our development platform. Everything is going as (or better than) expected."
Nichols said the ORNL is expected to begin receiving many more of the Kepler GPUs (1,000 of them) as early as this week.


 
http://blogs.knoxnews.com/munger/2 [...] is-ta.html

n°8448219
Vince@ESIE​E
Posté le 13-09-2012 à 11:37:00  profilanswer
 

ok c'est cool !
 
Donc next week ils les soudent sur les pcb bleu et rouges et deux jours plus tard jgo montgallet en acheter 2.
 
Donc en gros dans 8 jours ya de la dispo !!
 
joke 50 minutes inside xD


---------------
http://forum.hardware.fr/hfr/Overc [...] 5290_1.htm
n°8448311
Activation
21:9 kill Surround Gaming
Posté le 13-09-2012 à 13:00:01  profilanswer
 

c est bien c'est qu'ils parlent de "kepler gpu" sauf qu'un gk104 c'est aussi un kepler gpu :p
 
ils ont reçu des gk110 ou des gk104   [:kryptos:5]


Message édité par Activation le 13-09-2012 à 13:00:22
mood
Publicité
Posté le 13-09-2012 à 13:00:01  profilanswer
 

n°8448345
poiuytr
\o/
Posté le 13-09-2012 à 13:45:37  profilanswer
 

Je ne pense pas qu'un centre de recherche achète des GK104. :o


---------------
-
n°8448823
Activation
21:9 kill Surround Gaming
Posté le 13-09-2012 à 21:12:59  profilanswer
 

poiuytr a écrit :

Je ne pense pas qu'un centre de recherche achète des GK104. :o


 
 
va savoir  [:o_doc]
 
 
 
edit: ah non mince l'hyper-Q et dynamic parallelism ne sont que dans le gk110
 
j'étais persuadé que l'hyper Q était dispo dès le gk104


Message édité par Activation le 13-09-2012 à 21:26:39
n°8452964
Profil sup​primé
Posté le 18-09-2012 à 13:57:15  answer
 

moi ça va me changer le GK110 de ma GTX560Ti :D peut importe le prix, la GK110 sera mienne, avec un petit 980, mon pc sera enfin terminé, et je sera tranquille pour du BF3 Ultra et GTA5 Ultra :) Mais faut que ça sorte la c'est long !

n°8452972
MasterSam
Paster of Muppets
Posté le 18-09-2012 à 14:09:20  profilanswer
 

Surtout que si tu veux pas une carte à 2500€ (Tesla), les GeForce en GK110 sont a priori pas prévues avant Mars 2013...


---------------
Feedback/Ventes/Estim | WorklogATCS -- Membre du Comité de Soutien au Format 16/10 (WUXGA FTW) - www.laquadrature.net
n°8452986
Profil sup​primé
Posté le 18-09-2012 à 14:32:11  answer
 

Bas, va pour Mars2013... c'est long :/ Pas d'autre carte avant Mars ? je refuse de payer cette aberration de GK104 qui est du milieu de gamme ( ou gamme dite performance ) à 600Euros....  

n°8452997
Alis_70
Posté le 18-09-2012 à 14:38:14  profilanswer
 


 
c'est pas forcément un bon plan d'étaler la confection de ton pc sur du long terme, on le voit bien là, tu as préféré attendre GK110 pour changer ta carte graphique, ton choix est respectable, mais tu as un 980 que tu as du payer très cher, qui aujourd'hui commence déjà à se faire distancer en jeu par un SB/IB bien OC (si tu utilises des logiciels exploitant les cores du 980, c'est différent), puisqu'un 980 ne montra jamais beaucoup plus que ce que tu as OC (4.2), et lorsque tu auras "fini ta config" comme tu dis (pas avant 8 mois donc avant la sortie du GK110), tu auras 2 générations de cpu de retard (les ivy bridge s2011 vont sortir ...)
 
je dis pas que c'est un drame, mais en faisant comme ça tu n'a jamais réellement quelque chose d'homogène et vraiment perf, puisque tu auras toujours soit le cpu, soit la CG (à tour de rôle) qui sera obsolète.

Message cité 1 fois
Message édité par Alis_70 le 18-09-2012 à 14:41:11
n°8453080
Profil sup​primé
Posté le 18-09-2012 à 15:45:40  answer
 

bas, a la base ils devaient sortir leurs gammes complètes... mais bon Nvidia ne veut pas... ^^ Oui enfin bon le 980 est encore dans le trio de tête Aujourd'hui ^^ C'est quand même un 6 cœur à 12Mo de cache, puis le 4,2Ghz, j'ai juste augmenté le Vcore d'un petit palier. il me reste de la marge, 4,5Ghz est faisable ^^ Mais Bref, Need une bonne Cg parce que c'est un peu chiant la 560ti

 

Edit : Quand je dis trio de tête, c'est au niveau des CPU grand publique d'aujourd'hui, et non pas à 1000 euros, parce que le mien je l'ai payé 450


Message édité par Profil supprimé le 18-09-2012 à 15:52:42
n°8453605
MasterSam
Paster of Muppets
Posté le 18-09-2012 à 22:51:29  profilanswer
 

Question à 2€ qui m'est venu en lisant le dernier post du topic GF114...
Dans le cas de cartes multiples nVidia, est-il possible d'installer des drivers différents pour chacune ?
 
Actuellement j'ai une ATI et une nVidia, donc forcément j'ai des Catalyst pour piloter la ATI (enfin AMD maintenant), et des Forceware pour la nVidia.
Mais si je changeais ma carte ATI par une autre nVidia, j'aurais donc 2 cartes vertes dans mon PC, l'une dédiée au GPGPU (avec des "vieux" drivers éprouvés, qui font tourner les applis) et l'autre au jeu (avec les derniers pilotes amenant de meilleures perfs en jeux, mais pas toujours reconnus par les applis OpenCL/CUDA)
 
Ai-je bien été clair, avant de vous demander une réponse ? :D
Merci ;)


---------------
Feedback/Ventes/Estim | WorklogATCS -- Membre du Comité de Soutien au Format 16/10 (WUXGA FTW) - www.laquadrature.net
n°8453673
poiuytr
\o/
Posté le 19-09-2012 à 00:12:14  profilanswer
 

M'étonnerait que ce soit possible. Tu auras plus de chance d'avoir une réponse à ta question sur le topic des Forceware.


---------------
-
n°8453690
MasterSam
Paster of Muppets
Posté le 19-09-2012 à 00:45:46  profilanswer
 

Merci pour ta réponse. Effectivement un topic "pilotes" me parait plus approprié, j'ai posté un peu rapidement.
 
Je chercherais ça en rentrant ce WE, si j'ai pas oublié entre temps :pt1cable:


---------------
Feedback/Ventes/Estim | WorklogATCS -- Membre du Comité de Soutien au Format 16/10 (WUXGA FTW) - www.laquadrature.net
n°8454847
Profil sup​primé
Posté le 20-09-2012 à 09:40:51  answer
 

normalement tu dis au controle Pannel quelle carte utiliser pour Cuda, et qu'elle carte fait quoi. normalement ^^

n°8456882
Activation
21:9 kill Surround Gaming
Posté le 22-09-2012 à 09:08:47  profilanswer
 


 
 
pour ça que moi j ai touché ce gk104 à 340roros sur une gtx670  :o

n°8456888
havoc_28
Posté le 22-09-2012 à 09:24:56  profilanswer
 

Alis_70 a écrit :


 
c'est pas forcément un bon plan d'étaler la confection de ton pc sur du long terme, on le voit bien là, tu as préféré attendre GK110 pour changer ta carte graphique, ton choix est respectable, mais tu as un 980 que tu as du payer très cher, qui aujourd'hui commence déjà à se faire distancer en jeu par un SB/IB bien OC (si tu utilises des logiciels exploitant les cores du 980, c'est différent), puisqu'un 980 ne montra jamais beaucoup plus que ce que tu as OC (4.2), et lorsque tu auras "fini ta config" comme tu dis (pas avant 8 mois donc avant la sortie du GK110), tu auras 2 générations de cpu de retard (les ivy bridge s2011 vont sortir ...)
 
je dis pas que c'est un drame, mais en faisant comme ça tu n'a jamais réellement quelque chose d'homogène et vraiment perf, puisque tu auras toujours soit le cpu, soit la CG (à tour de rôle) qui sera obsolète.


 
Hahaha limité par un I7980 :D distancé  par un SB/IB il joue en 1024*768 ? stop la fumette . Son I7 980 ou un IB à 4.5 et le GK110 en résolution classique 1080P ou plus la différence sera minime ... Encore si c'était un I7 920 a stock on pourrait en débattre mais son I7980 il est à 4.2 ghz . Je suis même pas sur que entre un I7980 à stock et un IB à 4.5 en 1080P y est une grande différence , alors à 4.2 ghz  :whistle: . (sauf si on prend un jeux mal codé comme skrym)

Message cité 1 fois
Message édité par havoc_28 le 22-09-2012 à 09:32:39
n°8456894
Activation
21:9 kill Surround Gaming
Posté le 22-09-2012 à 09:36:14  profilanswer
 

euh il a été mit un jour depuis un bon moment skyrim, t'as jamais du faire les update et juste joué dans sa version brute de dvd pour dire qu'il est mal codé :o
 
moi je dit qu'il veut une telle config en prévision du prochain sim city  :o
 
ça tombe bien il ne sort que l an prochain
 
http://www.youtube.com/watch?v=wAs6kV1oD5s

Message cité 1 fois
Message édité par Activation le 22-09-2012 à 09:37:57
n°8456896
havoc_28
Posté le 22-09-2012 à 09:37:18  profilanswer
 

Activation a écrit :

euh il a été mit un jour depuis un bon moment skyrim, t'as jamais du faire les update et juste joué dans sa version brute de dvd pour dire qu'il est mal codé :o


 
j'en suis resté au test de la presse , si ça a évolué je ne sais pas :p pas mon genre de jeux ^^ s'ils ont amélioré la charge CPU tant mieux  :)


Message édité par havoc_28 le 22-09-2012 à 09:38:17
n°8456898
Activation
21:9 kill Surround Gaming
Posté le 22-09-2012 à 09:38:10  profilanswer
 

ça explique tout :o

n°8456944
Alis_70
Posté le 22-09-2012 à 10:22:08  profilanswer
 

havoc_28 a écrit :


 
Hahaha limité par un I7980 :D distancé  par un SB/IB il joue en 1024*768 ? stop la fumette . Son I7 980 ou un IB à 4.5 et le GK110 en résolution classique 1080P ou plus la différence sera minime ... Encore si c'était un I7 920 a stock on pourrait en débattre mais son I7980 il est à 4.2 ghz . Je suis même pas sur que entre un I7980 à stock et un IB à 4.5 en 1080P y est une grande différence , alors à 4.2 ghz  :whistle: . (sauf si on prend un jeux mal codé comme skrym)


 
ben c'est pas compliqué il a payé son 980 450euros alors qu'un 2600K vaut 300euros monte plus et est plus perf en jeu (au moins autant @stock et plus perf en OC). c'est tout  [:fading] donc vu qu'il a acheté un gros cpu pour finalement rester avec une 560, au lieu d'attendre et acheter un SB/IB, moi je vois pas l’intérêt, sauf si il l'utilise pour faire des opérations cpu lourde (traitement vidéo etc).
 
Le coup de rester avec un cpu très cher avec une carte graphique MDG en attendant toujours et toujours pour la changer, je vois pas l’intérêt, car il ne profite pas de son cpu alors qu'il perd beaucoup de valeur, c'était surtout ça le message.
 
EDIT : j'ai jamais dit qu'il était limité par son cpu :o
 
EDIT2: on dit toujours "ouais de toute façon tu verras pas la différence", pour ne donner qu'une seul exemple (car ça a été vrai pour tous mes changements de cpu) quand j'ai changé mon i7 920 @ 4ghz pour mon 2600K @4.8 j'ai vu la différence à l'oeil sans faire de bench dans GTA ... les autres jeux c'est sur que j'ai pas vu de différence, je jouais déjà à fond.


Message édité par Alis_70 le 22-09-2012 à 10:38:43
n°8457001
Microminus
Ruptaÿ pistaÿ tombaÿ trouaÿ
Posté le 22-09-2012 à 11:36:41  profilanswer
 

C'est vrai que c'est légèrement disproportionné :o
 
Autant niveau CPU, il est tranquille pendant encore quelques temps, alors qu'au niveau GPU, le risque d'être GPU limited arrivera bien avant qu'il ne soit CPU limited.
 
Mais je crois qu'on s'accorde à dire qu'il vaut mieux avoir un GPU HDG, et un CPU milieu de gamme. Plutôt que l'inverse ;)


---------------
[ HFr, what else ?! | Pas très moant compliant | REP Gabe ]
n°8457702
qidemoule
Posté le 23-09-2012 à 07:27:26  profilanswer
 

hâte de ce gk110... donc si je comprends bien elle sort en mars 2013 ?

n°8457721
Activation
21:9 kill Surround Gaming
Posté le 23-09-2012 à 09:03:58  profilanswer
 

moi je sais pas .... je me dit "faut voir"
 
les hd8870 sont bien parti pour offrir les perfs d'une gtx670 voir titillé les gtx680 pour un prix entre la gtx660 et la gtx660Ti
 
la gtx680 se verrait alors plutôt dans un tarif 350/400 euros si réaction de nvidia
donc y aurait une place pour un gk110 à 600 boules
 
mais veut on une carte à 600 boules en mars/avril 2013 ?
 
faut voir ce que demande "tout à fond"
far cry 3
tomb raider (mars 2013, vu la qualité des textures à l'E3 moi je dirais pas grand chose)
sim city 5 (fevrier 2013, ça risque de solliciter et cpu et CG)
assassin's creed III (tesselation ? vu que dx11, profondeur de champs autorisé ? foule détaillé ? ... m'enfin je pense qu'un gk104 s'en tirera très bien)
GTA V (ah là avec des mods le plus gros problème va être le pauvre bus 256bits pour le gk104)
Remember Me (mai 2013 ... un mélange de mirror's edge et assassin's creed)
Divinity Dragon Commander (mars/avril 2013 ? à mon avis faudra pas spécialement un monstre de puissance)
 
(quand à crysis 3 vu qu'à l'E3 ça puait la même merde que crysis 2 ... la question est plutôt ... veut on vraiment acheter ce jeu)
 
après Battlefield 4 c'est trop loin (automne 2013) on en sera à se demander si un gk204 sera sur les starting block
 
un gk110 si triple screen donc surround gaming oui
un gk110 si stereoscopie oui
un gk110 si 2560*1600 ou 2560*1440 (qui commence à faire son petit bonhomme de chemin sur 27" ) oui
 
Un gk110 si 29" 21:9  2560*1080
ET un gk110 pour 1920*1080  
>> j'attend de voir le framerate des jeux nommé (et souligné) ci dessus :o
 
 
après y a aussi  
Dishonored (graphiquement très rigide, anguleux, belle droite donc un gk104 va assuré... même un truc moins péchu)
Hitman : absolution (surement même config qu'un batman arkham city ... c'est totalement calqué et ça reste square-enix-eidos)
bioshock infinite (au vu des textures pas un monstre)
 
pour lesquels la question se pose pas vraiment


Message édité par Activation le 23-09-2012 à 09:36:09
n°8457730
Alis_70
Posté le 23-09-2012 à 09:30:38  profilanswer
 

Microminus a écrit :

C'est vrai que c'est légèrement disproportionné :o
 
Autant niveau CPU, il est tranquille pendant encore quelques temps, alors qu'au niveau GPU, le risque d'être GPU limited arrivera bien avant qu'il ne soit CPU limited.
 
Mais je crois qu'on s'accorde à dire qu'il vaut mieux avoir un GPU HDG, et un CPU milieu de gamme. Plutôt que l'inverse ;)


 
+1

n°8457746
Activation
21:9 kill Surround Gaming
Posté le 23-09-2012 à 09:42:03  profilanswer
 

disons que les cpu milieu de gamme actuel INTEL délivre tellement de patate (les intel core2quad Q6xxx/Q8xxx/Q9xxx ont mérité leur retraite :o ) que le budget est avant tout à calibrer entre le gpu et l(es)'écran(s)  
 
résolution totale affiché (1920*1080, 5760*1080, 2560*1600, 1600*900....)  
et framerate (disons 120fps dans un monde idéal pour ceux qui veulent la stéréoscopie)
 
t'y met les 4/8Go de DDR3 sur la mobo qui vont bien ... et roule :o
 
pour peu que les éditeurs utilise enfin dx11 au lieu de dx9, qui est plus efficient  :)
 
après c'est une question de drivers  :o (et de windows pas trop salopé, par l'installation de conneries  [:clooney2] )


Message édité par Activation le 23-09-2012 à 09:47:42
n°8457794
burnout62
Posté le 23-09-2012 à 10:58:52  profilanswer
 

Déjà la sortie des nouvelles consoles en fin 2013 devrait permettre de faire bouger les choses je pense.
Plus de DX11 utilisé surement.


---------------
Ce qui est fantastique avec le PC, c’est qu’il est toujours next-gen.
n°8457967
mum1989
Posté le 23-09-2012 à 13:37:46  profilanswer
 

burnout62 a écrit :

Déjà la sortie des nouvelles consoles en fin 2013 devrait permettre de faire bouger les choses je pense.
Plus de DX11 utilisé surement.


Dx11 ce n'est pas si important, c'est surtout les textures qui seront, peut être, enfin potable(pas comme bf3 ou crysis2(sans le pack pc hd)).

n°8457970
burnout62
Posté le 23-09-2012 à 13:39:38  profilanswer
 

mum1989 a écrit :

Dx11 ce n'est pas si important, c'est surtout les textures qui seront, peut être, enfin potable(pas comme bf3 ou crysis2(sans le pack pc hd)).


Ouais c'est sur. Mais je suppose que ce sera le cas grâce à la mémoire plus importante.
Et puis peut être du DX11, histoire des rendre certains formes moins carrées :D .

n°8457973
mum1989
Posté le 23-09-2012 à 13:41:12  profilanswer
 

burnout62 a écrit :


Ouais c'est sur. Mais je suppose que ce sera le cas grâce à la mémoire plus importante.
Et puis peut être du DX11, histoire des rendre certains formes moins carrées :D .


oui, à condition que ce ne soit pas bâclé comme Crysis 2.

n°8457976
Activation
21:9 kill Surround Gaming
Posté le 23-09-2012 à 13:42:22  profilanswer
 

mum1989 a écrit :


Dx11 ce n'est pas si important, c'est surtout les textures qui seront, peut être, enfin potable(pas comme bf3 ou crysis2(sans le pack pc hd)).


 
 
plus de mémoire dans les nouvelles consoles  [:hodjeur]
 
et la tesselation  [:o_doc]


Message édité par Activation le 23-09-2012 à 13:42:43
n°8457994
Activation
21:9 kill Surround Gaming
Posté le 23-09-2012 à 14:00:05  profilanswer
 

mum1989 a écrit :


oui, à condition que ce ne soit pas bâclé comme Crysis 2.


 
quand dans les video de l'E3 tu fait tout péter au lance roquettes ou truc aussi destructeur, et une fois la fumée dissipé tout est propre comme un sou neuf, pas une rayure
 
perso j'ai pas eu le courage de finir crysis 2 (si bien que je sais même pas si je suis loin de la fin)
 
alors c est surement pas pour attendre l épisode 3, surtout après avoir vu les videos de l'E3 qui me confirme dans mon opinion
 
crytek c'est plus ce que c'était
 
ils sont les premier à chialer que les consoles actuelle sont toutes pourri et que leur cry engine 3 peu pas s'exprimer
 
mais c'est les premier à ne plus faire les même efforts de modélisation, destruction etc.... sur la version PC
 
m'enfin bon y a les fans de call of truc qui ont adoré.... ce crisouille 2, donc le 3 se vendra.... sur xbox :o

Message cité 1 fois
Message édité par Activation le 23-09-2012 à 14:03:49
n°8457997
mum1989
Posté le 23-09-2012 à 14:02:40  profilanswer
 

Activation a écrit :


 
quand dans les video de l'E3 tu fait tout péter au lance roquettes ou truc aussi destructeur, et une fois la fumée dissipé tout est propre comme un sou neuf
 
perso j'ai pas eu le courage de finir crysis 2 (si bien que je sais même pas si je suis loin de la fin)
 
alors c est surement pas pour attendre l épisode 3, surtout après avoir vu les videos de l'E3 qui confirme dans mon opinion
 
crytek c'est plus ce que c'était
 
ils sont les premier à chialer que les consoles actuelle sont toutes pourri et que leur cry engine 3 peu pas s'exprimer
 
mais c'est les premier à ne plus faire les même efforts de modélisation, destruction etc.... sur la version PC


même avis  :jap:  (désolé pour l'HS)  

n°8458486
Shadow460
Posté le 23-09-2012 à 23:40:33  profilanswer
 

De toute façon ça gueulera toujours
Si le jeu prend trop de ressource,tout le monde va se plaindre mais même 5 ans(bientôt 6) ont pourra toujours dire :
-Putain c'est beau
Et franchement entre console/Pc on voit bien la différence


---------------
Sapphire Radeon HD7970 3Go | 4*4Go Gskill PC12800 | Intel  Core i5 3570K
n°8458600
Profil sup​primé
Posté le 24-09-2012 à 09:50:35  answer
 

Bien je me rapelle de GTA, premier jeux à utiliser les deux coeurs, et bien il à mis tout les core duO à genoux, et les Qxxxx se sont exprimés enfin. Fin bon le jeux sur 6 coeurs c'est pas pour demain non plus ^^ C'est normal, une appli qui fait des instruction sur 4 coeurs, sera plus rapide sur un 4 coeurs mieux architecturé que sur un 6,32,12000 Coeurs.... Mais bon si ton appli passent à 6 Coeurs, il va exploser ton petit 4 coeurs. Après c'est un investissement dans le temps que j'ai fais. Pour le post du GK104 à 340 : Normalement il devrait couter 250 Euros, un GK104 c'est a mettre dans une 660 !

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  553  554  555  556  557  558

Aller à :
Ajouter une réponse
 

Sujets relatifs
[HFR] Actu : GTC: Plus de détails sur le GK110[HFR] Actu : Nvidia lance les GT 610, 620 et 630
[HFR] Actu : GTC: Nvidia lève le voile sur le GK110[HFR] Actu : GTC: GTC 2012: la semaine du GPU computing
AMD A8 3870K APU + NVIDIA GEFORCE GT...[Topic Unique] ASUS - Les Cartes mères Z77
Mise à jour NVIDIA GT 330M sur SONY VPCL14S1E[HFR] Actu : Résultats Nvidia pour le premier trimestre
[HFR] Dossier : Nvidia GeForce GTX 670 en test 
Plus de sujets relatifs à : [Topic Unique] NVidia GK110 - 780, 780Ti, Titan, Titan Black & Titan Z


Copyright © 1997-2018 Hardware.fr SARL (Signaler un contenu illicite) / Groupe LDLC / Shop HFR