Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3454 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  21  22  23  ..  1033  1034  1035  1036  1037  1038
Auteur Sujet :

[Topic Unique] Nvidia Pascal GP104 : GTX 1080/1070 (16nm FinFET+)

n°9760841
albatar197​6
Posté le 15-03-2016 à 11:57:56  profilanswer
 

Reprise du message précédent :

Bouvman a écrit :


 
AMD s'en fout. Mais je peux t'assurer que 800 watts si t'es un gros gros gamer ta facture d’électricité prend une claque...
 


 
Je crois qu'on est d'accord mais le mec qui va dépenser 1500€ pour la carte + 600€ pour le casque VR + le reste de sa configuration, il en a rien à faire de sa facture d'électricité  :whistle:  
 
Idem pour le bruit et la chaleur...
 
Et puis c'est rien à coté de 4 climatisations  :o


---------------
"Un peuple prêt à sacrifier un peu de liberté pour un peu de sécurité ne mérite ni l'une ni l'autre, et finit par perdre les deux." Benjamin Franklin
mood
Publicité
Posté le 15-03-2016 à 11:57:56  profilanswer
 

n°9760849
Bouvman
You fuck my wife ?
Posté le 15-03-2016 à 12:08:53  profilanswer
 

McNulty a écrit :

et en plus les 3/4 du temps (et je suis gentil)  ça sera beaucoup moins vu que ça tournera que sur un GPU :O


 
C'est quoi l'intérêt de se taper une carte en bi-GPU qui ne se comporte pas comme du mono ? autant faire un crossfire je ne comprends pas...
 

n°9760851
Bouvman
You fuck my wife ?
Posté le 15-03-2016 à 12:10:58  profilanswer
 

McNulty a écrit :

Déjà c'est pas 800W, mais la moitié


 
Donc pour toi un bi-gpu fury c'est 400 watts ? je ne comprends pas tes calculs...
 
 

n°9760853
B1LouTouF
PSN : Geo62280 / GT : Mr Geo
Posté le 15-03-2016 à 12:17:46  profilanswer
 

Amd va remanger le sol une fois de plus en gros


---------------
FeedBack
n°9760856
albatar197​6
Posté le 15-03-2016 à 12:19:40  profilanswer
 

B1LouTouF a écrit :

Amd va remanger le sol une fois de plus en gros


 
Bah non ils vont occuper l'espace visible dans les démos VR  :jap:  
 
Ca va rassurer les actionnaires qui connaissent quedal  :o


---------------
"Un peuple prêt à sacrifier un peu de liberté pour un peu de sécurité ne mérite ni l'une ni l'autre, et finit par perdre les deux." Benjamin Franklin
n°9760857
B1LouTouF
PSN : Geo62280 / GT : Mr Geo
Posté le 15-03-2016 à 12:20:48  profilanswer
 

Apres si nvidia nous fait la meme connerie avec des 980ti .... Foutage de gueule


---------------
FeedBack
n°9760859
- gab
Posté le 15-03-2016 à 12:23:58  profilanswer
 

B1LouTouF a écrit :

Amd va remanger le sol une fois de plus en gros


Pourquoi tu veux qu'ils mangent le sol ? Ils sortent ça des mois après Fury, quand on ne l'attend plus vraiment, et son positionnement est clair :
 

Citation :

Comme son nom l'indique, il s'agit d'une Radeon mais qui vise avant tout un usage professionnel, particulièrement dans le cadre de la réalité virtuelle. Si les cartes graphiques bi-GPU ont traditionnellement permis à AMD et Nvidia de se battre pour la première place du podium, commercialement elles ne représentent qu'un minuscule marché auprès des joueurs. Leur intérêt n'est justifié que dans quelques situations bien précises et quand les jeux récents prennent correctement en charge le multi-GPU, ce qui n'a pas toujours été le cas au cours des 6 derniers mois.
 
AMD semble avoir bien compris ce problème de positionnement sur le marché et a décidé de réorienter presqu'exclusivement sa solution bi-GPU vers la réalité virtuelle.


Bref c'est une vitrine, ils n'en attendent pas grand-chose commercialement parlant.


---------------
Chounette ♥ | Oh ouiiiiiii il l'a fait, incroyable , c'est le dieu du tennis
n°9760866
McNulty
Posté le 15-03-2016 à 12:36:07  profilanswer
 

Bouvman a écrit :


 
Donc pour toi un bi-gpu fury c'est 400 watts ? je ne comprends pas tes calculs...
 
 


 
tu crois vraiment que ça va tourner à 800W pour un bi-GPU  :lol:  
 
ça va tourner (@stock) autour de 400-450W maxi
 
soit pour un système complet dans les 600W
 
 

Bouvman a écrit :


 
C'est quoi l'intérêt de se taper une carte en bi-GPU qui ne se comporte pas comme du mono ? autant faire un crossfire je ne comprends pas...
 


 
un Bi-GPU se comporte toujours comme un SLI/Xfire, rien de nouveau...


Message édité par McNulty le 15-03-2016 à 12:39:34
n°9760870
- gab
Posté le 15-03-2016 à 12:41:34  profilanswer
 

Et non, il ne suffira pas d'attendre DX12 pour que ça soit vu comme par magie comme un mono gpu :o


---------------
Chounette ♥ | Oh ouiiiiiii il l'a fait, incroyable , c'est le dieu du tennis
n°9760872
FunkyMiK
Let's make it Funky ! ! !
Posté le 15-03-2016 à 12:42:46  profilanswer
 

GPU : 2 x puces Fiji Fury X GCN 1.2 28mm 16 Teraflops
Fréquence : 1 Ghz  
Mémoire : 2x4 Go HBM à 1GT/s
Unités : 2 x 4096 unified shaders, 2 x 256 textures units
Consommation : 525 Watts
Refroidissement : Watercooling
Prix : 1500 dollars


---------------
.: Steam : FunkyMiK .:. A6 C6 E85 :.
mood
Publicité
Posté le 15-03-2016 à 12:42:46  profilanswer
 

n°9760874
B1LouTouF
PSN : Geo62280 / GT : Mr Geo
Posté le 15-03-2016 à 12:44:23  profilanswer
 

Microsoft qui unifie les joueurs pc ps4 et one , je sens que l'année va être pleine de nouveautés !


---------------
FeedBack
n°9760875
McNulty
Posté le 15-03-2016 à 12:44:28  profilanswer
 

FunkyMiK a écrit :

GPU : 2 x puces Fiji Fury X GCN 1.2 28mm 16 Teraflops
Fréquence : 1 Ghz  
Mémoire : 2x4 Go HBM à 1GT/s
Unités : 2 x 4096 unified shaders, 2 x 256 textures units
Consommation : 525 Watts
Refroidissement : Watercooling
Prix : 1500 dollars


 
 
525W c'est la norme maxi à cause des connecteurs
 
75 + 150 + 150 + 150
 
en utilisation ça sera moins

n°9760877
B1LouTouF
PSN : Geo62280 / GT : Mr Geo
Posté le 15-03-2016 à 12:47:12  profilanswer
 

Hâte de voir les test quand meme


---------------
FeedBack
n°9760878
Gedemon
patron-adjoint
Posté le 15-03-2016 à 12:50:44  profilanswer
 

J'ai p't'être mal suivi, mais du coté d'Oculus et HTC, ils en sont où dans la gestion des bi-gpu pour la VR ? [:transparency]
 
On est d'accord que pour l'instant y a rien de concret ?


---------------
[hommage au beau jeu] [Footware]
n°9760882
Marc
Chasseur de joce & sly
Posté le 15-03-2016 à 12:55:04  profilanswer
 

Zilak a écrit :

Edite : Tu as surement raison. Je la vois plus souvent dans les 400W en full load. HW.FR doit surement faire une moyenne.


Tu compares pas des mesures à la prise et des mesures de la carte seule ? ;)

n°9760915
jln2
Posté le 15-03-2016 à 13:50:01  profilanswer
 

Bouvman a écrit :


 
Donc pour toi un bi-gpu fury c'est 400 watts ? je ne comprends pas tes calculs...
 
 


 
En même temps, c'est pas un bi-Hawai hein :o

n°9760922
havoc_28
Posté le 15-03-2016 à 13:54:57  profilanswer
 

jln2 a écrit :


 
En même temps, c'est pas un bi-Hawai hein :o


 
ça dépend à quelle fréquence est cadencée Fidji :D , car bon à 1.0 ghz fixe pour les deux , je suis pas vraiment sur que Fidji soit spécialement plus économe , :D (Fidji sera certes plus performant et aura un meilleur ratio performance / consommation ).

Message cité 1 fois
Message édité par havoc_28 le 15-03-2016 à 13:56:46
n°9760926
Bouvman
You fuck my wife ?
Posté le 15-03-2016 à 13:58:24  profilanswer
 


De toute façon à moins d'être complètement débile, tu te fais un sli de 980 ti avant de taper dans cette carte, à moins d'être un fan boy AMD...

Message cité 2 fois
Message édité par Bouvman le 15-03-2016 à 13:58:57
n°9760928
havoc_28
Posté le 15-03-2016 à 14:00:41  profilanswer
 

Bouvman a écrit :


De toute façon à moins d'être complètement débile, tu te fais un sli de 980 ti avant de taper dans cette carte, à moins d'être un fan boy AMD...


 
Y a quelques petites exceptions , genre les gens qui ont une carte mère mini ITX , ou une Micro ATX avec quelques cartes filles (pas de place pour un sli) .

n°9760929
Zilak
I can't carry anymore !
Posté le 15-03-2016 à 14:01:26  profilanswer
 

Marc a écrit :


Tu compares pas des mesures à la prise et des mesures de la carte seule ? ;)


 
Exactement, le doute que j'ai eu plus haut. Du coup dans le flou j'ai laissé l'interrogation en suspens sans rien affirmer.  
Je préfère que dire une bêtise.

n°9760933
Bouvman
You fuck my wife ?
Posté le 15-03-2016 à 14:03:07  profilanswer
 

Bouvman a écrit :


De toute façon à moins d'être complètement débile, tu te fais un sli de 980 ti avant de taper dans cette carte, à moins d'être un fan boy AMD...


 
Elle est chelou ma phrase, des fois je ne me relis pas...
 
 

n°9760941
FMulderFBI
Posté le 15-03-2016 à 14:14:42  profilanswer
 

De toute façon gsync > all donc amd en haut de game pour joueur voilà quoi...

Message cité 1 fois
Message édité par FMulderFBI le 15-03-2016 à 14:15:18
n°9760945
Bobsteal
Barrez vous cons de mimes !
Posté le 15-03-2016 à 14:17:36  profilanswer
 

[:gaga drapal]  
Hâte d'en savoir plus sur ces nouveaux GPU !

n°9760950
B1LouTouF
PSN : Geo62280 / GT : Mr Geo
Posté le 15-03-2016 à 14:23:36  profilanswer
 

havoc_28 a écrit :


 
ça dépend à quelle fréquence est cadencée Fidji :D , car bon à 1.0 ghz fixe pour les deux , je suis pas vraiment sur que Fidji soit spécialement plus économe , :D (Fidji sera certes plus performant et aura un meilleur ratio performance / consommation ).


Core Clock 1050 MHz
http://www.guru3d.com/news-story/d [...] unced.html


---------------
FeedBack
n°9760981
Profil sup​primé
Posté le 15-03-2016 à 14:55:48  answer
 

FMulderFBI a écrit :

De toute façon gsync > all donc amd en haut de game pour joueur voilà quoi...


Et freesync ?

n°9761002
FMulderFBI
Posté le 15-03-2016 à 15:11:44  profilanswer
 

Ben freesync c'est moins bien, moins de compatibilité (hé oui nvidia bosse ses drivers), plage de fréquence moins large, etc etc.

Message cité 1 fois
Message édité par FMulderFBI le 15-03-2016 à 15:12:53
n°9761005
havoc_28
Posté le 15-03-2016 à 15:14:57  profilanswer
 

FMulderFBI a écrit :

Ben freesync c'est moins bien, moins de compatibilité, plage de fréquence moins large, etc etc.


 
ça c'était sur les tous premiers écrans freesync maintenant on en trouve qui vont de 30hz à 144khz , etc etc

n°9761033
mazingerz
Posté le 15-03-2016 à 15:29:55  profilanswer
 

free sync est plus ouvert coute moins cher c'est mieux
 
j'espère qu'NVIDA vas vite abandonner son Gsync pour se recentre sur le free sync

n°9761043
waylan
Posté le 15-03-2016 à 15:38:16  profilanswer
 

Pourquoi l'abandonnerait-il alors que la techno est propriétaire et que ça leur rapporte ...

n°9761048
mazingerz
Posté le 15-03-2016 à 15:40:42  profilanswer
 

je dit pas qu'ils vont le faire je souhaite juste qu'ils le fassent
 
qu'ils aillent pour une fois dans le bon sens pour la platforme PC au lieux de penser à leur brouzouf ^^
surtout que ça doit pas leur rapporter des masses

n°9761061
waylan
Posté le 15-03-2016 à 15:47:22  profilanswer
 

Entre la vente de la techno aux fabricants et les ventes de CGs qu'ils s'assurent pour un certain temps (on ne change pas d'écran tous les ans), je ne suis pas si sûr que "ça ne leur rapporte pas des masses" quand on réfléchit de manière globale et à moyen terme.


Message édité par waylan le 15-03-2016 à 15:48:21
n°9761082
FMulderFBI
Posté le 15-03-2016 à 16:06:11  profilanswer
 

mazingerz a écrit :

free sync est plus ouvert coute moins cher c'est mieux


 
Non c'est pas mieux, rien qu'en fenêtré le freesync marche pas, au début c'était même pas compatible avec les cross, j'en passe aussi sur le nombre de cas où sur certains jeux ça clignote beaucoup, chez nvidia t'es certain que c'est vite réparé.
Concernant le '"plus ouvert", bah non plus, c'est ouvert de rien du tout, t'as une nvidia t'as pas de freesync et je sais même pas si les igpu intel sont enfin compatibles.
Le seul avantage de freesync c'est le prix et c'est tout.

Message cité 1 fois
Message édité par FMulderFBI le 15-03-2016 à 16:10:53
n°9761110
qhyron90
Soyez pas vache adoptez un cha
Posté le 15-03-2016 à 16:22:23  profilanswer
 

excusez moi le topic Nvidia c'est par où? :lol:

n°9761114
Bouvman
You fuck my wife ?
Posté le 15-03-2016 à 16:24:34  profilanswer
 

qhyron90 a écrit :

excusez moi le topic Nvidia c'est par où? :lol:


 
 :lol:  :D  

n°9761163
albatar197​6
Posté le 15-03-2016 à 16:55:31  profilanswer
 

mazingerz a écrit :

je dit pas qu'ils vont le faire je souhaite juste qu'ils le fassent
 
qu'ils aillent pour une fois dans le bon sens pour la platforme PC au lieux de penser à leur brouzouf ^^
surtout que ça doit pas leur rapporter des masses


 
Faire de l'argent (le plus possible) c'est un peu le but à la base  :o


---------------
"Un peuple prêt à sacrifier un peu de liberté pour un peu de sécurité ne mérite ni l'une ni l'autre, et finit par perdre les deux." Benjamin Franklin
n°9761216
mazingerz
Posté le 15-03-2016 à 17:45:12  profilanswer
 

FMulderFBI a écrit :


 
Non c'est pas mieux, rien qu'en fenêtré le freesync marche pas, au début c'était même pas compatible avec les cross, j'en passe aussi sur le nombre de cas où sur certains jeux ça clignote beaucoup, chez nvidia t'es certain que c'est vite réparé.
Concernant le '"plus ouvert", bah non plus, c'est ouvert de rien du tout, t'as une nvidia t'as pas de freesync et je sais même pas si les igpu intel sont enfin compatibles.
Le seul avantage de freesync c'est le prix et c'est tout.


 
NVIDA à le droit d'etre compatible freesync
 
AMD n'a pas le droit d'être compatible Gsync
 
donc dsl le truc NVIDIA c'est de la merde en barre
un truc digne de Apple
on ne veux pas de ça dans le monde du PC sinon on avance pas

n°9761220
B1LouTouF
PSN : Geo62280 / GT : Mr Geo
Posté le 15-03-2016 à 17:48:16  profilanswer
 

g sync = :love: et tant mieux que ça soit que nvidia !


---------------
FeedBack
n°9761230
waylan
Posté le 15-03-2016 à 17:53:50  profilanswer
 

mazingerz a écrit :

 

NVIDA à le droit d'etre compatible freesync

 

AMD n'a pas le droit d'être compatible Gsync

 

donc dsl le truc NVIDIA c'est de la merde en barre
un truc digne de Apple
on ne veux pas de ça dans le monde du PC sinon on avance pas

 

C'est sûr qu'abandonner des technos qui marchent au profit de celles qui marchent moins bien ça fait vachement avancer  :sarcastic:

 

Que d'émotion devant tant d'arguments en tout cas... :o


Message édité par waylan le 15-03-2016 à 17:54:07
n°9761236
Bouvman
You fuck my wife ?
Posté le 15-03-2016 à 18:01:17  profilanswer
 


Gsync c'est si bien que ça ? je n'ai jamais assayé, préférant privilégier le 144 hrz...
 

n°9761255
FMulderFBI
Posté le 15-03-2016 à 18:29:20  profilanswer
 

Bouvman a écrit :


Gsync c'est si bien que ça ? je n'ai jamais assayé, préférant privilégier le 144 hrz...
 


 
 
Franchement, oui c'est bien. En plus sur un 144 hz bonjour le vsync à 72 fps, c'est handicapant, le gsync c'est un confort, tu n'as plus à passer 20 minutes dans les options pour stabiliser ton framerate.
 
Après Mazinger tu retournes les choses dans le sens que tu veux, les faits sont là.

Message cité 1 fois
Message édité par FMulderFBI le 15-03-2016 à 18:37:00
n°9761263
havoc_28
Posté le 15-03-2016 à 18:36:24  profilanswer
 

FMulderFBI a écrit :


 
Franchement, oui c'est bien. En plus sur un 144 hz bonjour le vsync à 72 fps, c'est handicapant, le gsync c'est un confort, tu n'as plus à passer 20 minutes dans les options pour stabiliser ton framerate.
 
Après Mazinger tu retournes les choses dans le sens que tu veux, les faits sont là.


 
Oui actuellement le G-Sync est meilleur , mais le Freesynch évolue dans le bon sens :o (les choses ne sont pas figées ) .
 
Sinon à 144hz , hum y a un palliatif appelé l'adptive vsynch chez nvidia :D , c'est pas aussi bien que du gsynch mais quand même ^^ .


Message édité par havoc_28 le 15-03-2016 à 18:37:10
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  21  22  23  ..  1033  1034  1035  1036  1037  1038

Aller à :
Ajouter une réponse
 

Sujets relatifs
[HFR] Actu : Rise of the Tomb Raider offert par Nvidia[HFR] Actu : CES: Drive PX 2: Tegra et Pascal au pilotage
Comment reconnaitre le lecteur E:\ "Nvidia Geforce Experience"Nvidia comme pilote
Windows 10: Code 43 sur CG Nvidia 750mLunette 3D nvidia vision 2
nvidia shield proInstallation carte graphique NVIDIA NVS 510 sur PC tour HP Pavilion P6
[HFR] Actu : Pilotes Nvidia 361.43 WHQLNvidia GTX (960 ou 760 ou 660)?
Plus de sujets relatifs à : [Topic Unique] Nvidia Pascal GP104 : GTX 1080/1070 (16nm FinFET+)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)