Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1538 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2
Page Suivante
Auteur Sujet :

[HFR] Actu : Les GeForce Maxwell pour bientôt ? Oui et non

n°8971091
ssx99harlo​ck
Posté le 12-12-2013 à 11:41:31  profilanswer
0Votes positifs
 

Reprise du message précédent :
 
Genre ça : http://www.tomshardware.fr/article [...] 46411.html ??

mood
Publicité
Posté le 12-12-2013 à 11:41:31  profilanswer
 

n°8971141
bep
Posté le 12-12-2013 à 12:41:06  profilanswer
3Votes positifs
 

je pense qu'effectivement en volume de production la 780 (+ Ti) fait mieux que la R9 290(+ X).
 
Vu la faible disponibilite des R9 290, les ventes sont effectivement + basse. En fait la demande est grande et en attente (avis perso -- discutable).
 
Sur le reste de la gamme (moins de 350eur donc une belle grosse part du marche) la il y a vive concurrence, et AMD s'en sort tres tres bien (prix/perf/bruit/consommation tres bonne). Desole pour moi une carte graphique c'est max 200-250eur.
 
Vivement les R9-290(X) en volume! De tres bonne carte, parfaitement utilisable en mode Quiet non (voir test HFR)? (voir mieux si bon refroidissement - a venir).
 
Nvidia j'aimais bien (mais devenu vraiment trop cher!), AMD me seduit qd meme les derniers temps. Chacun son compromis.
 
Pour en revenir a la news: Maxwell va clairement se faire attendre! Ou alors du beau renommage de milieu de gamme d'ici 6 mois (encore un? je veux dire les 760 et 770 en sont deja)!


Message édité par bep le 12-12-2013 à 12:42:34
n°8971165
Singman
The Exiled
Posté le 12-12-2013 à 12:59:45  profilanswer
3Votes positifs
 

J'aime les gens qui citent des micro-phénomènes pour justifier leur fantasmes... Comme si le mining Litecoin pouvait booster au niveau national (voir + d'après ta source) les ventes AMD :)  La pénurie semble plutôt être du explicitement au fait qu'il n'y a pas de modèle custom.
Dans toute analyse commerciale, le produit unique se vendra moins bien qu'un autre produit décliné en plusieurs versions. C'est un fait, on ne peut rien y faire, et ça ne démontre pas que les R9 sont inférieures aux GTX 700, comme répété encore et encore.

n°8971215
asmomo
Modérateur
Posté le 12-12-2013 à 13:43:56  profilanswer
6Votes positifs
 

La chauffe/conso est clairement qqchose qui compte plus qu'avant, mais faut pas exagérer quand même surtout pour les cartes les plus hdg, d'ailleurs nvidia a produit de nombreux grille-pains sans que ça ne dérange les fans !
 
Après le bruit c'est aussi un facteur et là clairement AMD a mal joué, ils auraient dû mettre 20-30€ de plus dans la carte mais qu'elle soit plus discrète.


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°8971233
Invite_Sur​prise
Racaille de Shanghaï
Posté le 12-12-2013 à 13:55:26  profilanswer
3Votes positifs
 

Après, c'est pas comme si de nombreux médias avaient pointé du doigt les nuisances trop importantes lors de la sortie de la 7970GHz.
Résultat, ils se font sanctionner pour la sortie des 290/X et présentent à nouveau leur produits sous un mauvais aspect.
On récolte ce qu'on sème.

n°8971255
Profil sup​primé
Posté le 12-12-2013 à 14:14:07  answer
1Votes positifs
 

Désolé Invite_surprise, c'est sur + que je voulais cliquer mais ma souris a glissé

n°8971439
Omelmike
On plante des radis...
Posté le 12-12-2013 à 16:36:19  profilanswer
3Votes positifs
 

D'une, la chauffe/conso, c'est pas le sujet en soi.
De deux, "faut arrêter la piquouse les gars !" :
Une 780 Ti, c'est la même conso qu'une 290X...
"On est en train de marcher sur la tête là ! Jeff, tiens tes gars !"

n°8971451
Omelmike
On plante des radis...
Posté le 12-12-2013 à 16:42:49  profilanswer
2Votes positifs
 

L'argument marketing de la consommation d'un GPU HDG est tout de même assez neuf, auparavant, seuls les testeurs s'en souciaient, ceci dit...
Histoire de troller un peu, une 6970 ne dépassait pas 250W, du coup, "Kepler c'est le must niveau conso" devient quelque peu théorique.  
Mais encore une fois, parlant de Nvidia, mon discours se doit d'être respectueux, idolâtre, etc.


Message édité par Omelmike le 12-12-2013 à 21:07:47
n°8971894
darkandy
?
Posté le 12-12-2013 à 20:48:49  profilanswer
2Votes positifs
 

Il est clair que ce genre de phrase " Il faut par ailleurs garder en tête que les GeForce GTX 700 se vendent très bien et dominent largement le marché face aux Radeon R9." sortie de son contexte prête à confusion ^^" Effectivement qu'il y a plus de domination de la part des GTX700 que des R9 vu la différence de date de sortie.  
 
Après cette phrase est un peu sans logique... C'est comme comparer  (c'est un exemple) la domination des i5 3570K sur les 4670k, doit y avoir une tripoté de 3570K face aux 4670K vu leur différence de date de sortie...

Message cité 1 fois
Message édité par darkandy le 12-12-2013 à 20:49:13
n°8971905
darkandy
?
Posté le 12-12-2013 à 21:01:57  profilanswer
1Votes positifs
 

DiabloTC a écrit :

Peut-être que les GTX 7xx se vendent mieux parce qu'elles sont tout simplement...mieux?


 
 
En milieu de gamme ? Quel est le gain d'une GTX760 custom (210 euros) face à une R9 270X custom (170 euros) ? Et encore la R9 270X est devant pour pas mal de jeux (hors opti Nvidia) et tout ça pour 40 euros de moins lol
 
Pour le haut de gamme, effectivement les GTX770/780 bénéficie de bonnes cartes customs pour le moment, et effectivement aucunes comparaisons chez AMD avec leur R9 290/290X.  
 
M'enfin une R9 280X custom fait aussi bien qu'une GTX770 custom, toujours pour 30 euros de moins  
 
Fanboy AMD ? Peut-être... Entre une GTX760 et une R9 270X mon choix a été vite fait, et c'est toujours 30 euros d'économisé  :lol:  Et encore plus si ont veut perdre quelques FPS et prendre une HD7870...  


Message édité par darkandy le 12-12-2013 à 21:08:37

---------------
Phenom II 1090T: http://valid.canardpc.com/show_oc.php?id=1766499 Intel Core i5 4670K : http://valid.x86.fr/ka4cpf Ryzen 2600 : https://valid.x86.fr/0byf0r Ryzen 5 3600 : https://valid.x86.fr/fzwdll
mood
Publicité
Posté le 12-12-2013 à 21:01:57  profilanswer
 

n°8971913
Space
Profil: Maux des rateurs
Posté le 12-12-2013 à 21:08:54  profilanswer
2Votes positifs
 

j'allais le sortir :sweat:  


---------------
Ma cinémathèque
n°8971947
tridam
Profil : Equipe HardWare.fr
Posté le 12-12-2013 à 21:34:45  profilanswer
2Votes positifs
 

darkandy a écrit :

Il est clair que ce genre de phrase " Il faut par ailleurs garder en tête que les GeForce GTX 700 se vendent très bien et dominent largement le marché face aux Radeon R9." sortie de son contexte prête à confusion ^^" Effectivement qu'il y a plus de domination de la part des GTX700 que des R9 vu la différence de date de sortie.  
 
Après cette phrase est un peu sans logique... C'est comme comparer  (c'est un exemple) la domination des i5 3570K sur les 4670k, doit y avoir une tripoté de 3570K face aux 4670K vu leur différence de date de sortie...


 
Ce n'est pas pour rien si nous écrivons "les GeForce GTX 700 se vendent très bien" vs "les GeForce se sont très bien vendues". Il n'y a aucune confusion, cette référence se fait par rapport aux ventes du moment. Là maintenant il se vend plus de GeForce GTX 700 que de Radeon R9. On pourrait aussi dire, vu que les GTX 700 sont sorties depuis quelques temps, que leurs ventes se seraient tassées au profit des Radeon R9, mais ce n'est pas le cas. Ce n'est pas une critique dans un sens ou dans un autre, c'est un constat de la réalité commerciale. Par exemple, le renommage de la GTX 680 en GTX 770 chez Nvidia est largement plus populaire en pratique que celui des HD 7970 en R9 280X.

n°8971964
tridam
Profil : Equipe HardWare.fr
Posté le 12-12-2013 à 21:44:42  profilanswer
2Votes positifs
 

Oui, tous les noms de codes d'architectures récentes de Nvidia sont des noms de physiciens célèbres.
 
GT2xx -> Nikola Tesla (GTX 280 etc)
GF1xx -> Enrico Fermi (GTX 400/500)
GKxxx -> Johannes Kepler (GTX 600/700)
GMxxx -> James Clerk Maxwell (GTX 800/900 ?)
GVxxx -> Alessandro Volta
 
Nvidia n'a pas trop insisté publiquement sur l'architecture Tesla à l'époque pour éviter la confusion avec ce qui allait devenir la marque maison pour les dérivés HPC. Le G dans les noms de code GPU signifie GeForce pour ne pas oublier que cela reste leur marché principal. La seconde lettre à été ajoutée (après G80, G92 etc) quand le côté GPU computing a pris de l'importance.

Message cité 1 fois
Message édité par tridam le 12-12-2013 à 21:47:28
n°8971972
Space
Profil: Maux des rateurs
Posté le 12-12-2013 à 21:49:11  profilanswer
1Votes positifs
 

oui en effet mais c'est moins "drole" [:fyver]


---------------
Ma cinémathèque
n°8972093
darkandy
?
Posté le 13-12-2013 à 00:10:00  profilanswer
1Votes positifs
 

tridam a écrit :

darkandy a écrit :

Il est clair que ce genre de phrase " Il faut par ailleurs garder en tête que les GeForce GTX 700 se vendent très bien et dominent largement le marché face aux Radeon R9." sortie de son contexte prête à confusion ^^" Effectivement qu'il y a plus de domination de la part des GTX700 que des R9 vu la différence de date de sortie.  
 
Après cette phrase est un peu sans logique... C'est comme comparer  (c'est un exemple) la domination des i5 3570K sur les 4670k, doit y avoir une tripoté de 3570K face aux 4670K vu leur différence de date de sortie...


 
Ce n'est pas pour rien si nous écrivons "les GeForce GTX 700 se vendent très bien" vs "les GeForce se sont très bien vendues". Il n'y a aucune confusion, cette référence se fait par rapport aux ventes du moment. Là maintenant il se vend plus de GeForce GTX 700 que de Radeon R9. On pourrait aussi dire, vu que les GTX 700 sont sorties depuis quelques temps, que leurs ventes se seraient tassées au profit des Radeon R9, mais ce n'est pas le cas. Ce n'est pas une critique dans un sens ou dans un autre, c'est un constat de la réalité commerciale. Par exemple, le renommage de la GTX 680 en GTX 770 chez Nvidia est largement plus populaire en pratique que celui des HD 7970 en R9 280X.


 
 
Je comprends mieux, effectivement, bon par contre c'est bien de dire que "Là maintenant il se vend plus de GeForce GTX 700 que de Radeon R9" mais ça prends en compte les séries GTX760/770 et R9 270/270X/280X, ou juste les GTX 780/780Ti et R9 290/290X ?
 
Et puis des sources, justes des sources, parler de ventes sans des chiffres et des liens concrets, c'est comme parler de la météo en restant enfermé dans sa cave (sans fenêtres) :p Le fait que vous soyez (de bons, il va sans dire) rédacteurs, ça manque de crédibilité de parler vente sans s'appuyer sur des chiffres concret venant de site de confiance, (mondial, européen; etc...), et pas sur un site de vente en particulier qui est loin de refléter les ventes totales de GPU dans le monde.
 
Si on prends en compte ce genre de post ici, : http://www.techpowerup.com/188980/ [...] earch.html . Ok ce n'est pas récent, ok ça ne prends pas en compte quel type de GPU est vendu, mais AMD est loin d'être à la ramasse, et je ne sort pas ces chiffres de mon chapeau magique  :D Par contre Intel avec leur IGPU sont dangereux lol Je comprends mieux la réaction d'AMD de se tourner vers l'APU pour le moment ^^"


Message édité par darkandy le 13-12-2013 à 00:25:36
n°8972112
tridam
Profil : Equipe HardWare.fr
Posté le 13-12-2013 à 00:48:06  profilanswer
1Votes positifs
 

Ces chiffres mélangent tellement de choses qu'ils ne veulent pas dire grand chose. Entre les IGP Intel comptabilisés mais qui ne sont pas utilisé et le mélange cartes graphiques / intégrés...
 
Les données de Steam sont probablement plus parlantes même si là aussi elles mélangent cartes graphiques et intégré : http://store.steampowered.com/hwsurvey/
 
Les derniers chiffres "discrete" de Jon Peddie c'était plus de 60% pour Nvidia et moins de 40% pour AMD.
 
Ce serait bien entendu plus simple si on pouvait publier des chiffres... certains seraient très étonnés de l'écart dans certaines gammes.
 
En mars de cette année, lors d'une discussion officieuse, AMD nous avait dit avoir l'intention de faire le forcing sur la prochaine gamme et de travailler son image de marque de manière à grappiller des parts de marché à Nvidia sur les cartes graphiques. L'objectif d'AMD était de passer d'une situation de type 35 % pour les Radeon vs 65 % pour les GeForce vers un équilibre proche de 50/50. On n'y est clairement pas encore ;)

n°8972118
mazingerz
Posté le 13-12-2013 à 01:05:08  profilanswer
1Votes positifs
 

en attendant les 290 se vendent comme des petit pain
http://www.pcper.com/news/Graphics [...] Discussion
 
http://www.extremetech.com/computi [...] n-shortage
 
Nvidia users may also take note — the gap between Nvidia and AMD cards in Litecoin mining is slightly smaller than with Bitcoin, with the GTX 770 capable of up to 240 KHash/s (yes, we're back to KHash, from MHash) as compared to about 880 KHash/s for the R9 290X. That's still a significant gap, but it's better than the BTC situation, where the 680 hit just 130 MHash compared to the R9 290X's 874MHash/s.
 
voilà ce qu'il se passe quand on utilise à fond une carte ATi... 3 X plus rapide :p  

n°8972120
darkandy
?
Posté le 13-12-2013 à 01:06:36  profilanswer
2Votes positifs
 

Oui c'est clair pour AMD :/
 
Par contre ce qui est intéressant, c'est que l'ont vois surtout une progression pour les GPUs de la génération précédente (Nvidia ou Ati), il est vrai que ça reste d'excellentes affaires en comparaison des modèles actuels.  
 
Ce qui est flippant c'est le nombre d'Intel :/ A ce rythme, et à long terme, il restera que les GPU intégrés au processeur pour le grand public (je précise)... Et là pour le coup, seul Intel et AMD se partageront le gâteau... Il faut impérativement qu'Nvidia se bouge le cul pour avoir leur APU.


Message édité par darkandy le 13-12-2013 à 01:07:19
n°8972135
ledesillus​ionniste
Posté le 13-12-2013 à 01:36:53  profilanswer
1Votes positifs
 

darkandy a écrit :

Oui c'est clair pour AMD :/
 
Par contre ce qui est intéressant, c'est que l'ont vois surtout une progression pour les GPUs de la génération précédente (Nvidia ou Ati), il est vrai que ça reste d'excellentes affaires en comparaison des modèles actuels.  
 
Ce qui est flippant c'est le nombre d'Intel :/ A ce rythme, et à long terme, il restera que les GPU intégrés au processeur pour le grand public (je précise)... Et là pour le coup, seul Intel et AMD se partageront le gâteau... Il faut impérativement qu'Nvidia se bouge le cul pour avoir leur APU.

Haha ils ne le peuvent pas, Intel n'accorde plus de licence x86 depuis longtemps.

n°8972215
Invite_Sur​prise
Racaille de Shanghaï
Posté le 13-12-2013 à 07:28:12  profilanswer
1Votes positifs
 

mazingerz a écrit :

en attendant les 290 se vendent comme des petit pain
http://www.pcper.com/news/Graphics [...] Discussion


T'as des problèmes en anglais à priori. Cette vidéo est critique envers AMD et Ryan les accuse limite de faire du bad buzz autour de ça.
Et puis cela soulève surtout le problème du stock et le fait qu'AMD n'ait pas mis suffisamment de cartes dans le channel de distribution.
Si t'as rien à vendre, ça peut pas se vendre comme des petits pains.
 

ledesillusionniste a écrit :

Haha ils ne le peuvent pas, Intel n'accorde plus de licence x86 depuis longtemps.


 
"L'APU" de nVidia c'est Tegra. Pas en x86 mais en ARM.


Message édité par Invite_Surprise le 13-12-2013 à 07:30:52
n°8972263
Singman
The Exiled
Posté le 13-12-2013 à 09:23:47  profilanswer
1Votes positifs
 

Encore un qui sort du l'arguement du Mining pour faire croire que les cartes AMD se vendent super bien... Il faut le répéter combien de fois ? Le mining GPU, c'est franchement OpenCL donc AMD (les versions CUDA sont loin derrière, question de choix architecturaux), mais c'est peanuts dans le volume global des ventes. C'est comme si je prenais pour exemple une application CUDA en DP pour justifier des ventes de K20X face a une 290X. Aucun sens.

n°8972457
mazingerz
Posté le 13-12-2013 à 12:10:50  profilanswer
0Votes positifs
 

et quel sont vos source pour dire que c'est peanut?
 
vous bossez chez un fournisseur de carte ou un grossiste?


Message édité par mazingerz le 13-12-2013 à 12:11:08
n°8972710
Singman
The Exiled
Posté le 13-12-2013 à 15:34:25  profilanswer
1Votes positifs
 

Mes sources ? La rentabilité du mining GPU sur le Litecoin, avec le prix des cartes actuellement, auquel tu peux ajouter le nombre de clefs calculées depuis la sortie des cartes R9 d'AMD. Un miner, son seul intérêt c'est la rentabilité, point barre.
Mais il n'y a pas de pénurie chez les principaux VPC en France, je vois pas ou est votre problème.

n°8973088
stuflip
Posté le 13-12-2013 à 20:19:33  profilanswer
0Votes positifs
 

tridam a écrit :

Oui, tous les noms de codes d'architectures récentes de Nvidia sont des noms de physiciens célèbres.
 
GT2xx -> Nikola Tesla (GTX 280 etc)
GF1xx -> Enrico Fermi (GTX 400/500)
GKxxx -> Johannes Kepler (GTX 600/700)
GMxxx -> James Clerk Maxwell (GTX 800/900 ?)
GVxxx -> Alessandro Volta
 
Nvidia n'a pas trop insisté publiquement sur l'architecture Tesla à l'époque pour éviter la confusion avec ce qui allait devenir la marque maison pour les dérivés HPC. Le G dans les noms de code GPU signifie GeForce pour ne pas oublier que cela reste leur marché principal. La seconde lettre à été ajoutée (après G80, G92 etc) quand le côté GPU computing a pris de l'importance.


 
 
et dans 10ans ce sera Nom de Code Bruce Willis  :o


---------------
mes ventes : http://forum.hardware.fr/hfr/Achat [...] 6743_1.htm
n°8973367
tridam
Profil : Equipe HardWare.fr
Posté le 14-12-2013 à 03:36:29  profilanswer
0Votes positifs
 

Ils risquent de passer tout l'alphabet avant ça, y en a pour plus de 10 ans :o

n°8973596
Profil sup​primé
Posté le 14-12-2013 à 12:46:20  answer
0Votes positifs
 


Je suis d'accord, ce n'est pas comparable tant sur les performances que le prix.
Cependant, je voulais dire qu'AMD ne fait pas forcément des CPU/GPU qui consomment et chauffe excessivement, et que comme toute marque il y a des succès et des ratés.

n°8974042
kalidrimmm
Posté le 14-12-2013 à 19:41:18  profilanswer
0Votes positifs
 
n°8974087
mazingerz
Posté le 14-12-2013 à 20:19:10  profilanswer
0Votes positifs
 

c'est assé malin de leur part de sortir sur le secteur mobile complètement endormis et à la ramasse depuis 3 ans
 

n°8974102
Invite_Sur​prise
Racaille de Shanghaï
Posté le 14-12-2013 à 20:41:34  profilanswer
1Votes positifs
 

N'importe quoi. Dans le monde Notebook, AMD est à la peine comparé à nVidia.
AMD mise sur les APU mais ils sont encore insuffisants en terme de performances graphiques.
nVidia a indiqué avoir réalisé 95% de PDM en ce qui concerne la génération Haswell mobile gaming :
 

Citation :

In fact we have over 95% of the gaming notebooks this refresh, so things are starting off great


 
http://blogs.nvidia.com/blog/2013/ [...] h-haswell/


Message édité par Invite_Surprise le 14-12-2013 à 20:48:26
n°8974381
tridam
Profil : Equipe HardWare.fr
Posté le 15-12-2013 à 02:01:19  profilanswer
5Votes positifs
 

Attention que Nvidia joue probablement sur les mots ici entre PDM, designs wins etc. Sinon pour info la personne interviewée, Rene Haas, a quitté Nvidia un mois après cette interview pour... ARM.


Message édité par tridam le 15-12-2013 à 02:01:52
n°8974454
EpinardsHa​chés
Posté le 15-12-2013 à 09:37:32  profilanswer
1Votes positifs
 

stuflip a écrit :


 
 
et dans 10ans ce sera Nom de Code Bruce Willis  :o


 
 
buce willis ce n'est pas pareil que Nikola Tesla, Enrico Fermi, Alessandro Volta...etc faut pas trop pousser la comparaison  :o


Message édité par EpinardsHachés le 15-12-2013 à 09:37:43

---------------
Ventes
n°8975607
dave76
A momentary lapse of reason
Posté le 16-12-2013 à 01:15:49  profilanswer
1Votes positifs
 

La question est de savoir si c'est du 20nm ou non!Si ca reste en 28 le gain de perf ne sera pas si énorme que ça, par contre si ( et là je rêve ) c'est du 20 AHHHHHHHHH j'ai hâte!

n°9028009
spooky57
Egon ? Ton mucus
Posté le 24-01-2014 à 15:12:26  profilanswer
0Votes positifs
 

tridam a écrit :

Singman a écrit :

GTX 700 et R9 ne sont pas des puces mobiles, ou alors il manque la lettre qui va bien derrière. Enfin moi je le comprend comme ça. Et si tu mates un peu autour de toi, les achats a Noël c'est plus des GTX 7xxx que des R9, c'est peut être ça qu'il a voulu dire.


 
Ce que j'ai voulu dire c'est qu'en termes de parts de marché, les GTX 700 sont largement devant les R9. Nvidia profite toujours d'une meilleure image de marque et le passage à la série R9 ne semble rien avoir changé à la situation observée sur les générations précédentes. Ce serait bien entendu plus simple pour AMD si les parts de marché étaient proportionnelles à l'intérêt objectif des produits...


 
Objective ? La blague. Vous ne parlez que des perf' et du prix, comme si il n'y avait que ça pour choisir un produit.
 
Pour le même prix, et même puissance, vous prenez une voiture allemande ou une française ? ;)
 
Bref. Quand les testeurs comprendront ça...

n°9028039
chimon330
Parlons affaire...
Posté le 24-01-2014 à 15:37:58  profilanswer
0Votes positifs
 

+1 spooky.
En tout cas hate de voir ce que maxwell va apporter, avec la nouvelle synchro g-sync plus particulièrement.


---------------
A coeur vaillant, rien d'impossible !
n°9028081
mazingerz
Posté le 24-01-2014 à 16:06:33  profilanswer
0Votes positifs
 

spooky57 a écrit :


 
 
Objective ? La blague. Vous ne parlez que des perf' et du prix, comme si il n'y avait que ça pour choisir un produit.
 
Pour le même prix, et même puissance, vous prenez une voiture allemande ou une française ? ;)
 
Bref. Quand les testeurs comprendront ça...


 
 
française  et AMD


Message édité par mazingerz le 24-01-2014 à 16:07:02
n°9028129
chimon330
Parlons affaire...
Posté le 24-01-2014 à 16:33:14  profilanswer
0Votes positifs
 

On est bien sur un topic concernant maxwell ?


---------------
A coeur vaillant, rien d'impossible !
n°9028138
mazingerz
Posté le 24-01-2014 à 16:37:07  profilanswer
0Votes positifs
 

maxwell haut de gamme pour fin 2014 donc?
 
qu'en est t'il de ce coprocesseur ARM ? vous pensez que ce sera aussi sur la CG ?


Message édité par mazingerz le 24-01-2014 à 16:37:35
n°9028312
tridam
Profil : Equipe HardWare.fr
Posté le 24-01-2014 à 18:34:10  profilanswer
0Votes positifs
 

En terme général non, c'est peu probable qu'il y ait un coeur ARM exposé tel quel. Sur les versions pro du gros GPU Maxwell peut-être.

n°9228249
ludvig lud
Posté le 05-08-2014 à 11:37:05  profilanswer
0Votes positifs
 

Moi pour ma part je vais attendre la réponse AMD et même une autre série le DX 11 a de beaux jours devant lui ! Ca me fait rire de voir des gens qui pense ,que par ce que c'est la dernière alors elle est forcément mieux :) !
Foutaises ,je n'ai jamais vue une telle perte de qualité d'image depuis la série 500 les série 600 ,700 c'est pour faire du score ni plus ni moins ;) !Je les ai ,les trois série et appart les booster comme des formule 1 elles ne font rien d'extraordinaire en qualité d'image ,il y a écrit DX11 . :) !! Et la DX 12 histoire de faire changer les cartes les plus robustes ,quand il auront décidé que les gens dépense du pognon :)

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2
Page Suivante

Aller à :
Ajouter une réponse
 

Sujets relatifs
[HFR] Actu : R9 290 et 290X WindForce 3X pour GigabyteGeforce MX 440 ou chipset carte mère
[HFR] Actu : Micron abdique contre Rambus[HFR] Actu : 1 To en mSATA avec le 840 EVO de Samsung
[HFR] Actu : La Gigabyte R9 290X en WindForce se montre[HFR] Actu : Antec lance son haut Nineteen Hundred
Plus de sujets relatifs à : [HFR] Actu : Les GeForce Maxwell pour bientôt ? Oui et non


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR