Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3488 connectés 

 

 

Vous avez :




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  244  245  246  ..  399  400  401  402  403  404
Auteur Sujet :

[Topic Unique] AMD Radeon R9 Fury (X) & Nano (28nm)

n°9537749
gils04
le soleil du sud !
Posté le 27-06-2015 à 10:16:08  profilanswer
 

Reprise du message précédent :
 
 
nV se casse la gueule plus vite quand la résolution augmente , ce n'est pas nouveau ;) une 290x est très proche d'une GT en 4k (4 %)

mood
Publicité
Posté le 27-06-2015 à 10:16:08  profilanswer
 

n°9537835
Corleone_6​8
Posté le 27-06-2015 à 12:06:32  profilanswer
 

Gigathlon a écrit :

En fait... une fois n'est pas coutume, j'ai été voir le test de Clubic, et il est super instructif en données brutes :o

 

Bioshock Infinite et Batman AK semblent être les seuls jeux où la montée en résolution ne profite pas à Fiji et même plus globalement à AMD.

 

Tous les autres montrent ce qui ressemble à un coût fixe énorme par frame, l'exemple le plus flagrant étant... celui où Fiji envoie du pâté super tardivement, FC4 (elle démarre 13% derrière la 980 pour finir à 5% de la 980Ti OC en 4k), suivi de Hitman Absolution dont le profil est similaire, bien que moins prononcé (elle démarre au niveau de la 980 pour finir un pwal de Q de mouche au-dessus de la 980Ti OC en 4k).

 

Il se pourrait que ça soit lié à son moteur géométrique, mais le comportement de la 295X2 ne semble pas impacté autant, ce qui tendrait plutôt à indiquer une limitation CPU retardée par l'AFR qui permet l'envoi concurrent de 2 commandes.

 

Dirt Rally est à mi-chemin et semble très constant en coût par frame côté AMD (5ms pour la Fury X et 5.1ms pour la 390X, là où la 980 prendrait 4.4ms et la 980Ti OC 3.5ms), signe que la puissance supplémentaire n'est pas vraiment exploitée à fond malgré un meilleur scaling : elle envoie du pixel comme une grosse cochonne, mais après un lag que n'a pas le concurrent (d'au moins 1.5ms, vraisemblablement plus).

 

Quel gâchis, sérieux... :/

 

On sent le potentiel, mais ils ont collé des pilotes dignes de pneus Pirelli (et j'ai testé les PZero Nero et l'aquaplaning à chaque courbe sur route juste "mouillée" et pas "détrempée" qui va avec) à leur GPU. Comme ils disaient dans la pub, "sans maîtrise, la puissance n'est rien", et ça vaut autant que pour les pauvres possesseurs de Pirelli :o

 

Faut attendre de nouveaux pilotes si ca sert effectivement à quelques chose

 
Spoiler :

[HS]Les Nero et Rosso c'est de la daube, il faut les PZero tout court, c'est la monte d'origine des super sportive c'est la Titan X de Pirelli :D Ca fait 8 ans que j'ai ca et la pluie ne leur font pas peur du tout tu vas voir ce que c'est de tenir au plancher :D
Mais bon 8000km avec :D [/HS]


Message édité par Corleone_68 le 27-06-2015 à 12:08:25

---------------
Phanteks Enthoo Primo / Seasonic P-860 / Asus Strix B550 E/ Ryzen 5600X WC / 2*16 F4 3600C16 Gskill Ripjaws @3733 / 6900XT Red Devil / Crucial C300 128 Go / Sam 850 Evo 500 Go / Velociraptor 300 Go / Caviar Red 4 To / Caviar Black 1 To
n°9537895
champagne
Emozione
Posté le 27-06-2015 à 12:51:29  profilanswer
 

Pas assez chère mon fils  :)
 
http://tof.canardpc.com/preview2/bef03136-a85e-4242-afc6-de312b771d62.jpg


---------------
J'ai vu tant de choses, que vous, humains, ne pourriez pas croire... De grands navires en feu surgissant de l'épaule d'Orion, j'ai vu des rayons fabuleux, des rayons C, briller dans l'ombre de la Porte de Tannhaüser. Tous ces moments se perdront ........
n°9537900
gils04
le soleil du sud !
Posté le 27-06-2015 à 12:58:22  profilanswer
 


 
 :ouch:  
 
combien ? un prix pour les deux ?
 
edit :
 
en même temps 2 iFury c'est le prix de la Tx à sa sortie ;)

Message cité 1 fois
Message édité par gils04 le 27-06-2015 à 13:00:17
n°9538000
Gigathlon
Quad-neurones natif
Posté le 27-06-2015 à 14:27:29  profilanswer
 

Lutinnoir a écrit :

J'ai l'impression que c'est le GM204 qui ralenti plus que la Fiji en 4K. Et pas la Fiji qui envois plus de pâté  [:crutch:5]


Moins ralentir quand on augmente la charge, ça veut dire qu'on a plus de marge de puissance.
 
Moins ralentir quand on augmente la charge en commençant à faible charge à un niveau risible pour arriver à grosse charge en haut du tableau, c'est signe d'un problème non-matériel.
 
Ca me donnerait envie d'acheter une Fury juste pour jouer avec GPU Perf Studio, les démos Unigine et 2-3 autres bidules avec un profiler intégré et regarder les compteurs... :o  

n°9538021
wnorton
Je suis néerlandophone
Posté le 27-06-2015 à 14:39:41  profilanswer
 

gils04 a écrit :


 
 :ouch:  
 
combien ? un prix pour les deux ?
 
edit :
 
en même temps 2 iFury c'est le prix de la Tx à sa sortie ;)


Pourquoi aller si loin toujours Titan une VITRINE TECHNOLOGIE en plus, la TI suffit largement pour moins cher  [:loom the gloom]  
 
Ont voit que la GTX te fait mal, tu la cites pratiquement dans tous tes postes en GTI GT Nv etc...  [:boulox]  
 
Nvidia n'en peu pas si AMD fabrique des cartes qui chauffe, bruyante, mal fini, qui ne sont pas performante malgré l’avantage de sa sortir après...  [:le_chien:1]  
 
PS: si la Fury aurait passer devant la Titan X de 5% elle serait à 1000€   ;)


---------------
Je suis néerlandophone une fois
n°9538037
legalize
Posté le 27-06-2015 à 14:54:46  profilanswer
 

Ce qu'il y a de bien avec les Pronvidia, c'est  que vous oublié tout els raté du passé des nvidia, mais étrangement vous vous rappelé très bien de ceux d'AMD

Message cité 1 fois
Message édité par legalize le 27-06-2015 à 14:56:44

---------------
Feedback hfr
n°9538038
Activation
21:9 kill Surround Gaming
Posté le 27-06-2015 à 14:56:48  profilanswer
 

Lutinnoir a écrit :


 
J'ai l'impression que c'est le GM204 qui ralenti plus que la Fiji en 4K. Et pas la Fiji qui envois plus de pâté [:crutch:5]  
 
Edit: Les PZero Nero sont psychorigide avec l'humidité  [:alertes_f1_5:5]


 
 
à la fin quelle importance, faut en mettre 2 que ça soit en sli ou crossfire pour pas tirer la gueule en ultrahd (idem avec un hawai)
 
c'est un concours de "la moins mauvaise" en ultrahd ??? ou vous êtes heureux de tirer 30-35 i/s en ultrahd en monogpu ?  (pour un jeu de bagnole en tout cas non merci ... après pour candy crush ouep c'est bon :o mais l'intéret de l'ultrahd dans candycruche :o )
 
sinon je savais pas que les fiji on pouvait déjà les toper au prix d'une gtx970 :D ... à 330 euros ça se tente :o (à non merde y a de DP sur la téloche :o )
 
 
sinon c'est quoi le nom du prochain gpu amd 14/16nm à surveiller déjà (pour NV c'est implicite que ça soit gp104 voir gp204 ou gp100/gp200 ... mais c'est quoi le nom pour le prochain amd déjà ? ... celui avec 7168 unité gcn 1.2 :o )


Message édité par Activation le 27-06-2015 à 15:00:32
n°9538049
marllt2
Posté le 27-06-2015 à 15:19:17  profilanswer
 

drey19 a écrit :


 
Le probleme c'est tjs que plus tu reviens de loin, plus c'est long et dur.
 
Au final, tu dois faire aussi bien, voir mieux mais avec moins de moyens et la moindre erreur te ramène a la case départ.
 
C'est bien pour ça que pas mal pense que 2016 sera très importante pour AMD.


C'était le cas notamment avec l'histoire des allocations sur le 40nm.
 
En 2009/2010, les HD 5000 auraient largement pu dominer le marché. On se souvient notamment de la HD 5770 qui était sorti 11 mois avant la GTS 450.
 
Mais AMD avait été trop conservateur, et pas réservé assez de production chez TSMC. Du coup, nVidia avait innondé le marché avec ses GPU DX10.1, et s'est retrouvé avec beaucoup d'invendus de GTX 480/470.
 
Comme disait tridam: http://www.hardware.fr/news/11010/ [...] dispo.html
 

Citation :

Contrairement à Nvidia, AMD n’a pas osé prendre de risque en réservant une partie trop importante de la production. Avec sa famille de Radeon HD 5000, AMD s’est ensuite retrouvé avec une main gagnante mais sans avoir les moyens de la jouer pleinement.  
 
Il est étrange que cette situation se poursuive aussi longtemps et nous pouvons donc supposer qu’AMD a sous-estimé sa main à plusieurs reprises, comme ATI, à l’époque, l’avait fait avec sa Radeon 9700.

n°9538050
wnorton
Je suis néerlandophone
Posté le 27-06-2015 à 15:19:35  profilanswer
 

legalize a écrit :

Ce qu'il y a de bien avec les Pronvidia, c'est  que vous oublié tout els raté du passé des nvidia, mais étrangement vous vous rappelé très bien de ceux d'AMD


J'ai jamais dit que Nvidia était parfait, mais beaucoup plus réactif.


---------------
Je suis néerlandophone une fois
mood
Publicité
Posté le 27-06-2015 à 15:19:35  profilanswer
 

n°9538055
gils04
le soleil du sud !
Posté le 27-06-2015 à 15:27:52  profilanswer
 

wnorton a écrit :


Pourquoi aller si loin toujours Titan une VITRINE TECHNOLOGIE en plus, la TI suffit largement pour moins cher  [:loom the gloom]  
 
Ont voit que la GTX te fait mal, tu la cites pratiquement dans tous tes postes en GTI GT Nv etc...  [:boulox]  
 
Nvidia n'en peu pas si AMD fabrique des cartes qui chauffe, bruyante, mal fini, qui ne sont pas performante malgré l’avantage de sa sortir après...  [:le_chien:1]  
 
PS: si la Fury aurait passer devant la Titan X de 5% elle serait à 1000€   ;)


 
j'ai eu pas mal de nV (que des merdes mal fini , minables , bruyante et chauffage garantie sous OS X , occasionnellement sous win ) (c'était avant) pardon d'être resté à l'époque dinosaure ;) mais quand je lis certain sujet de membres qui se plaignent de leur (belle , performante , silencieuse) nV ,  je m'aperçois que l'époque n'a pas trop changé , entre le scribouillard qui balance des chiffres et la réalité , il y a souvent des sommets à franchir , ce n'est pas péjoratif que de donner des raccourcis à des modèles "NVDA" comme "GT" pour la 980 /"GTI" pour la 980 TI et "iFury" pour la Fury X , pour les versions o/c 980 j'aurais pu ajouter GTI Turbo 16 ;) (j'aime les voitures ) :D  
 
pour le prix , AMD  a toujours été moins cher même au sommet de sa gloire , ATI , pas toujours , que veux-tu ........c'est difficile de changer ;)  
 
je préfère la performance technologique à la performance toute simple sans couleur ni goût :D  

n°9538061
marllt2
Posté le 27-06-2015 à 15:34:39  profilanswer
 

Marc a écrit :

Cf. chez les vert dans le test de la 980 Ti ou sous Far Cry 4 Damien a noté une fluidité meilleure en mono GPU @ 70-75 fps qu'avec un SLI @ 93 fps.


Comment ça se fait que ce n'est pas indiqué sur la page de test ?   :??:  
 
http://www.hardware.fr/articles/93 [...] cry-4.html
 

bucheron9 a écrit :

la fury x @ 679roros en vente flash chez cdiscount.8 pieces dispos
 
http://www.cdiscount.com/informati [...] #mpos=1|cd
 
edit: y a aussi une reduc de 50roros a priori si commande via l appli mobile,soit 629roros la fury x


Elle est repassée à 731, soit 681 avec la réduc mobile...  
 

Marc a écrit :


2x4 Go, pas 8 Go. Si tu comptes sur le SFR de DX12 en multiGPU j'espère pour toi que le gain sera supérieur à celui sous CiV :o

Pipould's a écrit :

Toutafait... Faut juste laisser les devs comprendre comment utiliser la chose, non ?  


Tridam a déjà expliqué ça: http://forum.hardware.fr/hfr/Hardw [...] m#t9477277
 

tridam a écrit :

Pour AMD l'intérêt est similaire mais concerne surtout sa plateforme Dual Graphics.
 
Sinon concernant l'addition des zones mémoires, en théorie tout est possible. En pratique, il y aura toujours au moins un GPU qui devra contenir toutes les textures. Déporter le post processing, ou une partie de celui-ci, vers un autre GPU pourra peut-être économiser quelques buffers dans la mémoire du GPU principal mais ça ne devrait pas faire de différence énorme au niveau de l'utilisation mémoire de ce dernier.
 
En fait ce qu'il sera surtout possible de faire c'est d'avoir par exemple une carte graphique 8 Go pour le rendu de base (avec le texturing) et une carte graphique 1 Go pour le post processing. Mais je vois mal l'industrie se focaliser sur des solutions aussi spécifiques, d'autant plus que peu de jeux pourront en profiter, surtout au départ. Enfin, à moins qu'AMD et Nvidia ne soient capables de prendre en charge eux-mêmes ce type de rendu en multi-GPU avec des optimisations spécifiques qui "couperaient" à la volée le rendu au bon endroit suivant les GPU utilisés.

n°9538065
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 27-06-2015 à 15:44:11  profilanswer
 

J'ose copier mon post de la news de la Fury sur ce topic car je crois qu'il est important que tout le monde comprennent la joute qui est en train de se dérouler en arrière du décors.

 


Comment afficher une ligne bleue sur un moniteur à partir d'une application...

 

Code de l'application -> GameEngine -> Direct3D -> Driver -> Hardware

 

En tout, il se peut que 5000 lignes de code soit nécessaire. Peut-être même plus.
C'est à dire que le CPU et le GPU devront traiter 5000 instructions avant que la ligne bleue ne soit affichée.

 

Dans mon jeune temps, une trentaine de lignes de code en ASM était suffisant pour faire la même chose.
J'écrivais directement dans la mémoire et les registres, sans passer par Windows, par un API, ou par des drivers.
Le rectangle vert de la 1ère ligne du graphique ci-dessous représente justement cela.

 

http://asawicki.info/files/New%20Gen%20Graphics%20API.png

 

Les lignes suivantes montrent l'apparition des drivers, puis de l'API, et ensuite du GameEngine.
La 4e ligne représente ce qui se fait actuellement.
Et la 5e ligne représente le futur proche: DirectX 12 / Mantle.

 


Imaginez maintenant le futur...

 

Code de l'application -> GameEngine -> nVidia GameWorks -> Direct3D -> Driver -> Hardware

 

Imaginez un monde où 80% des moteurs de jeux 3D intégreraient les fonctions graphiques offertes par nVidia.
Imaginez que ces moteurs de jeux utiliseraient les fonctions développées par nVidia autant pour les GeForce que les Radeon.
Imaginez ensuite que les fonctions offertes par nVidia avec son GameWorks sont hermétiques, c-à-d que leur code source n'est pas disponible.

 

Vous comprendrez assez facilement qu'une fois que cela sera devenu réalité, les chances qu'AMD puissent repasser devant nVidia seront nulles.

 

Et bien, tout cela n'est pas de la science fiction.
C'est exactement ce qui est en train de se passer.

 

D'ici quelques années, lorsque nVidia aura peaufiné son GameWorks, quadruplé ses fonctions, et qu'ils auront offert leur GameWorks gratuitement à toutes les grosses boîtes de jeux (Ubi, EA, Square-Enix, Activision Blizzard, ArenaNet, ...) en plus de l'aide de leurs techniciens, les seules cartes graphiques qui offriront des performances acceptables seront celles offertes par nVidia... à fort prix.

 


Lorsqu'AMD a empoché les contats de toutes les consoles en 2013, nVidia a dû réagir, et ils ont lancé le projet GameWorks en 2014. Le but étant de parvenir à prendre le contrôle des jeux qui seront maintenant développés sur des puces crées par AMD. Sans GameWorks les jeux auraient finis par être optimisés pour les Radeon, et cela aurait pu mettre fin au contrôle du marché par nVidia.

 

GameWorks est un cheval de Troie.
C'est un truc offert gratuitement et qui semble inoffensif.
Mais qui, une fois accepté par les devs, détruira son adversaire de l'intérieur.

 

http://www.alghadeer.tv/media/cache/d4/36/d4365a500bb35cd7db1ef66ca5903b05.jpg

 

On peut dire ce que l'ont veut, mais la machine marketing de nVidia est l'une des plus brillantes du marché. Malheureusement. :(

Message cité 2 fois
Message édité par Wirmish le 27-06-2015 à 16:11:20
n°9538077
gils04
le soleil du sud !
Posté le 27-06-2015 à 16:03:39  profilanswer
 

Wirmish a écrit :

J'ose copier mon post de la news de la Fury sur ce topic car je crois qu'il est important que tout le monde comprennent la joute qui est en train de se dérouler en arrière du décors.
 
 
Comment afficher une ligne bleue sur un moniteur à partir d'une application...
 
Code de l'application -> GameEngine -> Direct3D -> Driver -> Hardware
 
En tout, il se peut que 5000 lignes de code soit nécessaire. Peut-être même plus.
C'est à dire que le CPU et le GPU devront traiter 5000 instructions avant que la ligne bleue ne soit affichée.
 
Dans mon jeune temps, une trentaine de lignes de code en ASM était suffisant pour faire la même chose.
J'écrivais directement dans la mémoire et les registres, sans passer par Windows, par un API, ou par des drivers.
Le rectangle vert de la 1ère ligne du graphique ci-dessous représente justement cela.
 
http://asawicki.info/files/New%20G [...] %20API.png
 
Les lignes suivants montrent l'apparition des drivers, puis de l'API, et ensuite du GameEngine.
La 4e ligne représente ce qui se fait actuellement.
Et la 5e ligne représente le futur proche: DirectX 12 / Mantle.
 
 
Imaginez maintenant le futur...
 
Code de l'application -> GameEngine -> nVidia GameWorks -> Direct3D -> Driver -> Hardware
 
Imaginez un monde où 80% des moteurs de jeux 3D intégreraient les fonctions graphiques offertes par nVidia.
Imaginez que ces moteurs de jeux utiliseraient les fonctions développées par nVidia autant pour les GeForce que les Radeon.
Imaginez ensuite que les fonctions offertes par nVidia avec son GameWorks sont hermétiques, c-à-d que leur code source n'est pas disponible.
 
Vous comprendrez assez facilement qu'une fois que cela sera devenu réalité, les chances qu'AMD puissent repasser devant nVidia seront nulles.
 
Et bien, tout cela n'est pas de la science fiction.
C'est exactement ce qui est en train de se passer.
 
D'ici quelques années, lorsque nVidia aura peaufiné son GameWorks, quadruplé ses fonctions, et qu'ils auront offert leur GameWorks gratuitement à toutes les grosses boîtes de jeux (Ubi, EA, Square-Enix, Activision Blizzard, ArenaNet, ...) en plus de l'aide de leurs techniciens, les seules cartes graphiques qui offriront des performances acceptables seront celles offertes par nVidia... à fort prix.
 
 
Lorsqu'AMD a empoché les contats de toutes les consoles en 2013, nVidia a dû réagir, et ils ont lancé le projet GameWorks en 2014. Le but étant de parvenir à prendre le contrôle des jeux qui seront maintenant développés sur des puces crées par AMD. Sans GameWorks les jeux auraient finis par être optimisés pour les Radeon, et cela aurait pu mettre fin au contrôle du marché par nVidia.
 
GameWorks est un cheval de Troie.
C'est un truc offert gratuitement et qui semble inoffensif.
Mais qui, une fois accepté par les devs, détruira son adversaire de l'intérieur.
 
http://www.alghadeer.tv/media/cach [...] 903b05.jpg
 
On peut dire ce que l'ont veut, mais la machine marketing de nVidia est l'une des plus brillantes du marché. Malheureusement. :(


 
hello ,
 
Que penses tu de cela ? ça arrive sur OS X 10.11 , une autre approche ?  
 
http://www.pocketgamer.biz/news/61 [...] announced/

n°9538082
cortexzehe​f
Posté le 27-06-2015 à 16:09:14  profilanswer
 

+1 pour le gros pavé :ouch:

n°9538083
seth-01
Posté le 27-06-2015 à 16:10:42  profilanswer
 

quand on vous dit que c'est des enf....és chez nVidia ...... ben croyez le !! :bounce:  
 
:D

n°9538086
cortexzehe​f
Posté le 27-06-2015 à 16:16:21  profilanswer
 

seth-01 a écrit :

quand on vous dit que c'est des enf....és chez nVidia ...... ben croyez le !! :bounce:  
 
:D


 
 
Heen arrête le gros fanboy  :o  (ironie inside :D )

n°9538094
The Real D​eal
vatos locos forever!
Posté le 27-06-2015 à 16:24:15  profilanswer
 

La plèbe est contente du moment qu'elle est distraite par les jeux à 60 FPS ; le masterplan elle s’en fout.

n°9538100
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 27-06-2015 à 16:28:18  profilanswer
 

The Real Deal a écrit :

La plèbe est contente du moment qu'elle est distraite par les jeux à 60 FPS ; le masterplan elle s’en fout.


Justement, je connais un nouveau jeu qui ne tourne qu'à 30 FPS... si on ne traficotte pas le fichier de settings.

n°9538105
gils04
le soleil du sud !
Posté le 27-06-2015 à 16:33:08  profilanswer
 

:D
 
pas de codage inviolable !  :sol:
 
c'est la spécialité d'Apple , des performances bridées en fonction du type de machine ;)


Message édité par gils04 le 27-06-2015 à 16:34:58
n°9538108
wnorton
Je suis néerlandophone
Posté le 27-06-2015 à 16:39:41  profilanswer
 

gils04 a écrit :

 

j'ai eu pas mal de nV (que des merdes mal fini , minables , bruyante et chauffage garantie sous OS X , occasionnellement sous win ) (c'était avant) pardon d'être resté à l'époque dinosaure ;) mais quand je lis certain sujet de membres qui se plaignent de leur (belle , performante , silencieuse) nV ,  je m'aperçois que l'époque n'a pas trop changé , entre le scribouillard qui balance des chiffres et la réalité , il y a souvent des sommets à franchir , ce n'est pas péjoratif que de donner des raccourcis à des modèles "NVDA" comme "GT" pour la 980 /"GTI" pour la 980 TI et "iFury" pour la Fury X , pour les versions o/c 980 j'aurais pu ajouter GTI Turbo 16 ;) (j'aime les voitures ) :D

 

pour le prix , AMD  a toujours été moins cher même au sommet de sa gloire , ATI , pas toujours , que veux-tu ........c'est difficile de changer ;)

 

je préfère la performance technologique à la performance toute simple sans couleur ni goût :D  

 

Genre souvenir souvenir

 
Citation :

1031$ ! Avec le FX-57, AMD décide de franchir la barre psychologique des 1000$ pour un processeur monocore Desktop. Autant-vous dire que pour nous, ceci ne va pas dans le bon sens. Lancé en octobre 2004, le FX-55 ne voit donc toujours pas son prix baisser, et AMD enfonce aujourd’hui le clou avec ce FX-57. On aurait pu s’attendre à un lancement du FX-57 au prix du FX-55, et à un FX-55 au prix en baisse ! Il faut espérer qu’une baisse des prix AMD viendra rapidement remettre ces tarifs à des niveaux plus raisonnables.

 

http://www.hardware.fr/articles/57 [...] fx-57.html

Message cité 1 fois
Message édité par wnorton le 27-06-2015 à 16:40:45

---------------
Je suis néerlandophone une fois
n°9538111
gils04
le soleil du sud !
Posté le 27-06-2015 à 16:46:40  profilanswer
 

wnorton a écrit :


 
Genre souvenir souvenir  
 

Citation :

1031$ ! Avec le FX-57, AMD décide de franchir la barre psychologique des 1000$ pour un processeur monocore Desktop. Autant-vous dire que pour nous, ceci ne va pas dans le bon sens. Lancé en octobre 2004, le FX-55 ne voit donc toujours pas son prix baisser, et AMD enfonce aujourd’hui le clou avec ce FX-57. On aurait pu s’attendre à un lancement du FX-57 au prix du FX-55, et à un FX-55 au prix en baisse ! Il faut espérer qu’une baisse des prix AMD viendra rapidement remettre ces tarifs à des niveaux plus raisonnables.


 
http://www.hardware.fr/articles/57 [...] fx-57.html


 
 :jap:  
 
c'est l'exception qui confirme la règle :) le FX 55/57 étaient quand même des bêtes de course et à même emmerdaient les dualcore pendant un moment   :sol:  
 
belle époque !   :love:
 
edit:


Message édité par gils04 le 27-06-2015 à 16:47:06
n°9538138
Yopfraize
Posté le 27-06-2015 à 17:18:40  profilanswer
 

Wirmish a écrit :

J'ose copier mon post de la news de la Fury sur ce topic car je crois qu'il est important que tout le monde comprennent la joute qui est en train de se dérouler en arrière du décors.
 
 
Comment afficher une ligne bleue sur un moniteur à partir d'une application...
 
Code de l'application -> GameEngine -> Direct3D -> Driver -> Hardware
 
En tout, il se peut que 5000 lignes de code soit nécessaire. Peut-être même plus.
C'est à dire que le CPU et le GPU devront traiter 5000 instructions avant que la ligne bleue ne soit affichée.
 
Dans mon jeune temps, une trentaine de lignes de code en ASM était suffisant pour faire la même chose.
J'écrivais directement dans la mémoire et les registres, sans passer par Windows, par un API, ou par des drivers.
Le rectangle vert de la 1ère ligne du graphique ci-dessous représente justement cela.
 
http://asawicki.info/files/New%20G [...] %20API.png
 
Les lignes suivantes montrent l'apparition des drivers, puis de l'API, et ensuite du GameEngine.
La 4e ligne représente ce qui se fait actuellement.
Et la 5e ligne représente le futur proche: DirectX 12 / Mantle.
 
 
Imaginez maintenant le futur...
 
Code de l'application -> GameEngine -> nVidia GameWorks -> Direct3D -> Driver -> Hardware
 
Imaginez un monde où 80% des moteurs de jeux 3D intégreraient les fonctions graphiques offertes par nVidia.
Imaginez que ces moteurs de jeux utiliseraient les fonctions développées par nVidia autant pour les GeForce que les Radeon.
Imaginez ensuite que les fonctions offertes par nVidia avec son GameWorks sont hermétiques, c-à-d que leur code source n'est pas disponible.
 
Vous comprendrez assez facilement qu'une fois que cela sera devenu réalité, les chances qu'AMD puissent repasser devant nVidia seront nulles.
 
Et bien, tout cela n'est pas de la science fiction.
C'est exactement ce qui est en train de se passer.
 
D'ici quelques années, lorsque nVidia aura peaufiné son GameWorks, quadruplé ses fonctions, et qu'ils auront offert leur GameWorks gratuitement à toutes les grosses boîtes de jeux (Ubi, EA, Square-Enix, Activision Blizzard, ArenaNet, ...) en plus de l'aide de leurs techniciens, les seules cartes graphiques qui offriront des performances acceptables seront celles offertes par nVidia... à fort prix.
 
 
Lorsqu'AMD a empoché les contats de toutes les consoles en 2013, nVidia a dû réagir, et ils ont lancé le projet GameWorks en 2014. Le but étant de parvenir à prendre le contrôle des jeux qui seront maintenant développés sur des puces crées par AMD. Sans GameWorks les jeux auraient finis par être optimisés pour les Radeon, et cela aurait pu mettre fin au contrôle du marché par nVidia.
 
GameWorks est un cheval de Troie.
C'est un truc offert gratuitement et qui semble inoffensif.
Mais qui, une fois accepté par les devs, détruira son adversaire de l'intérieur.
 
http://www.alghadeer.tv/media/cach [...] 903b05.jpg
 
On peut dire ce que l'ont veut, mais la machine marketing de nVidia est l'une des plus brillantes du marché. Malheureusement. :(


 
L'avenir c'est donc soit financer ngreedia sans aucune alternative possible, soit jouer sur console et payer ses jeux 70 boules  :o  
Dans les 2 cas ca fait mal au Sternum Rectum  :o


Message édité par Yopfraize le 27-06-2015 à 17:37:50
n°9538144
ol1v1er
Posté le 27-06-2015 à 17:31:40  profilanswer
 

Pas vraiment au sternum.
C'est plus bas, que ça va piquer si un jour AMD flanche coule.

Message cité 2 fois
Message édité par ol1v1er le 27-06-2015 à 17:32:34
n°9538150
Yopfraize
Posté le 27-06-2015 à 17:38:15  profilanswer
 

ol1v1er a écrit :

Pas vraiment au sternum.
C'est plus bas, que ça va piquer si un jour AMD flanche coule.

 

Erreur d'étourderie, J'ai corrigé  [:aloy]


Message édité par Yopfraize le 27-06-2015 à 17:39:37
n°9538165
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 27-06-2015 à 18:00:49  profilanswer
 

ol1v1er a écrit :

C'est plus bas, que ça va piquer si un jour AMD flanche coule.


Breaking news! - Lorsqu'AMD aura disparu, nVidia va lancer une nouvelle connectique propriétaire qui ne sera compatible qu'avec des moniteurs nVidiaReady... disponibles avec un surcoût de 200€. La 3D ne sera offert qu'avec nVidia 3DVision, moyennant un déboursement supplémentaire de 100€. Et la réalité virtuelle sera disponible seulement avec les casques VR portant le logo "nVidiaVR", avec une redevance de seulement 150€.
 
http://nvworld.ru/files/news/new-536/TWIMTBP_1.png

n°9538171
Invite_Sur​prise
Racaille de Shanghaï
Posté le 27-06-2015 à 18:02:53  profilanswer
 

Wé Wé, c'est ça Wirmish...  [:hephaestos]

n°9538183
seth-01
Posté le 27-06-2015 à 18:12:16  profilanswer
 

Invite_Surprise a écrit :

Wé Wé, c'est ça Wirmish...  [:hephaestos]


sans concurrence c'est ce qui nous attend ! Et on le vois déjà avec Intel vs AMD sur les CPU : aucun bond majeur en performances CPU, il y en a que pour leurs iGPU de merde ! Alors oui sur ce point il a raison !


Message édité par seth-01 le 27-06-2015 à 18:12:41
n°9538190
Invite_Sur​prise
Racaille de Shanghaï
Posté le 27-06-2015 à 18:22:51  profilanswer
 

Si AMD ne peut plus suivre et est remplacé par un autre, ben c'est la loi du marché.
AMD est en train d'échouer mais il est + facile d'accuser les autres que soi-même.
Je serai plutôt positif a un rachat d'AMD perso, histoire d'avoir une vraie concurrence et pas une poupée gonflable qu'on vide à sa convenance.

n°9538195
Cizia
Posté le 27-06-2015 à 18:33:04  profilanswer
 

Oh là, qu'est-ce qui lui arrive à notre Canadien, il est bien défaitiste  :D
 
au pire AMD sera racheté par des friqués et zou ! :o


---------------
Un Ami ? C'est quelqu'un à qui on peut téléphoner à trois heures du matin en disant qu'on vient de commettre un crime et qui vous répond seulement : " Où est le corps ?! " ~/~ Alain Delon
n°9538197
seth-01
Posté le 27-06-2015 à 18:38:29  profilanswer
 

Invite_Surprise a écrit :

Si AMD ne peut plus suivre et est remplacé par un autre, ben c'est la loi du marché.
AMD est en train d'échouer mais il est + facile d'accuser les autres que soi-même.
Je serai plutôt positif a un rachat d'AMD perso, histoire d'avoir une vraie concurrence et pas une poupée gonflable qu'on vide à sa convenance.


et racheté par qui ? Samsung ? et tu crois qu'ils vont se lancer dans la course à la CG contre nVidia qui détient les 3/4 des PDM. Ils vont plutôt racheter AMD oui, prendre ce qui les intéresse (les brevets) et vendre le reste à qui le voudra bien !

n°9538206
Invite_Sur​prise
Racaille de Shanghaï
Posté le 27-06-2015 à 18:46:52  profilanswer
 

J'en sais rien.
Ce que je vois c'est une entreprise au bord du gouffre et accuser Intel ou nVidia ne va rien changer.
AMD est une entreprise privée comme une autre et si les dirigeants font de la schneck ben ils vont mettre la clé sous la porte.
Je me souviens de Wirmishou qui se paluchait avec l'argent d'Abu Dhabi, qui nous disait qu'avec GloFo ils allaient rouler sur Intel & Co.
Résultat, l'entreprise n'a jamais été aussi proche du ravin avec des produits à l'ouest comparé à ce que fait la concurrence.
Alors bon, autant taper sur ses salops d'Intel et d'nVidia qui savent comment faire tourner une boite et qui ont des vrais dirigeants.

n°9538210
Cizia
Posté le 27-06-2015 à 18:49:28  profilanswer
 

Et IBM ou Microsoft ?  ça ne pourrait pas les intéresser ?


---------------
Un Ami ? C'est quelqu'un à qui on peut téléphoner à trois heures du matin en disant qu'on vient de commettre un crime et qui vous répond seulement : " Où est le corps ?! " ~/~ Alain Delon
n°9538250
Profil sup​primé
Posté le 27-06-2015 à 19:30:35  answer
 

Cizia a écrit :

Et IBM ou Microsoft ?  ça ne pourrait pas les intéresser ?


aucunement  
 
la bande à bilou , le hardware , ça ne les intéresse pas , car pas assez rentable  
et IBM encore moins ( voir historique  :whistle:  )  
 
samsung , tout du moins sur la partie gpu , pourrait avoir son mot à dire , mais ........

n°9538332
Yoyo_5
Posté le 27-06-2015 à 20:43:12  profilanswer
 

Invite_Surprise a écrit :

Si AMD ne peut plus suivre et est remplacé par un autre, ben c'est la loi du marché.
AMD est en train d'échouer mais il est + facile d'accuser les autres que soi-même.
Je serai plutôt positif a un rachat d'AMD perso, histoire d'avoir une vraie concurrence et pas une poupée gonflable qu'on vide à sa convenance.


Personne ne rachètera AMD pour le conserver en l'état. Donc on va juste prier pour que nVidia se vautre comme une merde sur le 14-16nm et Pascal et que AMD remonte. :o
 
Maintenant je vous laisse, je vais commander ma 980 Ti. GTA V et mon 30" en ont cruellement besoin.  [:onizuka_dark]  
 
 
T'es au courant que Microsoft vend des tablettes x86 et qu'ils sont à fond réalité augmentée ? [:canaille]


---------------
¤ Paix et félicité ¤

n°9538335
seth-01
Posté le 27-06-2015 à 20:47:02  profilanswer
 

Yoyo_5 a écrit :

je vais commander ma 980 Ti. GTA V et mon 30" en ont cruellement besoin.  [:onizuka_dark]  
 


une AMD n'irai pas là ??? Plutôt que de donner ton fric à nvidia ??

n°9538336
Pipould's
Posté le 27-06-2015 à 20:50:46  profilanswer
 

Tu pourrais prendre une 295x2 t'aurais plus de perf.

n°9538341
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 27-06-2015 à 20:51:53  profilanswer
 

Cizia a écrit :

Et IBM ou Microsoft ?  ça ne pourrait pas les intéresser ?


Moi je voix plutôt Apple comme repreneur.
 
Côté monétaire c'est pas 2 milliards qui feront mal à Apple... qui est sur le point de franchir la barre des 200 milliards en banque.
 
https://usatmarkets.files.wordpress.com/2015/04/capture89.jpg
 
Et pour le reste c'est clair que ça pourrait intéresser la Pomme.
Faut savoir que maintenant Apple conçoit ses propres puces.
Donc les brevets d'AMD seraient les bienvenus.
 
Note: Les dettes à long terme d'Apple sont passé de $29 milliards en 2014, à $40 milliard aujourd'hui.


Message édité par Wirmish le 27-06-2015 à 20:57:21
n°9538360
guig2000
Posté le 27-06-2015 à 21:10:36  profilanswer
 

Wirmish a écrit :


(...] La 3D ne sera offert qu'avec nVidia 3DVision, moyennant un déboursement supplémentaire de 100€.[...]


 
C’est déjà un cas pire aujourd'hui.
 
Le ticket d'entrée que paye un constructeur pour avoir un modèle de moniteur/TV/vidéo projecteur certifié 3Dvision est de 50 000$. Pour les grandes séries, ça fait pas beaucoup, mais là c’est le prix pour les petites séries.
Bien sûr cela se répercute sur le prix d'achat final de l'écran, auquel l'utilisateur doit rajouté celui d'un kit 3D vision.
Vous aurez deviné que si l'écran inclus son propre émetteur et lunettes, le constructeur doit payer en plus la licence utilisateur...


Message édité par guig2000 le 27-06-2015 à 21:11:15

---------------
Guig Esprit du Sage
n°9538363
Yoyo_5
Posté le 27-06-2015 à 21:14:03  profilanswer
 

seth-01 a écrit :

une AMD n'irai pas là ??? Plutôt que de donner ton fric à nvidia ??


Même si je n'aime pas du tout les méthodes employées par nVidia, je reste chez eux pour cette dernière géné en 28nm. Je vais espérer qu'AMD fasse mieux la prochaine fois. :jap:

 
Wirmish a écrit :

Moi je voix plutôt Apple comme repreneur.

 

Côté monétaire c'est pas 2 milliards qui feront mal à Apple... qui est sur le point de franchir la barre des 200 milliards en banque.

 

https://usatmarkets.files.wordpress.com/2015/04/capture89.jpg

 

Et pour le reste c'est clair que ça pourrait intéresser la Pomme.
Faut savoir que maintenant Apple conçoit ses propres puces.
Donc les brevets d'AMD seraient les bienvenus.

 

Note: Les dettes à long terme d'Apple sont passé de $29 milliards en 2014, à $40 milliard aujourd'hui.


Ce serait pire que tout. Plus de CG pour PC...! :o

Message cité 1 fois
Message édité par Yoyo_5 le 27-06-2015 à 21:15:40

---------------
¤ Paix et félicité ¤

n°9538371
guig2000
Posté le 27-06-2015 à 21:25:05  profilanswer
 


 
Oui, depuis quelques années, IBM se démantèle, ils n'ont presque plus de hardware. Par exemple, la division disque durs a été revendue à hitachi en 2003, la division serveurs x86 à lenovo en 2014.
bientôt, IBM se sera juste un centre de r&d.


---------------
Guig Esprit du Sage
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  244  245  246  ..  399  400  401  402  403  404

Aller à :
Ajouter une réponse
 

Sujets relatifs
Carte Graphique 250€ (AMD/NVIDIA)Radeon R9 280X Tri-X, 3Go ou GeForce GTX 770
Portable pas cher : Intel Celeron N2830 2,16 GHz ou AMD E1-2100 1GHz ?CPU ET CM Choix pour 300 euro max
R9 280X a 15€ ^^R9 290 Tri-X Chauffe beaucoup
Carte graphique R9 290 ou GTX 770 ?R9 290 Trix OC (besoin de conseils sur refroidissement)
Upgrade Radeon 5770 -> GeForce 750 
Plus de sujets relatifs à : [Topic Unique] AMD Radeon R9 Fury (X) & Nano (28nm)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)