Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1052 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3
Page Suivante
Auteur Sujet :

[HFR] Actu : Ventes en hausse de +54% pour Nvidia

n°9991322
aresias
Posté le 13-11-2016 à 13:48:14  profilanswer
1Votes positifs
 

Reprise du message précédent :

Zurkum a écrit :

Pour le multi engine : un responsable NVIDIA avait dit un truc qui résume bien : le multi engine permet de combler les vides dans la file de rendue et donc de l'optimiser. Quand elle est déjà opti ( sous entendu chez NVIDIA ) ça ne sert à rien.


Ce n'est que partiellement vrai. Car il y a des étapes dans le rendu ou le GPU va forcément presque rien faire et dans tous les cas l'async compute te fait gagner dans ce cas là.
Il y a un gain à prendre dans tous les cas même si il serait moins important chez Nvidia.

Message cité 1 fois
Message édité par aresias le 13-11-2016 à 13:50:25
mood
Publicité
Posté le 13-11-2016 à 13:48:14  profilanswer
 

n°9991323
leroimerli​nbis
Posté le 13-11-2016 à 13:50:26  profilanswer
1Votes positifs
 

petit-tigre a écrit :


Oui donc t'as pas le matos pour parler. Fin de l'histoire.
En attendant, les faits étaient là quand j'avais MOI cette carte sous ces 2 jeux : sous 3,5 go, aucun problème, fluidité parfaite. Dès 3,6, stutter régulier avec pourtant 60 fps à l'écran (et notamment sous la pluie). N'hésite pas à continuer à parler dans le vide et me dire que la VRAM n'a rien à voir là-dedans, c'est très intéressant.


 
avec le petit mot sympathique qui va bien en fin de message  [:massys]  
 
si c'était vraiment aussi simple que ce que tu expliques, il n'aurait pas fallu 1 an après la sortie de la GTX 970 pour que le problème soit connu.
 

n°9991324
Yeagermach​42
Posté le 13-11-2016 à 13:53:38  profilanswer
1Votes positifs
 

aresias a écrit :


Ce n'est que partiellement vrai. Car il y a des étapes dans le rendu ou le GPU va forcément presque rien faire et dans tous les cas l'async compute te fait gagner dans ce cas là.
Il y a un gain à prendre dans tous les cas même si il serait moins important chez Nvidia.


Sauf si le gain est inferieur au swap.  
 
L'async a des très bons résultats chez AMD parce que leur archi est faite pour l'exploiter au max contrairement a celle de nvidia. Logique quand la fonctionnalité vient de chez AMD.

n°9991357
mazingerz
Posté le 13-11-2016 à 14:57:58  profilanswer
3Votes positifs
 

ravenloft a écrit :


ça dépend des jeux.
 
Sur dishonored 2, elles sont au coude à coude. 46 pour la 290x et 47 pour la 780ti
http://gamegpu.com/action-/-fps-/- [...] 2-test-gpu
 
Sur titanfall2, la 290 fait bien mieux que la 780ti.  69 pour la 290x et 55 pour la 780ti
http://gamegpu.com/action-/-fps-/- [...] 2-test-gpu
 
Sur civ6, la 780ti fait mieux. 55 pour la 780ti contre 50 pour la 290x
http://gamegpu.com/rts-/-%D1%81%D1 [...] i-test-gpu
 
Sur shadow warrior 2, la 780ti fait 5 fps de mieux que la 290x. Sur mafia 3 c'est la 290x qui fait 2 fps de plus.
 
Au final c'est kif kif et si on regarde le test d'hfr à la sortie de la 780ti, on est dans les mêmes eaux car la 290x titillait déjà la 780ti à sa sortie et elle la titille toujours.
http://www.hardware.fr/articles/91 [...] ances.html
 
Il n'y a que dans les jeux dx12 où la 290x prend son envol mais ça se comprend vu que l'archi GCN a servi de base à mantle qui a servi de base à dx12, ce qui n'est pas le cas de kepler.
 


 
en tout cas globalement a l'heure actuel la 290x je trouve s'en tire mieux
 
http://www.babeltechreviews.com/nv [...] visited/3/
http://i0.wp.com/www.babeltechreviews.com/wp-content/uploads/2016/03/780tiVs290xVsTitan-FIX.jpg?w=921
 
c'est surtout vu la différence de prix des cartes ...  

n°9991411
HashBoost
Posté le 13-11-2016 à 16:47:32  profilanswer
0Votes positifs
 

Pour ceux qui s'en battent les coucougnetes de la guerre entre trolleurs, Nvidia a aussi annoncé dans cette conférence les espoirs qu'ils mettaient dans la nouvelle console de Nintendo et leur partenariat qu'ils espèrent durer pendant les deux prochaines décennies (!)

n°9991417
HashBoost
Posté le 13-11-2016 à 16:55:05  profilanswer
2Votes positifs
 

petit-tigre a écrit :

Je suis assez d'accord, j'ai failli échanger ma 970 à l'époque du VRAM-gate :o mais bon, en face, les Radeon étaient des grille-pains et j'avais assez "souffert" avec les Fermi pour ne plus me risquer là-dedans (entre la chauffe et le bruit...). Il y aurait eu une RX470 ou 480 (custom) à ce moment, j'aurais probablement fait le pas :)


C'est tout le drame d'AMD, arriver toujours deuxième dans la bataille depuis quelques années. C'est uniquement pour ça qu'ils le payent, leurs solutions ne sont pas mauvaises du tout, juste quelques trimestres / années trop tard.

n°9991455
Yeagermach​42
Posté le 13-11-2016 à 17:03:05  profilanswer
1Votes positifs
 

HashBoost a écrit :


C'est tout le drame d'AMD, arriver toujours deuxième dans la bataille depuis quelques années. C'est uniquement pour ça qu'ils le payent, leurs solutions ne sont pas mauvaises du tout, juste quelques trimestres / années trop tard.


C'est aussi leur stratégie de la jouer décalé par rapport a Nvidia. Le seul problème c'est que Nvidia réplique avec ses versions TI a chaque fois.

n°9991458
HashBoost
Posté le 13-11-2016 à 17:05:41  profilanswer
0Votes positifs
 

aresias a écrit :

Zurkum a écrit :

Pour le multi engine : un responsable NVIDIA avait dit un truc qui résume bien : le multi engine permet de combler les vides dans la file de rendue et donc de l'optimiser. Quand elle est déjà opti ( sous entendu chez NVIDIA ) ça ne sert à rien.


Ce n'est que partiellement vrai. Car il y a des étapes dans le rendu ou le GPU va forcément presque rien faire et dans tous les cas l'async compute te fait gagner dans ce cas là.
Il y a un gain à prendre dans tous les cas même si il serait moins important chez Nvidia.


Pour être tout a fait exact, chaque GPU a une allocation de transistor qui est limité (par sa taille, son cout, la consommation, etc...). Les optimisations qui sont faites dépendent des choix dans l'architecture. AMD et NVidia different sur ce point, mais de là a annoncer clairement que l'un se trompe ou que l'autre a raison, je ne pense pas que ce soit possible. Chaque moteur de jeu apporte une pierre dans le jardin de l'un ou de l'autre, pour au final dans la globalité donner un avantage chez NVidia (qui pourrait donc avoir fait les bons choix ?) comme le prouvent les tests. Mais dans un an, les jeux auront changés, les moteurs aussi, et les GPU encore plus :)

n°9991473
havoc_28
Posté le 13-11-2016 à 17:44:09  profilanswer
2Votes positifs
 

Yeagermach42 a écrit :


C'est aussi leur stratégie de la jouer décalé par rapport a Nvidia. Le seul problème c'est que Nvidia réplique avec ses versions TI a chaque fois.


 
Stratégie ?  
 
R600 oui retard par rapport au G80 .  
 
RV670 / G92 dans les mêmes eaux .
 
RV770 / GT200 dans les mêmes eaux .
 
Cypress en avance sur Fermi (GF100) 5/6 mois .
 
Cayman même période que le GF110
 
Tahiti, en avance de 3 mois sur le GK104 .  
 
Gk110, 7 mois d'avances, mais bon tout d'abord réservé à la Titan en version castré, puis à la 780 et pour finir la 780 Ti qui sortie dans les mêmes eaux qu' Hawaï . Et entre Hawaï et le GK110 c'est pas comme si y avait une avance notable de l'un ou l'autre niveau performance .
 
GM204 . C'est à ce moment la où ça a vraiment basculé  
 
GP104 rien en face .    
 
Polaris 10/11 qui sortent légèrement avant le GP107/107 rien de transcendant .
 
 
Donc je suis pas sur qu'il y est réellement une stratégie de décalage si probante que ça .


Message édité par havoc_28 le 13-11-2016 à 17:48:06
n°9991474
petit-tigr​e
miaou
Posté le 13-11-2016 à 17:46:00  profilanswer
1Votes positifs
 

leroimerlinbis a écrit :

si c'était vraiment aussi simple que ce que tu expliques, il n'aurait pas fallu 1 an après la sortie de la GTX 970 pour que le problème soit connu.


Tu as pris la discussion en cours de route. J'ai déjà expliqué le pourquoi de tout cela. Aussi faut-il rappeler que les GTX 900 sont officiellement passées en legacy depuis Juillet (que nvidia a gentiment maquillé ensuite). Ca ne veut pas dire qu'elles n'ont plus aucun support (elles ont reçu Fastsync récemment par exemple) mais elles ne sont plus leur priorité donc il n'est pas illogique que des soucis à ce niveau commencent à apparaitre sur les nouveautés. HFR avait dit que cette possibilité n'était pas écartée.

 

Si tu check les forums des Forza, tu verras que beaucoup se plaignent de stuttering avec ces cartes, mêmes overclockées à 1,5 Ghz, ce qu'on trouve beaucoup moins avec les 980 et les 1060 alors qu'elles offrent toutes les 3 le même niveau de performance (avec la 970 @1.5G). DigitalFoundry avait soulevé ce point et les mauvaises perfs des 970 comparé aux 980 et 1060 à la sortie de Forza Horizon 3. Le jeu était bancal mais il a été patché depuis et ça merdouille toujours avec cette carte principalement.
https://www.vg247.com/2016/09/27/ru [...] ms-report/

Citation :

Even with no AA, a GTX 970 falls far shorter than the 60fps target, even when the GTX 1060 can manage it. The GTX 970 performance in particular is puzzling, and it’s even more disappointing when you consider how popular the card is.

 

Maintenant ici par exemple : http://forums.forzamotorsport.net/ [...] -tips.aspx
Ca en parle et cet utilisateur rencontre exactement le même souci que j'ai eu. Tant qu'il reste sous les 3.5 Go, tout baigne. Dès que ça va au-delà, c'est le bordel. La solution : mettre le jeu en optimisation dynamique pour décharger la VRAM quand ça consomme trop.

 

Si ça ne pointe pas directement la VRAM de la 970 comme coupable, comment l'expliquer autrement alors ? Pourquoi est-ce que cette carte est particulièrement ciblée dans ces jeux ? Encore uen fois, se fier au très bon mais vieillissant dossier d'HFR ne rime pas à grand chose. HFR explique bien que quoi qu'il arrive, les 970 ne pourront jamais exploiter les 4 Go comme les autres GPU et que l'absence de souci constaté lors du dossier ne signifie pas qu'il n'y en aura jamais.

 

Peut-être que dans le cas de Batman AK, le jeu charge des assets peu impactants dans les 512 Mo 32 bits... ce qui expliquerait que les perfs ne dégringolent pas quand on dépasse les 3.5 Go (j'ai même eu 4200 Mo consommés en pointe et RAS). Là encore, c'est le pilote couplé au jeu qui gère tout ça mais ça demande des optimisations spécifique que Nvidia fera de moins en moins et Batman comme Ryse ou ACreed Unity sont sortis quand les Maxwell étaient la priorité de la marque, c'est fini aujourd'hui.

 

Je veux bien qu'il y ait une autre ou meilleure explication mais dans ce cas, donnez-la :)


Message édité par petit-tigre le 13-11-2016 à 18:56:45

---------------
mIaOuUuUuUuUuUu
mood
Publicité
Posté le 13-11-2016 à 17:46:00  profilanswer
 

n°9991476
Le Profana​teur
Passéiste désincarné
Posté le 13-11-2016 à 17:48:34  profilanswer
1Votes positifs
 

petit-tigre a écrit :


 
 
Bon sur ce, je stoppe définitivement là. Je n'ai pas envie d'être sanctionné pour ces gamineries de fanboy :)


J'ai du mal lire :/


---------------
Abordez la pente du bon côté ! \o/ Let the light surround you \o/ To bleed or not to be...
n°9991486
petit-tigr​e
miaou
Posté le 13-11-2016 à 17:58:05  profilanswer
1Votes positifs
 

Non tu as bien lu, je faisais juste un aparté pour leroimerlinbis qui m'interpellait :) S'il veut continuer, je veux bien en MP si ça gêne.


Message édité par petit-tigre le 13-11-2016 à 17:58:54

---------------
mIaOuUuUuUuUuUu
n°9991572
darkandy
?
Posté le 13-11-2016 à 19:24:58  profilanswer
0Votes positifs
 

HashBoost a écrit :

Pour ceux qui s'en battent les coucougnetes de la guerre entre trolleurs, Nvidia a aussi annoncé dans cette conférence les espoirs qu'ils mettaient dans la nouvelle console de Nintendo et leur partenariat qu'ils espèrent durer pendant les deux prochaines décennies (!)


 
 
Un partenariat pendant 20 ans ? Même à ma retraite, les prochaines consoles Nintento seront sous Nvidia ?   :pt1cable:


---------------
Phenom II 1090T: http://valid.canardpc.com/show_oc.php?id=1766499 Intel Core i5 4670K : http://valid.x86.fr/ka4cpf Ryzen 2600 : https://valid.x86.fr/0byf0r Ryzen 5 3600 : https://valid.x86.fr/fzwdll
n°9991578
darkandy
?
Posté le 13-11-2016 à 19:30:19  profilanswer
1Votes positifs
 

ravenloft a écrit :


Au moins ils rentrent à nouveau dans le marché console en espérant que la switch n'ait pas un destin à la wiiu.


 
 
C'est aux éditeurs de faire le choix, comme d'hab. En fait c'est mal foutu : Petit parc de consoles> éditeurs boudent>mauvaises ventes> éditeurs boudent>mauvaise ventes... Le serpent qui se mort la queue.


Message édité par darkandy le 13-11-2016 à 19:30:49

---------------
Phenom II 1090T: http://valid.canardpc.com/show_oc.php?id=1766499 Intel Core i5 4670K : http://valid.x86.fr/ka4cpf Ryzen 2600 : https://valid.x86.fr/0byf0r Ryzen 5 3600 : https://valid.x86.fr/fzwdll
n°9991583
mazingerz
Posté le 13-11-2016 à 19:39:34  profilanswer
2Votes positifs
 

faut aussi que la nouvelle nintendo trouve ça clientelle, pour l'instant rien n'est assuré
 
ça peut faire un carton comme la Wii ou un Flop comme la WiiU  
 
pourtant la WiiU a de bon jeux  

n°9991599
major95
The !!!! Beat
Posté le 13-11-2016 à 20:11:49  profilanswer
1Votes positifs
 

aresias a écrit :


Ce qu'ajoute le support du 12_1 peut être fait de façon logiciel (mais demande plus de performances). Dans quel mesure je ne sais pas.

 

Ah oki, mea culpa  :jap:

 

Comme quoi ça ressemble fortement à la transition 10 / 10_1 où Nvidia disait la même chose  :D


Message édité par major95 le 13-11-2016 à 20:12:12
n°9991603
aresias
Posté le 13-11-2016 à 20:17:31  profilanswer
1Votes positifs
 

Oui je pense que DirectX 12_1 va probablement faire comme 10_1. Ce ne sera pas ou peu utilisé.

n°9991648
bugmstr
Posté le 13-11-2016 à 21:48:20  profilanswer
0Votes positifs
 

Omelmike a écrit :

@ petit-tigre & ravenloft :
Je participe à la discussion sur la 970 une énième fois : que la carte soit moins puissante ou non, que les 3,5 Go aient un réel impact sur les perfs ou non, quelque part on s'en tape. L'importance réside dans une donnée : l'escroquerie.
Artcle 313-1 du Code pénal : "L'escroquerie est le fait, soit par l'usage d'un faux nom ou d'une fausse qualité, soit par l'abus d'une qualité vraie, soit par l'emploi de manoeuvres frauduleuses, de tromper une personne physique ou morale et de la déterminer ainsi, à son préjudice ou au préjudice d'un tiers, à remettre des fonds, des valeurs ou un bien quelconque, à fournir un service ou à consentir un acte opérant obligation ou décharge."
Il s'agit donc (en France, du moins) d'un délit.  
Cette escroquerie caractérisée venant d'une grosse firme, la sanction par le consommateur aurait dû être sans appel : le boycott, pur et simple, soit une façon de montrer que ce genre de pratique n'est pas acceptable. Mais l'attitude de la presse et du consommateur a été toute autre : en minimisant le problème (réel, celui d'ordre juridique, et non l'éventuel problème de perfs), la porte est restée ouverte, et le problème se représentera, sous une autre forme, et les conséquences sont déjà là, avec des GPU vendus un bras.  
Bref, je mets fin à mon HS, mais j'ai tenu à répéter ce que j'ai déjà proféré maintes fois sur ce forum : se plaindre alors que l'on sourit béatement face à l'enfumeur ne résoudra pas vos angoisses concernant les pratiques tarifaires de NV. Et pleurer bêtement sur le manque-de-concurrence-qui-permettrait-de-voir-le-prix-des-geforce-baisser ne sert à rien si derrière personne ne veut "prendre le risque" d'avoir de l'AMD...


 
Tu oublis juste un détail dans ta citation : "à son préjudice ou au préjudice d'un tiers". Encore faut il démontrer un réel préjudice. Retour à la case départ.
S'il n'y a pas de préjudice, pas d'escroquerie, pas de délit.

n°9991669
theangel54​0
Posté le 13-11-2016 à 22:25:48  profilanswer
1Votes positifs
 

...Fuuu, ça en fait des pages.
...'Vont bien finir par sortir des nVidia Stores un jour avec des crayons de couleur à l'entrée ...
"Camarades, j'ai rétrogradé les pilotes de ma Titan(Tm) pour pouvoir jailbreaker son BIOS et ne pas être traqué..."
 
Bon, ba je retourne "ramer" avec ma 7970 qui poutre en OpenCl sous rawtherapee... J'ai de la photo à filtrer...
Mince, c'est sale quand même une vieille 7970...
On est sur jeuxvideo.com ou hardware.fr?
Nan, parceque les Gars, 'y'a un peu de monde qui mine, qui daz, qui mayate, renderman ...  
   
 

n°9991676
soulfate
Posté le 13-11-2016 à 22:35:03  profilanswer
0Votes positifs
 

Y'a moyen d'avoir des graphs du "nombre de commentaires" par "la nature de l'article" (ou "le thème abordé" ) ? C'est pour une étude sociologique sur les geeks.
Merci ^^

n°9991682
Xillendo
Posté le 13-11-2016 à 22:51:59  profilanswer
0Votes positifs
 

ravenloft a écrit :


c'est d3d 12_1 pas dx12_1. A la différence de dx10.1, d3d 12_1 est intégré de base dans dx12 et une carte full dx12 devrait le gérer.
Pour le moment dx12 est utilisé uniquement pour les capacités bas niveau vu qu'un jeu dx12 a les mêmes graphismes qu'une version dx11. Reste plus qu'à l'exploiter pour ses autres nouveautés. Cela dépendra de son utilisation sur xbox one (à voir si elles les gère) vu qu'en général les jeux AAA exploitant ces nouveautés sont avant tout développés pour le hardware console..


 
 
Bah justement, les consoles sont sur du AMD, donc niveau de fonctionnalité 12_0. (peut être même 11_1 pour la PS4 puisque GCN 1.0)

n°9991713
HashBoost
Posté le 13-11-2016 à 23:45:07  profilanswer
0Votes positifs
 

ravenloft a écrit :

La switch a l'air d'avoir le cul entre 2 chaises, une console de salon qui se veut aussi une portable mais n'aura ni la puissance nécessaire pour une vraie console de salon (les composants doivent tenir dans les dimensions et avec les contraintes d'une console portable)


Connaissant Nvidia et leurs Tegra, je pense que tu aura une grosse surprise a ce niveau. C'est aussi l'un des axes forts qu'ils ont developpé depuis quelques années, la puissance pour une consommation maitrisée.

n°9991751
darkandy
?
Posté le 14-11-2016 à 00:55:25  profilanswer
2Votes positifs
 

HashBoost a écrit :


Connaissant Nvidia et leurs Tegra, je pense que tu aura une grosse surprise a ce niveau. C'est aussi l'un des axes forts qu'ils ont developpé depuis quelques années, la puissance pour une consommation maitrisée.


 
Oui enfin faut pas s'emballer non plus hein lol Ce n'est pas uniquement la puissance graphique d'une console qui compte, il y a aussi l'ergonomie (bon c'est du Nintendo, donc normalement pas de soucis) mais aussi et surtout le nombre de jeux et licences dispo.
 
Sinon, si l'ont pense que performances graphiques,  la N64 aurait explosé la PS1, idem pour la GameCube (une excellente console très performante pour l'époque) voir même l'excellente Dreamcast vs la PS2. Ou encore la PSVita qui est plus puissante que la 3DS...
 
Et même dans une époque très lointaine (que seules quelques personnes de plus de 25- 30 ans se rappellent), la Linx ou la Game Gear (à l'autonomie désastreuse) qui étaient plus performantes que la GameBoy.
 
Sans compter la Jaguar d'Atari, la 3DO (au prix exorbitant), le méga cd et le 32X, la Nec PC-FX, la Neo-Geo pocket, la wonderswan, l'Apple Pippin... Et j'en oublie sûrement d'autres...
 
Toutes ont eue au final un point en commun : le manque de jeux à leur début ou au bout d'un moment.
 
Pourtant, la puissance était là.  :D
 
Après, ce n'est peut-être plus le même publique maintenant, mais le succès en demi teinte de la Wii-U (et de la plupart des consoles de salon Nintendo après la SNes) peut éventuellement rendre frileux les futurs acquéreurs de la prochaine console de Nintendo.
 
Sans compter ceux qui hésitent et attendent que pas mal de jeux sortent, mais de l'autre côté pour développer des jeux, les éditeurs attendent que les consoles se vendent lol

Message cité 2 fois
Message édité par darkandy le 14-11-2016 à 00:58:08

---------------
Phenom II 1090T: http://valid.canardpc.com/show_oc.php?id=1766499 Intel Core i5 4670K : http://valid.x86.fr/ka4cpf Ryzen 2600 : https://valid.x86.fr/0byf0r Ryzen 5 3600 : https://valid.x86.fr/fzwdll
n°9991804
petit-tigr​e
miaou
Posté le 14-11-2016 à 08:59:19  profilanswer
0Votes positifs
 

darkandy a écrit :


 
Oui enfin faut pas s'emballer non plus hein lol Ce n'est pas uniquement la puissance graphique d'une console qui compte, il y a aussi l'ergonomie (bon c'est du Nintendo, donc normalement pas de soucis) mais aussi et surtout le nombre de jeux et licences dispo.
 
Sinon, si l'ont pense que performances graphiques,  la N64 aurait explosé la PS1, idem pour la GameCube (une excellente console très performante pour l'époque) voir même l'excellente Dreamcast vs la PS2. Ou encore la PSVita qui est plus puissante que la 3DS...
 
Et même dans une époque très lointaine (que seules quelques personnes de plus de 25- 30 ans se rappellent), la Linx ou la Game Gear (à l'autonomie désastreuse) qui étaient plus performantes que la GameBoy.
 
Sans compter la Jaguar d'Atari, la 3DO (au prix exorbitant), le méga cd et le 32X, la Nec PC-FX, la Neo-Geo pocket, la wonderswan, l'Apple Pippin... Et j'en oublie sûrement d'autres...
 
Toutes ont eue au final un point en commun : le manque de jeux à leur début ou au bout d'un moment.
 
Pourtant, la puissance était là.  :D
 
Après, ce n'est peut-être plus le même publique maintenant, mais le succès en demi teinte de la Wii-U (et de la plupart des consoles de salon Nintendo après la SNes) peut éventuellement rendre frileux les futurs acquéreurs de la prochaine console de Nintendo.
 
Sans compter ceux qui hésitent et attendent que pas mal de jeux sortent, mais de l'autre côté pour développer des jeux, les éditeurs attendent que les consoles se vendent lol


Oui seule la PS4 a réussi à combiner puissance et console la plus vendue.


---------------
mIaOuUuUuUuUuUu
n°9991845
src386
Posté le 14-11-2016 à 10:19:46  profilanswer
0Votes positifs
 

Mais d'où vous sortez tous ces bugs avec les pilotes Nvidia ?  
Les 4 dernières années j'ai fait GTX670 puis GTX970 et je n'ai jamais eu le moindre problème. Et avant c'était une HD5850 pour laquelle je n'ai jamais eu de soucis non plus alors qu'AMD était encore réputé pour ses pilotes pourris.
 
Bon il faut dire que je joue en 1920x1080 ce qui est plutôt standard. Les bugs touchent peut-être les configurations exotiques ?

n°9991860
vladobar
J'aime pas quand ça rame…
Posté le 14-11-2016 à 10:44:30  profilanswer
0Votes positifs
 

darkandy a écrit :

 

Oui enfin faut pas s'emballer non plus hein lol Ce n'est pas uniquement la puissance graphique d'une console qui compte, il y a aussi l'ergonomie (bon c'est du Nintendo, donc normalement pas de soucis) mais aussi et surtout le nombre de jeux et licences dispo.

 

Sinon, si l'ont pense que performances graphiques,  la N64 aurait explosé la PS1, idem pour la GameCube (une excellente console très performante pour l'époque) voir même l'excellente Dreamcast vs la PS2. Ou encore la PSVita qui est plus puissante que la 3DS...

 

Et même dans une époque très lointaine (que seules quelques personnes de plus de 25- 30 ans se rappellent), la Linx ou la Game Gear (à l'autonomie désastreuse) qui étaient plus performantes que la GameBoy.

 

Sans compter la Jaguar d'Atari, la 3DO (au prix exorbitant), le méga cd et le 32X, la Nec PC-FX, la Neo-Geo pocket, la wonderswan, l'Apple Pippin... Et j'en oublie sûrement d'autres...

 

Toutes ont eue au final un point en commun : le manque de jeux à leur début ou au bout d'un moment.

 

Pourtant, la puissance était là.  :D

 

Après, ce n'est peut-être plus le même publique maintenant, mais le succès en demi teinte de la Wii-U (et de la plupart des consoles de salon Nintendo après la SNes) peut éventuellement rendre frileux les futurs acquéreurs de la prochaine console de Nintendo.

 

Sans compter ceux qui hésitent et attendent que pas mal de jeux sortent, mais de l'autre côté pour développer des jeux, les éditeurs attendent que les consoles se vendent lol


Je suis d'accord avec toi. J’ajouterais aussi le prix (que ce soit pour le consommateur ou pour les éditeurs (c.f le prix des cartouches)…) et la complexité de développement (ce qui revient un peu aux jeux disponibles).

 

Concernant, la guerre-guerre AMD-NVidia, les 2 sortent de bons produits aujourd’hui avec leurs qualités et leurs défauts. Pour s’en convaincre il suffit de lire les arguments des uns et des autres, c’est toujours un peu les mêmes qui reviennent :p.
Pour moi la grande différence se joue sur la capacité à gérer l’image de marque et la dessus, il n’y a pas photo : AMD est (malheureusement) à la ramasse par rapport a Nvidia, 2 exemples criants pour illustrer la chose :
 - Sur la 480, qui est une bonne carte au demeurant, AMD a raté la com (pourquoi s’obstiner sur la conso alors que cette carte a d’autre excellent argument ? ) et le foirage de la sortie du modèle de ref qui a salement entaché la carte alors que les custom sont bon, avec un excellent rapport qualité prix.
 - De l’autre coté, Nvidia a menti sur les 970 (même si ca n’a pas d’influence sur les perf, ca reste un mensonge et ils ont été condamné pour ca), et pourtant l’affaire n’a pas eu d’impact.

 


Message édité par vladobar le 14-11-2016 à 10:47:05
n°9991923
lapin
Posté le 14-11-2016 à 12:00:02  profilanswer
0Votes positifs
 

@darkandy tu pourrais rajouté que la R9 FURY est disponible à 279€ et qu'elle concurrence bien les cartes nVIDIA du mêmes tarifs !!!!!

n°9991965
Fakk2
Posté le 14-11-2016 à 12:51:03  profilanswer
0Votes positifs
 

Je ne sais pas chez vous mais ici Vulcan donne d'excellents résultats, contrairement à DX12 (GTX770), les pilotes?

n°9992008
major95
The !!!! Beat
Posté le 14-11-2016 à 13:53:57  profilanswer
0Votes positifs
 


Surement, Nvidia ayant une très grande expérience sur l'OpenGL.

n°9992025
havoc_28
Posté le 14-11-2016 à 14:06:56  profilanswer
1Votes positifs
 

major95 a écrit :


Surement, Nvidia ayant une très grande expérience sur l'OpenGL.


 
C'était pas super probant sur Doom, je ne sais pas si ça a évolué depuis  :whistle:

n°9992033
neurotoxic
Posté le 14-11-2016 à 14:18:34  profilanswer
0Votes positifs
 

ravenloft a écrit :

Xillendo a écrit :


 
 
Bah justement, les consoles sont sur du AMD, donc niveau de fonctionnalité 12_0. (peut être même 11_1 pour la PS4 puisque GCN 1.0)


Pas forcément parce que les gpus dans les consoles ne sont pas forcément pareils niveau fonction que ceux des pcs. Parfois ils ont des fonctions en plus.
Remember par exemple l'unité de tesselation dans les r5xx sur x360 alors que sur pc, les gpus amd n'en ont eu que bien après avec l'apparition de dx11 et n'en avaient pas dans la famille des r5xx.
 
après peut être qu'ils ne l'ont pas mais j'ai pas vu passé d'infos officiels sur ça. Si tu en as, ça serait sympa.
 
Par contre, la scorpio l'aura surement si ce n'est pas le cas aujourd'hui vu qu'elle devrait être équipé de vega et j'espère qu'amd aura avec vega enfin un chip full dx12.
 
En tout cas l'ego engine 4.0 de codemaster supporte d3d 12_1 mais ils ne l'ont pas encore utilisé dans leurs jeux (pourtant les 2 derniers f1 utilisent l'ego 4 mais pas de version dx12).
http://www.dsogaming.com/news/code [...] erization/


 
Les HD 48xx avaient une unité de tesselation aussi sur pc bien plus tard mais qui n'était pas exploitée au grand dam d'Amédé...

n°9992036
major95
The !!!! Beat
Posté le 14-11-2016 à 14:24:16  profilanswer
0Votes positifs
 

neurotoxic a écrit :


Pas forcément parce que les gpus dans les consoles ne sont pas forcément pareils niveau fonction que ceux des pcs. Parfois ils ont des fonctions en plus.
Remember par exemple l'unité de tesselation dans les r5xx sur x360 alors que sur pc, les gpus amd n'en ont eu que bien après avec l'apparition de dx11 et n'en avaient pas dans la famille des r5xx.
 
après peut être qu'ils ne l'ont pas mais j'ai pas vu passé d'infos officiels sur ça. Si tu en as, ça serait sympa.
 
Par contre, la scorpio l'aura surement si ce n'est pas le cas aujourd'hui vu qu'elle devrait être équipé de vega et j'espère qu'amd aura avec vega enfin un chip full dx12.
 
En tout cas l'ego engine 4.0 de codemaster supporte d3d 12_1 mais ils ne l'ont pas encore utilisé dans leurs jeux (pourtant les 2 derniers f1 utilisent l'ego 4 mais pas de version dx12).
http://www.dsogaming.com/news/code [...] erization/


 
Les HD 48xx avaient une unité de tesselation aussi sur pc bien plus tard mais qui n'était pas exploitée au grand dam d'Amédé...[/quotemsg]
 

Citation :

Depuis les Radeon HD 2000 tous les GPUs d’ATI intègrent une unité de tessellation fixe. Le problème est que pour être utilisée d’une manière flexible il faut recourir à plusieurs astuces et plusieurs passes, ce qui n’est pas toujours très pratique. Elle n’a d’ailleurs jamais été utilisée.


 
Et non pas sans raison.

n°9992047
Invite_Sur​prise
Racaille de Shanghaï
Posté le 14-11-2016 à 14:30:38  profilanswer
0Votes positifs
 

havoc_28 a écrit :


 
C'était pas super probant sur Doom, je ne sais pas si ça a évolué depuis  :whistle:


Tu dois confondre car sous Doom les cartes NV sont bien supérieures aux cartes AMD en mode OpenGL.
Il n'y a que sous Vulkan où les cartes AMD tirent leur épingle du jeu.
 
http://www.computerbase.de/2016-07 [...] md-nvidia/
http://www.pcgameshardware.de/Doom [...] t-1195242/

n°9992050
havoc_28
Posté le 14-11-2016 à 14:32:03  profilanswer
1Votes positifs
 

Invite_Surprise a écrit :


Tu dois confondre car sous Doom les cartes NV sont bien supérieures aux cartes AMD en mode OpenGL.
Il n'y a que sous Vulkan où les cartes AMD tirent leur épingle du jeu.
 
http://www.computerbase.de/2016-07 [...] md-nvidia/
http://www.pcgameshardware.de/Doom [...] t-1195242/


 
De quoi y a des gens qui jouent à Doom avec autre chose que le mode Vulkan ? :o . Et plus haut ça parlait GTX 770 / Vulkan  :whistle:
 

Citation :


 

Fakk2 a écrit :

Je ne sais pas chez vous mais ici Vulcan donne d'excellents résultats, contrairement à DX12 (GTX770), les pilotes?


 

major95 a écrit :


Surement, Nvidia ayant une très grande expérience sur l'OpenGL.

 


 
Pas sur que ce soit moi qui ait confondu Vulkan et OpenGL :D .


Message édité par havoc_28 le 14-11-2016 à 14:38:01
n°9994475
horus84
Posté le 17-11-2016 à 18:06:46  profilanswer
0Votes positifs
 

mérité qu'on lit sur la première page des kikoo nvhideux.  
alors que tout es du au MONOPOLE.

n°9994480
bugmstr
Posté le 17-11-2016 à 18:13:42  profilanswer
1Votes positifs
 

Ca ne veut rien dire.
Une situation de monopole n'est jamais dûe au hasard. Si on en est là c'est qu'ils sont meilleurs que leurs concurrents (soit en comm, soit en marketing, soit en commerce, soit en r&d, soit en industriel, voire probablement dans une majorité de ces secteurs ...).
C'est factuel, le reste c'est du blabla.

n°9994496
Zurkum
Posté le 17-11-2016 à 18:41:13  profilanswer
2Votes positifs
 

+1

n°9994777
vladobar
J'aime pas quand ça rame…
Posté le 18-11-2016 à 09:11:19  profilanswer
1Votes positifs
 

Apres faut voir aussi ce que l’on appelle « mérite » :
• Si c’est la définition « angélique » : ils font mieux de tout point de vue que la concurrence a prix égale, alors, non ils ne le mérite pas (on pourrait même pousser le vice en ajoutant l’intégrité mais je n’irais pas jusque la).
• Si la définition c’est « ils ont tout fait pour que cela arrive », bah dans ce cas ils le méritent.

Message cité 1 fois
Message édité par vladobar le 18-11-2016 à 13:00:56
n°9994783
petit-tigr​e
miaou
Posté le 18-11-2016 à 09:17:53  profilanswer
1Votes positifs
 

vladobar a écrit :

Apres faut voir aussi ce que l’on appelle « mérite » :
• Si c’est la définition « angélique » : ils font mieux de tout point de vue que la concurrence a prix égale, alors, non ils ne le mérite pas (on pourrait même pousser le vice en ajoutant l’intégrité mais je n’irais pas jusque la).
• Si ca la définition c’est « ils ont tout fait pour que cela arrive », bah dans ce cas ils le méritent.  


Parfaitement d'accord :jap:
 
D'accord aussi avec bugmstr, même si les pratiques sont parfois trollesques chez Nvidia, ils sont globalement meilleurs sur tout ou partie des points cités.


---------------
mIaOuUuUuUuUuUu
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3
Page Suivante

Aller à :
Ajouter une réponse
 

Sujets relatifs
[HFR] Actu : USB 3.1 et Wi-Fi dans les chipsets Intel ?[HFR] Actu : Radeon Software 16.11.3 pour Dishonored 2
NVIDIA : augmenter la luminosité des vidéos internet comme chez ATI ?CG Nvidia GeForce GTX 680 - Temps de la changer ?
[HFR] Actu : Nouvelle usine NAND 3D pour Toshiba[HFR] Actu : Deuxième génération de NAND 3D Intel mi 2017
[HFR] Actu : Les ventes de Nvidia toujours en hausse[HFR] Actu : Résultats Nvidia, ventes en hausse mais baisse à venir
[HFR] Actu : Ventes Nvidia en hausse grâce aux GTX 
Plus de sujets relatifs à : [HFR] Actu : Ventes en hausse de +54% pour Nvidia


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR