Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2766 connectés 

 

 

Fin 2022, baisse des prix, Ada.L & RDNA3, envisagez-vous toujours d'acheter une carte Ampère


 
10.9 %
 16 votes
1.  Oui, d'occase à vil prix !
 
 
5.4 %
   8 votes
2.  Oui, neuve, à un tarif enfin proche du msrp
 
 
8.8 %
 13 votes
3.  Nan j'attends les nouvelles 4060 & 4070 en 2023
 
 
8.2 %
 12 votes
4.  Nan, j'ai pris/je vais prendre une 4090
 
 
6.8 %
  10 votes
5.  Nan, j'ai pris/je vais prendre une Radeon 7000
 
 
12.2 %
 18 votes
6.  Nan mais je profite des prix des Radeon 6000 eux aussi en baisse.
 
 
47.6 %
 70 votes
7.  J'ai déjà ma RTX 3000
 

Total : 183 votes (36 votes blancs)
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  120  121  122  ..  1884  1885  1886  1887  1888  1889
Auteur Sujet :

[TU] Nvidia Ampère - GeForce RTX 3000 - La Génération Ubuesque !

n°10807564
Helyis
Choisir, c'est mourir un peu
Posté le 25-08-2020 à 19:16:51  profilanswer
 

Reprise du message précédent :

ben shinobi a écrit :


non c'est plutot la 2070 super qui est 10-12% devant la 1080 ti, +13 sur fortnite, + 15 sur pubg, + 11 wow etc...FAut arrêter de prendre ses reves pour des réalités, les fonctions MRenders (gshader sphere etc...) sont largement plus balaises sur les turings, et ne parlons pas des réso au dessus du full HD...

 


https://cdn.discordapp.com/attachme [...] nknown.png

 


¯\_(ツ)_/¯

 


EDIT : remise de l'image en plein format, désolé si ça vous agresse

Message cité 1 fois
Message édité par Helyis le 25-08-2020 à 20:41:17
mood
Publicité
Posté le 25-08-2020 à 19:16:51  profilanswer
 

n°10807588
ben shinob​i
Posté le 25-08-2020 à 20:15:47  profilanswer
 


 
 [:moonblood6:6] J'suis sur que c'est passionnant et instructif mais on voit keud  [:hahanawak].
 
Alors, on va clore le débat définitivement en une poignées de bench :  3dmark timespy dx12 et superposition (dx11) .
 
3dmark timespy https://www.guru3d.com/articles_pag [...] ew,30.html
1080 Ti FE :  
graphic score : 9521
 
2070 super FE : 10088 (un peu faible je suis à 10500 d'usine, mais bon)... https://www.guru3d.com/articles_pag [...] ew,24.html
ça fait en gros 7% de diff sur du dx12
 
superposition dx 11 (performance score) https://www.guru3d.com/articles_pag [...] ew,22.html
1080ti = 6082 | 2070 SUPER = 6827  + de 11% dans la vue...
 
And thhheeeee  wwwiiinnnnnerrr iiiisssss  ::  2070 SUPER   !!  [:dovakor_:1]  [:baelg]
 
J'ai édité je m'étais trompé de ligne   [:poutrella:5]

Message cité 1 fois
Message édité par ben shinobi le 25-08-2020 à 20:40:53
n°10807590
sat 08
Team Haque-Barre
Posté le 25-08-2020 à 20:18:15  profilanswer
 


 
 
 [:frogaski62:5]


---------------
Deuzepassimaldéjà.
n°10807591
aliss
Rhyme the Rhyme Well
Posté le 25-08-2020 à 20:18:28  profilanswer
 

obduction a écrit :


Pourtant il y a une différence. La 780ti occupait une place inoccupé car il n'existait aucune carte offrant ce type de perf à l'époque excepté une titan hors de prix pas vraiment destiné aux joueurs.
Les super n'ont fait qu'occuper un créneau déjà occupé par des cartes existantes. Seule la 2080 super a occupé un créneau entre la 2080 et la 2080ti.

 

Les super c'est un peu comme les ryzen xt, on sort une nouveauté qui n'en est pas vraiment une pour occuper l'espace afin de contrecarrer le concurrent.

 

Ce n'est donc pas pareil que la 780ti qui était vraiment une nouveauté dans le sens où elle occupait un tout nouvel espace de la carte gaming la plus puissante et ne venait remplacer aucune autre carte.

 


Tu devrais relire les articles de Tridam.  ;)


Message édité par aliss le 25-08-2020 à 20:18:41
n°10807600
Helyis
Choisir, c'est mourir un peu
Posté le 25-08-2020 à 20:43:24  profilanswer
 

ben shinobi a écrit :

 

[:moonblood6:6] J'suis sur que c'est passionnant et instructif mais on voit keud  [:hahanawak].

 

Alors, on va clore le débat définitivement en une poignées de bench :  3dmark timespy dx12 et superposition (dx11) .

 

3dmark timespy https://www.guru3d.com/articles_pag [...] ew,30.html
1080 Ti FE :
graphic score : 9521

 

2070 super FE : 10088 (un peu faible je suis à 10500 d'usine, mais bon)... https://www.guru3d.com/articles_pag [...] ew,24.html
ça fait en gros 7% de diff sur du dx12

 

superposition dx 11 (performance score) https://www.guru3d.com/articles_pag [...] ew,22.html
1080ti = 6082 | 2070 SUPER = 6827  + de 11% dans la vue...

  

And thhheeeee  wwwiiinnnnnerrr iiiisssss  ::  2070 SUPER   !!  [:dovakor_:1]  [:baelg]

 

J'ai édité je m'étais trompé de ligne   [:poutrella:5]

 


J'avais resize l'image pour pas que ça prenne toute la page par courtoisie, mais apparement la compression rendais difficilement lisible, donc j'ai remis la native. Test HUB, 35jeux, 1080ti vs 2070s, différence moyenne de l'ordre du %, mais un écart type important. En gros, c'est kiff, mais en fonction du jeu, ça varie pas mal, donc pas la peine d'être péremptoire sur la conclusion avec un petit pannel de tests.  

Message cité 1 fois
Message édité par Helyis le 25-08-2020 à 20:44:21
n°10807602
ben shinob​i
Posté le 25-08-2020 à 20:45:42  profilanswer
 

Helyis a écrit :


 
 
J'avais resize l'image pour pas que ça prenne toute la page par courtoisie, mais apparement la compression rendais difficilement lisible, donc j'ai remis la native. Test HUB, 35jeux, 1080ti vs 2070s, différence moyenne de l'ordre du %, mais un écart type important. En gros, c'est kiff, mais en fonction du jeu, ça varie pas mal, donc pas la peine d'être péremptoire sur la conclusion avec un petit pannel de tests.  


Je ne suis pas péremptoire, les icones c'est de l'autodérision.  :o
 
Sinon tu peux lire les articles de guru3d en entier si tu veux, ils ont leur protocole de tests bien expliqués et des dossiers d'une 30taine de pages..


Message édité par ben shinobi le 25-08-2020 à 20:52:19
n°10807603
havoc_28
Posté le 25-08-2020 à 20:51:20  profilanswer
 

obduction a écrit :


AMd fait de même car d'une, il faut laisser la comm aux constructeurs de console vu que RDNA2 est d'abord une puce développée en collaboration avec Ms et Sony, il faut aussi bien étudier les infos que tu vas distillé et à quel moment pour faire monter la sauce et attitrer le max de client. Si tu dévoiles tout 4 mois avant , d'une tu pourras être taxé de paper launch, ce qui a à une époque été beaucoup critiqué pour amd et aussi nvidia, et de 2 tu feras vite retombé le soufflet.


 
Non, RDNA 2 n'est pas développé en collaboration avec MS et Sony, c'est une architecture propre à AMD, Sony et M$ sont des donneurs d'ordres avec un cahier des charges, AMD leurs propose des solutions basées sur leur architectures Zen 2 / RDNA 2 répondant à ce cahier des charges avec des personnalisations propres à chacun, moteur de rendu AUDIO évolué accéléré etc
 
Mais y a pas eut d’ingénieurs de chez Sony et MS travaillant sur l’architecture RDNA 2 à proprement parler, après pour la personnalisation oui surement, mais RDNA 2 est une architecture dont sera dérivé plusieurs puces oui donc celles qui embarqueront les futurs consoles.
 

dams86 a écrit :


 
Et des "non" optimisation de Nvidia sur les gammes précédentes quand la nouvelle est dispo ;)


 
Hum au final Maxwell / Pascal ont relativement bien vieilli, contrairement à Kepler qui montrait certaines déficiences sur certaines portions de benchmark synthétique qui ne sont révélés en jeu qu'avec l'évolution des moteurs (après y a quelques cas ou dans certains jeux, les drivers étaient aux fraises à la sortie oui).
 
Mais bon avec la généralisation de DX12/Vulkan si ceux si sont correctement exploité on commencera à voir des écarts se creuser et ça sera normal, mais dire que Maxwell/Pascal on mal vieillit pour l'instant c'est pas trop le cas, même si y a biensur des jeux ou ces cartes sont moins à la fête.

Message cité 1 fois
Message édité par havoc_28 le 26-08-2020 à 15:33:45
n°10807605
Activation
21:9 kill Surround Gaming
Posté le 25-08-2020 à 20:59:19  profilanswer
 

cyberfred a écrit :


 
je persiste à croire qu'il n'y aura pas de bi gpu au sens 2 gpus identique sur la même carte :spamafote:
on verra bien de quoi se compose cette fameuse 3090 mais bi gpu à l'ancienne , j'y crois pas une seule seconde.
et si c'était vraiment le cas , je passe mon tour car les cartes bi gpu,  j'ai déjà donné  :D (AMD comme Nvidia)


 
de toute façon le concept de bi-gpu c'est la même connerie que l'hyper threading en son temps
dans le sens ou tout de suite les feignasses de service ont écrit leur code sans se projeter et donc du code pas pensé "N" threads
 
résultat quand les cpu quad core ont déboulé, il a fallut encore attendre des années pour que les softs les gères (alors qu ils ont déjà mit des plombes pour juste 2threads, heureusement y avait au moins l'attrait pour un OS multitaches, et pour des power user avant l'arrivée du A64 X2 le P4 HT c'était du pain bénit comparé à l'A64 monocore juste sympa pour les gamer)
 
 
coté gpu mm connerie 80% tactique de feignasse via AFR (chaque gpu s'occupe d'1 image sur 2
20% tactique en theorie de non feignasse, mais transformé en tactique de feignasse, le SFR
En theorie: tu divise l'image comme un damier et tu distribue plein de zone à calculer à N gpu
En pratique: ils ont juste divisé "haut/bas" et equilibre de charge de qu'est le plus lourd à calculer
(caricature: le gpu qui s'occupe du haut va peut être s'occuper de 65% de l'image, car bon du ciel bleu y a moins de chose à calculer que du gazon)
 
Bref on est plus à du niveau "multi-gpgpu"
la majorité à tord de croire que ça va être un coprocesseur dédié Raytracing
c'est un non sens
la physique (physx) c'est du gpgpu
CUDA c'est du gpgpu
rtx voice sera du gpgpu
dlss c'est du gpgpu
 
OK du gpgpu++ (avec les tensor core)
mais a reste du gpgpu
 
et aucun besoin que ça soit 2 mm puce, faut juste que ça soit 2 puces de mm architecture (bref pas melanger du turing avec du ampere)
 
pour caricaturer un peu, y a un GA102 épaulé par un GA104 (même si pour moi ça serait un "GA104" épuré de  chose qui servent pas genre gérer des sortie DP/hdmi)
 
bref que la structure des SMs soit similaire
et l'accès à la mémoire se ferait via le nvlink qui le lie au GA102  
 
en plus cette puce secondaire "N.aire" sur une "Titan A"(rtx3090 ?)
a tout son sens dans des ferme de serveur, ou pour certaine carte de la famille "tesla" chez nvidia


Message édité par Activation le 25-08-2020 à 21:04:32
n°10807607
duton
Posté le 25-08-2020 à 21:04:27  profilanswer
 

Salut,

 

Petit HS mais j'ai un message après avoir installer ma nouvelle RTX 2070 Super. A chaque démarrage les ventilo tourne à fond puis s'arrete

 

Qu'est ce que c'est et quoi faire ?

 


https://nsa40.casimages.com/img/2020/08/25/200825090444528725.png


Message édité par duton le 25-08-2020 à 21:05:05
n°10807608
Activation
21:9 kill Surround Gaming
Posté le 25-08-2020 à 21:06:52  profilanswer
 

déjà c'est pas un message windows, ça doit etre un message lié à un soft de monitoring que t as installé independant de windows
 
t as pas juste utilisé une version de gpu-z de l'an 40 :o


Message édité par Activation le 25-08-2020 à 21:07:45
mood
Publicité
Posté le 25-08-2020 à 21:06:52  profilanswer
 

n°10807612
duton
Posté le 25-08-2020 à 21:12:10  profilanswer
 

J'ai msi afterburner, 3DMark, GPU-Z en portable mais pas installé.
 
Et cela ne dit pas pourquoi les ventilo tourne au démarrage

n°10807616
mxpx
----
Posté le 25-08-2020 à 21:15:30  profilanswer
 

duton a écrit :

J'ai msi afterburner, 3DMark, GPU-Z en portable mais pas installé.
 
Et cela ne dit pas pourquoi les ventilo tourne au démarrage


 
Ca arrive sur certaines périphe que les ventillos tourne fort avant la passage du bios.

n°10807619
Activation
21:9 kill Surround Gaming
Posté le 25-08-2020 à 21:24:10  profilanswer
 

ça tourne à fond au départ car durant la phase bios selon les constructeur la carte n'a pas forcément à l instant "t" connaissance de sa temperature
donc c'est une sécurité  
 
peut y avoir d'autre raison, ça depend de la conception
faire tourner à fond permet de verifier une "consommation" ça peut indiquer à la carte que les ventilo sont fonctionnel  
s'entend le moteur... c'est sur que ça ira pas verifié que t es pas un maboule qui aurait envie de retirer les helices mais laisser les moteurs
 
bon ce genre de controle j'y crois pas trop car sinon ça ferait gueuler ceux qui foutent des waterblock, et la carte se mettrait direct en securité car le ventirad a été enlevé :D

n°10807624
duton
Posté le 25-08-2020 à 21:39:35  profilanswer
 

Pour le message j'ai trouvé c'est un script pour désactiver les LED de ma 1070. Merci de m'avoir aiguillé Activation.

 

Je sais que ça arrive quand on change de carte, par ex ma 1070 ne le fait pas ou seulement quand je fais une mdoification dans le bios et encore ! en tout ça le fait, comme tu le dit mxpx, masi la ça le fait à chaque démarrage redémarrage.

 

Je remettrai ma 1070 et ma sauvegarde, j'ai seulement fait un changement de carte en pensant que Windows et Nvidia allez la reconnaitre sans poser de question, les deux sont des MSI.

 

Je pense désinstaller nvidia avant de changer ma carte. Je le ferais demain. Sinon je devrais faire quoi d'autres ?


Message édité par duton le 25-08-2020 à 21:41:32
n°10807627
olioops
Si jeune et déjà mabuse.
Posté le 25-08-2020 à 21:45:39  profilanswer
 

Rumeurs  :o  
Coprocesseur RT sur 3080 Ti et 3090...
https://www.tweaktown.com/news/7320 [...] index.html

Message cité 3 fois
Message édité par olioops le 25-08-2020 à 21:48:18
n°10807628
Feitan21
Posté le 25-08-2020 à 21:51:30  profilanswer
 

MSI a enregistré 29 cartes Ampère :
 
14 x 3090, 11 x 3080, and 4 x 3070
 

Citation :

If the same rings true for this coming generation then that would make the V388 variants RTX 3090 cards, the V389 as RTX 3080, and the four V390 codes being attached to the RTX 3070.


 
https://www.pcgamer.com/msi-registe [...] ics-cards/

Message cité 2 fois
Message édité par Feitan21 le 25-08-2020 à 21:52:45
n°10807629
Baudeflo
Posté le 25-08-2020 à 21:54:34  profilanswer
 

P'tain j'venais poster la même chez TH.com  
 
 [:bouchon2]
 
J'la met quand même [:axxan]  
 
https://www.tomshardware.com/news/m [...] hics-cards


Message édité par Baudeflo le 25-08-2020 à 21:55:22

---------------
NB life
n°10807635
genom
urinam non decolor unda
Posté le 25-08-2020 à 22:18:01  profilanswer
 

ben shinobi a écrit :


non c'est plutot la 2070 super qui est 10-12% devant la 1080 ti, +13 sur fortnite, + 15 sur pubg, + 11 wow etc...FAut arrêter de prendre ses reves pour des réalités, les fonctions MRenders (gshader sphere etc...) sont largement plus balaises sur les turings, et ne parlons pas des réso au dessus du full HD...


 
Ben regarde les graphs postés par aliss, https://www.techpowerup.com/review/ [...] on/33.html c'est 10-12% vs la 21080TI on parle bien de la 2070 >>> TU106, le MDG.
 
Faut pas s’énerver comme ça pour si peu, t'es à cran toi :D Tu peste pour rien. Un cercle pas bien finis...  :lol:

Message cité 2 fois
Message édité par genom le 26-08-2020 à 12:15:16
n°10807637
genom
urinam non decolor unda
Posté le 25-08-2020 à 22:24:14  profilanswer
 

olioops a écrit :

Rumeurs  :o  
Coprocesseur RT sur 3080 Ti et 3090...
https://www.tweaktown.com/news/7320 [...] index.html


ben voilà  :D ça devait bien sortir à un moment donné, la théorie fait sens, oui c'est une rumeur...

Message cité 1 fois
Message édité par genom le 25-08-2020 à 22:40:05
n°10807650
tomcat8390
BF1
Posté le 25-08-2020 à 22:47:30  profilanswer
 

Feitan21 a écrit :

MSI a enregistré 29 cartes Ampère :
 
14 x 3090, 11 x 3080, and 4 x 3070
 

Citation :

If the same rings true for this coming generation then that would make the V388 variants RTX 3090 cards, the V389 as RTX 3080, and the four V390 codes being attached to the RTX 3070.


 
https://www.pcgamer.com/msi-registe [...] ics-cards/


 
25 modèles qui vont ptet couter bonbon ??

n°10807651
roland899
Posté le 25-08-2020 à 22:48:01  profilanswer
 

genom a écrit :


ben voilà  :D ça devait bien sortir à un moment donné, la théorie fait sens, oui c'est une rumeur...


 
ah, mais c'est une rumeur bien plus intéressante  :bounce:  :bounce:  :bounce:

n°10807653
cyberfred
Posté le 25-08-2020 à 22:50:17  profilanswer
 

olioops a écrit :

Rumeurs  :o  
Coprocesseur RT sur 3080 Ti et 3090...
https://www.tweaktown.com/news/7320 [...] index.html


 
3080 tout court ;)  (pour le moment , pas de Ti à l'horizon)
 
concernant la news , un "traversal coprocessor" ! hâte de voir ce que ca pourrait donner :jap:

Message cité 1 fois
Message édité par cyberfred le 25-08-2020 à 22:55:05
n°10807691
ol1v1er
Posté le 26-08-2020 à 07:52:36  profilanswer
 

Vivement la sortie et les tests  :love:

n°10807698
aliss
Rhyme the Rhyme Well
Posté le 26-08-2020 à 08:37:07  profilanswer
 

cyberfred a écrit :

 

3080 tout court ;)  (pour le moment , pas de Ti à l'horizon)

 

concernant la news , un "traversal coprocessor" ! hâte de voir ce que ca pourrait donner :jap:

 

Je me demande tout de même quelle gueule vont avoir les ventirads des custom si Nvidia a jugé nécessaire un refroidissement actif de la puce additionnelle au dos de la carte.

 

Et je ne parle même pas des wb... :D

Message cité 1 fois
Message édité par aliss le 26-08-2020 à 08:37:34
n°10807705
cyberfred
Posté le 26-08-2020 à 09:03:57  profilanswer
 

en effet , c'est la question que je me pose aussi  , surtout que  la taille des customs est souvent plus épaisse que le modèle FE.

n°10807709
jinxjab
Protection engendre sacrifice
Posté le 26-08-2020 à 09:19:18  profilanswer
 

havoc_28 a écrit :


 
Non, RDNA 2 n'est pas développé en collaboration avec MS et Sony, c'est une architecture propre à AMD, Sony et M$ sont des donneurs d'ordres avec un cahier des charges, AMD leurs propose des solutions basées sur leur architectures Zen 2 / RDNA 2 répondant à ce cahier des charges avec des personnalisations propres à chacun, moteur de rendu AUDIO évolué accéléré etc
 
Mais y a pas eut d’ingénieurs de chez Sony et MS travaillant sur l’architecture RDNA 2 à proprement parler, après pour la personnalisation oui surement, mais RDNA 2 est une architecture dont sera dérivé plusieurs puces oui donc celles qui embarqueront les futurs consoles.
 


 
heu ce quote est faux! je n'ai jamais prononcé ces phrases, il s’agissait d'une citation. C'est en provenance de "obduction".

Message cité 1 fois
Message édité par jinxjab le 26-08-2020 à 09:21:26

---------------
“Today's scientists have substituted mathematics for experiments, and they wander off through equation after equation, and eventually build a structure which has no relation to reality.” Il s'agit donc de pseudo-sciences.
n°10807710
roland899
Posté le 26-08-2020 à 09:20:33  profilanswer
 

aliss a écrit :

 

Je me demande tout de même quelle gueule vont avoir les ventirads des custom si Nvidia a jugé nécessaire un refroidissement actif de la puce additionnelle au dos de la carte.

 

Et je ne parle même pas des wb... :D

 

Cela expliquerais les cartes à refroidissement "hybride" dont on a eu une rumeur non ? dont je comprenait pas le concept.

 

Avec la puce principale refroidissement à eau et la 2e puce à refroidissement à air.


Message édité par roland899 le 26-08-2020 à 09:21:00
n°10807712
Amonchakai
Posté le 26-08-2020 à 09:25:35  profilanswer
 

cyberfred a écrit :

en effet , c'est la question que je me pose aussi  , surtout que  la taille des customs est souvent plus épaisse que le modèle FE.


Après, c'est peut-être juste Nvidia qui veut augmenter la qualité du refroidissement de ses propres cartes.  
Ils ont leurs propre store où ils vendent leurs cartes, ils veulent peut-être monter en gamme pour plus que plus de gens achètent directement chez eux et avoir plus de marges.


Message édité par Amonchakai le 26-08-2020 à 09:26:29
n°10807721
ever_over
Posté le 26-08-2020 à 09:44:24  profilanswer
 

Une estimation de la taille du GA102 (en partant de l’hypothèse que c'est le même packaging que le TU102) : 628mm²
 
https://twitter.com/_rogame/status/1298419598161776640

n°10807722
aliss
Rhyme the Rhyme Well
Posté le 26-08-2020 à 09:44:38  profilanswer
 

Ca semble plutôt lié à des contraintes techniques.
 
D'une part la conception "exotique" du pcb et de l'autre passablement de watts à dissiper.

n°10807724
aliss
Rhyme the Rhyme Well
Posté le 26-08-2020 à 09:47:35  profilanswer
 

ever_over a écrit :

Une estimation de la taille du GA102 (en partant de l’hypothèse que c'est le même packaging que le TU102) : 628mm²
 
https://twitter.com/_rogame/status/1298419598161776640


 
rogame devait être en vacances... :D  
 
https://twitter.com/KittyYYuko/stat [...] 8879312898

n°10807727
ever_over
Posté le 26-08-2020 à 10:03:30  profilanswer
 


 
En effet... Duc coup ça a tendance à confirmer la rumeur, qui est crédible. Un flagship NVidia dans les 600mm², comme souvent. Si on a en plus un coprocesseur, là ça fait bcp plus par contre.
 
Cette rumeur de coprocesseur me rappelle les CPU 486, avec copro pour les calculs flottants. Copro qui avait rapidement été réintégré dans le die principal  :whistle:

n°10807728
Invite_Sur​prise
Racaille de Shanghaï
Posté le 26-08-2020 à 10:15:52  profilanswer
 

Igor avait déclaré 627mm² il y a quelques temps, ça semble concorder.

n°10807730
jinxjab
Protection engendre sacrifice
Posté le 26-08-2020 à 10:19:58  profilanswer
 

obduction a écrit :


Regarde les articles de digital fundry et les interviews des développeurs ayant accès aux consoles parce que visiblement tu t'es pas très documenté.


 
Enfin une réponse intéressante avec une piste... je reviendrai sur ce sujet après m'être documenté.
 

obduction a écrit :


Les échelles diffèrent mais les problèmes sont les mêmes.
 
Une console doit tenir dans un boitier bien plus petit qu'une tour pc et donc forcément tu peux pas avoir aussi performant. C'est un peu comme les pcs portables.


 
Faux. C'est pas les échelles qui sont différentes entre un laptop et un rack serveur (oui je reprends mon exemple), mais bel et bien les besoins et les contraintes.
Donc dans le cas de la console, si vous croyez que la gestion de la dissipation calorifique est une priorité je pense que vous vous fourvoyez. C'est, dans un premier temps, faire abstraction de l'ensemble des plaintes et remontés utilisateurs concernant des problème de chauffes et autres. Ensuite c'est oublié que c'est au moment du choix des composants qui formeront le produit final que la fourchette de production calorifique est calculée. Je pense que vous comprenez bien qu'aucun concepteur matériel évoluant dans le monde des consoles de jeux se demande s'il est question de mettre un dual socket XEON ou bien un ARM ?!  
Non, bien évidemment. Les besoins et contraintes formulés dans le CDC préliminaire imposent un choix de bon sens (économique etc)  
 
Pour info, non seulement ils (Sony et MS) ne cherchent pas à obtenir un refroidissement adéquate mais cela fait partie de leur stratégie.  
Mais bon je ne pense pas qu'une personne criant à la théorie du complot dès que l'on lui fait remarquer des pratiques marketing frauduleuses (pléonasme) puisse comprendre les concepts liés à l'obsolescence programmée, et qui sont documentés.  :ange:  
 
(et non je ne suis pas un expert de cela mais j'ai travaillé pour un éditeur de logiciel et un fabriquant de solution de sécurité français à base d'appliances. Et je sais par connaissances que c'est une pratique plus que courante dans ces industries)
 

obduction a écrit :


On n'est pas dans le pro. Cela n'a rien à voir.


Exactement ce que je fais remarquer. Mais une fois j'ai droit à "c'est une histoire d'échelle" et une autre c'est "le monde pro, rien à voir", il va falloir se décider.
 

obduction a écrit :


Il n'y a pas de raccourci ici, l'es couts sont bien là et la gestion des couts est un problème connu depuis des décennies sur console.


 
Ouaip... aucun rapport avec le sujet. Argument mal formulé ou beaucoup trop vague.
 
Pour rappel :  
 
Moi : "Je veux bien connaitre les "bien plus de contraintes techniques", à par une pseudo possibilité sur l'aspect dégagement calorifique (et encore cela n'est pas forcément dans le sens que l'on imagine suivant les contraintes d'intégrations/conceptions) ... je ne vois pas."
 
Vous : "Tu intègres pas une puce de la même façon dans une carte diédiée à elle et dans un soc APu comme sur les consoles.  
Demande toi pourquoi dans les apus, la partie gpu est bmoins rapide que sur une carte didiée et auras ta réponse. Même si les socs consoles sont largement plus puissants niveau gpus que les socs pcs, cela n'en reste pas moins exactement les mêmes problématiques.
 Après, il y a la question des couts car si tu vends une console à 500€ quelque soit les remises de prix que peuvent avoir Sony et MS, elle sera forcément moins puissante qu'une puce dédiée à 6-700€ à moins de vendre à perte et pas qu'un peu, ce que ne font plus Sony et Ms."
 
Ce à quoi je réponds :
"Emphasis 3 : Je ne sais pas ce qui est insinué par l'évocation des coûts, mais on peut en discuter. Faire un rapprochement entre coût/prix de vente et performance est un raccourci que je ne prendrai pas. C'est faire abstraction d'un ensemble colossal de prérequis situationnels (quoi, pour qui, combien, ....) et environnementaux (pour quelle circonstances, conjointement avec quoi, ...)."
 
 :wahoo:  
 :sarcastic:  
 

obduction a écrit :


Si tu trouves stupide quelque chose qui ne l'est pas, je comprends pourquoi on n'est pas d'accord.


Ah, parce que la subjectivité est une notion quantifiée et mesurée MUHAHAHAHAHA
Votre vision du monde est la seule et la meilleurs ... nooooooooooooooooooooooooon.
 
Bref il aurait été sage d'apporter dans ce message une notion de subjectivité. pourquoi pas du genre : "si vous trouvez stupide quelque chose que je ne vois pas ainsi, je comprends pourquoi on est pas d'accord."  :whistle:  
 
Je confirme cette sentence et vous remercie pour votre temps.
 :jap:  
Bonne journée.
 


---------------
“Today's scientists have substituted mathematics for experiments, and they wander off through equation after equation, and eventually build a structure which has no relation to reality.” Il s'agit donc de pseudo-sciences.
n°10807732
aster
Chaotic Neutral
Posté le 26-08-2020 à 10:21:57  profilanswer
 

ever_over a écrit :


 
En effet... Duc coup ça a tendance à confirmer la rumeur, qui est crédible. Un flagship NVidia dans les 600mm², comme souvent. Si on a en plus un coprocesseur, là ça fait bcp plus par contre.
 
Cette rumeur de coprocesseur me rappelle les CPU 486, avec copro pour les calculs flottants. Copro qui avait rapidement été réintégré dans le die principal  :whistle:


Je pense qu'il est important, d'un point de vue marketing, de montrer et de différencier ce nouveau coprocesseur RT.
J'imagine aussi qu'il sera intégré à terme pour limiter les problèmes d'interconnexion et simplifier le design des cartes.

n°10807751
Baudeflo
Posté le 26-08-2020 à 11:23:26  profilanswer
 

Une heure sans un message vous êtes où les gars on veut du fight d'opinion sur des rumeurs leakés par d'obscurs chinois [:doy]  [:koubak]

Message cité 1 fois
Message édité par Baudeflo le 26-08-2020 à 11:23:57

---------------
NB life
n°10807753
mat33000
Posté le 26-08-2020 à 11:24:55  profilanswer
 

Petite question ,même si elles sont pas encore sorties .
 
Je viens fraichement de passer en 1440P.
Si je vise une éventuelle rtx 3080 , de fortes chances que je sois limité par le cpu à cause du i7 8700 non oc ?
 
Ou préférable de tout changer cg +cm +proco 10900 K / 3900x? (ce qui n'est plus du tout le meme budget)

Message cité 1 fois
Message édité par mat33000 le 26-08-2020 à 11:26:19
n°10807754
sardhaukar
Posté le 26-08-2020 à 11:28:31  profilanswer
 

mat33000 a écrit :

Petite question ,même si elles sont pas encore sorties .
 
Je viens fraichement de passer en 1440P.
Si je vise une éventuelle rtx 3080 , de fortes chances que je sois limité par le cpu à cause du i7 8700 non oc ?
 
Ou préférable de tout changer cg +cm +proco 10900 K / 3900x? (ce qui n'est plus du tout le meme budget)


 
Différence négligable.
 
https://tpucdn.com/review/intel-core-i9-10900k/images/relative-performance-games-2560-1440.png

n°10807756
ben shinob​i
Posté le 26-08-2020 à 11:36:15  profilanswer
 

[:bencroques:1]    [:hugeq:1]

n°10807757
obduction
Posté le 26-08-2020 à 11:36:48  profilanswer
 

aliss a écrit :


 
 
Tu devrais relire les articles de Tridam.  ;)  


test de la titan kepler 21/02/2013
https://www.hardware.fr/articles/88 [...] titan.html
 
test de la 780ti 7 novembre 2013
https://www.hardware.fr/articles/91 [...] mplet.html
 
 ;)  

jinxjab a écrit :


 
blabla
 


Que dire devant une telle argumentation. Je pense qu'il vaut s'abstenir que de rajouter du chaos au chaos.

olioops a écrit :

Rumeurs  :o  
Coprocesseur RT sur 3080 Ti et 3090...
https://www.tweaktown.com/news/7320 [...] index.html


Pourquoi pas même si ça semble peu probable.
 
On sera vite fixé.


Message édité par obduction le 26-08-2020 à 11:37:48
n°10807759
ben shinob​i
Posté le 26-08-2020 à 11:39:23  profilanswer
 

genom a écrit :


 
Ben regarde les graphs postés par aliss, https://www.techpowerup.com/review/ [...] on/33.html c'est 10-12% vs la 2080TI on parle bien de la 2070 >>> TU106, le MDG.
 
Faut pas s’énerver comme ça pour si peu, t'es à cran toi :D Tu peste pour rien. Un cercle pas bien finis...  :lol:


 [:corten] tu memank de respè ???!!! Vien t'faït  [:ilhom]  
 
Ok, bon comme je respecte techpowerup je vais prendre ça pour un acquis. :jap:


Message édité par ben shinobi le 26-08-2020 à 11:40:26
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  120  121  122  ..  1884  1885  1886  1887  1888  1889

Aller à :
Ajouter une réponse
 

Sujets relatifs
Faire tourner Catia avec une Nvidia gtx ?upgrade de win7 a Win10 impossible cause nvidia 7050 incompatible
Windows+Nvidia=Pas de HDR?[Topic unique] AMD Ryzen - Zen 3, 7nm, fin 2020
Coque télécommande NVIDIA ShieldCable Alim pcie NVidia 8 pins
nvidia quadro 600Pb NVIDIA Geforce GTX 1660 win10 et carte mère AZUS P8Z77-V
Changer ma rx 570 par une carte nvidia 
Plus de sujets relatifs à : [TU] Nvidia Ampère - GeForce RTX 3000 - La Génération Ubuesque !


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)