Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3888 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  12  13  14  ..  16  17  18  19  20  21
Auteur Sujet :

Intel Arrow Lake (la gen 15 dans les bacs)

n°11368799
ravenloft
Meilleur jeu du 20ème siècle
Posté le 31-10-2024 à 17:17:11  profilanswer
 

Reprise du message précédent :
https://i.ibb.co/rmmjvqd/ryzen-7-98 [...] -285k.webp
 


---------------
Ravenloft
mood
Publicité
Posté le 31-10-2024 à 17:17:11  profilanswer
 

n°11368800
havoc_28
Posté le 31-10-2024 à 17:19:11  profilanswer
 

ravenloft a écrit :


ça c'est ce que tu affirmes. C'est ton hypothèse mais tu fournis aucun véritable preuve.
Perso J'en sais rien si elle est juste mon hypothèse.
 
J'ai donné mon hypothèse en me basant sur la réponse d'intel à la question posée qui esquive la question et parler de mettre en avant plutôt des cpus dont la conso est maitrisée. Quand on esquive une question qui demande de répondre au pourquoi des perfs problématiques, c'est qu'on est pas serein et qu'on a quelque chose chose à cacher. J'en fais juste une déduction qui me parait la plus logique possible aux vues de ce qu'il dit.
Je peux me tromper mais si c'est le cas son discours est assez ambigu et il n'est pas clair vu qu'il répond à côté.


 
https://forum.hardware.fr/hfr/Hardw [...] #t11367277
 
https://tpucdn.com/review/intel-core-ultra-9-285k/images/aida64-cache-mem.png https://tpucdn.com/review/intel-core-i9-14900ks/images/aida64-cache-mem.png
 
La communication d'Intel n'est là que pour essayer d'apaiser les investisseurs avec du blabla sur l'efficacité énergétique, elle ne répond clairement pas au pourquoi du comment.
Arrow Lake, les P Cœurs c'est une évolution incrémentale. Les E Coeurs voient de forte amélioration, ce qui change fondamentalement c'est le passage à une organisation en chiplet / Tuiles avec un contrôleur mémoire déporté sur une autre Tuiles, y a pas besoin de théories complexe pour expliquer les mauvaises performances d'Intels sur certaines applications.

Message cité 2 fois
Message édité par havoc_28 le 31-10-2024 à 17:31:07
n°11368802
ravenloft
Meilleur jeu du 20ème siècle
Posté le 31-10-2024 à 17:23:11  profilanswer
 


Tant que des tests minutieux n'ont pas démontré ce que tu avances, ça reste une hypothèse.
Je dis pas que tu as tort mais que ce n'est pas prouvé scientifiquement pour le moment sauf si tu as une source qui l'a démontré tests à l'appui que ce que tu avances est bien responsable principal voire exclusif des problèmes de performances.

Message cité 1 fois
Message édité par ravenloft le 31-10-2024 à 17:23:46

---------------
Ravenloft
n°11368805
havoc_28
Posté le 31-10-2024 à 17:29:00  profilanswer
 

ravenloft a écrit :


Tant que des tests minutieux n'ont pas démontré ce que tu avances, ça reste une hypothèse.
Je dis pas que tu as tort mais que ce n'est pas prouvé scientifiquement pour le moment sauf si tu as une source qui l'a démontré tests à l'appui que ce que tu avances est bien responsable principal voire exclusif des problèmes de performances.


 
C'est toujours mieux que le blabla stupide de la comm d'Intel qui n'explique absolument rien, entre ARL et RPL la latence explose c'est mesuré, et la latence a clairement un impact plus ou moins significatif en fonction des applications. Et j'ai édité plus haut pour compléter les benchs.

Message cité 1 fois
Message édité par havoc_28 le 31-10-2024 à 17:31:35
n°11368816
ravenloft
Meilleur jeu du 20ème siècle
Posté le 31-10-2024 à 18:24:06  profilanswer
 

havoc_28 a écrit :


 
C'est toujours mieux que le blabla stupide de la comm d'Intel qui n'explique absolument rien, entre ARL et RPL la latence explose c'est mesuré, et la latence a clairement un impact plus ou moins significatif en fonction des applications. Et j'ai édité plus haut pour compléter les benchs.


toujours mieux possible mais au final, ça prouve rien donc on ne peut faire que des suppositions.


---------------
Ravenloft
n°11368827
havoc_28
Posté le 31-10-2024 à 18:53:36  profilanswer
 

ravenloft a écrit :

toujours mieux possible mais au final, ça prouve rien donc on ne peut faire que des suppositions.


 
Ils n'ont pas augmenté le cache L3 ou un L4 au niveau de Foveros pour essayer un peu de masquer ce problème de latence qui est bien là. Entre RPL et ARL à nouveau y a une forte augmentation de la latence, c'est un fait. Un soucis de latence au niveau du sous système mémoire tout comme une latence plus importante niveau intra cœur.  
Se sont des éléments tangibles qui ont été mesuré.  
 
Après que tu penses que ça ne démontre pas en soit le manque de performance de ARL très bien, mais c'est des éléments bien plus tangible que le blabla d'Intel qui parle d'efficience sans aucune explication.
 
Augmenter la latence en général c'est pas gratuit sur les performances des applications sensible à cela.

Message cité 1 fois
Message édité par havoc_28 le 31-10-2024 à 18:54:12
n°11368843
ravenloft
Meilleur jeu du 20ème siècle
Posté le 31-10-2024 à 20:16:30  profilanswer
 

havoc_28 a écrit :


 
Ils n'ont pas augmenté le cache L3 ou un L4 au niveau de Foveros pour essayer un peu de masquer ce problème de latence qui est bien là. Entre RPL et ARL à nouveau y a une forte augmentation de la latence, c'est un fait. Un soucis de latence au niveau du sous système mémoire tout comme une latence plus importante niveau intra cœur.  
Se sont des éléments tangibles qui ont été mesuré.  
 
Après que tu penses que ça ne démontre pas en soit le manque de performance de ARL très bien, mais c'est des éléments bien plus tangible que le blabla d'Intel qui parle d'efficience sans aucune explication.
 
Augmenter la latence en général c'est pas gratuit sur les performances des applications sensible à cela.


Sauf qu'on avance pas vu qu'élément tangible ou pas, tant que il n'y a pas de vrais tests prouvant que c'est bien là la vraie source du problème, on n'est que dans la supposition.
 
Le blabla d'intel , il n'apporte rien en soi sauf qu'en évitant de répondre à la question, cela sous entend que le fait d'avoir viser la conso meilleure a entrainé des contreparties. C'est tout et comme j'ai dis, ce sous entendu ne veut pas dire que c'est la raison mais c'est juste un signe. En général quand tu réponds à côté c'est qu'il y a un loup quelque part que tu refuses d'admettre donc on peut l'envisager comme ça mais c'est aussi peut être juste un discours marketing d'un gars qui sait juste pas pourquoi il y a des problèmes qui étaient peut être pas prévus d'être là.


---------------
Ravenloft
n°11368848
havoc_28
Posté le 31-10-2024 à 20:29:57  profilanswer
 

ravenloft a écrit :


Sauf qu'on avance pas vu qu'élément tangible ou pas, tant que il n'y a pas de vrais tests prouvant que c'est bien là la vraie source du problème, on n'est que dans la supposition.


 
Mais tu penses qu'il y aura des tests pour expliquer les mauvaises performances d'Arrow Lake ?
 
1) On a une architecture très similaire niveau P Cœurs, c'est juste une amélioration incrémentale. Légère augmentation au niveau du L2 qui passe à 3 Mo vs 2 MO sur RPL etc.
2) Les E cœurs, bien que grandement améliorés, on reste toujours sur un groupement de 4 E cœurs.
3) La quantité de L3 n'a pas bougé.  
 
Qu'est ce qui change ?  
 
1)l'organisation des P et E Cœurs ou sur ADL / RPL , les P cœurs étaient tous regroupés en un bloque, alors qu'il on a une grappe de 2 P cœurs, 1 Groupement de E cœurs 2 P cœurs 1 groupement de E Cœurs etc.  
2) Le plus gros changement c'est le passage à des "tuiles" utilisant Foveros et le contrôleur mémoire qui se retrouve sur une tuile différente de la partie "Compute" où sont les P et E cœurs, tout comme une tuile entrée / sortie etc.
 
Si avec le passage des Tuiles y a une forte augmentation de la latence, on doit essayer de compenser en augmentant le L3 ou en introduisant l'a pu faire AMD avec le passage de Zen 1 à 2 ou le L3 doublait par CCX ou un introduisant un gros L4 ou que sais je.  
 

ravenloft a écrit :


Le blabla d'intel , il n'apporte rien en soi sauf qu'en évitant de répondre à la question, cela sous entend que le fait d'avoir viser la conso meilleure a entrainé des contreparties. C'est tout et comme j'ai dis, ce sous entendu ne veut pas dire que c'est la raison mais c'est juste un signe. En général quand tu réponds à côté c'est qu'il y a un loup quelque part que tu refuses d'admettre donc on peut l'envisager comme ça mais c'est aussi peut être juste un discours marketing d'un gars qui sait juste pas pourquoi il y a des problèmes qui étaient peut être pas prévus d'être là.


 
La consommation c'est une grossière excuse et à nouveau ils ont déjà eut Meteor Lake comme béta test qui utilisait déjà exactement le même agencement qu'ARL. Qu'Intel a pu foiré une évolution de fovéros pour ARL oui c'est possible donc obligé de se rabattre sur le même agencement que MTL, mais la consommation et des contre parties ? C'est une blague, plus qu'autre chose.
Lunar Lake par exemple le contrôleur mémoire reste bien intégré à la tuile Compute ...

Message cité 1 fois
Message édité par havoc_28 le 31-10-2024 à 20:38:33
n°11368850
ravenloft
Meilleur jeu du 20ème siècle
Posté le 31-10-2024 à 20:55:47  profilanswer
 

havoc_28 a écrit :


 
Mais tu penses qu'il y aura des tests pour expliquer les mauvaises performances d'Arrow Lake ?
 
1) On a une architecture très similaire niveau P Cœurs, c'est juste une amélioration incrémentale. Légère augmentation au niveau du L2 qui passe à 3 Mo vs 2 MO sur RPL etc.
2) Les E cœurs, bien que grandement améliorés, on reste toujours sur un groupement de 4 E cœurs.
3) La quantité de L3 n'a pas bougé.  
 
Qu'est ce qui change ?  
 
1)l'organisation des P et E Cœurs ou sur ADL / RPL , les P cœurs étaient tous regroupés en un bloque, alors qu'il on a une grappe de 2 P cœurs, 1 Groupement de E cœurs 2 P cœurs 1 groupement de E Cœurs etc.  
2) Le plus gros changement c'est le passage à des "tuiles" utilisant Foveros et le contrôleur mémoire qui se retrouve sur une tuile différente de la partie "Compute" où sont les P et E cœurs, tout comme une tuile entrée / sortie etc.
 
Si avec le passage des Tuiles y a une forte augmentation de la latence, on doit essayer de compenser en augmentant le L3 ou en introduisant l'a pu faire AMD avec le passage de Zen 1 à 2 ou le L3 doublait par CCX ou un introduisant un gros L4 ou que sais je.  
 


Je pense rien ,je dis juste que sans vrai test, tout n'est que supposition et ça c'est pas une pensée mais un fait.
 

havoc_28 a écrit :


 
La consommation c'est une grossière excuse et à nouveau ils ont déjà eut Meteor Lake comme béta test qui utilisait déjà exactement le même agencement qu'ARL. Qu'Intel a pu foiré une évolution de fovéros pour ARL oui c'est possible donc obligé de se rabattre sur le même agencement que MTL, mais la consommation et des contre parties ? C'est une blague, plus qu'autre chose.
Lunar Lake par exemple le contrôleur mémoire reste bien intégré à la tuile Compute ...


Je n'ai émis qu'une hypothèse à partir de la non réponse, elle est possiblement fausse. Tu le penses soit.
 
De toute façon, ce débat entre nous 2 ne sert à rien et n'avancera pas car tu essaies de me convaincre sans preuve donc ça va être difficile quoi que tu dises même si ce que tes arguments ont du sens à priori. C'est juste que sans test donc preuve démontrant que c'est bien ça, on reste dans la  supposition.
 
Si Intel n'arrive pas à améliorer les perfs, arrow lake va vire un sale moment et intel aussi. La concurrence aussi car tant elle n'était pas bonne quand AMD avait bulldozer, là si arrow lake a de telles défaillance dans les jeux et qu'il n'y a pas d'amélioration, ça va faire la même chose toute proportion gardée évidemment (arrow lake est bien milleur vs zen 5 que bulldozer vs n'importe quel cpu intel).


---------------
Ravenloft
n°11368856
havoc_28
Posté le 31-10-2024 à 21:19:19  profilanswer
 

ravenloft a écrit :


Je pense rien ,je dis juste que sans vrai test, tout n'est que supposition et ça c'est pas une pensée mais un fait.


 
L'augmentation de la latence c'est quoi ? à Nouveau, c'est pas une supposition basée sur du vent, mais un élément concret, mesurable. La latence augmente, à la limite tu peux demander pourquoi ? Moi je réponds à cela que ça vient du fait du passage aux tuiles, qui semble être l'explication la plus logique possible, car bon augmentation de latence et consommation ? Intel est passé sur Gear 4 pour forcer le contrôleur mémoire à une fréquence plus réduite et moins de consommation ? Non.  
 

ravenloft a écrit :


Je n'ai émis qu'une hypothèse à partir de la non réponse, elle est possiblement fausse. Tu le penses soit.


 
Faut m'expliquer en quoi réduire la consommation, réduit les performances. On a une légère réduction de la fréquence il est vrai, mais à part ça ? Comment la consommation et la perte de performance sont liées, tu as une explication rationnelle ? Un truc qui fait un minimum sens ?
C'est pas comme si Intel n'avait pas fait des Die Shrink par le passé ...  
 

ravenloft a écrit :


Si Intel n'arrive pas à améliorer les perfs, arrow lake va vire un sale moment et intel aussi. La concurrence aussi car tant elle n'était pas bonne quand AMD avait bulldozer, là si arrow lake a de telles défaillance dans les jeux et qu'il n'y a pas d'amélioration, ça va faire la même chose toute proportion gardée évidemment (arrow lake est bien milleur vs zen 5 que bulldozer vs n'importe quel cpu intel).


 
On verra tout de suite la prochaine génération, si y a réintégration du contrôleur mémoire dans la tuile compute et que les performances progressent à nouveau en jeu, c'était bien que ça venait du système en Tuile et qu'Intel a foiré avec MTL puis ARL, ok le fixe était pas prêt pour ARL ...  
Mais qu'est ce que Bulldozer vient faire là ? Ho ARL est moins catastrophique que Bulldozer en son temps, et donc ?

Message cité 1 fois
Message édité par havoc_28 le 31-10-2024 à 21:24:01
mood
Publicité
Posté le 31-10-2024 à 21:19:19  profilanswer
 

n°11368861
Grouchotth
Posté le 31-10-2024 à 21:39:29  profilanswer
 
n°11368880
ravenloft
Meilleur jeu du 20ème siècle
Posté le 31-10-2024 à 22:55:24  profilanswer
 

havoc_28 a écrit :


 
L'augmentation de la latence c'est quoi ? à Nouveau, c'est pas une supposition basée sur du vent, mais un élément concret, mesurable. La latence augmente, à la limite tu peux demander pourquoi ? Moi je réponds à cela que ça vient du fait du passage aux tuiles, qui semble être l'explication la plus logique possible, car bon augmentation de latence et consommation ? Intel est passé sur Gear 4 pour forcer le contrôleur mémoire à une fréquence plus réduite et moins de consommation ? Non.  
 


La latence inter ccd sur zen 5 était augmenter, ça jouait pas sur les perfs.
Là c'est sans doute différent mais tu sais pas en quoi ça joue vu que tu as pas de tests prouvant l'influence de ça sur les perfs.
 

havoc_28 a écrit :


 
Faut m'expliquer en quoi réduire la consommation, réduit les performances. On a une légère réduction de la fréquence il est vrai, mais à part ça ? Comment la consommation et la perte de performance sont liées, tu as une explication rationnelle ? Un truc qui fait un minimum sens ?
C'est pas comme si Intel n'avait pas fait des Die Shrink par le passé ...  
 


T'as pas compris.
C'est pas réduire la conso qui réduit les performances mais sur la possibilité que pour réduire la conso avec l'archi core malgré le passage au 3nm, ils ont du faire des concessions dans leur archi qui a des conséquence sen pratique.
C'est juste une supposition issu du fait qu'il a esquivé la question en mettant en avant le fait de devoir fabriquer des cpus plus verts au lieu d'expliquer pourquoi arrow lake avait du mal avec certains jeux.
Je n'ai fait que l'association. Elle vaut ce qu'elle vaut mais comme j'ai dis c'est une supposition. Je n'ai pas prétendu que c'était la vraie raison.
 
 
Comme je t'ai dit plusieurs fois, tu as peut être raison, peut être partiellement ou peut être pas. Tant qu'on aura pas de preuve le démontrant, c'est que des suppositions.
 
Je ne sais pas à quoi tu joues mais on tourne en rond là. :D  
 

havoc_28 a écrit :


 
On verra tout de suite la prochaine génération, si y a réintégration du contrôleur mémoire dans la tuile compute et que les performances progressent à nouveau en jeu, c'était bien que ça venait du système en Tuile et qu'Intel a foiré avec MTL puis ARL, ok le fixe était pas prêt pour ARL ...


possible mais d'après les rumeurs, va falloir attendre 2 ans environ.
 
 

havoc_28 a écrit :


Mais qu'est ce que Bulldozer vient faire là ? Ho ARL est moins catastrophique que Bulldozer en son temps, et donc ?


si tu veux l'explication en mp.

Message cité 1 fois
Message édité par ravenloft le 31-10-2024 à 22:57:57

---------------
Ravenloft
n°11368881
havoc_28
Posté le 31-10-2024 à 23:35:44  profilanswer
 

ravenloft a écrit :


La latence inter ccd sur zen 5 était augmenter, ça jouait pas sur les perfs.
Là c'est sans doute différent mais tu sais pas en quoi ça joue vu que tu as pas de tests prouvant l'influence de ça sur les perfs.


 
La latence inter CCD, mais avec un unique CCD tout va bien et ça été amélioré via patch AGESA. Chez Intel sur ARL, tout les cœurs sont réunis dans une seule tuile.
Augmente la latence ram sur n'importe quelle architecture CPU, ça va pas faire du bien au perf, sauf si tu as quelque chose pour compenser au niveau du cache ou autre.  
 

ravenloft a écrit :


T'as pas compris.
C'est pas réduire la conso qui réduit les performances mais sur la possibilité que pour réduire la conso avec l'archi core malgré le passage au 3nm, ils ont du faire des concessions dans leur archi qui a des conséquence sen pratique.


 
Quelles concessions ? A quel niveau ARL est en régression ? Le gus d'Intel est pas foutu d'expliquer quoi que ce soit, nada. C'est si compliqué d'expliquer en quelques mots qu'est ce qui a foiré ? Genre ils ne savent pas ? Si c'est le cas c'est qu'il n'y plus d'ingénieurs compétents chez Intel. Sauf que non c'est pas ça, mais faut bien dire quelque chose aux investisseurs histoire de, et donc les contes pour enfant, genre Energy Star et compagnie.
 

ravenloft a écrit :


si tu veux l'explication en mp.


 
Bulldozer ? Mutualiser les ressources des cœurs genre une unique unité FPU par module (composé de ceux cœurs), allongement du pipeline et compter sur une augmentation substantiel de la fréquence. Bref l'article de HFR expliquera bien mieux le comment de ça marche.
 
https://www.hardware.fr/articles/84 [...] lculs.html
 
Après Bulldozer AMD a bien été obliger de repatir d'une feuille blanche (ou presque). Est ce qu'on en est là pour Intel, hum pas forcément.

Message cité 1 fois
Message édité par havoc_28 le 31-10-2024 à 23:50:08
n°11368887
worm'skill​er
Le roi de la petit côte
Posté le 01-11-2024 à 01:40:09  profilanswer
 

Eliquis a écrit :


Ha mais je n'ai pas dis que c'était sûr à 100%, lit mieux ! j'ai dis que je n'avais pas confiance car je lis régulièrement des choses sur le sujet. C'est peut-être faux. Ni pour Arrows Lake d'ailleurs ! avec des latences plus élevées, une architecture en dévelloppement, j'attends des retours sur ces points précis. Je ne support plus le stuttering perso, donc je surveille ça.
 
Le Benchmarck de Black Myth Wukong est intéressant de ce point de vue, je test régulièrement différent réglages pour voir le résultat en termes de fluidité.
https://store.steampowered.com/app/ [...] mark_Tool/


 
 
pour te donner idée de la stabilité avec un intel de génération 15 :
 
https://i.ibb.co/kcCH2ZH/Capture-d-cran-2024-11-01-013635.png


---------------
"le prix passe, la qualité reste"
n°11368888
worm'skill​er
Le roi de la petit côte
Posté le 01-11-2024 à 01:42:25  profilanswer
 

syksjel a écrit :


Bah mon 14900ks atteint les 100 degrés sur certains jeux sur un ou deux Pcores, quand je le laisse à son plein potentiel. Alors j’imagine même pas si je devais faire autre chose avec. Obligé de le brider à 220w pour que ça passe nickel.


 
 
c'est que tu as un problème de refroidissement.


---------------
"le prix passe, la qualité reste"
n°11368889
worm'skill​er
Le roi de la petit côte
Posté le 01-11-2024 à 01:53:34  profilanswer
 

havoc_28 a écrit :


 
https://forum.hardware.fr/hfr/Hardw [...] #t11367277
 
https://tpucdn.com/review/intel-cor [...] he-mem.png https://tpucdn.com/review/intel-cor [...] he-mem.png
 
La communication d'Intel n'est là que pour essayer d'apaiser les investisseurs avec du blabla sur l'efficacité énergétique, elle ne répond clairement pas au pourquoi du comment.
Arrow Lake, les P Cœurs c'est une évolution incrémentale. Les E Coeurs voient de forte amélioration, ce qui change fondamentalement c'est le passage à une organisation en chiplet / Tuiles avec un contrôleur mémoire déporté sur une autre Tuiles, y a pas besoin de théories complexe pour expliquer les mauvaises performances d'Intels sur certaines applications.


 
 
perso, je suis plus à cela sur un raptor lake :
 
https://i.ibb.co/C1nnDDN/cachemem-Intel-7600-20241101.png


---------------
"le prix passe, la qualité reste"
n°11368899
uNReaLx77
üNReaL
Posté le 01-11-2024 à 09:14:19  profilanswer
 

La latence c'est la même.  60 et quelques..

n°11368908
worm'skill​er
Le roi de la petit côte
Posté le 01-11-2024 à 09:59:33  profilanswer
 

j'ai mis un extrait sur ma config h24 pas sur une config 100% dédié comme sur les tests de reviewer. Ce n'est juste qu'un point de comparaison. :)
 
On verra ce que la q-dimm a dans le ventre à ce niveau dans le compromis débit/latence.


---------------
"le prix passe, la qualité reste"
n°11368912
uNReaLx77
üNReaL
Posté le 01-11-2024 à 10:10:31  profilanswer
 

Débit ca depend de la fréquence de ta ram surtout...
La il a comparé arrow et raptor a 6000...
T'es à 7600 compares que la latence rien d'autre.  
Avec le 13600k j'ai 72ms de latence.


Message édité par uNReaLx77 le 01-11-2024 à 10:13:01
n°11368921
greenboro
Posté le 01-11-2024 à 10:46:31  profilanswer
 


Intel va devoir se bouger, car voici que Nvidia risque un nouveau compétiteur sur le marché du CPU :
 
https://www.clubic.com/actualite-54 [...] ur-pc.html
 
Premières puces prévues pour 2025, tic, tac...
 

n°11368923
uNReaLx77
üNReaL
Posté le 01-11-2024 à 10:53:04  profilanswer
 

Alors la....si nvidia rentre la dedans ca va donner....config full nvidia...

n°11368925
Miky 2001
N'y pense même pas !!!
Posté le 01-11-2024 à 10:57:18  profilanswer
 

greenboro a écrit :


Intel va devoir se bouger, car voici que Nvidia risque un nouveau compétiteur sur le marché du CPU :
 
https://www.clubic.com/actualite-54 [...] ur-pc.html
 
Premières puces prévues pour 2025, tic, tac...
 


C’est de l’ARM donc plus en concurrence avec Qualcomm.
Qui pour ce dernier aujourd’hui ne bouscule pas vraiment le marché PC.
 
Là on vise les portables…
 
Mais c’est un vrai GROS marché, la preuve Intel c’est focalisé sur celui-ci avec son Lunar Lake et un super rapport perf/conso.
 
C’est d’ailleurs un élément à à avoir en tête qd on regarde les perfs de Arrow lake aujourd’hui . Cette archi a été développée avant tout pour ce marché du portable qui est le plus rentable ( c’est pas que le grand publique mais aussi les entreprises…).  
 
Après si nvidia arrive concrètement sur ce marché avec de l’arm ça explique aussi le rapprochement de AMD et Intel sur l’avenir du x86. Le danger n’est pas que pour Intel mais pour amd aussi :jap:

n°11368928
ravenloft
Meilleur jeu du 20ème siècle
Posté le 01-11-2024 à 11:12:52  profilanswer
 

havoc_28 a écrit :


 
La latence inter CCD, mais avec un unique CCD tout va bien et ça été amélioré via patch AGESA. Chez Intel sur ARL, tout les cœurs sont réunis dans une seule tuile.
Augmente la latence ram sur n'importe quelle architecture CPU, ça va pas faire du bien au perf, sauf si tu as quelque chose pour compenser au niveau du cache ou autre.  
 


Que cela ne va pas faire du bien, soit mais que ça explique à elle toute seule les problèmes de perfs dans certains jeux et pas dans d'autre, ça je m'avancerai pas comme je t'ai dit sans de véritables preuves qui démontrent que c'est bien ça la source du problème.
 

havoc_28 a écrit :


 
Quelles concessions ? A quel niveau ARL est en régression ? Le gus d'Intel est pas foutu d'expliquer quoi que ce soit, nada. C'est si compliqué d'expliquer en quelques mots qu'est ce qui a foiré ? Genre ils ne savent pas ? Si c'est le cas c'est qu'il n'y plus d'ingénieurs compétents chez Intel. Sauf que non c'est pas ça, mais faut bien dire quelque chose aux investisseurs histoire de, et donc les contes pour enfant, genre Energy Star et compagnie.


Tu as une autre interprétation, soit.  
 

havoc_28 a écrit :


 
Bulldozer ? Mutualiser les ressources des cœurs genre une unique unité FPU par module (composé de ceux cœurs), allongement du pipeline et compter sur une augmentation substantiel de la fréquence. Bref l'article de HFR expliquera bien mieux le comment de ça marche.
 
https://www.hardware.fr/articles/84 [...] lculs.html
 


C'est pas du tout à propos de ça que j'ai parlé de bulldozer. :D  Comme j'ai dit, si tu veux des explications, en mp.


---------------
Ravenloft
n°11368929
ravenloft
Meilleur jeu du 20ème siècle
Posté le 01-11-2024 à 11:15:04  profilanswer
 

greenboro a écrit :


Intel va devoir se bouger, car voici que Nvidia risque un nouveau compétiteur sur le marché du CPU :
 
https://www.clubic.com/actualite-54 [...] ur-pc.html
 
Premières puces prévues pour 2025, tic, tac...
 


Cela fait presque 6 mois qu'on le sait ça  :D  
 
Le problème ça va être l'émulation x86 sur arm. Pour le moment avec les puces qualcomm, c'est tout sauf au point l'émulation x86 de windows arm et je parle pas que des perfs mais de la compatibilité.  
Cela sera peut être corrigé d'ici là mais à voir.
 


---------------
Ravenloft
n°11368935
Miky 2001
N'y pense même pas !!!
Posté le 01-11-2024 à 11:40:20  profilanswer
 

ravenloft a écrit :


Cela fait presque 6 mois qu'on le sait ça  :D  
 
Le problème ça va être l'émulation x86 sur arm. Pour le moment avec les puces qualcomm, c'est tout sauf au point l'émulation x86 de windows arm et je parle pas que des perfs mais de la compatibilité.  
Cela sera peut être corrigé d'ici là mais à voir.
 


Avec Windows ARM les choses peuvent changer…  
En tout cas pour les futurs développements.
 
Pour les logiciels déjà existant en X86 ou x64, l’émulation sur ARM sera toujours moins bonne qu’en natif c’est presque une certitude.

n°11368937
ravenloft
Meilleur jeu du 20ème siècle
Posté le 01-11-2024 à 11:56:54  profilanswer
 

Miky 2001 a écrit :


Pour les logiciels déjà existant en X86 ou x64, l’émulation sur ARM sera toujours moins bonne qu’en natif c’est presque une certitude.


Là en plus des perfs, la compatibilité va être importante car un des atouts qui a la fait la force du Pc depuis plus de 40 ans, c'est la rétrocompatibilité.

 

Là les émulateurs ont des décennies de rétrocompatibilité à supporter vu que win95 aura l'année prochaine 30 ans (pour dos et win 3.1 et avant, il y a déjà des outils d'émulation comme dosbox qui sont compatibles arm).

 

Quand on voit comment c'est long pour juste passer de windows à linux sur la même archi (wine + proton) et le dev n'est pas fini, passer d'une archi à une autre risque de l'être encore plus ou alors faudra faire pendant des années le béta testeur et croiser les doigts pour que son vieux logiciel (pro ou jeux) fonctionne.

 

A l'heure actuelle en tout cas, la compatibilité arm de windows avec les premiers pc arm, c'est pas ça du tout.

 

Nvidia a l'avantage de ses gpus qui sont archi indépendants. Reste la partie cpu à développer et bien car si nvidia se lance, ce sera pour concurrencer les gros cpus pour joueur (14900, 9900x, 7800x3d etc), pas le cpu qu'on trouve dans un portable à 300€. Celui qui achètera ça ne voudra pas souffrir de problème de compatibilité ni de performances.


Message édité par ravenloft le 01-11-2024 à 11:58:45

---------------
Ravenloft
n°11368948
joyk
Posté le 01-11-2024 à 12:46:57  profilanswer
 

Salut, j'ai lu que ces nouveaux processeur Intel Core Ultra pouvaient encoder et décoder le AV1. C'est à dire qu'il est possible de par exemple d'encoder des vidéos 1080p à plus de 60FPS en top qualité avec Handbrake ???

n°11368954
havoc_28
Posté le 01-11-2024 à 13:38:43  profilanswer
 

ravenloft a écrit :


Que cela ne va pas faire du bien, soit mais que ça explique à elle toute seule les problèmes de perfs dans certains jeux et pas dans d'autre, ça je m'avancerai pas comme je t'ai dit sans de véritables preuves qui démontrent que c'est bien ça la source du problème.


 
Tout comme il y a des jeux qui sont plus ou moins sensible au 3D Vcache d'AMD et d'autres pas du tout, tous les jeux ne sont pas affectés de la même façon par la latence mémoire. Au moins j'ai une théorie avec une explication simple du pourquoi du comment. Pas juste un très vague "concessions à cause de la réduction de consommation", la réduction de consommation ça peut très bien être attribué en grande partie au passage au 3 nm TSMC, d'ailleurs à nouveau cette consommation est pas si prodigieuse que ça, c'est mieux mais rien d'extraordinaire donc les concessions ...
 

ravenloft a écrit :

C'est pas du tout à propos de ça que j'ai parlé de bulldozer. :D  Comme j'ai dit, si tu veux des explications, en mp.


 
On a déjà assez passé de temps ici, donc vaut mieux éviter le MP :o.
 

joyk a écrit :

Salut, j'ai lu que ces nouveaux processeur Intel Core Ultra pouvaient encoder et décoder le AV1. C'est à dire qu'il est possible de par exemple d'encoder des vidéos 1080p à plus de 60FPS en top qualité avec Handbrake ???


 
Oui y a un encodeur AV1 comme sur ARC vu que ça utilise la même architecture XE juste qu'il n'y a pas d'unité XMX sur la variante dans Meteor Lake / Arrow Lake.
Le support dans Handbrake avait été ajouter il y a quasiment 2 ans peu après la sortie de ARC, donc les éventuels bugs etc ont du être corrigé depuis.

Message cité 3 fois
Message édité par havoc_28 le 01-11-2024 à 13:41:15
n°11368963
ravenloft
Meilleur jeu du 20ème siècle
Posté le 01-11-2024 à 14:16:41  profilanswer
 

havoc_28 a écrit :


 
Tout comme il y a des jeux qui sont plus ou moins sensible au 3D Vcache d'AMD et d'autres pas du tout, tous les jeux ne sont pas affectés de la même façon par la latence mémoire. Au moins j'ai une théorie avec une explication simple du pourquoi du comment. Pas juste un très vague "concessions à cause de la réduction de consommation", la réduction de consommation ça peut très bien être attribué en grande partie au passage au 3 nm TSMC, d'ailleurs à nouveau cette consommation est pas si prodigieuse que ça, c'est mieux mais rien d'extraordinaire donc les concessions ...
 


J'ai jamais dit que tu avais pas une théorie mais j'ai l'impression que tu veux que je la valide absolument en disant t'as raison tellement tu insistes à le répéter depuis 6-7 messages.  
Mon très vague, c'est une hypothèse, je cherche pas à dire que c'est la vraie raison ni l'unique.  
 
En fait on tourne en rond car c'est la 6-7 ème fois qu'on répète la même chose. On croirait le retour du bébête show.  :D  

havoc_28 a écrit :


 
 
On a déjà assez passé de temps ici, donc vaut mieux éviter le MP :o.
 


J'ai dis si tu voulais savoir pourquoi j'en ai parlé vu que tu avais fait la demande d'explication.  


---------------
Ravenloft
n°11368966
joyk
Posté le 01-11-2024 à 14:20:09  profilanswer
 

havoc_28 a écrit :


 
Oui y a un encodeur AV1 comme sur ARC vu que ça utilise la même architecture XE juste qu'il n'y a pas d'unité XMX sur la variante dans Meteor Lake / Arrow Lake.
Le support dans Handbrake avait été ajouter il y a quasiment 2 ans peu après la sortie de ARC, donc les éventuels bugs etc ont du être corrigé depuis.


 
Ok merci. Et niveau qualité tu sais si c'est la même compression qu'en software ? Car apparemment en compression hardware, avec des settings équivalents, il semble y avoir une dégradation de la qualité au final. Tout du moins avec H264/H265.
J'avais testé il y a quelques temps de compresser une vidéo avec un GPU nvidia, et le résultat était bien meilleur en passant par le CPU/software pour un fichier équivalent en poids.

Message cité 1 fois
Message édité par joyk le 01-11-2024 à 14:21:09
n°11368968
havoc_28
Posté le 01-11-2024 à 14:38:32  profilanswer
 

ravenloft a écrit :


J'ai jamais dit que tu avais pas une théorie mais j'ai l'impression que tu veux que je la valide absolument en disant t'as raison tellement tu insistes à le répéter depuis 6-7 messages.  
Mon très vague, c'est une hypothèse, je cherche pas à dire que c'est la vraie raison ni l'unique.  


 
Moi je veux juste qu'on m'explique que ce soit Intel ou des testeurs indépendants, les supposées concessions dues à la consommation si c'est bien ça, car lire entre les lignes de la com intel aux fraises et un constat tout simple "l'augmentation de la latence mémoire", c'est pas tout à fait la même chose. Et je suis même pas sur qu'on aura la réponse dans les semaines à venir.  
 

ravenloft a écrit :


J'ai dis si tu voulais savoir pourquoi j'en ai parlé vu que tu avais fait la demande d'explication.  


 
Tu peux toujours envoyé un MP si ça te prend pas trop de ton temps ;).
 

joyk a écrit :


 
Ok merci. Et niveau qualité tu sais si c'est la même compression qu'en software ? Car apparemment en compression hardware, avec des settings équivalents, il semble y avoir une dégradation de la qualité au final. Tout du moins avec H264/H265.
J'avais testé il y a quelques temps de compresser une vidéo avec un GPU nvidia, et le résultat était bien meilleur en passant par le CPU/software pour un fichier équivalent en poids.


 
Jusqu'à présent on a jamais vu de parité niveau qualité entre encodeur "hardware" et software, que les encodeur hardware se sont grandement améliorés oui, et Intel son encodeur est très bon, après de là à dire que c'est au même niveau non, c'est beaucoup plus proche qu'il y a quelque années et pour beaucoup c'est même imperceptible, mais y a toujours un avantage avec un encodage software sur le plan qualité même si réduit sur les dernières génération de GPU (bon AMD est un peu moins bon à ce niveau que les deux autres).
 
Après Nvidia ont amélioré la qualité de leurs encodeurs à chaque génération, donc je ne sais pas à quand ça remonte ton test.

Message cité 1 fois
Message édité par havoc_28 le 01-11-2024 à 14:43:13
n°11368983
joyk
Posté le 01-11-2024 à 15:22:38  profilanswer
 

havoc_28 a écrit :


 
Jusqu'à présent on a jamais vu de parité niveau qualité entre encodeur "hardware" et software, que les encodeur hardware se sont grandement améliorés oui, et Intel son encodeur est très bon, après de là à dire que c'est au même niveau non, c'est beaucoup plus proche qu'il y a quelque années et pour beaucoup c'est même imperceptible, mais y a toujours un avantage avec un encodage software sur le plan qualité même si réduit sur les dernières génération de GPU (bon AMD est un peu moins bon à ce niveau que les deux autres).
 
Après Nvidia ont amélioré la qualité de leurs encodeurs à chaque génération, donc je ne sais pas à quand ça remonte ton test.


 
D'accord. Mon dernier test date d'il y a 4 ou 5 ans je pense, avec une GTX1070, donc avec ce que tu dis j'imagine que c'a doit être bien différent maintenant avec les nouvelles cartes graphiques. Et encore plus avec les nouveaux CPU Intel et le AV1 qui a l'air bien plus performant que le H265.
En tout cas je serais quand même curieux d'avoir des petits extraits vidéos en low bitrate pour voir la différence !

n°11369102
Eliquis
Posté le 01-11-2024 à 21:11:23  profilanswer
 

Une analyse intérressante pour l'amélioration d'Arrow lake ...
 
https://www.youtube.com/watch?v=Wchwh-quceA
 
https://zupimages.net/up/24/44/lbs9.png
 
et une petite annonce sur les perfs du 9800x3D [:grande greluche:1]

n°11369105
Librae
Posté le 01-11-2024 à 21:54:50  profilanswer
 

En tout cas j'ai fait mon petit tour des tests et apparemment les testeurs ont passé de mauvais moments avec une plateforme pas encore tout a fait mature, visiblement il va falloir attendre la fin de la beta.

 

Je pense qu'il y aura des améliorations mais il n'y aura pas de miracle à attendre. Le pire c'est qu'avec les nodes tsmc surtout pour le compute tile, difficile d'avoir des prix plus agressifs.

 

Bon apres pour les oem c'est si important que ça les performances en jeu? En termes de volume c'est la que ça compte vraiment, c'est la que ça va être intéressant en tout cas vu que Intel n'a plus le cheat code argent illimité...


Message édité par Librae le 01-11-2024 à 21:57:07
n°11369133
havoc_28
Posté le 02-11-2024 à 02:58:32  profilanswer
 

Eliquis a écrit :

Une analyse intérressante pour l'amélioration d'Arrow lake ...
 
https://www.youtube.com/watch?v=Wchwh-quceA
 


 
ça s'appel de l'overclocking, plus spécifiquement du coté du cache L3 / anneau et en utilisant des mémoires CUDIMM (comme par hasard des truc liés au sous système cache / ram :o).
Bref ce qui se fait déjà auparavant avec des gains similaires sur RPL.
 
Les tests un peu plus complet avait déjà testé avec de la ram rapide.  
 
https://www.techspot.com/review/291 [...] ra-9-285k/
 
Ou les différents guide de Skatterbencher
 
https://skatterbencher.com/2024/10/ [...] rclocking/
 
(genre celui là sur l'anneau spécifiquement).
 
Vous pouvez cherchez les autres sur Skatterbencher


Message édité par havoc_28 le 02-11-2024 à 02:58:55
n°11369159
uNReaLx77
üNReaL
Posté le 02-11-2024 à 11:55:11  profilanswer
 

Shatterbencher, le gars il connaît la moindre option du bios sur le bout des doigts, s'il pouvait il en rajouterai...
 

n°11369162
Grouchotth
Posté le 02-11-2024 à 12:19:23  profilanswer
 

Ça sert à quoi d'oc l'anneau ?


---------------
Topic Vente - Mon feedback achats / ventes - Galerie HFR
n°11369165
havoc_28
Posté le 02-11-2024 à 12:49:08  profilanswer
 

Grouchotth a écrit :

Ça sert à quoi d'oc l'anneau ?


 
Réduire les latences de communications entre les cœurs.

n°11369850
josedsf
Posté le 05-11-2024 à 18:01:33  profilanswer
 

havoc_28 a écrit :


Oui y a un encodeur AV1 comme sur ARC vu que ça utilise la même architecture XE juste qu'il n'y a pas d'unité XMX sur la variante dans Meteor Lake / Arrow Lake.
Le support dans Handbrake avait été ajouter il y a quasiment 2 ans peu après la sortie de ARC, donc les éventuels bugs etc ont du être corrigé depuis.


Et au vu du petit nombre d'unités Xe dans l'iGPU ARL desktop, je suis tenté de penser que les perfs ne sont pas folichonnes. On est loin d'un GPU dédié, même ancien, comme la 1070. Il n'est pas impossible que l'encodage soit plus rapide en CPU qu'avec l'iGPU.


---------------
Guide cpu / Zen6-7
n°11369853
havoc_28
Posté le 05-11-2024 à 18:04:54  profilanswer
 

josedsf a écrit :


Et au vu du petit nombre d'unités Xe dans l'iGPU ARL desktop, je suis tenté de penser que les perfs ne sont pas folichonnes. On est loin d'un GPU dédié, même ancien, comme la 1070. Il n'est pas impossible que l'encodage soit plus rapide en CPU qu'avec l'iGPU.


 
Heu non, les encodeurs / décodeurs vidéos c'est des transistors dédiés uniquement à ça, que l'on puisse utiliser les unités classiques quand on n'a qu'un support partiel ou accélérer encore un peu plus le processus oui, mais là c'est pas le cas. Les performances en encodages que ce soit 4 unités XE d'un IGP ou d'un GPU d'une A770 l'encodeur / décodeur est pas si éloigné que ça. Après l'ARC A770 aura  plus de cache / bande passante mémoire et sera donc un peu plus rapide, mais même un IGP est nettement plus rapide en encodage vidéo qu'un processeur via l'encodage classique "software".
 
Chez Nvidia une 4060 et une 4090 c'est le même encodeur, sauf que sur une 4090 y a deux encodeurs contre 1 seul sur la 4060.


Message édité par havoc_28 le 05-11-2024 à 18:09:19
n°11369855
josedsf
Posté le 05-11-2024 à 18:13:29  profilanswer
 

Ah ok, je pensais que ça envoyait des calculs sur les cores graphiques. Ca me donne envie de tester l'iGPU de mon 7600 avec Handbrake !


---------------
Guide cpu / Zen6-7
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  12  13  14  ..  16  17  18  19  20  21

Aller à :
Ajouter une réponse
 

Sujets relatifs
[sondage] Achat d'un nouveau PC Intel: maintenant ou plus tard?[CPU] Intel i5 13400
CPU Intel I5-14700 > I7-11700k ?Compatibilité intel core 5 12400F et DDR5 6000Mhz
Quelle carte graphique avec un Intel Xeon 1240 V3 ?Intel Wireless Bluetooth
Renseignement Intel Xeon E3-1240 V3 (MàJ)Problème performance Intel core i7 10700kf et profil xmp
Ryzen 7950x / intel 14900K ou Threadripper 7960Xcomment Intel a détruit mon i5 sous garantie
Plus de sujets relatifs à : Intel Arrow Lake (la gen 15 dans les bacs)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)