Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1231 connectés 

  FORUM HardWare.fr
  Hardware
  HFR

  [HFR] Actu : Haswell GT3e = GeForce GT 650M ?

 


 Mot :   Pseudo :  
 
Bas de page
Auteur Sujet :

[HFR] Actu : Haswell GT3e = GeForce GT 650M ?

n°8580013
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 10-01-2013 à 11:15:02  profilanswer
0Votes positifs
 

C'est en tout cas le message qu'Intel essaie de faire passer à l'occasion du CES au travers d'une présentation rapportée par nos confrères d'AnandTech à ...
Lire la suite ...

mood
Publicité
Posté le 10-01-2013 à 11:15:02  profilanswer
 

n°8580016
coma13
Posté le 10-01-2013 à 11:16:42  profilanswer
0Votes positifs
 

Dans 2/3 générations ça sera viable peut-être ?
Sortir un processeur avec une gtx 760 intégrée ça pète.

Message cité 1 fois
Message édité par coma13 le 10-01-2013 à 11:17:10
n°8580023
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 10-01-2013 à 11:19:52  profilanswer
3Votes positifs
 

Une grande partie du bond de performance est lié à la mémoire embarquée, je doute qu'il soit possible de renouveler un tel gain à chaque génération.


Message édité par Marc le 10-01-2013 à 11:39:45
n°8580024
jeanlucl
Posté le 10-01-2013 à 11:20:23  profilanswer
2Votes positifs
 

Vu la puissance graphique qu'Intel est en train de développer, je me demande si les acheteurs potentiels (plus particulièrement les joueurs occasionnels sur PC portable) seront convaincus.
 
C'est n'est généralement pas très rassurant de ne pas avoir de carte graphique dédiée lorsqu'on veut faire du jeu 3D. A mon avis il va falloir quelques années pour que les mentalités changent.
 
Edit : tout en ayant a l'esprit qu'Intel se doit d'augmenter les performences de génération en génération car s'il y a stagnation, plus personne n'en voudra.


Message édité par jeanlucl le 10-01-2013 à 11:22:06
n°8580063
fkanker
Posté le 10-01-2013 à 11:40:26  profilanswer
1Votes positifs
 

"Can it run Crysis?" :D

n°8580103
bep
Posté le 10-01-2013 à 12:02:21  profilanswer
1Votes positifs
 

pas vraiment besoin de changement de mentalite... regarder le nombre de gens qui essaient deja de jouer sur iGPU!!
 
Il reste beaucoup de gens, de parents et autres, qui ne s'y connaissent pas trop. On achete et on utilise ou offre, puis ensuite l'utilisateur, parfois jeune, essaie de l'utiliser pour jouer!
 
Moi je dis: bonne nouvelle pour etudiant :-D Papa offre un pc (sans carte graphique car pas prevu pour jouer qd meme, c'est pour les etudes) et etudiant qd meme content car mine de rien ca jouera qd meme pas si mal :-p

n°8580130
floppytoo
Membre Hardware.fr depuis 2001
Posté le 10-01-2013 à 12:21:55  profilanswer
0Votes positifs
 

Si la GeforceGT640 desktop est un milieu de gamme ...

n°8580183
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 10-01-2013 à 13:00:55  profilanswer
5Votes positifs
 

Pour du mobile oui.

n°8580209
Shadow460
Posté le 10-01-2013 à 13:19:45  profilanswer
0Votes positifs
 

Ca me fait  penser à Apple
Les marques font des processeurs(pour Apple) et des IGP(pour Intel) et d'un coup,on ne sait pas pourquoi les performance double ou triple.Alors que depuis plusieurs année le gain maximum est de 20%(théorique  :o )


---------------
MSI GTX980 Gaming 4G | 2*8Go Gskill | AMD Ryzen 5 5600X
n°8580232
Singman
The Exiled
Posté le 10-01-2013 à 13:34:00  profilanswer
1Votes positifs
 

Deux choses :
- Anandtech... Ils sont comme cul et chemise depuis quelques temps avec Intel. Leur derniers articles sont tellement improbables... Le test de consommation pour prouver d'un chipset complet Intel est mieux qu'un ARM est bourré de complaisance, a commencer par la méthodologie. Et beaucoup de gens se demandent comment ils ont fait pour avoir les points de mesure de la tablette, si ce n'est par l'intermédiaire d'Intel...
- le GT 650M de NVidia n'est pas vraiment le fer de lance technologique de la gamme. De ce coté là, autant AMD que NVidia n'ont pas trop de soucis, c'est un GPU juste lancé pour occuper un segment, 0 coût de développement, juste du recyclage. En cas de menace, suffit de le castrer un peu moins.
 
Au final, on s'attendait a ce que le GT3e avec la RAM sur le chip soit rapide, c'est une évidence. Mais de la a faire croire que le CPU GT3 soit extraordinaire, il y a une marche énorme. Si on garde la RAM sur la carte, on peut tabler sur 1,5x mieux que l'ancienne gamme. Et la RAM embarquée a des inconvénients (cout, capacité entre autre).

mood
Publicité
Posté le 10-01-2013 à 13:34:00  profilanswer
 

n°8580238
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 10-01-2013 à 13:39:26  profilanswer
3Votes positifs
 

Pour le premier point, ces gens qui se posent des questions ne savent pas lire, c'est indiqué noir sur blanc dans le premier article "Intel brought one of its best power engineers along with a couple of tablets and a National Instruments USB-6289 data acquisition box to demonstrate its findings."

 

Pour le second point, je pense que les précisions que nous apportons permettent effectivement de mettre ceci en perspective.


Message édité par Marc le 10-01-2013 à 13:39:52
n°8580298
regis183
Posté le 10-01-2013 à 14:33:25  profilanswer
1Votes positifs
 

Marc a écrit :

Une grande partie du bond de performance est liéE à la mémoire embarquée, je doute qu'il soit possible de renouveler un tel gain à chaque génération.


Ça semble surtout une histoire de puissance brute:
On passe de 16EU à 40EU.
Avec un cout énergétique proportionnel (TDP 57W).
De toute façon, le GT3e est un modèle qui sera envoyé aux testeurs, mais qu'on ne retrouvera pas sur le marché.

n°8580313
Tetedepioc​he
Posté le 10-01-2013 à 15:11:03  profilanswer
1Votes positifs
 

La ram embarquée est sur le packaging pas le die? C'est de la ram exclusive à l'IGP?
 
AMD devrait trouver une solution similaire quand on voit l'influence de la vitesse de la ram sur les perf de leur AGP.  
 

n°8580343
Singman
The Exiled
Posté le 10-01-2013 à 15:33:26  profilanswer
0Votes positifs
 

Marc a écrit :

Pour le premier point, ces gens qui se posent des questions ne savent pas lire, c'est indiqué noir sur blanc dans le premier article "Intel brought one of its best power engineers along with a couple of tablets and a National Instruments USB-6289 data acquisition box to demonstrate its findings."


 
C'est tout a fait ce que je pointe : Un gars d'Intel vient chez eux leur dire qu'il faut prendre la tension et la consommation a ces points là, et pas ailleurs. Comment peux tu derrière valider la conformité au niveau technique d'un article comme celui-là ?

n°8580351
Singman
The Exiled
Posté le 10-01-2013 à 15:38:23  profilanswer
1Votes positifs
 

Tetedepioche a écrit :

La ram embarquée est sur le packaging pas le die? C'est de la ram exclusive à l'IGP?


La description technique exacte est : "an optional on-package cache of up to 128MB in size". C'est donc au maximum 128 Mo de cache qui sont sur le package (pas le die). Les mots importants sont "au maximum" et "cache".

n°8580393
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 10-01-2013 à 16:10:49  profilanswer
3Votes positifs
 

Singman a écrit :


 
C'est tout a fait ce que je pointe : Un gars d'Intel vient chez eux leur dire qu'il faut prendre la tension et la consommation a ces points là, et pas ailleurs. Comment peux tu derrière valider la conformité au niveau technique d'un article comme celui-là ?


Je suis tout à fait d'accord avec ça, pour autant les points de mesure sont indiqués dans l'article donc si ils étaient faux il y'aurait moyen que AnandTech et surtout Intel se fasse tacler sévèrement là dessus.
 
Pour moi le problème c'est surtout que Intel a fournit les tablettes concurrentes. D'une, pour un même SoC il n'est pas dit que toute les implémentations donne le même résultat, peut être qu'il y'a des tablettes moins bonne que d'autre niveau conso avec un même SoC. De deux, sur un même modèle il y'a peut être une légère variation entre différentes productions côté consommation, comment exclure une éventuelle pré-selection d'Intel ?
 
Il y'a une part de "hasard" dans les tests. Que ce hasard soit mis dans les mains d'Intel, mmmmh :D

n°8581935
ldesnogu
Posté le 11-01-2013 à 18:32:43  profilanswer
0Votes positifs
 

Marc a écrit :


Je suis tout à fait d'accord avec ça, pour autant les points de mesure sont indiqués dans l'article donc si ils étaient faux il y'aurait moyen que AnandTech et surtout Intel se fasse tacler sévèrement là dessus.
 
Pour moi le problème c'est surtout que Intel a fournit les tablettes concurrentes. D'une, pour un même SoC il n'est pas dit que toute les implémentations donne le même résultat, peut être qu'il y'a des tablettes moins bonne que d'autre niveau conso avec un même SoC. De deux, sur un même modèle il y'a peut être une légère variation entre différentes productions côté consommation, comment exclure une éventuelle pré-selection d'Intel ?
 
Il y'a une part de "hasard" dans les tests. Que ce hasard soit mis dans les mains d'Intel, mmmmh :D


Ce "test" d'AnandTech et de TomsHardware est une veritable honte : en plus de ce que tu dis, on peut se demander pourquoi Intel insiste pour comparer des tablettes n'utilisant pas le meme OS ; meme si c'est du Windows, il est evident que MS a bien plus d'experience sur Intel que sur ARM. Il aurait ete tellement plus honnete de prendre deux telephones Android et d'utiliser des applications natives non fournies sur Android (pour eviter un potentiel overtuning de l'OS par un fabricant) comme des benchmarks ou des jeux...
 
Ajoutons a cela l'histoire des 7W et si j'etais parano, je penserais qu'Intel flippe un peu en ce moment :lol:

n°8591594
cocto81
Posté le 20-01-2013 à 00:20:31  profilanswer
0Votes positifs
 

Attention, le HD 4000 sur CPU mobile n'a pas les mêmes perfs que le HD 4000 sur CPU Desktop. Ce n'est pas la même vitesse même si tout est actif.
Du coup si c'est par rapport au HD 4000, par exemple les i3 ou i5 17W qu'on le compare, alors le HD 4600 est à peine plus rapide que le HD 4000 sur desktop.
C'est peut-être l'explication : HD 4600, un peu plus rapide que le HD 4000 mais toujours à la même vitesse, même sur plateforme mobile.
Du coup sur desktop, AMD n'aurait rien à craindre pour sa plateforme Trinity, mais serait égalé sur mobile.

n°8591673
blazkowicz
Posté le 20-01-2013 à 08:03:50  profilanswer
0Votes positifs
 

coma13 a écrit :

Dans 2/3 générations ça sera viable peut-être ?
Sortir un processeur avec une gtx 760 intégrée ça pète.


 
Un processeur avec GTX 860 intégré, ce sera possible. Mais les CPU seront des ARMv8 :D
 
Le nvidia Maxwell. Je ne sais pas trop quels sont leurs plans exacts, les grosses puissances seront sur carte PCIe 16x, les petites sur Tegra mais y aura-t-il un plus gros Tegra? un 25/35 watts pour laptop, un 45 watts et 65 watts pour micro-ATX..
 
Je me verrais bien avec un laptop avec un APU nvidia. Les options : Android, Linux, FreeBSD. Ou quelque chose d'hybride entre Android et GNU/linux (surcouche sur l'un ou l'autre)
Valve pourrait nous faire un Steam pour Linux ARM mais j'en doute quelque peu.
 
L'AMD Jaguar est intéressant sinon : le premier HSA :). Mais j'aimerais que le HSA soit supporté sur du non Windows (il le sera sur Xbox 720 mais celle-ci tourne sous.. Windows)
Intel là-dedans? ne vous emballlez pas trop, le GT3 va coûter une blinde :o


Aller à :
Ajouter une réponse
  FORUM HardWare.fr
  Hardware
  HFR

  [HFR] Actu : Haswell GT3e = GeForce GT 650M ?

 

Sujets relatifs
[HFR] Actu : Plextor en TLC mi-2013[HFR] Actu : CES: 3DMark Next: and the winner is…
[HFR] Actu : CES: Le Vector d'OCZ passe au PCI Express 4x[HFR] Actu : CES: Nvidia Tegra 4 et consommation
[HFR] Actu : Test des APU AMD A10-5700 et A8-5500 
Plus de sujets relatifs à : [HFR] Actu : Haswell GT3e = GeForce GT 650M ?


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR