Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1530 connectés 

  FORUM HardWare.fr
  Hardware
  HFR

  [HFR] Focus : Nvidia Tegra 4 et 4i: tout savoir de leur architecture

 


 Mot :   Pseudo :  
 
 Page :   1  2
Page Précédente
Auteur Sujet :

[HFR] Focus : Nvidia Tegra 4 et 4i: tout savoir de leur architecture

n°8639313
tridam
Profil : Equipe HardWare.fr
Posté le 27-02-2013 à 11:55:02  profilanswer
0Votes positifs
 

Il y a quelques jours, nous avons eu l'opportunité de rencontrer une partie des équipes chargées de la conception des SoC Tegra et d'en apprendre plus sur leur architecture ainsi
Lire la suite ...

mood
Publicité
Posté le 27-02-2013 à 11:55:02  profilanswer
 

n°8639318
macnford
Posté le 27-02-2013 à 11:58:09  profilanswer
5Votes positifs
 

Superbe focus, et heureux je suis qu'HFR se penche sur ARM :)

n°8639443
bep
Posté le 27-02-2013 à 13:58:20  profilanswer
0Votes positifs
 

Ca fait regretter d'avoir achete un dual-core A9 dans son telephone recemment :-D

n°8639465
ottilienne
Posté le 27-02-2013 à 14:10:16  profilanswer
1Votes positifs
 

dites moi: arm est le processeur utilisé dans tout ce qui nest pas x86 ? samsung exynos, qualcom snapdragon , nvidia 4...
merci de meclairer car je suis un peu perdu entre le processeur arm et les SOC


Message édité par ottilienne le 27-02-2013 à 14:11:07
n°8639491
tridam
Profil : Equipe HardWare.fr
Posté le 27-02-2013 à 14:20:41  profilanswer
1Votes positifs
 

Oui, tout ces SoC (System on Chip = puce qui intègre presque la totalité des composants nécessaire pour faire tourner un système) qui ne sont pas basés sur des CPU x86 utilisent une architecture CPU ARM soit à travers des cores conçus par ARM soit à travers des cores personnalisés. Il y a aussi quelques SoC qui utilisent une architecture CPU MIPS, mais ils ne sont pas courants dans le grand public.


Message édité par tridam le 27-02-2013 à 14:22:44
n°8639507
ottilienne
Posté le 27-02-2013 à 14:25:56  profilanswer
1Votes positifs
 

alors je ne vois pas pourquoi ils sont en concurrence vu quils utilisent tous un processeur arm. Je me doute que cest une question conne sinon ils nexisteraient pas....mais je ne connais pas les differences. ca me parait evident que si snapdragon a un cortex a15 et nvidia 3 un cortex a9 pour le meme prix , je vais prendre le snapdragon....


Message édité par ottilienne le 27-02-2013 à 14:31:27
n°8639527
ockiller
Posté le 27-02-2013 à 14:36:52  profilanswer
1Votes positifs
 

Citation :

ce qui est plutôt ironique quand on se souvient qu'il y a quelques années, Nvidia nous expliquait tout le mal qu'il pensait du FP24 des Radeon par rapport au FP32 des GeForce.


Je me souviens plutôt que nVidia nous montrait qu'il n'y avait (presque) aucune différence entre le FP16 (mode aussi supporté à l'époque par nVidia, sensiblement plus performant chez eux) et le FP32. Ca leur permettait d'être moins largués par rapport aux Radeon...
 

ottilienne a écrit :

ca me parait evident que si snapdragon a un cortex a15 et nvidia 3 un cortex a9 pour le meme prix , je vais prendre le snapdragon....


L'argument de nVidia est que 4x Cortex A9 sont plus performants et plus économes que 2x Cortex A15 sur des applis bien multithreadées. La consommation élevée des A15 semble poser quelques soucis à ceux qui veulent l'intégrer dans un téléphone...

Message cité 1 fois
Message édité par ockiller le 27-02-2013 à 14:44:16
n°8639528
tridam
Profil : Equipe HardWare.fr
Posté le 27-02-2013 à 14:37:23  profilanswer
0Votes positifs
 

ottilienne a écrit :

alors je ne vois pas pourquoi ils sont en concurrence vu quils utilisent tous un processeur arm. Je me doute que cest une question conne sinon ils nexisteraient pas....mais je ne connais pas les differences. ca me parait evident que si snapdragon a un cortex a15 et nvidia 3 un cortex a9 pour le meme prix , je vais prendre le snapdragon....

 

C'est tjs un compromis entre les performances CPU, les performances GPU, la consommation. Les équilibres sont différents.


Message édité par tridam le 27-02-2013 à 14:37:51
n°8639535
tridam
Profil : Equipe HardWare.fr
Posté le 27-02-2013 à 14:41:28  profilanswer
3Votes positifs
 

ockiller a écrit :

Citation :

ce qui est plutôt ironique quand on se souvient qu'il y a quelques années, Nvidia nous expliquait tout le mal qu'il pensait du FP24 des Radeon par rapport au FP32 des GeForce.


Je me souviens plutôt que nVidia nous montrait qu'il n'y avait (presque) aucune différence entre le FP16 (mode aussi supporté à l'époque par nVidia, sensiblement plus performant chez eux) et le FP32. Ca leur permettait d'être moins largués par rapport aux Radeon...


 
Ca c'était après :o
 
Lors du paper launch le FP32 c'était le top, puis une fois les cartes testées bein finalement le FX12/FP16 c'était génial :o Dans tous les cas le FP24 c'était mal :D

n°8639553
Singman
The Exiled
Posté le 27-02-2013 à 14:58:34  profilanswer
1Votes positifs
 

ARM vend des licences pour utiliser ses SoC. Il ne les fabrique pas, il n'y a pas d'usine ARM, et chaque détenteur de licence peut les customiser dans une certaine limite. Chacun "construit" ou "assemble" donc son SoC comme il l'entend, avec ses compromis, ses préférences, ses objectifs, son process de fabrication. Tout ceci fait qu'il n'y a pas un seul SoC ARM, mais une multitude, car tous n'ont pas les mêmes contraintes.
 
Merci au passage à HW.fr de s'intéresser enfin au processeurs mobiles. Il aura fallu du temps et peut être l'introduction d'Intel sur ce marché pour vous y pousser :)

mood
Publicité
Posté le 27-02-2013 à 14:58:34  profilanswer
 

n°8639568
ottilienne
Posté le 27-02-2013 à 15:06:44  profilanswer
0Votes positifs
 

ok merci

n°8639605
gliterr
Posté le 27-02-2013 à 15:36:41  profilanswer
1Votes positifs
 

Sur le Tableau récapitulatif des SoC, on parle du modele de ST en FD-SOI tournant a 2.5GHz mais ST fait de la pub pour une puce a 3GHz, ce dernier n'est qu'un proto pour faire peter les benchs ou quoi ?
EDIT: apres avoir googler tout ca, bon, apparement, ST ne dit pas s'il s'agit de lameme puce ou non.


Message édité par gliterr le 27-02-2013 à 15:39:08
n°8639615
zzaherr
Posté le 27-02-2013 à 15:44:16  profilanswer
0Votes positifs
 

ouf que c'est long. je ne peux pas tout lire je me suis contenté de la conclusion :D

n°8639650
Profil sup​primé
Posté le 27-02-2013 à 16:21:43  answer
0Votes positifs
 

gliterr a écrit :

Sur le Tableau récapitulatif des SoC, on parle du modele de ST en FD-SOI tournant a 2.5GHz mais ST fait de la pub pour une puce a 3GHz, ce dernier n'est qu'un proto pour faire peter les benchs ou quoi ?
EDIT: apres avoir googler tout ca, bon, apparement, ST ne dit pas s'il s'agit de lameme puce ou non.


2.5GHz c'est la fréquence de la version commerciale. 3GHz celle dans les labo. Bref le service marketing est passé par là.

n°8639674
Profil sup​primé
Posté le 27-02-2013 à 16:48:30  answer
1Votes positifs
 

La qualité réactionnelle technique est irréprochable. J'affectionne les dossiers hardware.fr pour leur détail sur ces petits choses comme les instructions, nouvelles features, détails sur la gravure, etc. que bien des "concurrents" éludent ou n'abordent que superficiellement.
 
Je regrette qu'il n'y en ait néanmoins si peu. L'équipe rédactionnelle gagnerait en considération de ma part à fournir davantage de contenu de cet ordre et de cette qualité (est-ce si important?).
 
Merci pour cet article.

n°8639816
Furorento
Posté le 27-02-2013 à 18:30:14  profilanswer
1Votes positifs
 

Je me demande si ce genre de puce sera assez puissante pour decoder du H265 en software. Sinon on attendra les suivantes.

n°8639848
Jovial
It's clobberin' time
Posté le 27-02-2013 à 18:46:33  profilanswer
0Votes positifs
 

Vivement une belle tablette sur base Tegra4 !
Avec une dalle digne de ce nom bien entendu

n°8639867
lapin
Posté le 27-02-2013 à 18:55:16  profilanswer
0Votes positifs
 

Furorento a écrit :

Je me demande si ce genre de puce sera assez puissante pour decoder du H265 en software. Sinon on attendra les suivantes.


 
 
ben tu attendra les suivants, ou une puce additionnel spécialisé, car j'ai lu je ne sais ou que le H265 est autrement plus complexe à décoder que le H264.

n°8640027
Singman
The Exiled
Posté le 27-02-2013 à 20:33:01  profilanswer
2Votes positifs
 

lapin a écrit :

Furorento a écrit :

Je me demande si ce genre de puce sera assez puissante pour decoder du H265 en software. Sinon on attendra les suivantes.


 
 
ben tu attendra les suivants, ou une puce additionnel spécialisé, car j'ai lu je ne sais ou que le H265 est autrement plus complexe à décoder que le H264.


 
Pour l'instant, un peu comme le H.264 en son temps. Mais il s'agit simplement d'une question d'algorithme et d'optimisation. Ça viendra plus tard, mais d'ici là, NVidia et d'autres auront proposé des optimisations hardware pour aider le décodage :)

n°8640214
Alexko
Posté le 27-02-2013 à 22:50:31  profilanswer
1Votes positifs
 

Du très bon boulot Damien, comme d'hab. J'apprécie particulièrement le tableau récapitulatif, bien pratique. Ce dernier contient toutefois une petite erreur : le Novathor L8580 est en réalité un dual-core, pas un quad :
 
"ST-Ericsson's eQuad technology is a CPU architecture in which each processor core can operate efficiently in two modes: as an industry-leading high performance core, running at up to 2.5Ghz in the case of the NovaThor L8580, or as a very low-power core running at 0.6V. This is achieved by transistor-level electrical bias switching to allow each of two physical cores to run in two different modes, creating an electrically-enabled quad core."
 
http://www.stericsson.com/press_re [...] _eQuad.jsp
=> two physical cores
Marketing bullshit, quand tu nous tiens……
 
Par ailleurs, la conclusion me surprend un peu. Je peux tout à fait admettre que le Snapdragon S600 ne soit pas capable de faire mieux (ou pas significativement mieux) que Tegra 4, mais le S800 ?
 
Côté CPU ça risque effectivement d'être serré (selon les fréquences réellement atteintes en pratique) mais côté GPU, Qualcomm semble avoir un avantage assez net, ne serait-ce qu'en se basant sur les spécifications brutes.


Message édité par Alexko le 27-02-2013 à 22:51:38
n°8640233
tridam
Profil : Equipe HardWare.fr
Posté le 27-02-2013 à 23:11:53  profilanswer
0Votes positifs
 

Thx, le L8580 est effectivement un dualcore et l'eQuad c'est du bullshit, bizarre je pensais avoir déjà corrigé ça dans le tableau avant publication.
 
Côté GPU avec l'Adreno 330, Qualcomm a annoncé avoir doublé la puissance de calcul et m'a indiqué estimer un gain de +/- 50% en pratique puisqu'en dehors des unités de calcul, le reste du GPU n'évolue pas. Les spécifications brutes sont malheureusement souvent trompeuses, il suffit de comparer le fillrate annoncé pour l'Adreno 320 avec le fillrate mesuré en pratique sous GLBench qui est presque 4x inférieur.

n°8640253
Alexko
Posté le 27-02-2013 à 23:41:17  profilanswer
0Votes positifs
 

tridam a écrit :

Thx, le L8580 est effectivement un dualcore et l'eQuad c'est du bullshit, bizarre je pensais avoir déjà corrigé ça dans le tableau avant publication.
 
Côté GPU avec l'Adreno 330, Qualcomm a annoncé avoir doublé la puissance de calcul et m'a indiqué estimer un gain de +/- 50% en pratique puisqu'en dehors des unités de calcul, le reste du GPU n'évolue pas. Les spécifications brutes sont malheureusement souvent trompeuses, il suffit de comparer le fillrate annoncé pour l'Adreno 320 avec le fillrate mesuré en pratique sous GLBench qui est presque 4x inférieur.


 
OK, je vois. Vivement les benchmarks, alors.

n°8640324
ledesillus​ionniste
Posté le 28-02-2013 à 01:04:59  profilanswer
1Votes positifs
 

On veut des watts :p

n°8640638
akalash47
Posté le 28-02-2013 à 12:11:53  profilanswer
1Votes positifs
 

Rien à redire sur la partie CPU, c'est du tout bon!
 
Mais produire un GPU qui ne supporte ni DX9.3 ni OpenCL en mettant tout au profit des perfs sous OpenGL ES 2.0, ça fait assez rétrograde de mon point de vue. C'est un peu nul de gonfler autant le nombre de cores pour  sacrifier autant en flexibilité...encore un frein à la programmation HSA, tant mieux s'il ont la plus grosse sous des jeux OpenGL mais c'est dommage pour le reste!  


Message édité par akalash47 le 28-02-2013 à 12:12:25
n°8640645
akalash47
Posté le 28-02-2013 à 12:13:21  profilanswer
0Votes positifs
 

Très bon article sinon :)

n°8640749
ockiller
Posté le 28-02-2013 à 13:17:34  profilanswer
0Votes positifs
 

akalash47 a écrit :

Mais produire un GPU qui ne supporte ni DX9.3 ni OpenCL en mettant tout au profit des perfs sous OpenGL ES 2.0, ça fait assez rétrograde de mon point de vue. C'est un peu nul de gonfler autant le nombre de cores pour  sacrifier autant en flexibilité...encore un frein à la programmation HSA, tant mieux s'il ont la plus grosse sous des jeux OpenGL mais c'est dommage pour le reste!  


nVidia est effectivement extrêmement conservateur sur sa partie GPU, mais ils arrivent à faire beaucoup avec très peu. Côté fonctionnalités ils sont au niveau des autres GPU, c'est juste la précision de calcul qui est réduite et le fait de ne pas pouvoir utiliser les unités de calcul en dehors du pipeline graphique. Deux points qui ne vont pas vraiment les impacter pour les jeux OpenGL ES, c'est plus embêtant pour Windows RT cependant.
 
Après, on peut compter sur nVidia pour que les développeurs fassent plus d'efforts pour mieux exploiter leurs GPU, je ne serai pas surpris de continuer à voir des jeux plus avancés techniquement que sur Tegra...


Message édité par ockiller le 28-02-2013 à 13:18:18
n°8640825
akalash47
Posté le 28-02-2013 à 14:06:10  profilanswer
1Votes positifs
 

Non côté fonctionnalités il n'est pas au niveau d'un Mali 600 (OpenGL ES 3.0, DirectX 11 FL 9_3, OpenCL 1.1, Google Renderscript), du PowerVR SGX554 de l'A6X (DirectX 9.3, OpenCL 1.1), et encore moins des PowerVR v6 (Rogue) qui supportent DirectX 11.1.
 
Je comprends parfaitement les arguments d'efficacité avancés par nVidia pour garder un pipeline fixe, ne pas s'encombrer du FP32 etc., mais si tout les fabricants de hardware ne montent pas le niveau de fonctionnalités d'un bon cran on ne va rien voir d'exceptionnel sur la prochaine génération. Ce sera clairement mieux vu la multiplication des cores, mais ça ne va rien apporter de neuf aux développeurs.  
 
Note que des jeux OpenGL ES peuvent tout à fait profiter du calcul généraliste sur GPU.

n°8640903
Singman
The Exiled
Posté le 28-02-2013 à 14:46:38  profilanswer
1Votes positifs
 

akalash47 a écrit :

Mais produire un GPU qui ne supporte ni DX9.3 ni OpenCL en mettant tout au profit des perfs sous OpenGL ES 2.0, ça fait assez rétrograde de mon point de vue. C'est un peu nul de gonfler autant le nombre de cores pour  sacrifier autant en flexibilité...encore un frein à la programmation HSA, tant mieux s'il ont la plus grosse sous des jeux OpenGL mais c'est dommage pour le reste!


 
Je pense que tu n'as pas bien compris le marché des Tegra. OpenCL pour quoi faire ? Un téléphone mobile et une tablette ont besoin d'un GPU pouvant gérer efficacement la 2D, le décodage vidéo, et des fonctions limitées en 3D. Du FP32 ? Plaisanterie, avec les écrans actuels, qui sont bourrés de pixels tellement fins qu'on en arrive a les doubler pour discerner les détails, c'est inutile. De la flexibilité ? Parce que tu penses utiliser ton téléphone ou ta tablette pour du calcul GPU ?
Il faut être conscient que ce marché n'est pas celui de la carte graphique sur PC. C'est un créneau ou être efficient énergétiquement est plus important que tout le reste. OpenGL ES est largement suffisant pour la grande majorité des affichages utilisés et des applications. Mon seul bémol concernerait Direct X et W8 mais sur ce point, on ne peut pas leur donner tord d'attendre que le système de Microsoft fasse ses preuves, ce qui est loin d'être le cas.

n°8640933
sasanpabon
Posté le 28-02-2013 à 15:01:10  profilanswer
0Votes positifs
 

Excellent article, dévoré avec plaisir ! Merci.
En redardant dans ma boule de cristal, je prédis un bon succès au 4i qui semble un excellent compromis (et avec le modem en prime). Sûrement moins cher à perf équivalente du fait de sa flexibilité, il équipera vraisemblablement beaucoup d'appareils de milieu-haut de gamme. Fin de la prédiction ;)


Message édité par sasanpabon le 28-02-2013 à 15:02:33
n°8640937
Invite_Sur​prise
Racaille de Shanghaï
Posté le 28-02-2013 à 15:05:29  profilanswer
0Votes positifs
 

Merci pour ce dossier !

n°8641041
akalash47
Posté le 28-02-2013 à 16:04:02  profilanswer
1Votes positifs
 

Singman a écrit :


Du FP32 ? Plaisanterie, avec les écrans actuels, qui sont bourrés de pixels tellement fins qu'on en arrive a les doubler pour discerner les détails, c'est inutile. De la flexibilité ? Parce que tu penses utiliser ton téléphone ou ta tablette pour du calcul GPU ?


Exactement. Le calcul GPU est très intéressant à beaucoup de points de vue, c'est en premier lieu les limitations hardware avant même la difficulté de programmation qui retiennent la communauté à tenter l'aventure et à démontrer tout ce qu'on peut faire avec.
D'ailleurs tu me parles du FP32 qui est inutile pour du rendu à l'écran, déjà je peux donner des contre-exemples pour du rendu mais surtout, tu penses le GPU comme destiné seulement à ça. Par exemple si tu veux faire de la physique sur GPU, du FP 32bits c'est un minimum!
 

Singman a écrit :


Il faut être conscient que ce marché n'est pas celui de la carte graphique sur PC. C'est un créneau ou être efficient énergétiquement est plus important que tout le reste.


Le HSA a justement de nombreux avantages sur le plan énergétique (partage de la mémoire et du cache L2, utilisation des unités de calcul les plus appropriées pour un algo, cf http://developer.amd.com/resources [...] ure-hsa/). Le choix de nVidia en termes de performances énergétiques est celui du hard contre le soft: un Tegra qui consomme peu même si les dév ne savent pas en tirer le meilleur parti. Mais justement tout l'enjeu du HSA est là: savoir bien coder sur un hardware plus flexible qui sait éteindre ses unités au repos, pour optimiser les perfs/watt.


Message édité par akalash47 le 28-02-2013 à 16:17:22
n°8641095
akalash47
Posté le 28-02-2013 à 16:34:37  profilanswer
1Votes positifs
 

Passer du Tegra 3 au 4 pour un dév, c'est comme si on remplaçait le moteur d'une 405 par celui d'une 407 sans mettre de direction assistée sous prétexte que ça bouffe de l'essence :P

n°8641159
Singman
The Exiled
Posté le 28-02-2013 à 17:10:18  profilanswer
0Votes positifs
 

akalash47 a écrit :

Par exemple si tu veux faire de la physique sur GPU, du FP 32bits c'est un minimum!


 
Fin de la discussion te concernant pour moi, ce genre de phrase est simplement stupide concernant un appareil mobile.

n°8641162
sasanpabon
Posté le 28-02-2013 à 17:10:41  profilanswer
2Votes positifs
 

J'aime ce genre de poésie automobilesque...

n°8641216
ockiller
Posté le 28-02-2013 à 17:35:15  profilanswer
1Votes positifs
 

akalash47 a écrit :

Non côté fonctionnalités il n'est pas au niveau d'un Mali 600 (OpenGL ES 3.0, DirectX 11 FL 9_3, OpenCL 1.1, Google Renderscript), du PowerVR SGX554 de l'A6X (DirectX 9.3, OpenCL 1.1), et encore moins des PowerVR v6 (Rogue) qui supportent DirectX 11.1.


Je vais répéter l'article et moi-même, Tegra 4 apporte beaucoup de nouvelles fonctionnalités par rapport à Tegra 3, et a même presque tout ce qu'il faut pour être "OGL ES 3.0 ou DX 9_3 compliant". Avec OpenGL ES, ces nouvelles fonctionnalités sont facilement accessibles, le seul hic est que ça n'est pas le cas avec DirectX.
 
L'archi n'est par contre pas du tout compatible pour faire du calcul généraliste, obligé d'utiliser le pipeline graphique. À partir de là le support du FP32 est bien moins crucial si on se limite à travailler sur des pixels, et pour faire du rendu 3D ça n'enlève aucune fonctionnalité, on a juste potentiellement une qualité inférieure (une couleur finale c'est du INT8 au mieux, le FP20 ça laisse de la marge niveau précision, on ne fait pas encore des shaders très compliqués sur un téléphone).
 
Après, mon avis est que déjà avec les GPU et API du niveau d'OpenGL ES 2.0+, la plus grosse contrainte pour faire des jeux jolis est tout simplement la puissance des GPU mobiles, pas leur manque de flexibilité ou de fonctionnalités, c'est pour ça que je pense que l'approche de nVidia est loin d'être idiote.


Message édité par ockiller le 28-02-2013 à 17:56:03
n°8641260
akalash47
Posté le 28-02-2013 à 18:08:20  profilanswer
4Votes positifs
 

Singman a écrit :

akalash47 a écrit :

Par exemple si tu veux faire de la physique sur GPU, du FP 32bits c'est un minimum!


Fin de la discussion te concernant pour moi, ce genre de phrase est simplement stupide concernant un appareil mobile.


Merci du compliment. Peut-être que tu considères que le monde du mobile va rester cantonné à un certain type d'utilisation sans évoluer.
Mais il suffit de prendre pour exemple les google glass ou Meta pour s'imaginer la place que commence à prend la réalité augmentée et le besoin de programmer sur GPU pour que des applications de ce genre soient temps réel (les contraintes de latence sont très fortes)...tu crois qu'elles embarquent du matos de laptop ou de mobile?
 
Ca fait des années que j'aimerais commencer à développer sur mobile, mais la plupart des algos que j'envisage d'utiliser dessus ne tourneront pas ou mal sur un Tegra4 - ça doit être dû à ma stupidité :P C'est du très bon hardware, ça va débourrer mais cette génération ne m'intéresse toujours pas :)

n°8641297
Profil sup​primé
Posté le 28-02-2013 à 18:33:26  answer
1Votes positifs
 

akalash47 a écrit :

Singman a écrit :

[quotemsg=8641041,11,1248]Par exemple si tu veux faire de la physique sur GPU, du FP 32bits c'est un minimum!


Fin de la discussion te concernant pour moi, ce genre de phrase est simplement stupide concernant un appareil mobile.


Merci du compliment. Peut-être que tu considères que le monde du mobile va rester cantonné à un certain type d'utilisation sans évoluer.
Mais il suffit de prendre pour exemple les google glass ou Meta pour s'imaginer la place que commence à prend la réalité augmentée et le besoin de programmer sur GPU pour que des applications de ce genre soient temps réel (les contraintes de latence sont très fortes)...tu crois qu'elles embarquent du matos de laptop ou de mobile?
[/quotemsg]
Oui mais actuellement, et à court terme ca ne sert à rien pour 99.999% des gens, et puis vu le temps de vie assez courte de ces puces ce n'est pas un problème.
Le Tegra ne va pas s'arrêter d'évoluer, ne vous inquiétez pas :D, les Tegra supportant l'OpenCL arriveront tôt ou tard.  
 
Ils ont fait un choix, il peut se comprendre.


Message édité par le 28-02-2013 à 18:34:31
n°8643301
luckyduck
Posté le 02-03-2013 à 12:42:17  profilanswer
0Votes positifs
 

et bien pour moi le plus intéressent est le MediaTek MT6589

n°8643331
darkfox
Posté le 02-03-2013 à 13:02:24  profilanswer
0Votes positifs
 

luckyduck a écrit :

et bien pour moi le plus intéressent est le MediaTek MT6589


 
Parce que ?

n°8643345
lapin
Posté le 02-03-2013 à 13:14:59  profilanswer
0Votes positifs
 

économe en énergie et quad core A7 à 1Ghz, et GPU POWER VR 5XT un des plus performant, même si le POWER VR 6 aurai été mieux.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2
Page Précédente

Aller à :
Ajouter une réponse
  FORUM HardWare.fr
  Hardware
  HFR

  [HFR] Focus : Nvidia Tegra 4 et 4i: tout savoir de leur architecture

 

Sujets relatifs
[HFR] Actu : Micron P410m : le P400m passe au SAS[HFR] Actu : Intel lance les Atom Clover Trail+ Z2500
[HFR] Actu : Nvidia annonce le Tegra 4i et Phoenix[Topic Unique] ARM+CUDA = NVIDIA CARMA
[HFR] Actu : X79A-GD45 Plus, une GD-45 (8D) recyclée[HFR] Actu : MSI adopte le Killer E2200
Plus de sujets relatifs à : [HFR] Focus : Nvidia Tegra 4 et 4i: tout savoir de leur architecture


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR