Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1403 connectés 

  FORUM HardWare.fr
  Hardware
  HFR

  [HFR] Actu : AMD XConnect : support du Thunderbolt 3 eGFX

 


 Mot :   Pseudo :  
 
 Page :   1  2
Page Précédente
Auteur Sujet :

[HFR] Actu : AMD XConnect : support du Thunderbolt 3 eGFX

n°9757250
tridam
Profil : Equipe HardWare.fr
Posté le 10-03-2016 à 15:41:00  profilanswer
1Votes positifs
 

AMD annonce aujourd'hui l'arrivée de XConnect, un support logiciel complet pour Thunderbolt 3 eGFX, et s'engouffre ainsi dans la voie au support standardisé ...
Lire la suite ...


Message édité par Marc le 10-03-2016 à 17:08:23
mood
Publicité
Posté le 10-03-2016 à 15:41:00  profilanswer
 

n°9757251
lulunico06
Posté le 10-03-2016 à 15:41:00  profilanswer
0Votes positifs
 

L usb type c tout seul aurait permit qu'elle vitesse ?  
A partir de quel gpu on sera limité par là vitesse du thunderbolt 3 ?


Message édité par lulunico06 le 10-03-2016 à 15:49:09
n°9757262
taronyu26
Posté le 10-03-2016 à 15:54:26  profilanswer
0Votes positifs
 

Comme dit dans la new là on a l'équivalent d'un PCI-E 3.0 x4.
Il y a clairement de la perte par rapport au x8.
 
Ça avait été évoqué ici-même : http://www.hardware.fr/articles/836-5/conclusion.html

n°9757269
CardinalFu​neste
Posté le 10-03-2016 à 16:02:37  profilanswer
1Votes positifs
 

Il faut raccorder la carte graphique externe sur un écran ou le portable bénéficie du calcul du gpu externe sur son propre écran avec ce genre de solution ? perso je suis plus pactisant d'une pc gamer format tour et du laptop aux performance modeste a trimballer partout. Pas sur que cette solution a gpu externe sois plus économique

n°9757273
Mister Jun​e
Posté le 10-03-2016 à 16:07:22  profilanswer
0Votes positifs
 

taronyu26 a écrit :

Comme dit dans la new là on a l'équivalent d'un PCI-E 3.0 x4.
Il y a clairement de la perte par rapport au x8.
 
Ça avait été évoqué ici-même : http://www.hardware.fr/articles/836-5/conclusion.html


Le test en question avait été fait avec du PCIE v2 (et avec des cartes de l'époque).

n°9757277
taronyu26
Posté le 10-03-2016 à 16:15:23  profilanswer
0Votes positifs
 

Mister June a écrit :

taronyu26 a écrit :

Comme dit dans la new là on a l'équivalent d'un PCI-E 3.0 x4.
Il y a clairement de la perte par rapport au x8.
 
Ça avait été évoqué ici-même : http://www.hardware.fr/articles/836-5/conclusion.html


Le test en question avait été fait avec du PCIE v2 (et avec des cartes de l'époque).


 
Du PCI-E 2.0 au 3.0, la différence est négligeable.
Même avec des cartes de l'époque, la différence entre x4 et x8 était déjà perceptible et potentiellement importante. C'est encore le cas aujourd'hui.
Ce n'est pas parce que les cartes modernes sont gravées avec un process plus abouti qu'elles ne sont pas sous-exploitée si l'on diminue leur bande passante.

n°9757290
ockiller
Posté le 10-03-2016 à 16:29:35  profilanswer
0Votes positifs
 

Bah a priori la différence entre du PCI-E 3.0 4x et du PCI-E 2.0 8x doit être négligeable. Ca doit plutôt bien marcher au final.

n°9757292
iYo13
Posté le 10-03-2016 à 16:31:32  profilanswer
1Votes positifs
 

taronyu26 a écrit :

Mister June a écrit :

[quotemsg=9757262,3,867427]Comme dit dans la new là on a l'équivalent d'un PCI-E 3.0 x4.
Il y a clairement de la perte par rapport au x8.
 
Ça avait été évoqué ici-même : http://www.hardware.fr/articles/836-5/conclusion.html


Le test en question avait été fait avec du PCIE v2 (et avec des cartes de l'époque).


 
Du PCI-E 2.0 au 3.0, la différence est négligeable.
Même avec des cartes de l'époque, la différence entre x4 et x8 était déjà perceptible et potentiellement importante. C'est encore le cas aujourd'hui.
Ce n'est pas parce que les cartes modernes sont gravées avec un process plus abouti qu'elles ne sont pas sous-exploitée si l'on diminue leur bande passante.[/quotemsg]
 
Justement, le gain apporté par le passage du 2.0x16 au3.0x16 est marginal mais le 3.0x4 est l'équivalent du 2.0x8. Et à 5 ou 6% de perte par le passage d'une solution desktop à du thunderbolt on conserve des perfs très largement supérieur à n'importe quel GPU mobile.

n°9757296
havoc_28
Posté le 10-03-2016 à 16:35:58  profilanswer
0Votes positifs
 

taronyu26 a écrit :


Du PCI-E 2.0 au 3.0, la différence est négligeable.
Même avec des cartes de l'époque, la différence entre x4 et x8 était déjà perceptible et potentiellement importante. C'est encore le cas aujourd'hui.
Ce n'est pas parce que les cartes modernes sont gravées avec un process plus abouti qu'elles ne sont pas sous-exploitée si l'on diminue leur bande passante.


 
Ha bon entre du PCI-E2.0 et 3.0 la différence est négligeable ? :o  oui , entre entre 16 lignes en PCI-E 2.0 et 16 lignes en PCI-E 3.0 vu que le GPU a suffisamment de bande passante ...  
 
Mais en 4X ... le gain en bande apporter par le PCI-E 3.0 vs le 2.0 est loin d'être négligeable . Vu que le PCI-E 3.0 double quasiment le débit par ligne .
 
edit grillé par iYo13


Message édité par havoc_28 le 10-03-2016 à 16:38:53
n°9757304
kazord44
Posté le 10-03-2016 à 16:42:23  profilanswer
0Votes positifs
 

jespere que les vaio z vont être compatible, marre de trainer les pilotes de 2011

mood
Publicité
Posté le 10-03-2016 à 16:42:23  profilanswer
 

n°9757306
pepes003
Loués soient les Or(d)i
Posté le 10-03-2016 à 16:43:21  profilanswer
3Votes positifs
 


PCIe 3.0 4x = PCIe 2.0 8x = assez de bande passante pour exploiter à 95% les GPU actuels.
 
http://www.overclockingmadeinfrance.com/wp-content/uploads/2014/11/pci-e-scale-FHD.gif
 
source: http://www.overclockingmadeinfranc [...] 4x-8x-16x/

Message cité 2 fois
Message édité par pepes003 le 10-03-2016 à 16:46:55

---------------
> Mon FEEDBACK <
n°9757309
lulunico06
Posté le 10-03-2016 à 16:45:52  profilanswer
0Votes positifs
 

Oui PCIe 3.0 4x = PCIe 2.0 8x.
Mais plus un gpu est puissant plus il est dépendant de la vitesse du lien pci-e.
Donc avec la génération finfet qui arrive j'ai peu que mettre plus qu'un petit gpu soit inutile vu qu'on sera vite limité.

n°9757318
tridam
Profil : Equipe HardWare.fr
Posté le 10-03-2016 à 16:50:39  profilanswer
0Votes positifs
 

CardinalFuneste a écrit :

Il faut raccorder la carte graphique externe sur un écran ou le portable bénéficie du calcul du gpu externe sur son propre écran avec ce genre de solution ?


 
Les deux sont possibles.
 
Sinon pour le PCIE 3.0 4x et une éventuelle limitation, il ne faut pas se poser la question dans le sens de la puissance du GPU, mais plutôt du type de jeu/rendu. Il a déjà été indiqué par exemple que certains rendus à base des API de plus bas niveau pouvaient saturer le bus PCIE. En pratique je ne sais pas si ce sera réellement le cas dans des jeux, ni quand ni à quel point.

n°9757350
taronyu26
Posté le 10-03-2016 à 17:14:07  profilanswer
1Votes positifs
 

Dans tous les cas, compléter un PC portable par un dock graphique (tout de même assez coûteux, ne serait-ce que pour la carte qu'on met dedans) me parait bien bête.
 
Autant avoir un PC portable encore moins bon en termes de performances de jeu, et se monter une tour correcte à côté.
Pas de limite liée au x4 / API / Jeu. Des performances CPU sans commune mesure. De meilleures possibilités d'upgrade. Des températures avantageuses. Des nuisances sonores réduites.

n°9757354
bjone
Insert booze to continue
Posté le 10-03-2016 à 17:17:11  profilanswer
1Votes positifs
 

Tant que les ressources sont stables en vram, et qu'il n'y a que des drawcalls à envoyer sur le PCIe, y'a pas trop d'écart de framerate.
 
Par contre dès que le working set change (set de textures & buffers), ça devient plus bloquant.
 
A noter qu'une baisse de framerate moyen dû au PCIe, vu que c'est causé par de l'upload de resources en vram à la première frame qui a provoqué la dépendance (pour ensuite être réutilisé sur les frames d'après), ça se traduit visuellement en stuttering.
 
Ie ce n'est pas de la baisse de framerate uniforme (comme le niveau de filtrage AA & aniso), c'est de la pénalité évènementielle.


Message édité par bjone le 10-03-2016 à 17:19:55
n°9757360
CardinalFu​neste
Posté le 10-03-2016 à 17:32:11  profilanswer
0Votes positifs
 

tridam a écrit :


 
Les deux sont possibles.
 
Sinon pour le PCIE 3.0 4x et une éventuelle limitation, il ne faut pas se poser la question dans le sens de la puissance du GPU, mais plutôt du type de jeu/rendu. Il a déjà été indiqué par exemple que certains rendus à base des API de plus bas niveau pouvaient saturer le bus PCIE. En pratique je ne sais pas si ce sera réellement le cas dans des jeux, ni quand ni à quel point.


 
Merci de ta réponse   :jap:  

n°9757361
Stoffinato​r
Posté le 10-03-2016 à 17:34:36  profilanswer
0Votes positifs
 

Je trouve ca pas bête du tout.
Pour les personnes qui ne veulent pas de tour volumineuse chez eux et qui ont besoin d'un laptop léger et facilement transportable, on peut imaginer un dock/gpu externe/alimentation de taille compacte qui accepterait des carte graphiques au format mini itx et dissipant peu (prochaine générations de GPU) pour du gaming tranquille en 1080p.


Message édité par Stoffinator le 10-03-2016 à 17:35:27
n°9757368
CardinalFu​neste
Posté le 10-03-2016 à 17:54:49  profilanswer
1Votes positifs
 

Tu sais le boitier gpu externe comme celui monté dans cette new il est pas loins d'avoir la taille d'un boiter mini itx :whistle:

n°9757370
Artisanal
Posté le 10-03-2016 à 17:57:50  profilanswer
0Votes positifs
 

Sauf qu'en termes de boitiers mini itx il y a un large spectre de tailles de boitiers, certains sont parfois même suffisamment grands pour accueillir une carte mère ATX en principe.

n°9757392
Asthon
Posté le 10-03-2016 à 18:32:20  profilanswer
0Votes positifs
 

Y a des portables avec TB3 en dessous de 1500E qui n'embarquent pas déjà un GPU dédié ? (Genre un portable "Pas Gamer" à la base déjà...)

n°9757399
CardinalFu​neste
Posté le 10-03-2016 à 18:40:28  profilanswer
0Votes positifs
 

Artisanal a écrit :

Sauf qu'en termes de boitiers mini itx il y a un large spectre de tailles de boitiers, certains sont parfois même suffisamment grands pour accueillir une carte mère ATX en principe.


 
Je fais bien entendu réference aux plus compacts comme le Cooler Master Elite 110 par exemple. C’était inutile que je le précise  ;)  

n°9757411
mini-mousa​ille
♡♥♡
Posté le 10-03-2016 à 18:57:20  profilanswer
0Votes positifs
 

Quand même pas  
https://i.ytimg.com/vi/T_dcQjL9N2Y/maxresdefault.jpg
 
Celui ci semble faire la taille d'une grosse Wii U. On peut aussi imaginer des boitiers plus compacts avec des cartes graphiques compactes style R9 Nano. Et encore plus réduit avec des GPU de laptops.  
 
Ça pourrait également être intéressant pour des mini PC comme les Intel NUC, Brix, etc. même si là, j'espère qu'aura davantage de mini PC de salon orienté jeu à l'avenir façon Zotac Zbox NV970, et moins chers. L'arrivée de gros jeux Xbox sur le Windows Store et le développement de SteamOS devraient développer ce secteur dans les prochains mois et prochaines années.


---------------
Soyez curieux de tout et vous aurez une belle existence !
n°9757412
Asthon
Posté le 10-03-2016 à 18:57:22  profilanswer
0Votes positifs
 

CardinalFuneste a écrit :


Je fais bien entendu réference aux plus compacts comme le Cooler Master Elite 110 par exemple. C'était inutile que je le précise  ;)  


 
Visiblement le Razer Core affiche 7.8L de Volume...
 
C'est un peu plus gros que l'ISK 310 de ma conjointe (dans lequel je n'arrive même pas à faire rentrer une GTX 750 sans modding...)
 
Mais ça reste en dessous des Sugo SG05/06 (10+ L) ou CM Elite 110/130 (15+ L) qui peuvent difficilement accueillir des cartes avec un TDP de plus de 200W comparé au Razer Core qui annonce le support de 375W
 
Personnellement je n'irai pas m'installer une paire de boitiers de 7~8L pour profiter de la modularité, ça aura surement plus de sens dans des machines non évolutives comme les portables ou les NUC

n°9757418
Zurkum
Posté le 10-03-2016 à 19:01:11  profilanswer
0Votes positifs
 

Le problème va être le côté obscur du monde laptop. Trouver un quad cores avec du Thunderbolt 3 et éventuellement sans GPU ( histoire de pas payer pour rien ) ça va être compliqué ...

n°9757455
cocto81
Posté le 10-03-2016 à 19:48:44  profilanswer
1Votes positifs
 

pepes003 a écrit :


PCIe 3.0 4x = PCIe 2.0 8x = assez de bande passante pour exploiter à 95% les GPU actuels.
 
http://www.overclockingmadeinfranc [...] le-FHD.gif
 
source: http://www.overclockingmadeinfranc [...] 4x-8x-16x/


J'ajouterait que comme c'est destiné aux portables, on peut ajouter des GTX 960, soit le moitié de la bande passante d'un 980, et aussi un R9 380 (au même prix).
 
A noter que le Thunderbolt 1 (notamment Vidock ou Helios) était déjà utilisé pour connecter des cartes graphique sur portable PC ou Macbook (moyennant hack de OSX), et il s'agissait généralement d'utiliser les Nvidia ultimes pour Cuda. Dans pas mal de cas l'usage GPGPU n'utilise pas la bande passante d'un jeu pour communiquer avec le PC, même loin s'en faut.

n°9757456
raptor68
Pouet !
Posté le 10-03-2016 à 19:56:26  profilanswer
0Votes positifs
 

ça n'as rien de nouveau et les solutions existent depuis longtemps bien qu'il s'agisse plus de bidouillage qu'autre chose (ares expGDC et PE4H / PE4L) mais ça marchait et avec les pilotes nvidia il n'y avait même pas besoin d'écran externe pour en profiter (sans compter qu'optimus compressait les données passant par le bus pcie rendant certains jeux très jouable malgré un lien PCIe 1x en 1.1, pour les autres il aurait juste fallu libérer Lucid virtu pour les chipsets non Z)

 

https://www.techinferno.com/index.p [...] ersion-20/


Message édité par raptor68 le 10-03-2016 à 19:58:50
n°9757496
Triple-Nax
Demi-Core Atom + HT
Posté le 10-03-2016 à 21:15:27  profilanswer
0Votes positifs
 

C'est génial mais pourquoi avoir attendu si longtemps ? Pourquoi maintenant ?
 
Sinon "Un BIOS système avec les extensions ACPI pour Thunderbolt eGFX", on peut déjà plus changer la carte Wifi de son portable alors cela va être chaud pour les portables non Razer ... On va encore devoir bidouiller du bios ...

n°9757517
robin4002
Posté le 10-03-2016 à 21:52:01  profilanswer
1Votes positifs
 

Zurkum a écrit :

Le problème va être le côté obscur du monde laptop. Trouver un quad cores avec du Thunderbolt 3 et éventuellement sans GPU ( histoire de pas payer pour rien ) ça va être compliqué ...


 
MSI ont déjà lancé des pc portable avec un i7 4C/8T + une solution graphique externe (mais propriétaire).
 
 
Si d'ici mi-2016 il y a quelques modèles (pour avoir un minimum de choix et être sûr que la mayonnaise prend, car ça peut très bien faire un flop comme XPG) ça me tenterai bien moi.
Pour les cours j'ai besoin d'un pc portable pas trop chiant à transporter avec beaucoup de ram + un bon cpu (école d'informatique, je suis actuellement en première année et apparemment en deuxième année et + il faut une grosse config car beaucoup de virtualisation) mais pas besoin de gros gpu.
Une fois à la maison avoir un gros gpu pour les jeux c'est un plus non négligeable.  
Actuellement le tdp d'un i7QM c'est environ 50W, contre plus de 100 les grosses cartes graphiques pour pc portable. Donc un pc portable avec juste un gros cpu assez fin et pas trop lourd c'est largement faisable. Et avec une carte graphique externe, on peut la changer, ce qui est très cool sachant qu'une carte graphique est le premier composant à changer sur un pc de jeu.


Message édité par robin4002 le 10-03-2016 à 21:52:41
n°9757523
Zurkum
Posté le 10-03-2016 à 21:54:44  profilanswer
0Votes positifs
 

C'est ce qui m'intéresserait aussi :jap:

n°9757538
fredo3
Posté le 10-03-2016 à 22:30:28  profilanswer
1Votes positifs
 

Je trouve qu'Asus, qui fabrique à la fois des écrans, des CG et portables, devrait sortir un écran avec un emplacement pour cg, intégré, histoire de profiter de l'alim de l'écran. Au sinon un boitier å fixer sur l'écran en VESA et se fournissant en courant via l'écran.
 
Dommage.


Message édité par fredo3 le 10-03-2016 à 22:31:54
n°9757875
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 11-03-2016 à 12:36:10  profilanswer
0Votes positifs
 

C'est pas con comme idée :o

n°9757880
mazingerz
Posté le 11-03-2016 à 12:43:18  profilanswer
0Votes positifs
 

Zurkum a écrit :

Le problème va être le côté obscur du monde laptop. Trouver un quad cores avec du Thunderbolt 3 et éventuellement sans GPU ( histoire de pas payer pour rien ) ça va être compliqué ...


 
sans gpu ton PC n'affichera rien lol

n°9757888
neurotoxic
Posté le 11-03-2016 à 12:58:03  profilanswer
0Votes positifs
 

Les i7 de laptop ont un iGPU monsieur mazingerz le gros troll.

n°9757894
Zurkum
Posté le 11-03-2016 à 13:06:01  profilanswer
1Votes positifs
 

mazingerz a écrit :

 

sans gpu ton PC n'affichera rien lol


 :kaola:  :heink:  et le gpu intel ??

n°9757896
tridam
Profil : Equipe HardWare.fr
Posté le 11-03-2016 à 13:06:08  profilanswer
0Votes positifs
 

J'ai mis à jour la news pour ajouter quelques précisions concernant Nvidia qui vient de revenir vers nous. Nvidia nous indique qu'à travers leur support beta d'eGFX, ils supportent déjà le plug and play, le hot unplug et que leurs pilotes proposent également une interface pour aider à la déconnexion.
 
Le support semble donc similaire pour AMD et pour Nvidia.

n°9757906
fredo3
Posté le 11-03-2016 à 13:14:34  profilanswer
0Votes positifs
 

Marc a écrit :

C'est pas con comme idée :o


Merci  [:z_cool]  
 
Les gens, même gamer, ne veulent pas d'un boitier supplémentaire encombrant, de câbles vidéo supplémentaires, de grosse brique d'alim qui traine par terre. C'est pour ça que ça ne marchera pas et que ces boitiers externes resteront un marché de niche même chez les gamer.


Message édité par fredo3 le 11-03-2016 à 13:15:09
n°9757912
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 11-03-2016 à 13:20:21  profilanswer
0Votes positifs
 

AMHA déjà pouvoir fixer sur l'écran en VESA serait pas mal, après un câble d'alim de plus bon... et pour le câble vidéo il suffit d'un court :o

n°9757916
fredo3
Posté le 11-03-2016 à 13:23:50  profilanswer
0Votes positifs
 

C'est pas très esthétique je trouve en VESA, mais à choisir je préfère ça à une boite qui encombre le bureau ou qui traine par terre, oui.


Message édité par fredo3 le 11-03-2016 à 13:24:18
n°9757950
- gab
Posté le 11-03-2016 à 13:50:29  profilanswer
0Votes positifs
 

pepes003 a écrit :


PCIe 3.0 4x = PCIe 2.0 8x = assez de bande passante pour exploiter à 95% les GPU actuels.
 
http://www.overclockingmadeinfranc [...] le-FHD.gif
 
source: http://www.overclockingmadeinfranc [...] 4x-8x-16x/


Ce site [:fandalpinee]  
 
La véritable source de ces tests est techPowerUp (et non pas Anandtech comme indiqué...) : http://www.techpowerup.com/reviews [...] ng/21.html


---------------
Chounette ♥ | Oh ouiiiiiii il l'a fait, incroyable , c'est le dieu du tennis
n°9758285
cocto81
Posté le 11-03-2016 à 18:42:08  profilanswer
1Votes positifs
 

tridam a écrit :

J'ai mis à jour la news pour ajouter quelques précisions concernant Nvidia qui vient de revenir vers nous. Nvidia nous indique qu'à travers leur support beta d'eGFX, ils supportent déjà le plug and play, le hot unplug et que leurs pilotes proposent également une interface pour aider à la déconnexion.
 
Le support semble donc similaire pour AMD et pour Nvidia.


Officiellement parce que à part les problèmes liés au courant demandé par ces cartes, les solutions Thunderbolt 1 sont déjà parfaitement fonctionnelles (sur les deux marques) si l'OS supporte au niveau des pilotes et que l'UEFI est bien utilisé de façon standard (d'où la complication de lancer ces cartes sur Mac sous Windows avec Bootcamp). La sortie video doit alors bien sûr se faire à partir de la carte.
Pour la plupart des usages (notamment pro) le Thunderbolt 1 est déjà largement suffisant... donc le 3 c'est quasiment overkill.
A noter que les boitiers Thunderbolt 1/2 (retrocompatibles) se trouvent à partir de 200 euros, mais doivent souvent faire appel à une bidouille pour alimenter par une alim externe la carte (si elle demande plus de 75W).
Les gens qui ont testé notent aussi une certaine instabilité qui fait planter le système utilisé pleinement environ toutes les heures.
 
Bref, à voir quand même à l'usage. Ca fait beaucoup de fils, prolongateurs, sources de courant variées etc. Le matériel ne devra pas être opérationnel aux limites mais avec beaucoup de marges et vraisemblablement utiliser au maximum les moyens de vérification dans les protocoles de transmission, puis permettre certains lags dans les transmissions.
Tout ça me rappelle beaucoup les problèmes des montages des chaînes SCSI dans les années 90.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2
Page Précédente

Aller à :
Ajouter une réponse
  FORUM HardWare.fr
  Hardware
  HFR

  [HFR] Actu : AMD XConnect : support du Thunderbolt 3 eGFX

 

Sujets relatifs
[HFR] Actu : Pilotes AMD Radeon Software 16.3[HFR] Actu : SSD à 10 Go /s chez Seagate
[HFR] Actu : Pilotes GeForce 364.47 WHQL[HFR] Actu : GTX 950 75 watts chez ASUS
Bruit suspect AMD radeon R9 380 2G 
Plus de sujets relatifs à : [HFR] Actu : AMD XConnect : support du Thunderbolt 3 eGFX


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR