Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2265 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  63  64  65  ..  1033  1034  1035  1036  1037  1038
Auteur Sujet :

[Topic Unique] Nvidia Pascal GP104 : GTX 1080/1070 (16nm FinFET+)

n°9790392
valdus_her​esi
*\ Chirurgien GPU /*
Posté le 24-04-2016 à 20:16:27  profilanswer
 

Reprise du message précédent :
C'est surtout, effectivement, comme tu le souligne Ravenloft, les jeux en Dx12 et le support du multiGPU qui m'inquiète.
 
Wait and see hein....


---------------
HYBRID COOLING MODDING : https://hybridcooling-modding.fr/
mood
Publicité
Posté le 24-04-2016 à 20:16:27  profilanswer
 

n°9790396
Xixou2
Posté le 24-04-2016 à 20:18:57  profilanswer
 

ou alors go crossfire x polaris 10 ?
 
ou alors le dual fury x/nano:
 
http://wccftech.com/amd-radeon-pro [...] ns-leaked/
 
 
Qui a du SLI et du G-SYNC pour le retour d'experience ?

Message cité 3 fois
Message édité par Xixou2 le 24-04-2016 à 20:20:36
n°9790398
nicolas_ya​d
Spoons made me fat
Posté le 24-04-2016 à 20:22:00  profilanswer
 

Xixou2 a écrit :


Qui a du SLI et du G-SYNC pour le retour d'experience ?

 

J'ai laissé tomber le SLI en 2015, mais c'était pas compliqué: SLI et Gsync n'étaient pas compatibles. :o
'suffit d'aller voir comment ça gueulait sur le topic du ROG Swift premier du nom.

 
Xixou2 a écrit :

ou alors go crossfire x polaris 10 ?

 

ou alors le dual fury x/nano:

 

http://wccftech.com/amd-radeon-pro [...] ns-leaked/

 

C'est le topic Nvidia Pascal ici ... Amédé c'est à côté.


Message édité par nicolas_yad le 24-04-2016 à 20:26:13
n°9790399
- gab
Posté le 24-04-2016 à 20:25:48  profilanswer
 

Le SLI c'est juste une façon de vendre deux GPUs au lieu d'un seul et d'encombrer le marché de l'occasion quand on sort enfin le GPU deux fois plus puissant qui attend de sortir depuis six mois :o

Message cité 1 fois
Message édité par - gab le 24-04-2016 à 20:26:09

---------------
Chounette ♥ | Oh ouiiiiiii il l'a fait, incroyable , c'est le dieu du tennis
n°9790400
Xixou2
Posté le 24-04-2016 à 20:25:52  profilanswer
 

oui mais c'est compatible maintenant.

n°9790402
nicolas_ya​d
Spoons made me fat
Posté le 24-04-2016 à 20:27:38  profilanswer
 

Xixou2 a écrit :

oui mais c'est compatible maintenant.


 
Jusqu'au prochain driver où ça sera de nouveau foireux  [:spamafote]  
 

n°9790408
valdus_her​esi
*\ Chirurgien GPU /*
Posté le 24-04-2016 à 20:34:07  profilanswer
 

- gab a écrit :

Le SLI c'est juste une façon de vendre deux GPUs au lieu d'un seul et d'encombrer le marché de l'occasion quand on sort enfin le GPU deux fois plus puissant qui attend de sortir depuis six mois :o


 
Pas faux :lol:


---------------
HYBRID COOLING MODDING : https://hybridcooling-modding.fr/
n°9790500
Tigrou
Sans accroc
Posté le 24-04-2016 à 23:15:38  profilanswer
 


Tiens au fait je pense à un truc: "1070", "1080"... ÀMHA ça ne sera pas comme ça que les nouvelles GC Nvidia se nommeront mais ils trouveront une autre appellation, comme ça a été fait après la 9800 GTX à l'époque.  
Les gens parlaient de "10800" et ça a finalement été la sortie de la GTX 280 [/nostalgie] :jap:


---------------
Feedback - Stacy's mom
n°9790506
robin4002
Posté le 24-04-2016 à 23:24:15  profilanswer
 

Oui, les noms de 1070 et 1080 ne sont pas du tout confirmés.
Mais ça reste possible, 10x0 ce n'est que 4 caractères.
10800 ça aurait fait 5 caractères, ça fait beaucoup, c'est sûrement ça qui a causé le changement de dénomination.
 
Après Nvidia pourrait très bien partir sur une dénomination avec la première lettre du physicien dans le nom :
GTX P80, GTX P70, etc ...
La tesla P100 suit bien ce modèle.
Ou encore faire autre chose.

n°9790515
- gab
Posté le 24-04-2016 à 23:43:22  profilanswer
 

Avec "GTX P80, GTX P70", la progression de génération en génération est moins évidente :D

 

Avant on avait 680 -> 780 -> 980, là ça serait P80, puis V80 pour Volta, c'est moins parlant.

Message cité 1 fois
Message édité par - gab le 24-04-2016 à 23:44:28

---------------
Chounette ♥ | Oh ouiiiiiii il l'a fait, incroyable , c'est le dieu du tennis
mood
Publicité
Posté le 24-04-2016 à 23:43:22  profilanswer
 

n°9790547
Greg_kun
Posté le 25-04-2016 à 02:25:19  profilanswer
 

Xixou2 a écrit :

 


Qui a du SLI et du G-SYNC pour le retour d'experience ?

 
Xixou2 a écrit :

 

avec le g-sync le stuttering disparaît-il ?

 

Je dirais qu'au contraire, le Gsync fait davantage ressortir les défauts inhérents au SLI et plus particulièrement les variations de frametime.
Je vais prendre l'exemple de GTA5 parce qu'on est beaucoup à l'avoir mais aussi parce que le profil SLI est plutôt bon (entre 93 et 99% de gpu usage dans la plupart des situations).
Je tourne sur un SLI de 980ti sur une config à base de X99 et pour les réglages, tout est au max sauf 'échelle de vue étendue" qui doit être à 70%. Je ne mets pas ce réglage au max car il est très dépendant du CPU.

 

Pour monitorer le frametime, j'utilise Rivatuner (via MSI AB) et pour ne pas noyer le propos dans des détails superflus, on constate que le frametime augmente à mesure que les FPS diminuent. Je ne sais pas si Tridam a déjà fait un dossier là-dessus, à vérifier mais il y a une relation entre le moteur du jeu et sa gestion du multithread, le CPU et le nombre de GPU qui a une influence sur le frametime, plus particulièrement les variations.
Sur GTA5 donc, en ville le GPU usage est plutôt stable (97-98%) et le frametime aux alentours de 12-13. Je précise que je suis sur un 34" 1440p et que j'ai bloqué les FPS à 85.
En revanche, en traversant les routes de campagne, les FPS varient beaucoup plus ainsi que le frametime, entre 15 et 22 (chute jusqu'à 40 fps), entre 92 et 94 de gpu usage et dans ce cas précis, j'ai droit à du µstuttering.
Ce qui est plutôt normal car le CPU a plus de choses à traiter qu'en ville et il en reste un peu moins pour les GPU.
D'ailleurs, en baissant l'échelle de distance de vue au minimum, le frametime devient un peu plus stable et je constate moins de µstuttering.
Petite nuance, les µstuttering sont vraiment légers mais ils se remarquent car le défilement est moins "smooth" qu'en ville où le frametime ne varie pas.

 

Le Gsync renforce cette perception car la le "rythme" de la fluidité est cassé par ces variations de frametime. Pour le voir c'est simple, je me place à un croisement dans un endroit en campagne avec pas mal de circulation et je regarde défiler les véhicules. Je remarque régulièrement une animation hachée en me focalisant sur un véhicule en particulier.
Évidemment, en désactivant le Gsync, ça sera beaucoup plus difficile de faire la part entre les saccades inhérentes à l'absence de vsync et celles dues à ces variations de frametime.

 

En revanche, en désactivant un GPU, je n'ai quasiment plus de variations de frametime quelles que soient les situations et ça se traduit par une absence totale de µstuttering. J'ai certes moins de FPS mais d'un côté on gagne sur un certain confort.
Je peux aussi prendre l'exemple de Metro Redux dont le moteur semble privilégier un seul cœur.

 

Cas 1 --> SLI activé SSAA 1.5 voire 2
J'obtiens des FPS situés dans les 75-95 (et un GPU usage pas terrible, entre 70 et 80) et l'animation est très saccadée malgré le Gsync, ce qui est de toute façon normal dans ce cas de figure.
En repassant sur un AA plus modeste, plus aucune saccade et le Gsync fait le reste, excellente expérience de jeu.

 

Cas 2 - SLI désactivé SSAA 1.5 - 2
J'ai naturellement une baisse FPS mais plus aucune saccade, l'animation est très smooth car le Gsync fait son boulot.
Sur ce jeu, j'ai préféré privilégier les graphismes plutôt que les FPS donc j'ai terminé les deux jeux en mono GPU.

 

Sur d'autres jeux, ça se passe pas trop mal. The Witcher 3 tourne très bien en SLI avec quasi pas de µstuttering (mais il aura fallu quelques patches pour en arriver là).
Puis sur d'autres, comme The Division, c'est la foire au µstuttering en SLI quels que soient les réglages, une "chance" que ce jeu soit assez statique.
En mono GPU, c'est déjà beaucoup mieux mais il faut sacrifier pas mal sur les filtres pour ne pas être à 25fps de moyenne  :o

 

À noter aussi que pour que le SLI fonctionne au mieux, je dois commuter en mode "performances élevées" dans le gestionnaire d'alimentation de Windows. Autrement, tant sur GTA5 que Witcher 3, j'ai beaucoup plus de µstuttering et ça doit s'expliquer par le fait que le CPU oscille continuellement entre sa fréquence min et max. Windows 10 doit avoir encore du mal dans la gestion des priorités d'applications  :whistle:

 

Bref, pour en revenir au sujet, entre le moteur Unreal 4 (qui sera probablement autant utilisé que son prédécesseur) qui ne supportera pas le SLI, DX12 qui laisse aux développeurs la charge de définir le support multi-gpu, le manque d'investissement de Nvidia pour le suivi des profils SLI (à quand remonte le dernier gros jeu qui tire pleinement parti du multi GPU?) et les limites de la technologie elle-même (je m'interroge sur le pont SLI par exemple, pour parler de ce qui existe aujourd'hui), il n'y aura probablement plus qu'un seul GPU dans ma tour à l'avenir ;)

 

Bon, le truc c'est qu'un GP-104 30-35% plus perf qu'une 980ti, ça ne sera pas suffisant pour maintenir un niveau de FPS acceptable pour les jeux auxquels je joue en ce moment sur un 3440x1440, du moins sans sacrifier sur le rendu (mais dans ce cas, adieu mes profils Sweetfx/Reshade qui pompent un max)  :sweat:

 

J'attendrai l'an prochain pour changer tout ça sauf si le GP-104 poutre assez, si le prix est correct et ça se jouera aussi sur la décote des 980ti  :whistle:


Message édité par Greg_kun le 25-04-2016 à 02:38:01

---------------
Achats/Ventes
n°9790565
Xixou2
Posté le 25-04-2016 à 06:48:51  profilanswer
 

bon ok dommage, ustuttering, donc pas une option, dommage.

n°9790567
ssx99harlo​ck
Posté le 25-04-2016 à 07:06:16  profilanswer
 

Merci Greg_kun pour ton message très bien documenté ;) c'est clair net précis :jap:

n°9790630
genom
urinam non decolor unda
Posté le 25-04-2016 à 09:52:06  profilanswer
 

Xixou2 a écrit :

ou alors go crossfire x polaris 10 ?
 
ou alors le dual fury x/nano:
 
http://wccftech.com/amd-radeon-pro [...] ns-leaked/
 
 
Qui a du SLI et du G-SYNC pour le retour d'experience ?


 
moi, qu'es ce que tu veux savoir ? ah j'avais pas vu le post de Greg_kun, dans l'ensemble c'est ça, sauf que je dirais que j'ai moins de problèmes que lui de micro-stuttering sur certains jeux (TW3 et the Divsion), peut être dû a la différence de config ou o/c,  j'ai fait des tests en SLI avec g-sync et sans sur The Division, la perception de fluidité est nettement meilleur avec, en fixant les décors quand le personnage est en mouvement, ben il sont moins hachés avec g-sync, même si c'est pas encore au poil, comme ça l'est en mono gpu et g-sync. Clair !il y a du boulot pour arranger ça Nvlink ? on verra ça  :D  
 

drey19 a écrit :

 
 
Me semble que tomb raider a aussi eu des soucis de sli pareil pour the division etc...


 
Pour Tombraider, marche pas le SLI mais pour the Division, c'est plus qu'acceptable même pas trop mal dutout, en 4K TAF, ti o/c à 1500/3850, 53° max, ça me fait 55fps de moyenne, c'est nickel . :whistle:


Message édité par genom le 25-04-2016 à 10:25:36
n°9790637
chaced
Posté le 25-04-2016 à 09:58:27  profilanswer
 

d'ailleurs ma 970 n'est pas fluide avec qualité max sur rise of tomraider, vivement la 1070 :whistle:


---------------
CPU-Z | Timespy | Mes bd | Mon blog
n°9790715
nicolas_ya​d
Spoons made me fat
Posté le 25-04-2016 à 11:43:51  profilanswer
 

Encore une niouze à clics, m'enfin :
Nvidia Pascal GP104-400 GPU photo surfaces and shows GDDR5X Memory

 

Ce qui "confirme"  :whistle: que ça sera pas pour tout de suite, les cg en HBM2

 

edit: deux guerres en retard >< j'vais reprendre du café...

Message cité 1 fois
Message édité par nicolas_yad le 25-04-2016 à 11:44:56
n°9790773
robin4002
Posté le 25-04-2016 à 13:06:56  profilanswer
 

- gab a écrit :

Avec "GTX P80, GTX P70", la progression de génération en génération est moins évidente :D
 
Avant on avait 680 -> 780 -> 980, là ça serait P80, puis V80 pour Volta, c'est moins parlant.


En effet, je n'y avais pas pensé. Donc peu de chance qu'Nvidia réutilise la même chose que la tesla P100 pour les GTX.
 
Comme ravenloft l'a dit, les GTX n'ont pas suivis la nomenclature des tesla à l'époque de kepler non plus.

n°9790784
NODeath
Posté le 25-04-2016 à 13:28:15  profilanswer
 

J'ai hâte de voir ce que va donner le NVLink.  
 
D'ailleurs il faudra avoir une carte mère "NVLink Ready" pour en profiter ?  
 
J'espère qu'on va pas se retaper du CW à gogo et des mensonges niveau spec comme sur la 970, c'est la chose qui m'a retenu de faire un SLI. :/
 
J'espère aussi que la 1070 aura un très bon rapport Prix/Perf/Conso-chauffe comme la 970. :jap:


---------------
Topic [ACH]/[VDS]
n°9790787
Dugom
Posté le 25-04-2016 à 13:34:22  profilanswer
 

chaced a écrit :

d'ailleurs ma 970 n'est pas fluide avec qualité max sur rise of tomraider, vivement la 1070 :whistle:

Si tu dépasses 3,5Go de VRAM, tu passes sur de la mémoire a bas débit, donc saccades obligatoires... C'est un énorme défaut de la 970, Nvidia a fait de la grosse merde sur ce point.
 
NVidia a dit pour ROTTR:
Those with 4GB GPUs are recommended to use High, as VRAM stuttering can be observed on Very High, especially when swapping between gameplay, cutscenes and cinematics, and between gameplay zone transitions.
 
For a smooth experience with those max-quality, 4K x 4K textures, a 6GB GPU is instead recommended. And to crank things up to 4K (3840x2160), with Very High textures and max settings, we'd recommended GeForce GTX TITAN X GPUs with 12GB of VRAM, as usage can near 10GB over prolonged sessions.

 
 
Je trad vite fait:
Pour ceux qui on 4Go de VRAM, il est recommandé de jouer en "High", car des microsaccades apparaissent en "Very High", surtout pendant les changements de mode de jeu, de séquence et les cinématiques.
 
Pour une expérience de jeu fluide, en qualité "Max", avec les textures en 4000x4000 pixels, une carte graphique de 6Go est recommandée. Pour passer au niveau supérieur avec une résolution 4K, en "Very High" et qualité "Max", nous recommandons la Geforce Titan X avec 12Go de VRAM, car il arrive de dépasser 10Go de VRAM pendant les longues parties de jeu.
 
 
http://www.geforce.com/whats-new/g [...] ance-guide
 
 
J'adore les Guides Geforce !!!  :love:  :love:  :love:

Message cité 1 fois
Message édité par Dugom le 25-04-2016 à 13:47:37

---------------
Mes vidéos et mire 3D: https://www.youtube.com/user/DugomYT/videos          Patchs pour jouer en 3D: http://helixmod.blogspot.fr/
n°9790788
cobrasony
cobrasony
Posté le 25-04-2016 à 13:39:39  profilanswer
 

perso en 4K sur call of duty ma titan x utilise 10 giga de vram

n°9790794
waylan
Posté le 25-04-2016 à 13:50:26  profilanswer
 

Dugom a écrit :

Si tu dépasses 3,5Go de VRAM, tu passes sur de la mémoire a bas débit, donc saccades obligatoires... C'est un énorme défaut de la 970, Nvidia a fait de la grosse merde sur ce point.

 

Ca a d'ailleurs été mis en avant par un nombre incalculable de tests ce phénomène  [:magic_poussin]


Message édité par waylan le 25-04-2016 à 13:50:50
n°9790795
chaced
Posté le 25-04-2016 à 13:50:37  profilanswer
 

oui, c'est ce que j'ai fait, j'ai mis qualité max sur TR, mais j'ai réduit les textures d'un cran, et ça passe :)

 

C'est clair que les 512Mo 64bits marketing, ils auraient pu s'en passer...


Message édité par chaced le 25-04-2016 à 13:57:36

---------------
CPU-Z | Timespy | Mes bd | Mon blog
n°9790798
Dugom
Posté le 25-04-2016 à 13:53:51  profilanswer
 

A savoir que le SLI double la bande passante des mémoires !
 
Donc on a moins vite fait de les remplir, tout du moins elles se vident et se remplissent plus vite, permettant l'arrivée des nouvelles textures plus rapidement, donc moins de saccades.
 
Le SLI sert encore, quoiqu'en disent ses détracteurs...


---------------
Mes vidéos et mire 3D: https://www.youtube.com/user/DugomYT/videos          Patchs pour jouer en 3D: http://helixmod.blogspot.fr/
n°9790799
chaced
Posté le 25-04-2016 à 13:59:57  profilanswer
 

J'ai une r9 380 qui traine, je vais en faire un sli avec la 970 :whistle:


---------------
CPU-Z | Timespy | Mes bd | Mon blog
n°9790806
Dugom
Posté le 25-04-2016 à 14:07:28  profilanswer
 

Bah ui, avec DX12 pourquoi pas:

 

We were also told that DirectX 12 will support all of this across multiple GPU architectures, simultaneously. What this means is that Nvidia GeForce GPUs will be able to work in tandem with AMD Radeon GPUs to render the same game – the same frame, even.

 

http://www.tomshardware.com/news/m [...] 28606.html


Message édité par Dugom le 25-04-2016 à 14:09:39

---------------
Mes vidéos et mire 3D: https://www.youtube.com/user/DugomYT/videos          Patchs pour jouer en 3D: http://helixmod.blogspot.fr/
n°9790815
chaced
Posté le 25-04-2016 à 14:16:06  profilanswer
 

j'imagine le fonctionnement du truc, ça prend le bug de chaque drivers et ça fait un bug géant  avec le tout ? :whistle:


---------------
CPU-Z | Timespy | Mes bd | Mon blog
n°9790825
- gab
Posté le 25-04-2016 à 14:26:23  profilanswer
 

D'après certains des jeux plus récents mettent bien en évidence le problème, par contre je ne crois pas avoir vu de source précise à ce sujet :D

 

De toute façon quand un jeu a besoin de plus d'espace que ce qu'une carte propose, il y a des trucs pour prioriser les textures chargées et éviter les problèmes, non ? Surtout que nvidia soumet ses règles de gestion de la mémoire aux devs pour atténuer d'éventuels problèmes il me semble.


Message édité par - gab le 25-04-2016 à 14:27:38

---------------
Chounette ♥ | Oh ouiiiiiii il l'a fait, incroyable , c'est le dieu du tennis
n°9790828
dave76
A momentary lapse of reason
Posté le 25-04-2016 à 14:27:18  profilanswer
 

nicolas_yad a écrit :

Encore une niouze à clics, m'enfin :  
Nvidia Pascal GP104-400 GPU photo surfaces and shows GDDR5X Memory
 
Ce qui "confirme"  :whistle: que ça sera pas pour tout de suite, les cg en HBM2
 
edit: deux guerres en retard >< j'vais reprendre du café...


 
Quand on voit l'apport au niveau perf de HBMv1 avec les FuryX, ça me laisse perplexe.


---------------
Celui qui donne ne doit jamais s'en souvenir, celui qui reçoit ne doit jamais l'oublier!
n°9790901
drey19
Posté le 25-04-2016 à 16:30:16  profilanswer
 

Le contenu de ce message a été effacé par son auteur


Message édité par drey19 le 25-04-2016 à 16:32:51
n°9790907
Zurkum
Posté le 25-04-2016 à 16:40:11  profilanswer
 

dave76 a écrit :


 
Quand on voit l'apport au niveau perf de HBMv1 avec les FuryX, ça me laisse perplexe.


Non mais Fiji est moisi c'est pas la HBM le problème  :heink:

n°9790952
robin4002
Posté le 25-04-2016 à 17:31:37  profilanswer
 

Le problème de fiji c'est principalement les 64 ROP. (contre 96 pour GM200, qui en plus sur les 980ti custom tournent a une fréquence bien plus élevé).
Déjà que les ROPs de GCN sont moins bon que Maxwell ... Alors si en plus il y en a moins :/
http://www.hardware.fr/articles/92 [...] etrie.html

n°9790955
havoc_28
Posté le 25-04-2016 à 17:34:25  profilanswer
 

robin4002 a écrit :

Le problème de fiji c'est principalement les 64 ROP. (contre 96 pour GM200, qui en plus sur les 980ti custom tournent a une fréquence bien plus élevé).
Déjà que les ROPs de GCN sont moins bon que Maxwell ... Alors si en plus il y en a moins :/
http://www.hardware.fr/articles/92 [...] etrie.html


 
Tu t'es pas trompé d'une page ?  
 
c'est plutôt celle ci pour ce qui est des rops :
 
http://www.hardware.fr/articles/92 [...] ixels.html
http://www.hardware.fr/articles/93 [...] ixels.html  (avec le GM200 pour mettre bien en évidence la chose niveau fillrate)
 
celle que tu nous as donné c'est pour les unités de tesselation/géométrie .


Message édité par havoc_28 le 25-04-2016 à 17:54:08
n°9790958
Greg_kun
Posté le 25-04-2016 à 17:40:39  profilanswer
 

ravenloft a écrit :


Chimère que ça et merci de pas propager des fausses rumeurs démantis depuis déjà plusieurs mois. ;)  
 Les nombreux tests à l'époque ont montré que ça n'avait aucune incidence même quand les jeux demandaient plus de 3.5go.


 
Je suis passé par là et didiou, j'en ai fait des tests à n'en plus finir :D
 
La conclusion directement --> c'est un problème moins impactant en mono GPU qu'en SLI.
À l'époque, j'avais fait les tests sur AC Unity et Far Cry 4 et à chaque fois que j'activais un réglage qui faisait passer le vram usage au delà des 3500, j'avais droit à de gros ralentissements. 3600/3700/3800 de vram usage, le constat était le même.  
Simplement, en monitorant le bus usage, je pouvais constater une grosse activité lorsque le vram usage dépassait les 3500, parce que le jeu (ou plutôt le pilote) tapait directement dans la mémoire centrale. En mono ça pouvait passer sans encombre mais pas en SLI.
 
 :jap:


---------------
Achats/Ventes
n°9790959
Yopfraize
Posté le 25-04-2016 à 17:49:11  profilanswer
 

ravenloft a écrit :


Chimère que ça et merci de pas propager des fausses rumeurs démantis depuis déjà plusieurs mois. ;)
 Les nombreux tests à l'époque ont montré que ça n'avait aucune incidence même quand les jeux demandaient plus de 3.5go.

 

Tu dis n'importe quoi :o


Message édité par Yopfraize le 25-04-2016 à 17:55:30
n°9790965
- gab
Posté le 25-04-2016 à 17:53:22  profilanswer
 

Au hasard, http://www.hardware.fr/focus/106/g [...] 6-bit.html ?


---------------
Chounette ♥ | Oh ouiiiiiii il l'a fait, incroyable , c'est le dieu du tennis
n°9790967
Pipould's
Posté le 25-04-2016 à 17:54:34  profilanswer
 


 
Les 32Bits de la discorde du fanclub NV  :D

n°9790972
Xixou2
Posté le 25-04-2016 à 18:01:26  profilanswer
 

Coup de frayeur, je rentre chez moi, je vois un carton devant la porte.
Je me dis, non, c'est pas possible.
Et bien si, le retour de la titan X (merci LDLC, vous êtes les meilleurs, je commanderai toujours chez vous),
le gars a rien trouver de mieux que de la déposer dehors !
carton avec de la flotte mais intérieur ok, elle fonctionne bien.
J'imagine la galère si un gars avait piqué la boite.
Le livreur étant partit vers 7h30, elle est bien resté plusieurs heures dehors.
 
LDLC doit pas en voir des vertes tous les jours avec leur livreurs !


Message édité par Xixou2 le 25-04-2016 à 18:02:44
n°9790973
chaced
Posté le 25-04-2016 à 18:02:13  profilanswer
 

Pipould's a écrit :

 

Les 32Bits de la discorde du fanclub NV  :D

 

il suffit de ne pas dépasser 3.5go et de modifier les param en fonction, pas la peine de se prendre la tete pour si peut (de ram :whistle: )


Message édité par chaced le 25-04-2016 à 18:02:54

---------------
CPU-Z | Timespy | Mes bd | Mon blog
n°9790974
chaced
Posté le 25-04-2016 à 18:03:47  profilanswer
 

Xixou2 a écrit :

Coup de frayeur, je rentre chez moi, je vois un carton devant la porte.
Je me dis, non, c'est pas possible.
Et bien si, le retour de la titan X (merci LDLC, vous êtes les meilleurs, je commanderai toujours chez vous),
le gars a rien trouver de mieux que de la déposer dehors !
carton avec de la flotte mais intérieur ok, elle fonctionne bien.
J'imagine la galère si un gars avait piqué la boite.
Le livreur étant partit vers 7h30, elle est bien resté plusieurs heures dehors.
 
LDLC doit pas en voir des vertes tous les jours avec leur livreurs !


 
un jour je commande une carte vidéo, dhl sonne, le temps de sortir, il était partie, avec le carton jeté par dessus le portail sur la dalle en béton...  :heink:


---------------
CPU-Z | Timespy | Mes bd | Mon blog
n°9790992
- gab
Posté le 25-04-2016 à 18:18:21  profilanswer
 

D'un autre côté à moins que le livreur ne se prénomme Pascal c'est un peu HS :o


---------------
Chounette ♥ | Oh ouiiiiiii il l'a fait, incroyable , c'est le dieu du tennis
n°9791019
Yopfraize
Posté le 25-04-2016 à 18:59:30  profilanswer
 

ravenloft a écrit :


[:prozac]
Ces gens qui ne suivent pas l'activité et font ensuite la morale: renseigne toi avant, les articles pleuvaient à la sortie (gab en a donné un mais tu en trouveras des dizaines) de ce soit disant problème et ont tous conclu à un non problème.
Donc please, ne propage pas les trolls par méconnaissance.[:agkklr]

 

Mon coco, je te saurai gréé de bien vouloir arrêter ton discours impotent.
Les exemples ont aussi plu de l'autre côté concernant le Stuttering important qui découle lors du dépassement des 3,5 go de vram sur cette carte, donc si, je persiste, en sortant de façon aussi affirmatif que "méé ça chang ri1 cet ram low cost" c'est faux, ca dépend des situations.

 

Au passage je te conseille de prendre des cours de français, parce que "suivre l'activité" :o

Message cité 2 fois
Message édité par Yopfraize le 25-04-2016 à 19:03:42
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  63  64  65  ..  1033  1034  1035  1036  1037  1038

Aller à :
Ajouter une réponse
 

Sujets relatifs
[HFR] Actu : Rise of the Tomb Raider offert par Nvidia[HFR] Actu : CES: Drive PX 2: Tegra et Pascal au pilotage
Comment reconnaitre le lecteur E:\ "Nvidia Geforce Experience"Nvidia comme pilote
Windows 10: Code 43 sur CG Nvidia 750mLunette 3D nvidia vision 2
nvidia shield proInstallation carte graphique NVIDIA NVS 510 sur PC tour HP Pavilion P6
[HFR] Actu : Pilotes Nvidia 361.43 WHQLNvidia GTX (960 ou 760 ou 660)?
Plus de sujets relatifs à : [Topic Unique] Nvidia Pascal GP104 : GTX 1080/1070 (16nm FinFET+)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)