Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2155 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  58  59  60  ..  73  74  75  76  77  78
Auteur Sujet :

[Topic Unique] GT300 // La nouvelle bête de combat nvidia en 40nm

n°7080370
Gigathlon
Quad-neurones natif
Posté le 20-08-2009 à 20:36:53  profilanswer
 

Reprise du message précédent :
Rien, si ce n'est qu'ils font de la pub à M$... [:ddr555]
 
DX Compute c'est surtout l'apparition d'un pipeline logiciel alternatif au pipeline 3D, tout aussi logiciel, mais en pratique ça change assez peu de choses, on évite juste des étapes inutiles (au hasard, la création d'une surface DDraw et l'association au rendu fictif D3D) lorsqu'il s'agit de calcul pur.

mood
Publicité
Posté le 20-08-2009 à 20:36:53  profilanswer
 

n°7080379
Ramichou
Posté le 20-08-2009 à 20:41:02  profilanswer
 

En gros ils disent que DX compute pourra tourner sur DX10 donc c'est pas si utile de passer à DX11. (Point de vue d'une marque qui n'arrive pas à sortir son GPU DX11 ofc).

Message cité 2 fois
Message édité par Ramichou le 20-08-2009 à 21:21:35
n°7080384
mikestewar​t
Air Roll Spinnin'
Posté le 20-08-2009 à 20:44:41  profilanswer
 

Gigathlon a écrit :

Rien, si ce n'est qu'ils font de la pub à M$... [:ddr555]

 

DX Compute c'est surtout l'apparition d'un pipeline logiciel alternatif au pipeline 3D, tout aussi logiciel, mais en pratique ça change assez peu de choses, on évite juste des étapes inutiles (au hasard, la création d'une surface DDraw et l'association au rendu fictif D3D) lorsqu'il s'agit de calcul pur.

 

Merci. :)


Message édité par mikestewart le 20-08-2009 à 20:45:48
n°7080487
Gigathlon
Quad-neurones natif
Posté le 20-08-2009 à 21:52:13  profilanswer
 

Ramichou a écrit :

En gros ils disent que DX compute pourra tourner sur DX10 donc c'est pas si utile de passer à DX11. (Point de vue d'une marque qui n'arrive pas à sortir son GPU DX11 ofc).


A ceci près que le GT200 est grave à la bourre en terme de puissance de calcul... :o
 
Une 4870, c'est 1.2TFlops max (MAD), une GTX285 c'est 700GFlops max (MAD toujours), et en étant gentil 0.8 vs 1.05 en MAD + MUL.
 
Si les R800 sont tels qu'on peut en avoir eu vent (~325mm² pour le RV870, soit une capacité de calcul de l'ordre de 2 à 3TFlops*), la GTX285 sera tout juste bonne à mettre en face d'un RV840 et sera donc vraiment très, très, très loin.
 
* 2 TFlops en considérant qu'AMD ait travaillé sur le rendement et n'ait que marginalement augmenté les capacités de calcul, 3TFlops s'ils ont doublé la capacité de calcul (le RV790 est déjà à 1.36TFlops en version de base et 1.6TFlops en version "premium" ), à noter le fait qu'ils ont aussi pu augmenter la puissance de calcul encore plus que ça via une fréquence doublée comme ça existe chez nVidia depuis bien longtemps.


Message édité par Gigathlon le 20-08-2009 à 21:57:00
n°7080502
Ramichou
Posté le 20-08-2009 à 22:05:59  profilanswer
 

Les archi NVidia et AMD ne sont pas trop différentes pour raisonner en seule puissance de calcul ?
Les instructions disponible ne sont pas forcément les mêmes, surtout vu que Nvidia travaille plus son GPGPU qu'AMD. Rendant les teraflops Nvidia plus exploitables qu'un teraflop AMD ?
 
On voit que, même en rendu 3D, malgré la surpuissance en terme de flops de la HD4890, la GTX285 est un peu au dessus.
 
Après, il semble évident que AMD aura travaillé sur le GPGPU puisque les HD5*** seront compatibles Open CL et directX11.
 
Je n'ai pas le niveau pour juger de la facilité d'exploiter la puissance de l'une et l'autre des archi, mais on constate que sur la génération actuelle, les flops ne veulent pas dire grand chose.

n°7080667
marllt2
Posté le 21-08-2009 à 00:35:29  profilanswer
 

trajouf a écrit :

Si le rapport prix/perf était égal à Ati, c'est clair Nvidia aurait de l'avance grâce à CUDA et au PhysX.


Genre c'est pas du tout dead avec DX11. [:yamusha]
 

Gigathlon a écrit :

Sincèrement, tu viens de montrer que le matraquage marchait super sur certaines personnes... : o
 
La GTX295 est: plus chère (à produire comme à la vente) et pas plus performante que la 4870X2 (voire moins).
 
Après, CUDA et PhysX... CUDA est sur le point de perdre tout intérêt grâce à DX Compute et PhysX subira le même sort (sinon, tout le monde aurait déjà franchi le pas et utiliserait PhysX... or on voit encore pas mal de Havok et même de moteurs physiques propriétaires, ce qui tend à indiquer que PhysX n'a strictement rien pour se démarquer).


+1
 

Ramichou a écrit :

En gros ils disent que DX compute pourra tourner sur DX10 donc c'est pas si utile de passer à DX11. (Point de vue d'une marque qui n'arrive pas à sortir son GPU DX11 ofc).


Les specs des CS 4.0, 4.1 et 5.0 ne sont pas les mêmes.
 
edit: Evidemment c'est le discours que nVidia va tenir, et tiens déjà avec Dally dailleurs:
 

marllt2 a écrit :

DX11:
 

Citation :

PCGH: With Microsoft's Windows 7, and thus DirectX 11, expected on the shelves from October 22nd, do you expect a large impact on graphics cards sales from that?
 
Bill Dally: I actually don't know what drives the sales that much, but I would hope that people appreciate the GPU a lot more with Windows 7 because of DirectX Compute and the fact that the operating system both makes every use of the GPU itself and also exposes it in it's APIs for applications to use.

Citation :

PCGH: Independently whether it's a DX11 or a DX10 / 10.1 GPU?
 
Bill Dally: If it supports DirectX Compute, then it doesn't need to be DX 11.

Citation :

PCGH: No, but there's a different level of DX Compute, if I'm not mistaken. It's the DX11 Compute, then the downlevel shader called DX Compute 4.0 and 4.1?
 
Bill Dally: No, you're exceeding my knowledge a bit right now.


 
 :lol:  
 
On a trouvé le slogan marketing que nVidia va diffuser partout au lancement des GPU DX11 AMD.


Message édité par marllt2 le 21-08-2009 à 01:01:54
n°7080684
cassoux
Posté le 21-08-2009 à 00:57:23  profilanswer
 

fifi86 a écrit :


 
Non.
 
C'est pas si simple que ça, ça dépend des cartes.
Les 4850 et 4870 par exemple, AMD avait demandé (entre autres) l'aide de PC partner pour la production des cartes "de base".
Et Pc partner ... c'est Sapphire.


 
de toute façon, sapphire qui assemble des cartes ne veut pas forcement dire que sapphire fournit les composants, y'en a au moins 1 qu'ils peuvent pas "avoir sans AMD", c'est le GPU :lol:
Toute façon si ya des rumeurs d'achat de ram en masse par AMD c'est surement pas pour la déco de leurs bureaux :lol:


Message édité par cassoux le 21-08-2009 à 00:57:52

---------------
\|/A/V\|/FeedBack\|/\|/Ebay\|/\|/
n°7080685
Gigathlon
Quad-neurones natif
Posté le 21-08-2009 à 00:57:50  profilanswer
 

Ramichou a écrit :

Je n'ai pas le niveau pour juger de la facilité d'exploiter la puissance de l'une et l'autre des archi, mais on constate que sur la génération actuelle, les flops ne veulent pas dire grand chose.


Si on compare sur du rendu 3D c'est clair que les flops c'est pas franchement représentatif quand on voit les différences phénoménales par ailleurs entre les verts et les rouges...
 
La GTX285 peut filtrer les textures 50% plus rapidement que la 4890, et son fillrate est également 52% plus important (sauf AA 8x), ça explique pourquoi dans les situations "simples" elle prend largement les devants, en sus d'une moindre dépendance au CPU du point de vue drivers.
 
Le "handicap" du RV770 vient de l'absence de développement spécifique, les rares applis GPGPU "AMD" datant du R600 voire d'avant.

n°7080794
seu
Posté le 21-08-2009 à 09:23:44  profilanswer
 

Je pense que la prochaine génération risque d'etre trés intéréssante aussi bien chez nvidia que chez Ati.
 
Par contre , Ati semble voir plus "loin" que Nvidia qui se contente d'augmenter la taille de ses puces....  
 
Je vous raconte pas la taille de la carte High-End (avec 2 GT300 , ou GT300b) , ni le bruit que ça va faire.... (quoi ? 500 w de conso? et un bruit de porte avion au décollage? va falloir qu'ils trouvent une bonne solution pour raffraichir tout ça ! :D )
 
J'ai une préférence pour les cartes mono-Gpu de nvidia mais la , le match risque d'etre tendu ! (Dx11 ? on s'en tape on a le Dx compute...)  

Message cité 3 fois
Message édité par seu le 21-08-2009 à 09:24:15
n°7080800
trajouf
Posté le 21-08-2009 à 09:31:32  profilanswer
 

C'est marrant des pages et des pages de blabla ici vont être réduites à néant lorsque les comparos vont sortir!

mood
Publicité
Posté le 21-08-2009 à 09:31:32  profilanswer
 

n°7080828
kaiser52
Posté le 21-08-2009 à 10:04:39  profilanswer
 

seu a écrit :

Je pense que la prochaine génération risque d'etre trés intéréssante aussi bien chez nvidia que chez Ati.
 
Par contre , Ati semble voir plus "loin" que Nvidia qui se contente d'augmenter la taille de ses puces....  
 
Je vous raconte pas la taille de la carte High-End (avec 2 GT300 , ou GT300b) , ni le bruit que ça va faire.... (quoi ? 500 w de conso? et un bruit de porte avion au décollage? va falloir qu'ils trouvent une bonne solution pour raffraichir tout ça ! :D )
 
J'ai une préférence pour les cartes mono-Gpu de nvidia mais la , le match risque d'etre tendu ! (Dx11 ? on s'en tape on a le Dx compute...)  


 
Nvidia a changé d'archi (donc ils n'ont pas fait que augmenter la taille de leurs puces), ils voient aussi loin que ATI, juste qu'ils ont toujours fait dans le mastodon !
Moi ce qui m'intéresse c'est la conso des dites puces, les ATI ont beau faire 305mm² vs 500mm², c'est pas pour autant qu'elles sont plus "écologiques"(tous est relatif, puce plus petite, moins de pertes par Yield, donc moins de déchets, mais y'a pas que ca cf la suite ) ou qu'elles "consomment moins" (ce qui a plus d'impact sur le long terme que des pertes de Yield  :kaola: ).
D'ailleurs si ils avaient une conscience éco, ils feraient pas de X2, comme quoi tous est marketing  :lol:  
 

trajouf a écrit :

C'est marrant des pages et des pages de blabla ici vont être réduites à néant lorsque les comparos vont sortir!


 
Comme tu le dis, c'est ca qui est marrant !  :love:


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°7080830
darckcryst​al
Anima Sana In Corpore Sano
Posté le 21-08-2009 à 10:05:48  profilanswer
 

drap


---------------
[Mon Topic ACH/VDS/ECH]
n°7080835
Silou78
Posté le 21-08-2009 à 10:10:54  profilanswer
 

seu a écrit :

Je vous raconte pas la taille de la carte High-End (avec 2 GT300 , ou GT300b) , ni le bruit que ça va faire.... (quoi ? 500 w de conso? et un bruit de porte avion au décollage? va falloir qu'ils trouvent une bonne solution pour raffraichir tout ça ! :D )


Lapsus révelateur d'une lecture croisée avec le topic sur le RV870... essaye donc de faire décoller un porte-avion... [:power9999]


---------------
[TU] Asus ROG PG279QM[Test] Rad. αcool et EK pour SSD M.2[TU] HP ZR2440w[TU] Shuttle D10
n°7080916
0b1
There's good in him
Posté le 21-08-2009 à 11:19:17  profilanswer
 

seu a écrit :

[...] et un bruit de porte avion au décollage? va falloir qu'ils trouvent une bonne solution pour raffraichir tout ça ! :D ) [...]


 [:alvas]  
 
Bah un porte-avion c'est simple, tu le mets à la flotte

n°7081023
seu
Posté le 21-08-2009 à 12:58:08  profilanswer
 

Bah quoi? un petit incident dans le réacteur nucléaire , et je suis sur qu'il décolle le porte-avion  :whistle:  (lol la bourde)
 
Par contre , si AMD et nvidia pouvaient réfléchir a des solutions de refroidissement "silencieuses"  ça serait un gros plus a mon avis dans le choix des cartes (meme si chez moi ça sera sous watercool  :D  )


Message édité par seu le 21-08-2009 à 12:58:50
n°7081044
Profil sup​primé
Posté le 21-08-2009 à 13:12:00  answer
 

en fait ce sont les avions qui décollent et le bateau qui porte ces avions.  
 
Une sacré bande de décolleurs ces avions. [:cerveau o]
 
refroidissement plus silencieux = plus cher = moins de vente.

Message cité 2 fois
Message édité par Profil supprimé le 21-08-2009 à 13:12:24
n°7081049
White Sh4d​ow
GHz-O-Meter !
Posté le 21-08-2009 à 13:13:11  profilanswer
 


Et pourquoi pas vendre le pcb nu, sans ventirad ?  :o  
 :D

n°7081058
Gein
Posté le 21-08-2009 à 13:26:25  profilanswer
 

ça sens le waterblock ^^ :lol:

n°7082058
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 22-08-2009 à 06:29:03  profilanswer
 

C'est chaud pour nvidia :
 
****************
 

Citation :

Nvidia takes a huge risk
Risk wafers that is
by Charlie Demerjian
 
August 18, 2009
 
NVIDIA KEEPS HOWLING that it will have GT300 out this year, so we did a little digging on the topic. All you can say is that it seems willing to fritter away large swaths of its and TSMC's cash to meet a PR goal.
 
The short story is that GT300 taped out in week 3 or 4 of July 2009. It is a huge chip, about 23mm X 23mm, but we are now hearing it will be 23.something X 23.something millimeters, so 530mm^2 might be a slight underestimate. In any case, TSMC runs about 8 weeks for hot lots, 2 more weeks for bringup, debug, and new masks, and finally another 10-12 for production silicon.
 
GT300 wafers went in at TSMC on August 3, give or take a couple of days, so if you add 22 (8 + 2 + 12) weeks to that, you are basically into 2010 before TSMC gives you the wafers back with pretty pictures inscribed on them. Like babies, you just can't rush the process with more, um, hands.
 
While it is not rushable, you can do some of it in parallel, and that uses what are called risk wafers. Those wafers are put in at the same time the first silicon hot lots are, so they have been in the oven about 2 weeks now. Just before the final layers are put on, the risk wafers are parked, unfinished, off to the side of the TSMC line.
 
The idea is that with the hot lots, Nvidia gets cards back and debugs them. Any changes that are necessary can hopefully be retrofitted to the risk wafers, and then they are finalized. Basically, the risk wafers are a bet that there won't be anything major wrong with the GT300 design, in that any changes are minor enough to be literally patched over.
 
Risk wafers are called risk wafers for a reason. If you do need to make a change big enough, say a metal layer spin, the risk wafers are then what are called scrap wafers. You need to make damn sure your design is perfect, or nearly perfect, before you risk it. Given Nvidia's abysmal execution recently, that is one gutsy move.
 
Just looking at the cost, TSMC 40nm wafers are priced at about $5,000 each right now, and we hear Nvidia is paying a premium for each of the risk wafers. 9,000 X ($5,000 + premium) is about $50 million. If there is a hiccup, you have some very expensive coasters for the company non-denominational winter festivity party. Then again, putting them in the oven this early makes dear leader less angry, so in they go.
 
Costs for this are pretty high, but here again, Nvidia has an out. The rumor is that TSMC, as a way to slide Nvidia money through backchannels to prevent it hopping to GlobalFoundries, is charging Nvidia per good chip while yields are below 60%. Some knowledgeable folks who design semiconductors for a living estimate the initial yields at 20-25% after repair. For reference, early yields for GT200 on a known 65nm process were about 62% for the GT280 and yield salvaged GT260.
 
What does this mean? One of two things, Nvidia is either trying to make a seriously downscaled version just to get something out the door, or it is eating wafers in the hopes of getting enough parts to pretend it is not lost. Think absurdly expensive press parts.
 
The downscaled chip would be like a GT260-- instead of ++, possibly downclocked as well. If the GT260 had two clusters disabled, you could do the same with GT300 and disable more to get effective yields up. We doubt this is the way it will go though. Cypress will slaughter Nvidia if it takes this route.
 
The other option is to cherry pick the few good parts that come out and pretend that they are not eating a few hundred dollars per card sold while praying that yields come up fast. Then again, if the rumors of TSMC shouldering the cost of bad chips is true, it isn't Nvidia's problem now is it?
 
Which way will it go? We will know in Q1. There will either be an updated spec card with a higher stepping or there won't be. Nvidia will have cards out in real, not PR, quantities or it won't. Nvidia will either have a hidden charge on its balance sheet or TSMC will. When you are talking about this much money, though, amounts this large are hard to hide.
 
In any case, Nvidia made a huge bet for ego purposes. The real question is who pays for it in the end, Nvidia or TSMC? Betting people say that TSMC will eat the costs and Nvidia will be a GlobalFoundries customer at the earliest opportunity anyway.S|A

source : http://www.semiaccurate.com/2009/0 [...] huge-risk/


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°7082104
seu
Posté le 22-08-2009 à 10:05:58  profilanswer
 


 
 
Ouais ce sont de sacrés comiques  :D  
 
Je suis d'accord avec toi pour le refroidissement , seulement est-ce qu'on arrive pas au bout des solutions "rentables"  ? la puissance des cartes 3d augmentent.
 Ils réduisent la taille de leur puces pour éviter que ça chauffe/consomme trop mais on ne risque pas d'arriver dans une impasse?  
 
parce que aussi bien pour ATI que pour Nvidia , je sent bien venir le coup du seche cheveux niveau bruit  [:anathema]
 


Message édité par seu le 22-08-2009 à 10:06:49
n°7082147
dragonlore
Posté le 22-08-2009 à 11:09:07  profilanswer
 

Activation a écrit :

pour l instant "l impasse" est reporté vu que ça se stabilise dans les 1920*1080 en regle général les solutions d affichage
 
bref c est pas encore demain qu on aura du 3840*2160 sur nos ecrans :D ... compte bien 8ans avant ça :O  
en encore je suis bien généreux car quand tu vois le temps que ça à mit pour enfin avoir de la HD sur les reseau DVB-T ... en plus par le sattelite ça à ces limites donc on en revient au fait que l infrastructure de communication ne suis pas... faudrait que tout le monde (et pas des privilégié comme d hab) soit relié en optique terrestre


 
8 ans? surement beaucoup plus.
 
pour l'instant les écrans à très haute résolution (si tant est que le 1080p est de la haute résolution) ça n'existe qu'à l'armée ou dans certains hôpitaux.
 
Sachant que les hautes résos (genre 1600*1200 et supérieur) existent depuis près de 15 ans sur les écrans d'ordinateurs et que ça ne fait que 3-4 ans que ça existe en masse sur les télés soit près de 10 ans après (même si des télés HD existent depuis pas mal de temps aux usa et au japon). Les écrans d'ordi ont encore des résos plus élevés que ne permettent les télés: 2048*1536 sur les écrans CRTs de 21" et plus (et ça fait déjà 10 ans) ou 2500*1600 sur les écrans 30"LCDs.
 
Même si la convergence écrans d'ordis et télés est en train de se faire, il va falloir attendre que ça arrive sur écrans d'ordis (et ça c'est pas pour demain je pense) puis attendre peut être quelques années que ça arrive sur écrans de télés.
 
Mais peut être déjà le passage au 2500*1600 devrait être la prochaine étape avec la généralisation des écrans 30" qui devrait arriver d'ici quelques temps.

n°7082204
Khaomaster
Posté le 22-08-2009 à 12:01:14  profilanswer
 

dragonlore a écrit :

 

8 ans? surement beaucoup plus.

 

pour l'instant les écrans à très haute résolution (si tant est que le 1080p est de la haute résolution) ça n'existe qu'à l'armée ou dans certains hôpitaux.

 

Sachant que les hautes résos (genre 1600*1200 et supérieur) existent depuis près de 15 ans sur les écrans d'ordinateurs et que ça ne fait que 3-4 ans que ça existe en masse sur les télés soit près de 10 ans après (même si des télés HD existent depuis pas mal de temps aux usa et au japon). Les écrans d'ordi ont encore des résos plus élevés que ne permettent les télés: 2048*1536 sur les écrans CRTs de 21" et plus (et ça fait déjà 10 ans) ou 2500*1600 sur les écrans 30"LCDs.

 

Même si la convergence écrans d'ordis et télés est en train de se faire, il va falloir attendre que ça arrive sur écrans d'ordis (et ça c'est pas pour demain je pense) puis attendre peut être quelques années que ça arrive sur écrans de télés.

 

Mais peut être déjà le passage au 2500*1600 devrait être la prochaine étape avec la généralisation des écrans 30" qui devrait arriver d'ici quelques temps.

 

Généralisation des écrans PC 30 pouces :lol:  :lol:  :lol:

 

Là je crois que te tu rends pas compte de la taille d'un 30 pouces, c'est bien pour jouer pour servir d'affichage secondaire pour des présentations, mais personne ne va travailler sur un écran pareil, au boulot, la plus part de mes collègues qui ont des 22 trouvent déjà cela trop grand pour travailler sur toutes les taches bureautiques, pour eux l'idéal c'est le 19 16/10, voire même 5/4. Sans compter qu'ils ne supportent pas la résolution de base de leur 22 (le 1680x1050), ils utilisent tous des résolutions plus basses.

 

Il faut arrêter le délire sur l'augmentation de la résolution et des tailles des dalles, en vous écoutant on finira pas avoir des murs écran en 19000x12000, mais il faudra se mettre à 20 ou 30m de distance pour l'utiliser sans s'exploser les yeux. Les grands écrans et grosses résolution c'est bien mais pour des utilisations spécifiques, mais ca manque de polyvalence.

Message cité 1 fois
Message édité par Khaomaster le 22-08-2009 à 12:02:42
n°7082216
alex91650
Posté le 22-08-2009 à 12:12:37  profilanswer
 

C'est clair qu'on va pas monter au dessus des 24" et 26" déjà très grands. Mais la résolution peut changer tout en gardant la même taille.

n°7082272
dragonlore
Posté le 22-08-2009 à 12:54:48  profilanswer
 

Khaomaster a écrit :

 

Généralisation des écrans PC 30 pouces :lol:  :lol:  :lol:

 




 :??:  :??:  :??:  :??:  :??:  :??:  :??:

 

ne sois pas si sure de toi. Va falloir t'y faire.

 
Citation :

Là je crois que te tu rends pas compte de la taille d'un 30 pouces, c'est bien pour jouer pour servir d'affichage secondaire pour des présentations, mais personne ne va travailler sur un écran pareil, au boulot, la plus part de mes collègues qui ont des 22 trouvent déjà cela trop grand pour travailler sur toutes les taches bureautiques, pour eux l'idéal c'est le 19 16/10, voire même 5/4. Sans compter qu'ils ne supportent pas la résolution de base de leur 22 (le 1680x1050), ils utilisent tous des résolutions plus basses.

 

Il faut arrêter le délire sur l'augmentation de la résolution et des tailles des dalles, en vous écoutant on finira pas avoir des murs écran en 19000x12000, mais il faudra se mettre à 20 ou 30m de distance pour l'utiliser sans s'exploser les yeux. Les grands écrans et grosses résolution c'est bien mais pour des utilisations spécifiques, mais ca manque de polyvalence.

 

ça n'a rien d'un délire. Le 30" est un écran parfait pour travailler. De plus son pitch est le seul qui est supportable et du niveau de ce qu'offrait les CRTs.

 

Les 22" ont des pitchs bien trop gros. Et je ne parle même pas des pitchs des 26" ou 28".

 

Si tes collègues supportent même pas le 1680*1050 sur un 22" c'est qu'ils ont des problèmes aux yeux car c'est clairement pas une grosse réso pour ce type d'écran. Sans parler de la réso complètement inapproprié pour du traitement de texte.

 

enfin tu oublies qu'il y a même pas 10 ans la moyenne des écrans c'était 15 ou 17 pouces. aujourd'hui on est à 22-24". Dans 5-6 ans on sera surement à 28"-30". C'est juste l'évolution.

 

Et un 30" ça convient parfaitement pour un bureau surtout avec son pitch idéal. Je l'ai même testé quand j'étais en thèse il y a 4 ans et je peux te dire que c'est nickel pour travailler dessus. Pour jouer ce sera pareil d'ici 3-4 ans.

 


Je me souviens de gens comme toi ou des vendeurs d'informatiques qui me disait il y a 10 ans que c'était ridicule d'acheter plus haut que le 19" pour jouer et que ça servirait à rien pour les particuliers. Et bien on a vu le contraire.

 
alex91650 a écrit :

C'est clair qu'on va pas monter au dessus des 24" et 26" déjà très grands. Mais la résolution peut changer tout en gardant la même taille.


et non c'est pas clair. Ce qu iest clair surtout c'est qu'on va monter en taille tout en montant en réso.

 

La mode c'est aux grands écrans avec des résos faibles par rapport aux écrans ce qui était la mode inverse il  y a 10 ans. Donc je doute qu'on y revienne.

 


une seule chose est sure: les écrans sont encore voués à grandir en taille ça c'est sure et certain. Quand o na connu un 30" c'est quasi impossible de revenir à des plus petits écrans pour travailler s'entend car pour jouer il va falloir attendre des cartes graphiques capables de tenir le 2500*1600 sans problème et sans devoir vendre un rein. ça devrait être le cas d'ici 2 ou 3 ans voir peut être moins.

Message cité 1 fois
Message édité par dragonlore le 22-08-2009 à 13:02:13
n°7082274
jesaipacki
Posté le 22-08-2009 à 12:57:36  profilanswer
 

Est-ce que vous pensez que les fabricants vont nous sortir des écrans 26" avec une résolution supérieure à 1920*1200?

n°7082288
Profil sup​primé
Posté le 22-08-2009 à 13:05:38  answer
 

Moi je suis pas prêt de lâcher mon 24" 1920x1200
A moins que ce soit lui qui me lâche :d


Message édité par Profil supprimé le 22-08-2009 à 13:17:59
n°7082298
jesaipacki
Posté le 22-08-2009 à 13:13:36  profilanswer
 

Moi je suis toujours sur mon 22" (1680*1050) de qualité.
Si je change, je prendrai surement un 26" pour le remplacer mais j'attends la généralisation du 120Hz.

n°7082300
Khaomaster
Posté le 22-08-2009 à 13:16:00  profilanswer
 

dragonlore a écrit :


 :??:  :??:  :??:  :??:  :??:  :??:  :??:

 

ne sois pas si sure de toi. Va falloir t'y faire.

 
Citation :

Là je crois que te tu rends pas compte de la taille d'un 30 pouces, c'est bien pour jouer pour servir d'affichage secondaire pour des présentations, mais personne ne va travailler sur un écran pareil, au boulot, la plus part de mes collègues qui ont des 22 trouvent déjà cela trop grand pour travailler sur toutes les taches bureautiques, pour eux l'idéal c'est le 19 16/10, voire même 5/4. Sans compter qu'ils ne supportent pas la résolution de base de leur 22 (le 1680x1050), ils utilisent tous des résolutions plus basses.

 

Il faut arrêter le délire sur l'augmentation de la résolution et des tailles des dalles, en vous écoutant on finira pas avoir des murs écran en 19000x12000, mais il faudra se mettre à 20 ou 30m de distance pour l'utiliser sans s'exploser les yeux. Les grands écrans et grosses résolution c'est bien mais pour des utilisations spécifiques, mais ca manque de polyvalence.

 

ça n'a rien d'un délire. Le 30" est un écran parfait pour travailler. De plus son pitch est le seul qui est supportable et du niveau de ce qu'offrait les CRTs.

 

Les 22" ont des pitchs bien trop gros. Et je ne parle même pas des pitchs des 26" ou 28".

 

Si tes collègues supportent même pas le 1680*1050 sur un 22" c'est qu'ils ont des problèmes aux yeux car c'est clairement pas une grosse réso pour ce type d'écran. Sans parler de la réso complètement inapproprié pour du traitement de texte.

 

enfin tu oublies qu'il y a même pas 10 ans la moyenne des écrans c'était 15 ou 17 pouces. aujourd'hui on est à 22-24". Dans 5-6 ans on sera surement à 28"-30". C'est juste l'évolution.

 

Et un 30" ça convient parfaitement pour un bureau.

 

J'étais sur que tu me sortirais des arguments de ce genre.

 

Et non mes collègues n'ont pas de problèmes de vu, c'est juste que passer 8h à travailler devant un écran trop grand ca fatigue les yeux. Surtout quand le pitch est trop petit pour eux. Pour le 22 moi je trouve que le 1680x1050 est adapté, par contre le 1920x1080 c'est du délire, c'est bien trop petit pour travailler plus d'une heure dessus sans coller son nez à l'écran au bout d'un moment.

 

Et non j'oublie pas qu'on était à 15-17, j'en ai eu de ces écrans là, des TFT, des CRT. Et j'ai aujourd'hui des 22. Et non je ne pense pas que malgré l'évolution tout le monde va avoir des 28-30. Ces écrans comme je l'ai dis c'est bien pour des gamers ou des présentations. Mais t'imagine la mère de famille surfer sur un 30, c'est du délire, demande à des gens normaux ce qu'il en pense et pas à des accros du hardware, tu verras leur réponse, elle est toute différente de la tienne et c'est celle là dont les constructeurs d'écran vont tenir compte.  Certes le prix des 28-30 va baisser, mais les gens ne vont pas en acheter plus pour leur usage quotidien. Un 22 ca prend déjà de la place sur un bureau  alors un 30 si c'est pas pour regarder des films ou jouer je vois pas l'intérêt. Tu ne verras jamais dans les entreprises des secrétaires ou autres faisant un usage normal d'un PC travailler sur un 30 pouces. Tu peux travailler sur 30 mais c'est pour des usages très particulier.

 

Quant aux pitch, moins j'ai l'impression inverse ils deviennent bien trop petit, les pitch des 22 normaux sont très bien, il ne faut pas les changer, si tu les diminues tu augmentes la fatigue oculaire, c'est bien de d'avoir un grand espace de travail mais faut pas non plus déconner sur la taille des éléments affichés, si c'est trop petit c'est pas très pratique non plus, ca devient vite fatiguant. Essaye de bosser sur un 24 pouces pendant 8h par jour pendant une semaine en faisant que de la bureautique et touche pas aux fonctions zoom des polices, ensuite fait la même chose pendant une autre semaine avec un 22, puis un 19 5/4. Tu verras très vite que ce que tu préfèreras ce sera le 19 ou le 22 parce que ce sera moins fatiguant.

Message cité 2 fois
Message édité par Khaomaster le 22-08-2009 à 13:48:55
n°7082309
Profil sup​primé
Posté le 22-08-2009 à 13:23:51  answer
 

Ah ça, c'est sûr que j'aurais préféré la même résolution mais en 26"
Mais c'était pas le même prix :o
Bon, la différence n'aurait pas été énorme http://img1.lesnumeriques.com/images/1/news/2007/01/gif2.jpg :spamafote:!

n°7082345
Profil sup​primé
Posté le 22-08-2009 à 13:41:56  answer
 

http://valid.canardpc.com/cache/banner/512961.png [:obanon]...................

n°7082348
Ramichou
Posté le 22-08-2009 à 13:43:51  profilanswer
 

Khaomaster a écrit :


Mais t'imagine la mère de famille surfer sur un 30, c'est du délire, demande à des gens normaux ce qui s'en pense et pas à des accros du hardware, tu verras leur réponse, elle est toute différente de la tienne et c'est celle là dont les constructeurs d'écran vont tenir compte.


 
L'expérience montre que ce n'est pas l'avis du client qui compte, mais ce qu'il achète. Or nous voyons qu'avec les écran brillants, qui ont beau être inconfortable à l'usage, le rendu d'une image dans un magasin étant plus flashy, Mme michu va acheter celui-là.
 
Cette histoire est à mon avis parfaitement transposable sur les tailles de pitch et d'écran. Pour ma part, un écran 19", c'est maximum 1440*900, un 22" c'est maximum 1680. Maintenant, une image présentée en magasin sera plus jolie avec un pitch plus petit (pas beaucoup mais bon) et le chiffre le plus gros attire le CONsomateur, tout en lui donnant l'impression qu'il s'y connait...
 
Ne t'étonne pas alors de voir des 22" en 1920, c'est ridicule, ca fait mal au yeux, mais le chiffre est plus gros donc ca vend plus, c'est con mais c'est comme ca.
 
Travailler sur un écran 30" au plus serait un gain de confort si et seulement si le pitch était plus gros, afin de prendre plus de recul. Or c'est l'inverse qui se passera.

n°7082365
Profil sup​primé
Posté le 22-08-2009 à 13:50:33  answer
 

http://www.izipik.com/images/20080924/m50j7xm7li5rm8f7qj-aaaaaa2.gif
Quand un dessin vaut tous les discours du monde ^^

n°7082376
Khaomaster
Posté le 22-08-2009 à 13:58:08  profilanswer
 

Ramichou a écrit :


 
L'expérience montre que ce n'est pas l'avis du client qui compte, mais ce qu'il achète. Or nous voyons qu'avec les écran brillants, qui ont beau être inconfortable à l'usage, le rendu d'une image dans un magasin étant plus flashy, Mme michu va acheter celui-là.
 
Cette histoire est à mon avis parfaitement transposable sur les tailles de pitch et d'écran. Pour ma part, un écran 19", c'est maximum 1440*900, un 22" c'est maximum 1680. Maintenant, une image présentée en magasin sera plus jolie avec un pitch plus petit (pas beaucoup mais bon) et le chiffre le plus gros attire le CONsomateur, tout en lui donnant l'impression qu'il s'y connait...
 
Ne t'étonne pas alors de voir des 22" en 1920, c'est ridicule, ca fait mal au yeux, mais le chiffre est plus gros donc ca vend plus, c'est con mais c'est comme ca.
 
Travailler sur un écran 30" au plus serait un gain de confort si et seulement si le pitch était plus gros, afin de prendre plus de recul. Or c'est l'inverse qui se passera.


 
Tu as pas tort, mais j'espère que malgré leur manque de connaissance les consommateurs de base se feront avoir qu'une fois mais pas deux face à ce type de politique. Aujourd'hui on peut se renseigner plus facilement avec le net qu'il y a dix ans. D'accord c'est utopique, mais bon on sait jamais.

n°7082378
Khaomaster
Posté le 22-08-2009 à 14:00:33  profilanswer
 


 
C'est bien ce qu'on dit les 19 et 22 normaux sont les plus adaptés pour des usages à dominante bureautique.
 
Sinon personnellement je testerai bien le 27 même si ca risque d'être bien trop gros pour mon bureau, il va falloir se mettre à 2 mètres de l'écran :D

n°7082385
dragonlore
Posté le 22-08-2009 à 14:09:56  profilanswer
 

Khaomaster a écrit :

 

J'étais sur que tu me sortirais des arguments de ce genre.

   

Quant aux pitch, moins j'ai l'impression inverse ils deviennent bien trop petit, les pitch des 22 normaux sont très bien, il ne faut pas les changer, si tu les diminues tu augmentes la fatigue oculaire, c'est bien de d'avoir un grand espace de travail mais faut pas non plus déconner sur la taille des éléments affichés, si c'est trop petit c'est pas très pratique non plus, ca devient vite fatiguant. Essaye de bosser sur un 24 pouces pendant 8h par jour pendant une semaine en faisant que de la bureautique et touche pas aux fonctions zoom des polices, ensuite fait la même chose pendant une autre semaine avec un 22, puis un 19 5/4. Tu verras très vite que ce que tu préfèreras ce sera le 19 ou le 22 parce que ce sera moins fatiguant.

 

regarde ce qu'à posté

 

tu vois bien que c'est l'inverse de ce que tu dit. Le pitch avec les écrans d'aujourd'hui a fortement grossit. Seul les 30" ont des pitchs comparable à ce que peuvent offrir un CRTs.

 

Bon i l ya maintenant les 23" lcd qui inversent un peu cette tendance mais c'est pas encore la majorité des écrans.

 

un 22" a un pitch de 0.282 ce qui est énorme. Un pitch correct c'est 0.25.
je ne parle même pas des 27" et 289" qui eux ont des pitchs idéal pour le myopes tellement les caractères doivent être gros.

 


et pour info, je bosse depuis 10 ans sur un 19"crt en 1600*1200 et souvent pendant plus de 8 heures par jour. Quand je suis sur mon protable j'étais avant en 1680*1050 sur un 15"4 et maintenant 1680*1050 sur un 17" et je trouve ça déjà trop gros. Quand je rédigeais ma thèse j'y étais 15 heures par jour sur mon 15"4 en 1680*1050 et jamais eu de fatigue. Et bien sur jamais de zoom, je trouve ça tellement moche.

 


Donc je confirme tu as un corps qui ne supporte pas les petits pitchs mais ça n'est que ton cas, pas forcément celui des autres. Il ne faut pas faire de généralités de son cas. Moi j'ai jamais dit que le mien était aussi une généralité.
 Je fait juste que dire que vu l'évolution des écrans, on passera surement bientôt au 30" de moyenne. Après j'ai jamais dit qu'il n'y aura que des 30" mais ça va se démocratiser.
 

 
Citation :

Et non mes collègues n'ont pas de problèmes de vu, c'est juste que passer 8h à travailler devant un écran trop grand ca fatigue les yeux. Surtout quand le pitch est trop petit pour eux. Pour le 22 moi je trouve que le 1680x1050 est adapté, par contre le 1920x1080 c'est du délire, c'est bien trop petit pour travailler plus d'une heure dessus sans coller son nez à l'écran au bout d'un moment.


si quand même un peu vu qu'ils trouvent un pitch gros trop petit pour eux.

 

Déjà les portables en 17" qui ont une réso de 1280*800, c'est tellement énorme qu'on se croirait au temps du 320*200 sur les 15".

 


Citation :

Et non j'oublie pas qu'on était à 15-17, j'en ai eu de ces écrans là, des TFT, des CRT. Et j'ai aujourd'hui des 22. Et non je ne pense pas que malgré l'évolution tout le monde va avoir des 28-30. Ces écrans comme je l'ai dis c'est bien pour des gamers ou des présentations. Mais t'imagine la mère de famille surfer sur un 30, c'est du délire, demande à des gens normaux ce qu'il en pense et pas à des accros du hardware, tu verras leur réponse, elle est toute différente de la tienne et c'est celle là dont les constructeurs d'écran vont tenir compte.  Certes le prix des 28-30 va baisser, mais les gens ne vont pas en acheter plus pour leur usage quotidien. Un 22 ca prend déjà de la place sur un bureau  alors un 30 si c'est pas pour regarder des films ou jouer je vois pas l'intérêt. Tu ne verras jamais dans les entreprises des secrétaires ou autres faisant un usage normal d'un PC travailler sur un 30 pouces. Tu peux travailler sur 30 mais c'est pour des usages très particulier.


ça c'est ton avis.

 

Pour travailler il  y a plein de domaines ou le 30" est le mieux.
Déjà pour tout ce qui est traitement de texte ou tableur, un plus grand écran avec une résolution adapté c'est la possibilité de voir plus sans devoir scroller et quand tu manipules des textes de plusieurs dizaines de pages ça n'a pas de prix, c'est même obligatoire sous peine de fatigue.

 

Pour ceux qui font du graphisme idem car ils peuvent en même temps afficher une grande image sans problème et toute l'interface.

 

De plus tu peux afficher plus de choses vu la surface étendue et si tu doit gérer plusieurs fenêtres comme le font certains programmeurs c'est vraiment un gros plus.

Message cité 2 fois
Message édité par dragonlore le 22-08-2009 à 14:12:43
n°7082396
Gein
Posté le 22-08-2009 à 14:15:19  profilanswer
 
n°7082406
Profil sup​primé
Posté le 22-08-2009 à 14:19:51  answer
 


Oui car cela dépend de la qualité de l'écran
J'ai un vieux 17" qui a sensiblement le même pitch que mon 24"
Le 17 est éteint depuis le jour où j'ai installé le 24 => qualité

n°7082429
Ramichou
Posté le 22-08-2009 à 14:33:42  profilanswer
 

dragonlore a écrit :


et pour info, je bosse depuis 10 ans sur un 19"crt en 1600*1200 et souvent pendant plus de 8 heures par jour.


 
[:ripthejacker:3]

n°7082436
Silou78
Posté le 22-08-2009 à 14:38:44  profilanswer
 

Et ne pas oublier que le tableau posté plus haut n'est valable que pour les LCD...
Un 17" CRT n'a jamais fait 17" de diagonale au niveau de la surface visible... donc le pitch est forcément plus petit encore...
 
En LCD, la majorité des gens de mon entourage professionnel et personnel préfère des écrans avec un pitch compris entre 0.26 et 0.28.
 
Ceux qui peuvent travailler à longueur de journée avec un pitch plus petit, tant mieux pour eux (quoiqu'on en reparlera peut-être dans 10 ou 20 ans), mais il semble que c'est loin d'être la majorité.
 
Y'a qu'à voir tous mes collèques (dans 2 sociétés différentes) qui pestent quand ils recoivent un nouveau portable avec un pitch ridicule... ils sont obligés de changer la taille des polices sous windows mais comme c'est encore mal géré par XP et Vista...grrrr....
 
Avec 7 ce sera plus pratique, car là l'interface se met vraiment à l'échelle suivant la taille de police sélectionnée... donc a part les logiciels qui utilisent des polices avec des tailles écrites "en dur", ça commence à être plutôt pas mal.
 
C'est sûr qu'un écran avec un pitch petit (dont on ne distingue pas les pixels) est sympatique mais si et seulement si l'interface de l'OS et des logiciels permet d'ajuster la taille d'affichage des polices pour s'adapter à toutes les vues. Donc vive 7 ! :D


---------------
[TU] Asus ROG PG279QM[Test] Rad. αcool et EK pour SSD M.2[TU] HP ZR2440w[TU] Shuttle D10
n°7082470
Khaomaster
Posté le 22-08-2009 à 15:12:46  profilanswer
 

dragonlore a écrit :

 

regarde ce qu'à posté

 
dragonlore a écrit :


tu vois bien que c'est l'inverse de ce que tu dit. Le pitch avec les écrans d'aujourd'hui a fortement grossit. Seul les 30" ont des pitchs comparable à ce que peuvent offrir un CRTs.

 

Bon i l ya maintenant les 23" lcd qui inversent un peu cette tendance mais c'est pas encore la majorité des écrans.

 

un 22" a un pitch de 0.282 ce qui est énorme. Un pitch correct c'est 0.25.
je ne parle même pas des 27" et 289" qui eux ont des pitchs idéal pour le myopes tellement les caractères doivent être gros.

 


et pour info, je bosse depuis 10 ans sur un 19"crt en 1600*1200 et souvent pendant plus de 8 heures par jour. Quand je suis sur mon protable j'étais avant en 1680*1050 sur un 15"4 et maintenant 1680*1050 sur un 17" et je trouve ça déjà trop gros. Quand je rédigeais ma thèse j'y étais 15 heures par jour sur mon 15"4 en 1680*1050 et jamais eu de fatigue. Et bien sur jamais de zoom, je trouve ça tellement moche.

 


Donc je confirme tu as un corps qui ne supporte pas les petits pitchs mais ça n'est que ton cas, pas forcément celui des autres. Il ne faut pas faire de généralités de son cas. Moi j'ai jamais dit que le mien était aussi une généralité.
 Je fait juste que dire que vu l'évolution des écrans, on passera surement bientôt au 30" de moyenne. Après j'ai jamais dit qu'il n'y aura que des 30" mais ça va se démocratiser.
 

 
Citation :

Et non mes collègues n'ont pas de problèmes de vu, c'est juste que passer 8h à travailler devant un écran trop grand ca fatigue les yeux. Surtout quand le pitch est trop petit pour eux. Pour le 22 moi je trouve que le 1680x1050 est adapté, par contre le 1920x1080 c'est du délire, c'est bien trop petit pour travailler plus d'une heure dessus sans coller son nez à l'écran au bout d'un moment.


si quand même un peu vu qu'ils trouvent un pitch gros trop petit pour eux.

 

Déjà les portables en 17" qui ont une réso de 1280*800, c'est tellement énorme qu'on se croirait au temps du 320*200 sur les 15".

 


Citation :

Et non j'oublie pas qu'on était à 15-17, j'en ai eu de ces écrans là, des TFT, des CRT. Et j'ai aujourd'hui des 22. Et non je ne pense pas que malgré l'évolution tout le monde va avoir des 28-30. Ces écrans comme je l'ai dis c'est bien pour des gamers ou des présentations. Mais t'imagine la mère de famille surfer sur un 30, c'est du délire, demande à des gens normaux ce qu'il en pense et pas à des accros du hardware, tu verras leur réponse, elle est toute différente de la tienne et c'est celle là dont les constructeurs d'écran vont tenir compte.  Certes le prix des 28-30 va baisser, mais les gens ne vont pas en acheter plus pour leur usage quotidien. Un 22 ca prend déjà de la place sur un bureau  alors un 30 si c'est pas pour regarder des films ou jouer je vois pas l'intérêt. Tu ne verras jamais dans les entreprises des secrétaires ou autres faisant un usage normal d'un PC travailler sur un 30 pouces. Tu peux travailler sur 30 mais c'est pour des usages très particulier.


ça c'est ton avis.

 

Pour travailler il  y a plein de domaines ou le 30" est le mieux.
Déjà pour tout ce qui est traitement de texte ou tableur, un plus grand écran avec une résolution adapté c'est la possibilité de voir plus sans devoir scroller et quand tu manipules des textes de plusieurs dizaines de pages ça n'a pas de prix, c'est même obligatoire sous peine de fatigue.

 

Pour ceux qui font du graphisme idem car ils peuvent en même temps afficher une grande image sans problème et toute l'interface.

 

De plus tu peux afficher plus de choses vu la surface étendue et si tu doit gérer plusieurs fenêtres comme le font certains programmeurs c'est vraiment un gros plus.

 

Oui, j'ai vu, mais je te parle de la tendance récente à mettre du 1920x1080 dans des 22 et autres truc de fou comme du 1920x1200 sur des 17 de portables... Ca ce sont les tendances récentes des deux dernières années. L'augmentation du pitch avec les 19 et 22 c'était il y a déjà 4-6 ans c'est vieux maintenant, et c'était pas plus mal. Même si je suis d'accord là aussi il y a des limites à ne pas dépasser 0.285 surement.

 

En plus tu dois avoir des yeux exceptionnel parce que supporter un CRT 19 en 1600x1200 pendant plus de 8h faut pouvoir le faire, moi j'en me jette par la fenêtre après une heure :D (il y a rien de plus fatiguant pour moi que d'utiliser un CRT). Tu ne peux effectivement pas généraliser ton cas, et c'est sur que vu tes yeux le 30 ca doit être bien. En tout moi je connais bien plus de personnes qui sont comme moi, c'est à dire qui ont une fatigue oculaire rapide en restant des heures à taper du texte sur un écran avec un faible pitch, que de personne comme toi qui adorent les gros écrans, qui ne se fatiguent pas devant ces monstres, et à qui les faibles pitch ne posent pas de problème (j'en connais qu'un seul d'ailleurs et il adore son 17 pouces en 1920x1200 et ne le changerait pour rien au monde).

 

Et je persiste, le 30 ne sera jamais l'écran de PC moyen vendu en magasin, c'est trop gros et pas assez pratique. Tu ne feras pas changer d'avis, tout comme tu ne changeras pas d'avis, alors restons en là.

 

Mes collègues sont parfaitement normaux et ont une excellente vue, c'est pas parce que tu as une vue exceptionnelle que tu dois te permettre de penser qu'ils en ont une déficiente.

 

Pour ton avis sur l'utilisation du 30 tu sais ce que j'en pense, je vais pas encore me répéter. Je connais le bénéfice de l'affichage sur plusieurs fenêtre, ca marche très bien sur un 22 wide. Le 30 pour du graphisme j'ai pas de doute là dessus, mais pas en bureautique.

Message cité 1 fois
Message édité par Khaomaster le 22-08-2009 à 15:14:10
n°7082535
ilyama999
Posté le 22-08-2009 à 16:06:38  profilanswer
 

Question de noob inside: c'est quoi le pitch d'un écran?  :??:  
Je sais que j'aurais pu chercher mais je suis persuadé que la réponse va servir à d'autres... Je me trompe?
 
Merci  ;)

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  58  59  60  ..  73  74  75  76  77  78

Aller à :
 

Sujets relatifs
[Topic Unique] ATI Radeon HD 4800 Series (RV790 inside)[Topic Unique] ATI Radeon 4700 Series (RV740 inside)
question sur nouvelle configComment réduire le bruit d'une nouvelle configuration ?
Nouvelle config pour bien débuter l'année :)[ topic unique ] les alimentations be quiet!
cherche conseils pour nouvelle config[HELP!] Cherche un magasin d'info sur Annecy !
[Topic Unique] Boîtier Silverstone Raven RV01 : mobo orientée à 90° ! 
Plus de sujets relatifs à : [Topic Unique] GT300 // La nouvelle bête de combat nvidia en 40nm


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)