Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3613 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  601  602  603  ..  1004  1005  1006  1007  1008  1009
Auteur Sujet :

Graphical open bar (des infos, des intox, aux extraits de TheInq)

n°4082480
zoldrag
Posté le 18-05-2005 à 23:25:53  profilanswer
 

Reprise du message précédent :

Marc a écrit :

Ah ? Quand on voit le nombre de X800 XL vendue pour 1 6800 GT ...

je parle pas de perf brute ni de vente meme si on me traite de nvidiot parce que je suis pro sli
et que tout simplement je ne nie pas l'evidence que nvidia a une avance technologique sur son concurant
aussis banalisé soit elle est neanmoin bien la
 
puis la x800 xl est venue bien apres la GT c'est comme quant la x800 pro est sortie il n'y avait pas de diff avec la 6800 GT  :lol: et nvidia n'a pas reelement riposté.
le seul point fort de la x800 xl face a la gt c le prix et ca se reduit de plus en plus.
 
dite moi si je me trompe  :)  
 
puis l'avantage reel des sm 3.0 (que ati n'a pas reussis a integré dans son architecture en 0.13 parce que trop gros alors qu'en 0.9 oui) c'est les vertex shader et l'instruction supplementaire qui permettra de standardiser le displacement mapping et ce n'est pas rien car ca sera utilisé
un high dynamic range ou le jeu est jouable une fois activé  
et un sli pour l'upgrade de son pc et le sli ne se limitera plus a 2 cartes selon nvidia et c'est pour bientot
et d'autre trucl encore sur la limitation des shader,le geometry instancing (le vrai)
 
vous allez me dire c qu'une instruction pour les vertex mais dans unreal engine 2006 ca va se sentir cf ce epic disait pour l'avoir testé sur les 2 cartes.
 
et le reste c que des babiole ...
 
mon point de vue a moi c qu'une 4200 suffit pour tout mais quant il sagit de renouveler son matos je prend le plus avancer technologiquement.


Message édité par zoldrag le 18-05-2005 à 23:34:21
mood
Publicité
Posté le 18-05-2005 à 23:25:53  profilanswer
 

n°4082505
tridam
Profil : Equipe HardWare.fr
Posté le 18-05-2005 à 23:34:49  profilanswer
 

zoldrag a écrit :

...blabla...
 
dite moi si je me trompe  :)  
 
...blabla...


 
Tu te trompes  :D

n°4082510
zoldrag
Posté le 18-05-2005 à 23:36:33  profilanswer
 

tridam a écrit :

Tu te trompes  :D


 
 
j'en etais sure  :D

n°4082528
mareek
Et de 3 \o/
Posté le 18-05-2005 à 23:40:21  profilanswer
 

le_noob a écrit :

Tu oublies que la PS2 était sortie 2 ans avant la xbox et que MS était nouveau sur le secteur.
Je suis près à parier que tout le monde va se jeter sur la xbox, du coup il restera moins de place pour la PS3.


la XBox est sortie un an seulement après la PS2. Et la dreamcast qui est sortie avant la PS2 a pourtant fait un flop assez monumetal, le fait de sortir avant n'est pas forcement un avantage. Pour continuer dans les comparaisons, Sony était aussi un petit nouveau quand ils ont sortis la playstation, ça ne les a pas empêcher de devenir le leader incontesté des consoles en quelques années.


---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
n°4082534
nick_olas
Antiquaire en VGA :o
Posté le 18-05-2005 à 23:42:42  profilanswer
 

zoldrag a écrit :


puis l'avantage reel des sm 3.0 (que ati n'a pas reussis a integré dans son architecture en 0.13 parce que trop gros alors qu'en 0.9 oui)  
...
et un sli pour l'upgrade de son pc et le sli ne se limitera plus a 2 cartes selon nvidia et c'est pour bientot


Quoted pour la postérité :o


Message édité par nick_olas le 18-05-2005 à 23:44:51
n°4082540
Fouge
Posté le 18-05-2005 à 23:45:19  profilanswer
 

zoldrag a écrit :

blabla super objectif...
 
mon point de vue a moi c qu'une 4200 suffit pour tout mais quant il sagit de renouveler son matos je prend le plus avancer technologiquement.

D'un point de vue technologique, les GeForceFX sont plus avancées que les X800 et elles sont moins cher! Alors pourquoi vouloir les oublier? Les FX ne sont pas mortes [:dawao]


Message édité par Fouge le 18-05-2005 à 23:54:43
n°4082549
zoldrag
Posté le 18-05-2005 à 23:47:56  profilanswer
 

Fouge a écrit :

D'un point de vue technologique, les GeForceFX sont plus avancées que les X800 et elles sont moins cher! Alors pourquoi vouloir les oublier? Les FX ne sont pas mortes [:dawao]


 
 
les geforce fx c'est du :vomi: voila pkois  :na: pas les geforce 6,ni les x800 ni les 9700  :D
 
et oui je suis objectif dans ce que j'ai dis  :p en quoi est ce que je ne l'ai pas été?


Message édité par zoldrag le 18-05-2005 à 23:50:37
n°4082576
nick_olas
Antiquaire en VGA :o
Posté le 18-05-2005 à 23:53:21  profilanswer
 

Fouge a écrit :

D'un point de vue technologique, les GeForceFX sont plus avancées que les X800 et elles sont moins cher! Alors pourquoi vouloir les oublier? Les FX ne sont pas mortes [:dawao]


 
Je plussoie:
http://www.hardware.fr/medias/photos_news/00/07/IMG0007779.gif
http://www.hardware.fr/articles/494/page3.html
Une GeForce FX 5200 est plus avancée qu'une X850XT :o  
Cours en acheter une Zoldrag!
 
Je vois que tu es de Liege (de Grivegnée en plus la honte :d). Je te recommande LNI ou MicroFi  [:petrus75]


Message édité par nick_olas le 18-05-2005 à 23:59:27
n°4082584
zoldrag
Posté le 18-05-2005 à 23:55:01  profilanswer
 

et vous la ramenez encore avec vos fx pfffff comme si vous ne saviez pas que je parlais des 6800.
 
moi a l'epoque des fx j'avais une 9700 :fuck:
 
si vous comparez la serie 6 a la 5 c pas moi qui suis inobjectif mais vous !!!
 
 


Message édité par zoldrag le 18-05-2005 à 23:56:48
n°4082592
asmomo
Modérateur
Posté le 18-05-2005 à 23:56:22  profilanswer
 

zoldrag a écrit :

le sli ne se limitera plus a 2 cartes selon nvidia et c'est pour bientot
et d'autre trucl encore sur la limitation des shader,le geometry instancing (le vrai)


 
Cool, bientôt le SLI de 4 CG  :love:

mood
Publicité
Posté le 18-05-2005 à 23:56:22  profilanswer
 

n°4082600
Fouge
Posté le 18-05-2005 à 23:58:13  profilanswer
 

C'est du déjà vu avec des 9700Pro :o

n°4082618
zoldrag
Posté le 19-05-2005 à 00:01:40  profilanswer
 

ouais mais pour les pro et sur une seul carte

n°4082623
nick_olas
Antiquaire en VGA :o
Posté le 19-05-2005 à 00:02:51  profilanswer
 

Non, c'était sur deux cartes :sarcastic:
 
edit chrisleurn: si et je le prouve  
http://cimg.163.com/catchpic/8/85/85F26EF017CB21ACE266816802AC5779.jpg  
c'est 2 cartes de 2 GPU.
 
Franchement Zoldrag je ne comprends pas que tu puisses t'imaginer que le SLI sur 4 cartes serve à autre chose qu'à une utilisation pro :/


Message édité par nick_olas le 19-05-2005 à 00:11:38
n°4082627
chrisleurn
Hardcore Will Never Die !
Posté le 19-05-2005 à 00:04:03  profilanswer
 

nick_olas a écrit :

Non, c'était sur deux cartes :sarcastic:


Bin non :heink:

n°4082634
zoldrag
Posté le 19-05-2005 à 00:06:55  profilanswer
 

meme depuis la 8500 ca existe
 
http://www.smp-fr.com/img/news/cae4x8500.jpg


Message édité par zoldrag le 19-05-2005 à 00:07:11
n°4082639
blazkowicz
Posté le 19-05-2005 à 00:09:01  profilanswer
 

déjà fait par une autre compagnie avec quatre GPU sur une carte :whistle:

n°4082647
chrisleurn
Hardcore Will Never Die !
Posté le 19-05-2005 à 00:10:43  profilanswer
 

blazkowicz a écrit :

déjà fait par une autre compagnie avec quatre GPU sur une carte :whistle:


Je me demandais quand tu allais la sortir celle-là [:joce]

n°4082648
zoldrag
Posté le 19-05-2005 à 00:10:52  profilanswer
 

nick_olas a écrit :

Non, c'était sur deux cartes :sarcastic:
 
edit chris: si et je le prouve  
http://cimg.163.com/catchpic/8/85/ [...] AC5779.jpg  
c'est 2 cartes de 2 GPU.
 
Franchement Zoldrag je ne comprends pas que tu puisses t'imaginer que le SLI sur 4 cartes serve à autre chose qu'à une utilisation pro :/


 
 
c simple tu achettes pas tes cartes a leur sortie mais plus tard (upgrade) mais tu fais surement partie de ceux qui disent que c'est impossible aussis  :whistle:

n°4082651
nick_olas
Antiquaire en VGA :o
Posté le 19-05-2005 à 00:12:42  profilanswer
 

J'abandonne avec zoldrag et chrisleurn :/ Si quelqu'un a le courage...

n°4082653
Fouge
Posté le 19-05-2005 à 00:12:53  profilanswer
 

Non 2 GPU sur 2 cartes :
 
http://www.tomshardware.fr/images/3d/20050113/pic-simfusion6000.jpg
 
http://www.pcinpact.com/images/bd/news/9035.jpg
 
edit: [:grilled]
Ce sont les simFusion 6000&6500 : http://www.es.com/products/image+g [...] /index.asp


Message édité par Fouge le 19-05-2005 à 00:15:17
n°4082656
chrisleurn
Hardcore Will Never Die !
Posté le 19-05-2005 à 00:13:47  profilanswer
 

nick_olas a écrit :

J'abandonne avec zoldrag et chrisleurn :/ Si quelqu'un a le courage...


Qu'est-ce que j'ai fait :o  
 
PS: j'etait persuadé qu'une carte quadri 9700pro existait sur 1 seul PCB :gratgrat:

n°4082659
Oxygen3
Tears from the moon
Posté le 19-05-2005 à 00:14:30  profilanswer
 

ste monstre quand meme :D


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°4082660
zoldrag
Posté le 19-05-2005 à 00:14:40  profilanswer
 


 
on peux les acheter separement  :whistle: parce que c quant meme le but d'avoir 2 carte  :D


Message édité par zoldrag le 19-05-2005 à 00:16:08
n°4082663
zoldrag
Posté le 19-05-2005 à 00:15:42  profilanswer
 

chrisleurn a écrit :

Qu'est-ce que j'ai fait :o  
 
PS: j'etait persuadé qu'une carte quadri 9700pro existait sur 1 seul PCB :gratgrat:


 
 
rien et moi non plus d'ailleur :D  mechant zoldrag que je suis quant meme   :D


Message édité par zoldrag le 19-05-2005 à 00:16:36
n°4082667
nick_olas
Antiquaire en VGA :o
Posté le 19-05-2005 à 00:19:13  profilanswer
 

Non disons que pour affirmer tes éminentes théories et partager ta science-vérité je préfererais que tu fasses ton topic avec tes copains "TWIMTBP" :o


Message édité par nick_olas le 19-05-2005 à 00:19:43
n°4082674
blazkowicz
Posté le 19-05-2005 à 00:23:10  profilanswer
 

bande de petits joueurs.. c'est moi qui ai la plus grosse!
8 GPU sur une seule carte
 
http://www.pctuning.cz/ilustrace2/soucek/an1_aa8164.jpg
 
http://www.3dfx.ch/gallery/albums/album52/aalchemy_8164_front_l.sized.jpg
 
http://www.3dfx.ch/gallery/albums/album52/aalchemy_8164_rear_l.jpg


Message édité par blazkowicz le 19-05-2005 à 00:23:54
n°4082677
zoldrag
Posté le 19-05-2005 à 00:24:04  profilanswer
 

nick_olas a écrit :

Non disons que pour affirmer tes éminentes théories et partager ta science-vérité je préfererais que tu fasses ton topic avec tes copains "TWIMTBP" :o


 
pour commencer arrete de me chercher comme ca, tu commence a me prendre le choux grave.
ensuite ce n'est pas une theorie mais la realité que ca te plaise ou pas.
 
j'ai encore appris recament que le trueform n'avait jamais existé en hardware a partir des 9700 donc ton displament mapping tu te le met dans le cul
 
 
dis moi si quant tu actives le hdr dans farcy c jouable chez toi  :sleep:  
 
et dis que epic dit des conneries parce que c des nvidiot aussis  :lol:  
 
et pour le geometry instancing c pas moi qui suis contre pour le mettre a partir des sm 2.0 mais microsoft  :na:
 
de presence pc :
 
En pratique les choses sont plus compliquées et pour l’instant ATI ne peut exposer son support du Geometry Instancing que par le biais d’une astuce, tout simplement parce que Microsoft ne souhaite pas que cette fonctionnalité soit exposée par des puces ne gérant pas le Shader Model 3.0.


Message édité par zoldrag le 19-05-2005 à 00:28:13
n°4082683
Fouge
Posté le 19-05-2005 à 00:27:31  profilanswer
 

Blazkowicz> C'est joli l'alignement des puces mémoire :)

n°4082696
nick_olas
Antiquaire en VGA :o
Posté le 19-05-2005 à 00:40:00  profilanswer
 

zoldrag a écrit :

pour commencer arrete de me chercher comme ca, tu commence a me prendre le choux grave.
ensuite ce n'est pas une theorie mais la realité


zoldrag a écrit :


puis l'avantage reel des sm 3.0 (que ati n'a pas reussis a integré dans son architecture en 0.13 parce que trop gros alors qu'en 0.9 oui)  


Mais oui... :sarcastic:  

zoldrag a écrit :


j'ai encore appris recament que le trueform n'avait jamais existé en hardware a partir des 9700 donc ton displament mapping tu te le met dans le cul
 
dis moi si quant tu actives le hdr dans farcy c jouable chez toi  :sleep:  


merci, ça fait 2 ans que je suis au courant. Mais confondre HDR et TrueForm c'est pas mal  [:petrus75]  
 

zoldrag a écrit :


et dis que epic dit des conneries parce que c des nvidiot aussis  :lol:  


Epic ne cache même pas qu'il est nv sponsorisé... :sarcastic: donc c clair, ils vont abonder dans le sens d'ATI
 
Qu'ajouter de plus? [:dams86]


Message édité par nick_olas le 19-05-2005 à 00:42:54
n°4082699
mareek
Et de 3 \o/
Posté le 19-05-2005 à 00:41:44  profilanswer
 

blazkowicz a écrit :

main(){while(1)fork();}

:love:  :love:  :love:  


---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
n°4082708
zoldrag
Posté le 19-05-2005 à 00:45:08  profilanswer
 

c toi qui fondcon tout :lol:
 
c ati , il a dit lui meme que c'etait difficile avec cette finesse de gravure d'integré les sm 3.0
 
 
je confond pas le trueform et le hdr, c'est une autre ligne.
 
 
et enfin c ati qui va se mettre au sm 3.0 et pas epic qui va refaire son moteur  :lol: pour la xbox 360 vaudrait mieux puisque c son moteur


Message édité par zoldrag le 19-05-2005 à 01:00:31
n°4082763
asmomo
Modérateur
Posté le 19-05-2005 à 01:07:57  profilanswer
 

Le SLI a des défauts qui font qu'il ne peut se justifier (dans le cadre du jeu vidéo) que dans l'optique "j'ai le top => je double la mise", autrement dit aujourd'hui 6800GT ou Ultra. Le truc d'upgrader plus tard c'est du vent, car dans tous les jeux ne supportant pas le SLI ta carte seule sera à la rue. Idem avec le SLI de 6600GT. Alors faire du SLI avec 4 cartes, c'est pire que n'importe quoi.

n°4082788
zoldrag
Posté le 19-05-2005 à 01:28:12  profilanswer
 

ben oui dans les jeux pas pris en charge par le sli (pas otpimiser par nvidia) ca sera moin bien qu'une carte + puissante (une 7800 par exemple meme si on ne connais pas les perfs reel. 2 X plus puissante qu'une 6800 je veux bien mais comme d'hab ca sera dans certaines situations , certaines technologies et pas en perf brute) mais si c'est pas optimisé par nvidia c'est qu'il juge cela inutile a vue de ce que le jeu demande en perf
mais il te restera quant meme un AA et un AF a toutes epreuves.
et dans les jeux gourmand qui seront a coup sure pris en charge par le sli, le gain sera tres significatif
et utile moi c un compromis qui me va
 
si on achette une 6800 gt now :
350€  now puis entre 100 et 200€ quant le besoin s'en fera ressentir c'est le top pour moi mais c'est mon avis.
ou alors tu revends ta carte a 350€ (pour prendre le meme contexte), 200€ a tout casser et tu prends l'equivalent en perf du sli a 600€,chacun son choix
 
et pour l'upgrade + tard c pas du vent 2 cartes avec le meme bios et tu es tranquille, meme avec des marques differantes avec un minimum de chance.
et de toute facon y a toujours moyen de faire
 
enfin moi je m'en sent capable  :D


Message édité par zoldrag le 19-05-2005 à 02:37:05
n°4082797
Oxygen3
Tears from the moon
Posté le 19-05-2005 à 01:50:35  profilanswer
 

sentoizen alors :o


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°4082803
zoldrag
Posté le 19-05-2005 à 02:10:32  profilanswer
 

Oxygen3 a écrit :

sentoizen alors :o


 
aucun soucis de mon coté  ;)

n°4082805
Oxygen3
Tears from the moon
Posté le 19-05-2005 à 02:12:13  profilanswer
 

ca n'a pas de sens :o


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°4082811
zoldrag
Posté le 19-05-2005 à 02:39:25  profilanswer
 

Oxygen3 a écrit :

ca n'a pas de sens :o


voila edit j'espere que ca ira mieu la  :)

n°4082813
asmomo
Modérateur
Posté le 19-05-2005 à 02:43:40  profilanswer
 

zoldrag a écrit :

mais si c'est pas optimisé par nvidia c'est qu'il juge cela inutile a vue de ce que le jeu demande en perf
mais il te restera quant meme un AA et un AF a toutes epreuves.


 
Non. On m'a expliqué ici même que des tas de techniques couramment utilisées en 3D empêchent tout SLI. ça veut dire qu'une carte ne fait strictement rien.


Message édité par asmomo le 19-05-2005 à 02:44:05
n°4082815
zoldrag
Posté le 19-05-2005 à 03:04:32  profilanswer
 

oui je sais et c'est a ca que sert les optimisations de nvidia et puis il y a plusieurs mode sli,le mode sfr (voodoo)ou afr ne fonctionnant pas bien dans certain cas a cause de certaines optimisations faite dans le jeux les modes sont bien distinct l'un de l'autre et une certaine forme que culing au niveau driver est appliqué pour permette de faire fonctionner correctement le sli en sfr malgré tout.
donc ca ne peux aller qu'en s'ameliorant et meme pour les futures jeux si les developpeurs exploitent le sli pour la conception meme.
 
et il y en a toujours un qui marchera , de toute facon a ce niveau j'ai confiance en nvidia pour les driver
de presence pc:
AFR :
 
L’avantage de ce mode est qu’il permet une répartition automatique de la charge sur les deux GPU pour tout le pipeline graphique qu’il s’agisse de la géométrie, du triangle setup ou du fillrate.
 
Cette répartition sera d’autant plus efficace que les frames seront indépendants les uns des autres autrement dit que le travail effectué lors d’un frame ne sera pas réutilisé lors des frames suivants comme cela peut être le cas lorsqu’on effectue un rendu dans une texture par exemple.
 
De la même façon certains programmeurs évitent d’effacer le frame buffer avant un rendu pour gagner un peu de performance lorsqu’ils savent que de toute façon le rendu suivant masquera complètement ce qui était stocké précédemment. Le GPU n’a pas une telle connaissance de la scène et ne peut pas faire de supposition. Pour lui si le frame précédent n’a pas été effacé c’est qu’il s’agit peut être d’un algorithme multipasse et qu’il faut donc le conserver. Cela entraîne donc des copies inutiles entre les mémoires des deux cartes pour conserver ce frame buffer et cela bloque le second GPU
 
 
SFR:
 
Cette technique n’introduit cette fois pas de latence supplémentaire et peut fonctionner même lorsque l’application limite explicitement le nombre de frames bufferisés. Toutefois cette technique n’est pas exempte de défauts non plus. Le premier est qu’elle nécessite plus de communications entre les GPU ce qui limite l’accélération offerte. Le deuxième problème concerne l’accélération géométrique.
 
Si l’on regarde les solutions précédentes on se rend compte que le problème a toujours été plus ou moins bien esquivé. En ce qui concerne l’Infinite Reality pas de problème : les cartes s’occuppant de la géométrie et de la rastérization étant indépendantes tous les sommets transformés se retrouvent sur le Vertex Bus accessibles par tous les Raster Manager. En ce qui concerne la Voodoo2 c’est encore plus simple : le chipset de 3dfx étant dépourvu d’accélération géométrique la question n’a même pas lieu d’être. Si l’on regarde la Naomi 2 là encore Sega a évité le problème : un seul chip géométrique alimente les deux chips PowerVR. Approche imitée par 3DLabs avec sa Realizm 800. Si le P20 dispose bien de vertex shaders ces derniers se retrouvent tout simplement désactivés sur la Realizm 800, ils sont remplacés par un seul VSU, un chip séparé qui se charge d’effectuer les transformations et d’alimenter les 2 VPU. Ces derniers voient du même coup leur rôle se limiter à la rastérization. Cette solution permet certes à 3DLabs d’augmenter la puissance géométrique (le VSU dispose de deux fois plus d’unités géométriques que le VPU) mais à quel prix ! De plus elle ne peut être appliquée par nVidia qui doit pour sa part composer avec deux cartes dont il ne peut court-circuiter une partie du pipeline pour la faire effectuer par un autre chip.
 
On a donc longtemps pensé que la puissance géométrique ne serait pas augmentée en SFR : les mêmes calculs étant dupliqués sur chacun des GPU. Toutefois il semble finalement qu’une forme de culling soit appliqué au niveau du driver pour éviter de dupliquer entièrement le traitement de tous les sommets sur chaque GPU. nVidia reconnaît cependant que la technique a ses limites et que la charge ne peut être répartie totalement équitablement entre les GPU. Difficile d’effectuer des prédictions sur l’efficacité de cette méthode tant nVidia préfère rester discret sur le sujet : tout juste sait on qu’elle existe et qu’elle devrait s’affiner progressivement avec les nouvelles versions de drivers. Malgré tout dans les scènes limitées par la géométrie l’AFR se montrera plus efficace que le SFR.
 
Ce défaut ne rend toutefois pas le SFR inintéressant pour autant, la tendance étant de reporter de plus en plus la charge au niveau des pixels plutôt qu’au niveau des sommets, ce n’est pas nous qui le disons mais Tim Sweeney (chef de projet sur de l'Unreal Engine


Message édité par zoldrag le 19-05-2005 à 03:31:56
n°4082831
mimychatmi​aou
Building Better Worlds
Posté le 19-05-2005 à 06:15:41  profilanswer
 

magic-sim a écrit :

Mimy, t'(as même pas réagi à mes réponses de l'autre jour ni à la photo, snirfl :'(


 
dsl je me denerdzifie a une vitesse folle ces derniers temps :sweat:  
 
jsuis hyper pressé le matin et crevé le soir. donc rdv ce WE :D


---------------
Le Luxembourg c'est comme le Mordor, plus tu t'en approches plus le ciel s'assombrit.
n°4082949
le_noob
Posté le 19-05-2005 à 09:54:08  profilanswer
 

mareek a écrit :

la XBox est sortie un an seulement après la PS2. Et la dreamcast qui est sortie avant la PS2 a pourtant fait un flop assez monumetal, le fait de sortir avant n'est pas forcement un avantage. Pour continuer dans les comparaisons, Sony était aussi un petit nouveau quand ils ont sortis la playstation, ça ne les a pas empêcher de devenir le leader incontesté des consoles en quelques années.


2000 pour la PS2, 2002 pour la xbox
 
Ouais mais parcequ'en face ça commençait à se planter.  :o  
 
 
La xbox s'en est sorti plutôt pas mal sur ces 3 dernières années. Et sortir une nouvelle console si rapidement est forcément lié à une stratégie pour accélérer les sortie de nouvelles technos pour que les concurents s'épuisent dans cette course qu'ils ne pourront pas suivre.
De plus Sony est mal financièrement.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  601  602  603  ..  1004  1005  1006  1007  1008  1009

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Demande infos] Top AchatComment imprimer les infos du bios ?
Quel carte Open Gl la mieux adapte a 3dsMAXBesion d'infos sur les Graveur de DVD chui perdu
couldn't load open glNEC ND-1300: cherche infos
Mise a jour bios KT7A, prob direct x et open gl geforce 2 pro!!Salut je voudrait des infos sur l'instalation d'un processeur
Rech infos sur le nouveau graveur de DVD liteon multiformat !!!![INFOS a la con] si vous avez des PB avec votre ABIT NF7-S REV2.0
Plus de sujets relatifs à : Graphical open bar (des infos, des intox, aux extraits de TheInq)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)