Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2435 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  53  54  55  56  57  58
Auteur Sujet :

[TOPIKUNIK] XGI Volari : 1€ par point sous 3dMark 05

n°2798753
ibwe
Posté le 28-10-2003 à 17:12:31  profilanswer
 

Reprise du message précédent :
Oui mais c'est le seul avec le quel on peut comparer, on ne ve tout de meme pas tester avec la Beta d'HL² :D

mood
Publicité
Posté le 28-10-2003 à 17:12:31  profilanswer
 

n°2798814
tceupa
Ingeniere del cazzo
Posté le 28-10-2003 à 17:49:42  profilanswer
 

kler, mais c'est beaucoup trop tôt pour se faire un avis en se basant sur des estimations de 3DMurk...

n°2798846
PsykopAt-
Infected
Posté le 28-10-2003 à 18:07:06  profilanswer
 

ce serait bien que Marc nous dise si il a plus d'infos sur la disponibilité et ce qu'il pense de ces gpu  :)


---------------
"Peace, Sex and Tea "
n°2799263
WipEout 20​97
Do you think we can fly
Posté le 28-10-2003 à 22:55:41  profilanswer
 

XGI : Gigabyte & Powercolor aussi  - 28/10/2003 à 13h57 par Thomas
Nous sommes nombreux à attendre la sortie des cartes XGI, la filiale graphique de SiS. Ce sont les modèles dotées de deux processeurs graphiques qui retiennent tout particulièrement notre attention. Après un preview complet de la gamme (voir cette news), on apprend que Gigabyte et Powercolor viendraient rejoindre Club 3D parmi les partenaires de XGI pour la production de cartes. Ces informations n?étant pas confirmées, elles sont bien évidemment à prendre au conditionnel.
 
Autre information : de faibles quantités de cartes XGI V8 Dual arriveraient en Europe vers le 10 novembre?

n°2799520
hikoseijur​o
Posté le 29-10-2003 à 01:18:19  profilanswer
 

Bah moi j'aime pas trop les cartes bi-gpu, sauf si c'est pour avoir des perfs deux fois plus importantes que ce qui se fait chez la concurence. A mon souvenir seul la voodoo 2 a été capable de ça.

n°2799522
WipEout 20​97
Do you think we can fly
Posté le 29-10-2003 à 01:20:02  profilanswer
 

je me repette, mais si les prix sont vraiment interessants on s'en balance non ?

n°2799528
hikoseijur​o
Posté le 29-10-2003 à 01:29:50  profilanswer
 

non car la consommation est double (je pense à la facture d'electricité), pis même je trouve ça fait cheap du coup. Pour faire style j'ai une carte bi-gpu, et là tout le monde "ho, ..., mais elles sont où les perfs ?"
 
Je sais pas c'est psychologique, ça fait style c'est super puissant, mais en faite non. Donc voilà ça me plait pas c'est de l'imposture.
 
Mais bon faut pas rêver ils vendront pas des cartes bi-gpu moins cher que les mono-gpu de ati et nvidia, surtout à perfs équivalentes. En plus d'ici à ce qu'elles sortent les cartes ati et nvidia seront moins chers.

n°2799529
WipEout 20​97
Do you think we can fly
Posté le 29-10-2003 à 01:31:44  profilanswer
 

ils ont dit que leurs bi-gpu couteraient moins cher que les mono ati et nvidia a la production, d'ou des prix interessants.
 
quand a la facture d'electricité, c'est trop drole :d

n°2807256
WipEout 20​97
Do you think we can fly
Posté le 02-11-2003 à 15:45:59  profilanswer
 

premier prix pour une dual V8 :
 
http://www.volarigamers.com/pic/c3d.jpg

n°2807264
Ernestor
modo-coco :o
Posté le 02-11-2003 à 15:47:43  profilanswer
 

Reste a voir les perfs :)
 
A ce prix la, elle a intérêt à être du niveau des 9800/5900 ;)


---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
mood
Publicité
Posté le 02-11-2003 à 15:47:43  profilanswer
 

n°2807368
nicolbolas
Optiquement votre.
Posté le 02-11-2003 à 16:31:12  profilanswer
 

et au niveau des drivers? Ils ont l'intention de pondre un driver sous linux?


---------------
#NetOp. T'as pas 10G ?
n°2807373
blazkowicz
Posté le 02-11-2003 à 16:36:14  profilanswer
 

WipEout 2097 a écrit :

----------------------------------------------------------------
Quelques photos :
 
http://www.lorisbox.com/docs/hfr/volari/DuoV8Ultra-3.jpg
 


 
ça ressemble pas mal à ceci :love:
http://www.computery.ru/upgrade/numbers/2001/025/imgs/VOODOO5-5500.jpg

n°2807375
PlayTime
Posté le 02-11-2003 à 16:38:08  profilanswer
 

De toute facon, ya quasiment aucune raison de changer de carte graphiques actuellement. On se rend compte que les cartes a partir des gf3 ti 200 ou radeon 8500 permettent de jouer convenablement à tous les jeux ou preske ( ben oui halo ou command and conquer generalz, vu comment ils sont codé, faut une meilleur carte mais bon le 2eme eme tourne quand meme convenablement sur mon pc avec radeon 8500 , halo tourne aussi mais 40 fps :/ ). Il va réellement y avoir une vraie evolution avec la prochaine generation de carte , l'ati r400 et le prochaine chip nvidia. Ce qu'on a pas eu depuis la sortie de la radeon 9700 pro. Donc franchement , je vois pas ou sera l'interet de prendre du xgi, sauf bien sur pour ceux qui ont une carte du style gf2.....  
 
Enfin, dans 3-4 mois, la generation actuelle va être totalement dépassé, tandis que la prochaine génération devrait etre des cartes capable de faire tourner parfaitement les doom 3, hl2.... enfin si il sortent en 2004 :D
 
Mais cest bien sur qu'une opinion strictement personnelle.

n°2807379
Anakin Sky​walker
Ubuntu user
Posté le 02-11-2003 à 16:38:52  profilanswer
 

HikoSeijuro a écrit :

non car la consommation est double (je pense à la facture d'electricité), pis même je trouve ça fait cheap du coup. Pour faire style j'ai une carte bi-gpu, et là tout le monde "ho, ..., mais elles sont où les perfs ?"
 
Je sais pas c'est psychologique, ça fait style c'est super puissant, mais en faite non. Donc voilà ça me plait pas c'est de l'imposture.
 
Mais bon faut pas rêver ils vendront pas des cartes bi-gpu moins cher que les mono-gpu de ati et nvidia, surtout à perfs équivalentes. En plus d'ici à ce qu'elles sortent les cartes ati et nvidia seront moins chers.


 
+1
 
Moi aussi je n'aime pas trop les bi-gpu, premierement avec les Voodoo ce n'etait pas tres efficace, ensuite c'est une question de finesse d'architecture: si ils ont besoin de 2 proc pour aller aussi vite que la concurrence, il y a un truc qui ne va pas (c'est aussi pour ca que je n'aime pas trop Intel)

n°2807380
blazkowicz
Posté le 02-11-2003 à 16:39:26  profilanswer
 

HikoSeijuro a écrit :

non car la consommation est double (je pense à la facture d'electricité), pis même je trouve ça fait cheap du coup. Pour faire style j'ai une carte bi-gpu, et là tout le monde "ho, ..., mais elles sont où les perfs ?"
 
Je sais pas c'est psychologique, ça fait style c'est super puissant, mais en faite non. Donc voilà ça me plait pas c'est de l'imposture.
 
Mais bon faut pas rêver ils vendront pas des cartes bi-gpu moins cher que les mono-gpu de ati et nvidia, surtout à perfs équivalentes. En plus d'ici à ce qu'elles sortent les cartes ati et nvidia seront moins chers.


 
deux GPU "simples" vs un GPU complexe.. ça pourrait très bien consommer autant au final
quand on voit les machins qu'il ya sur les 5950 et les 9800XT pour évacuer la chaleur..

n°2807388
blazkowicz
Posté le 02-11-2003 à 16:44:39  profilanswer
 

Anakin Skywalker a écrit :


 
+1
 
Moi aussi je n'aime pas trop les bi-gpu, premierement avec les Voodoo ce n'etait pas tres efficace, ensuite c'est une question de finesse d'architecture: si ils ont besoin de 2 proc pour aller aussi vite que la concurrence, il y a un truc qui ne va pas (c'est aussi pour ca que je n'aime pas trop Intel)


 
mais ce qui compte c'est le résultat
 
ATI "bourrine" avec des GPU à huit pipes, et ça marche très bien
nvidia a pondu un truc complexe comme un CPU qui pédale dans la choucroute
 
et XGI va faire du dual GPU avec des chips à 8 pipes, dont la moitié fait du pixel shading.. ce qui devrait donner en pixel shader V8 simple ~ FX5900? :p


Message édité par blazkowicz le 02-11-2003 à 16:47:17
n°2807389
power600
Toujours grognon
Posté le 02-11-2003 à 16:44:43  profilanswer
 

http://overclockers.ru/images/news/2003/10/02/xgi_01.jpg

n°2807397
blazkowicz
Posté le 02-11-2003 à 16:48:55  profilanswer
 

WipEout 2097 a écrit :

 
 
Volari V3
http://www.lorisbox.com/docs/hfr/volari/v3.jpg
-DirectX 8.1
-OpenGL 1.3
Frequence GPU: 250Mhz
Frequence DDR: 250Mhz
Max memoire : 128Mo
Pipelines : 4
Vertex Shaders : 1
Pixel Shaders : 1
Version Shaders : 1.3


 
à mon avis c'est un Xabre I
(avec un vertex shader en plus ..)


Message édité par blazkowicz le 02-11-2003 à 17:23:49
n°2807466
zimonex
:o
Posté le 02-11-2003 à 17:14:08  profilanswer
 

A quand un test sur hfr?  :p

n°2807556
WipEout 20​97
Do you think we can fly
Posté le 02-11-2003 à 18:14:32  profilanswer
 

Anakin Skywalker a écrit :


 
+1
 
Moi aussi je n'aime pas trop les bi-gpu, premierement avec les Voodoo ce n'etait pas tres efficace, ensuite c'est une question de finesse d'architecture: si ils ont besoin de 2 proc pour aller aussi vite que la concurrence, il y a un truc qui ne va pas (c'est aussi pour ca que je n'aime pas trop Intel)


 
dans quel sens ? par rapport au voodoo 4 ca valait le double, donc c'etait efficace...
 
aucun rapport avec les autres cartes

n°2807569
Anakin Sky​walker
Ubuntu user
Posté le 02-11-2003 à 18:19:30  profilanswer
 

C'etait pas efficace par rapport a la concurrence ;)

n°2807579
WipEout 20​97
Do you think we can fly
Posté le 02-11-2003 à 18:22:26  profilanswer
 

et quel est le rapport avec le bi-gpu ?
 
c'etait 2x mieux qu'un simple MEME gpu donc le bi-gpu etait efficace.
 
 
ca sert a rien de comparer a la concurrence, la on parle de l'efficacité ou non d'un bi gpu

n°2807587
tceupa
Ingeniere del cazzo
Posté le 02-11-2003 à 18:24:10  profilanswer
 

WipEout 2097 a écrit :

et quel est le rapport avec le bi-gpu ?
 
c'etait 2x mieux qu'un simple MEME gpu donc le bi-gpu etait efficace.
 
 
ca sert a rien de comparer a la concurrence, la on parle de l'efficacité ou non d'un bi gpu


 
:jap:
 
la Rage Fury Maxx montre aussi l'efficacité de ce genre de techniques. D'ailleurs, comment les tâches vont être réparties entre les 2 GPUs ? Plutôt comme sur la Maxx ou plutôt genre SLI ? Ou autre chose encore ?


---------------
Hard work may pay off later, but lazyness pays off NOW. I work hard on hardly working
n°2807604
Ernestor
modo-coco :o
Posté le 02-11-2003 à 18:27:29  profilanswer
 

Justement, on est plus au temps de ce genre de carte et avec les GPUs modernes c'est bien bien plus compliqué. Enfin, c'est ce que j'avais cru comprendre même si je ne saurais pas/plus vous expliquer pourquoi :D


---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°2807609
blazkowicz
Posté le 02-11-2003 à 18:28:23  profilanswer
 

Anakin Skywalker a écrit :

C'etait pas efficace par rapport a la concurrence ;)


 
ben si.. une voodoo5 ça vaut en gros une geforce2 pro

n°2807616
Profil sup​primé
Posté le 02-11-2003 à 18:30:04  answer
 

De toute façon l'avenir est aux multicores.
Il y a quelque temps IBM a propose un processeur avec 4 core.
Intel et Amd compte faire de même à partir de 2005/2006 d'après des news. Les chips graphiques feront de même.

n°2807618
Anakin Sky​walker
Ubuntu user
Posté le 02-11-2003 à 18:30:29  profilanswer
 

WipEout 2097 a écrit :

et quel est le rapport avec le bi-gpu ?
 
c'etait 2x mieux qu'un simple MEME gpu donc le bi-gpu etait efficace.
 
 
ca sert a rien de comparer a la concurrence, la on parle de l'efficacité ou non d'un bi gpu


 
Mais je m'en fous de ton avis, moi je dis que je n'aime pas l'architecture parce que c'est un remede de barbare quand on arrive pas a faire tourner ses GPU aussi vite que les concurrents c'est tout
 
Ensuite meme sans parler de la concurrence l'architecture reste un artifice quand on ne sait pas developper un GPU convenable :kaola:
 
Et si t'es pas d'accord c'est pareil  :kaola:

n°2807624
blazkowicz
Posté le 02-11-2003 à 18:32:39  profilanswer
 

Anakin Skywalker a écrit :


 
Mais je m'en fous de ton avis, moi je dis que je n'aime pas l'architecture parce que c'est un remede de barbare quand on arrive pas a faire tourner ses GPU aussi vite que les concurrents c'est tout
 
Ensuite meme sans parler de la concurrence l'architecture reste un artifice quand on ne sait pas developper un GPU convenable :kaola:
 
Et si t'es pas d'accord c'est pareil  :kaola:  


 
ridicule :o

n°2807629
tceupa
Ingeniere del cazzo
Posté le 02-11-2003 à 18:33:17  profilanswer
 

ça ne me regarde pas forcément, mais quand je vois ce genre de language je ne peux m'empêcher de réagir... c'est vraiment pas un façon de causer !!! :pfff:


---------------
Hard work may pay off later, but lazyness pays off NOW. I work hard on hardly working
n°2807634
Ernestor
modo-coco :o
Posté le 02-11-2003 à 18:33:54  profilanswer
 

C'était pas du second degré ? :D
 
:??:


---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°2807636
Anakin Sky​walker
Ubuntu user
Posté le 02-11-2003 à 18:34:18  profilanswer
 

Tout a fait mais il commence a me prendre la tete, deja sur le topic de Need For Speed Underground il n'a pas arreté alors la ca commence a m'enerver.

n°2807638
tceupa
Ingeniere del cazzo
Posté le 02-11-2003 à 18:34:40  profilanswer
 

j'ai pas l'impression... aucun signe de second degré....


---------------
Hard work may pay off later, but lazyness pays off NOW. I work hard on hardly working
n°2807641
Ernestor
modo-coco :o
Posté le 02-11-2003 à 18:35:37  profilanswer
 

Un peu de calme mes amis, un peu de calme :o
 
:D


---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°2807642
tceupa
Ingeniere del cazzo
Posté le 02-11-2003 à 18:35:44  profilanswer
 

arrête de t'énerver, tu vas finir par passer du côté obscur ;)
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
désolé, j'ai pas pu me retenir...


---------------
Hard work may pay off later, but lazyness pays off NOW. I work hard on hardly working
n°2807645
blazkowicz
Posté le 02-11-2003 à 18:36:12  profilanswer
 

de tte façon, un chip de 140 millions de transistors vous allez pas dire que c'est moins bourrin que deux chips de 70 millions de transistors

n°2807647
Ernestor
modo-coco :o
Posté le 02-11-2003 à 18:37:28  profilanswer
 

Le problème est pas la, mais plutot dans la synchronisation des deux puces. D'après ce que j'avais compris, c'est pas simple dans le cadre des GPUs.


---------------
Idéaliste pragmatique gauchiste cherche camarades pour fonder un parti
n°2807649
tceupa
Ingeniere del cazzo
Posté le 02-11-2003 à 18:38:10  profilanswer
 

la solution d'ATI, avec l'AFR était assez efficace à ce niveau.... avec du triple buffering :D


---------------
Hard work may pay off later, but lazyness pays off NOW. I work hard on hardly working
n°2807650
darkstalke​r
Saturn NTSC-J, What Else ?
Posté le 02-11-2003 à 18:38:47  profilanswer
 

Ernestor a écrit :

Le problème est pas la, mais plutot dans la synchronisation des deux puces. D'après ce que j'avais compris, c'est pas simple dans le cadre des GPUs.


 
3dFX avait la meilleure solution. Elle est protégée par brevet non ?

n°2807652
Anakin Sky​walker
Ubuntu user
Posté le 02-11-2003 à 18:39:05  profilanswer
 

Regardez:
 
HikoSeijuro dit:
 
"non car la consommation est double (je pense à la facture d'electricité), pis même je trouve ça fait cheap du coup. Pour faire style j'ai une carte bi-gpu, et là tout le monde "ho, ..., mais elles sont où les perfs ?"
 
Je sais pas c'est psychologique, ça fait style c'est super puissant, mais en faite non. Donc voilà ça me plait pas c'est de l'imposture.
 
Mais bon faut pas rêver ils vendront pas des cartes bi-gpu moins cher que les mono-gpu de ati et nvidia, surtout à perfs équivalentes. En plus d'ici à ce qu'elles sortent les cartes ati et nvidia seront moins chers."
 
Moi je dis +1 et a peu pres la meme chose
Et la il y a Wipeout 2097 qui se ramene pour dire que ce que je dis c'est pas bien :heink:
Alors qu'il ne l'a quasiment pas fait pour HikoSeijuro
 
PS: tceupa, ca arrive ca arrive... ;)

n°2807653
blazkowicz
Posté le 02-11-2003 à 18:39:30  profilanswer
 

Ernestor a écrit :

Le problème est pas la, mais plutot dans la synchronisation des deux puces. D'après ce que j'avais compris, c'est pas simple dans le cadre des GPUs.


 
ben ils innovent avec une liaison à 2.1Go/s

n°2807654
Anakin Sky​walker
Ubuntu user
Posté le 02-11-2003 à 18:40:09  profilanswer
 

Blazkowicz a écrit :

de tte façon, un chip de 140 millions de transistors vous allez pas dire que c'est moins bourrin que deux chips de 70 millions de transistors


 
Si (enfin pour moi)

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  53  54  55  56  57  58

Aller à :
Ajouter une réponse
 

Sujets relatifs
3dmark 2001 se (patch) -> 2143 pts...prob de lancement a 3dmark 2k1
fx5600 seulement 880 a 3dmark 2003 normal ou pasVolari XGI, en savoir plus sur ces cartes
Tester ma carte graphique (3DMark)3dmark 03 et test cpu 1 et 2 textures dégueux et passage 60 hz ???
Pb 3dmark 2001se!!![Mise au point légale] Faire passer en SAV indument un produit...
fx5200: 4000 points à 3dmark 2001... 
Plus de sujets relatifs à : [TOPIKUNIK] XGI Volari : 1€ par point sous 3dMark 05


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR