Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2922 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  259  260  261  ..  895  896  897  898  899  900
Auteur Sujet :

[Topic Unique] GeForce 8800

n°5264056
angela-pcs
Posté le 03-01-2007 à 13:45:03  profilanswer
 

Reprise du message précédent :
Vegas c'est l'unreal Engine 3 ( un poil mal usité par Ubisoft mais bon )  
 
http://www.generation-nt.com/dossi [...] /page3.php

mood
Publicité
Posté le 03-01-2007 à 13:45:03  profilanswer
 

n°5264064
Activation
21:9 kill Surround Gaming
Posté le 03-01-2007 à 13:47:54  profilanswer
 

angela-pcs a écrit :

Vegas c'est l'unreal Engine 3 ( un poil mal usité par Ubisoft mais bon )  
 
http://www.generation-nt.com/dossi [...] /page3.php


 
ah bon ils ont changé de moteur pour le dernier né
 
m enfin sauf erreur le UE3 il est aussi opti multicore ?

n°5264167
papahet
-=Since 1982=-
Posté le 03-01-2007 à 14:27:00  profilanswer
 

Activation a écrit :

je reviens sur le fameux
 
http://www.amdzone.com/modules.php [...] 279&page=3
 
pour moi c est on ne peu plus veridique car les tom clancy tourne depuis le début sur moteur havok
 
vegas doit tourner sur le dernier moteur Havok FX
 
donc oui voilà un bel exemple (même si le jeu est buggé) de se que permettent les nouveau moteur 3D en tout cas celui de havok  
 
donc il est plus que temps de se poser la question sur l'interet des quad core (mi 2007 pour baisse de prix) pour donner du charbon à nos 8800 gtx voir les prochaine R600
 
si qqun à ici un quad core intel avec une 8800gtx ou un sli de 8800gtx je suis preneur de voir son propre bench sous ce jeu (en esperant qu il est un 24 ou 30" pour que ça soit probant)


 
c'est vrai que dans cet exemple, le quad core est plutot interressant. J'attends de pied ferme le Q6600!

n°5264170
Agent heav​y
Posté le 03-01-2007 à 14:28:34  profilanswer
 

Enfin si il faut changer de processeur pour essuyer les platres des devs, je préfère encore pas acheter leur jeu. Un C2D m'a couté suffisament cher comme ca. Pour qu'il il nous prenne ?

n°5264228
tobalsan
Iikara sassoto yare bake!
Posté le 03-01-2007 à 14:52:55  profilanswer
 

nimporte quoi ces g80 on peut meme pas jouer a splinter cell c naze

n°5264236
the_bigboo
Posté le 03-01-2007 à 14:58:14  profilanswer
 

tobalsan a écrit :

nimporte quoi ces g80 on peut meme pas jouer a splinter cell c naze


1 - On dit partout que certains jeux buggent avec : si tu achetes, tu le fait en connaissance de causes
2 - Si t'en a acheté une et que t'es pas content t'avais qu'a mieux te renseigner , sinon t'a qu'a pas en acheter. on ne t'e nvoudra pas :jap:
3 - On parle des problemes rencontrés et des solutions éventuelles pas de mécontentements certes justifiés , mais soulants à la longue...


Message édité par the_bigboo le 03-01-2007 à 14:59:15
n°5264239
Activation
21:9 kill Surround Gaming
Posté le 03-01-2007 à 14:59:41  profilanswer
 

tobalsan a écrit :

nimporte quoi ces g80 on peut meme pas jouer a splinter cell c naze


 
vois pas en quoi les g80 sont responsable
depuis quand une carte graphique doit elle aussi faire cpu, jusqu'à preuve du contraire une carte graphique c est pas autonome et je branche pas mon dique dur dessus direct

n°5264263
angela-pcs
Posté le 03-01-2007 à 15:11:05  profilanswer
 

Moi en tout les cas la demo de ce jeux marche sur ma gtx apres coup de bol ou pas ... ( config : p5wdh,E6700,2 2go ocz 6400c4 , 8800gtx evga )

 

Sinon pour les pilotes vista :

 

http://www.pcinpact.com/actu/news/ [...] Driver.htm

Message cité 1 fois
Message édité par angela-pcs le 03-01-2007 à 15:14:07
n°5264307
Pinto
Posté le 03-01-2007 à 15:29:37  profilanswer
 

Moi çà fonctionne niquel ce splinter après avoir fait les modifs décrites par NV dans la release note des 97.44

n°5264314
chinoisurf​er
the liberty
Posté le 03-01-2007 à 15:31:05  profilanswer
 

angela-pcs a écrit :

Moi en tout les cas la demo de ce jeux marche sur ma gtx apres coup de bol ou pas ... ( config : p5wdh,E6700,2 2go ocz 6400c4 , 8800gtx evga )
 
Sinon pour les pilotes vista :
 
http://www.pcinpact.com/actu/news/ [...] Driver.htm


 
c'est bien qu'ils aient enfin communiqué :D comme sa les gens arreterons de demander :D

mood
Publicité
Posté le 03-01-2007 à 15:31:05  profilanswer
 

n°5264438
Death @nge​l
Tourette du clavier !
Posté le 03-01-2007 à 16:24:41  profilanswer
 

Pas sûr; des boulets y'en a partout et ils sont pas toujours aware :lol:


---------------
3950X, RTX2080Ti, Odyssey G9, Lian Li DK-04X, Asrock Aqua
n°5264510
theboss347​5
Posté le 03-01-2007 à 16:47:42  profilanswer
 

chinoisurfer a écrit :

c'est bien qu'ils aient enfin communiqué :D comme sa les gens arreterons de demander :D


 
 
je l ai deja repeté 10x depuis 1 mois mais personne ne m a écouté.j aurai sdu newser sur mon site :/

n°5264514
chinoisurf​er
the liberty
Posté le 03-01-2007 à 16:48:31  profilanswer
 

ben oui :D

n°5264525
the_bigboo
Posté le 03-01-2007 à 16:51:30  profilanswer
 

Death @ngel a écrit :

Pas sûr; des boulets y'en a partout et ils sont pas toujours aware :lol:


Ils sont partout !! :ouch:  :ouch:

n°5264537
Profil sup​primé
Posté le 03-01-2007 à 16:53:45  answer
 

au boulot je me suis installé vista et office beta 2007 sur un pentium 4 avec 1 giga de RAM
jarrive à faire tourner tranquillou Arcview, Photoshop et office.
la ram que Vista bouffe n'est pas inutilisable, bien au contraire.

n°5264539
Bob2024
...
Posté le 03-01-2007 à 16:54:28  profilanswer
 

Qqun a des news à propos des drivers Vista ?
 
 
 
 
 
 
 
Ok =>[]

n°5264546
olioops
Si jeune et déjà mabuse.
Posté le 03-01-2007 à 16:56:46  profilanswer
 

et jette la clef  :D

n°5264661
dvanzan
Posté le 03-01-2007 à 17:28:06  profilanswer
 

the_bigboo a écrit :

Personne n'a eu le souci :??: Quand je clique sur le lien pour le moniteur de températutres, j'ai une boite d'alert qui me dit de télécharger nTunes :heink:
du coup , pas d'acces aux températures :(
 
Edit : moi les trucs MSI ca marche pas chez moi, vu que je suis sur asus ;)


 
La dernière version de Ntune est censée fonctionner avec tous les chipsets, aux dire de Nvidia.
Cependant, pour un accès plus aisé aux températures, utilise un soft comme Rivatuner 2 ou Atitool 0.26.
j'utilise Rivatuner et j'ai un contrôle total en overclocking et sur la vitesse du ventilateur.
 
Pour ma part, j'ai une 8800GTS de chez Leadtek et niveau température, ça ma un peu foutu les jetons: 81° en idle 92° en charge.
Le ventilo reste silencieux, à 59% de sa puissance puisque le seuil critique de 110° n'est pas atteint. C'est quand même fou ça.
J'ai contacté LDLC sur le sujet et ils m'ont dit que c'était normal pour ces cartes.
Sceptique, j'ai parcouru le forum de Nvidia et les température moyennes constatées pour une GTX sont 70° en idle et 85° en charge.
Je veux bien mais là on parle d'une GTS non overclockée de plus!
Je tiens tout de même à rajouter que mis à part celà, elle fait sont job correctement donc peut être que l'on s'affole pour rien avec ces températures.
Il y a quand même des ingénieurs chez Nvidia qui ont validé le produit, sensé avoir passé une batterie de tests dans des conditions climatiques critiques. Et puis de toute façon, la carte est sous garantie, alors ...
Je tiens aussi à souligner le baclage particulier dont a fait l'oeuvre Nvidia pour ses drivers: fonctions absentes, cachées, des choses qui marchaient bien avant mais ne fonctionnenet plus (panneau de contrôle de l'Overlay mirror caché, video en Fullscreen via la sortie TV ne respectant pas les proportions, problèmes de résolutions avec certains écran larges, panneau de température nécessitant Ntune pour être affiché (n'importe quoi ça!) etc.
Esperons que ça va se régler au fur et à mesure, car à 500€ la carte...
 
ps: Rainbow six Vegas fonctionne impect, tout à fond. Et effectivement, en lisant bien la release note des Forceware 97.44, on s'instruit beaucoup.

Message cité 2 fois
Message édité par dvanzan le 03-01-2007 à 17:42:14
n°5264680
the_bigboo
Posté le 03-01-2007 à 17:39:17  profilanswer
 

dvanzan a écrit :

La dernière version de Ntune est censée fonctionner avec tous les chipsets, aux dire de Nvidia.
Cependant, pour un accès plus aisé aux températures, utilise un soft comme Rivatuner 2 ou Atitool 0.26.
j'utilise Rivatuner et j'ai un contrôle total en overclocking et sur la vitesse du ventilateur.


j'avoue qu'o/c un G80 qui chauffe déjà pas mal a la base me fait un tantinet peur :/
Vivement une baisse sur les waterblocks :)

n°5264710
solx
All in the game
Posté le 03-01-2007 à 17:49:59  profilanswer
 

dvanzan a écrit :


Pour ma part, j'ai une 8800GTS de chez Leadtek et niveau température, ça ma un peu foutu les jetons: 81° en idle 92° en charge.


Et la ventilation de ton boitier ça donne quoi ?

n°5264734
dvanzan
Posté le 03-01-2007 à 17:57:00  profilanswer
 

the_bigboo a écrit :

j'avoue qu'o/c un G80 qui chauffe déjà pas mal a la base me fait un tantinet peur :/
Vivement une baisse sur les waterblocks :)


 
Tout est fait par les constructeurs pour faire dépenser plus.
Grosse consommation électrique engendrée par les cartes graphique -> achat d'une grosse alim (on parle même de 1000W pour un SLI) -> grosse facture EDF (un fer à repasser branché toute la journée). Et on nous parle des accord de Kyoto.
Hautes températures des cartes graphique + ventrirad d'origine mal étudié -> achat d'un ventirad chez un spécialiste du ventirad certainement reconnu mondialement -> perte de la garantie de la carte tout de même = dépenses supplémentaires.
Non content d'être en total paradoxe avec les conventions de protection de l'environement, moi Gamer me se dirige tout droit à ma ruine personnelle.
 
Mais bon... c'est si bon une bonne partie de Far Cry en 1600x1200 HDR

n°5264936
ohplombier
Posté le 03-01-2007 à 19:14:02  profilanswer
 
n°5264969
solx
All in the game
Posté le 03-01-2007 à 19:27:19  profilanswer
 


Citation :

We had a total wattage peak at 365 Watts for one 8800 GTX, which is a lot but not excessive. It's definitely something you need to be aware of. NVIDIA states that the G80 core can peak at 145.5 Watts with 116.6 on average during gameplay. This system used a Core 2 Duo X6800 Extreme Processor, the new nForce 680i mainboard, water-cooler, DVD-ROM and WD Raptor drive. All that in combo with the GeForce 8800 GTX summed up to a peak load of roughly 365 Watts.


Sur le test HFR pas plus de 283watts, pourtant les 2 tests ont était fait avec un 680i donc grosse conso  :heink:

 

Sinon ils obtiennent entre 50 e 55 degrés en full en SLI sous WC contre 79°C en signle card et en air (8800gtx)


Message édité par solx le 03-01-2007 à 19:27:47
n°5264985
olioops
Si jeune et déjà mabuse.
Posté le 03-01-2007 à 19:34:03  profilanswer
 

the_bigboo a écrit :

j'avoue qu'o/c un G80 qui chauffe déjà pas mal a la base me fait un tantinet peur :/
Vivement une baisse sur les waterblocks :)


l'overclock de ma 8800 GTS à 630/1000 (stable) n'a pas modifié de façon sensible les T° ... 2/3 ° grand maximun . D'autres témoignages pourraient te le confirmer  ... le système de dissipation avec caloduc fait bien son boulot.

Message cité 1 fois
Message édité par olioops le 03-01-2007 à 19:34:42
n°5265025
trueunborn
Posté le 03-01-2007 à 19:49:06  profilanswer
 

olioops a écrit :

l'overclock de ma 8800 GTS à 630/1000 (stable) n'a pas modifié de façon sensible les T° ... 2/3 ° grand maximun . D'autres témoignages pourraient te le confirmer  ... le système de dissipation avec caloduc fait bien son boulot.


Par contre quelqu'un peut me confirmer que l'Oc de la mémoire ne fonctionne pas sur les 8800GTX? moi je monte à 1350 sans le moindre artefact.. mais sans la moindre montée en perf non plus lol!

n°5265054
Nitro68
Posté le 03-01-2007 à 20:04:23  profilanswer
 

perso même problème pour la mémoire, je peux en faire ce que je veux ça change jamais les perf

n°5265103
the_bigboo
Posté le 03-01-2007 à 20:23:49  profilanswer
 

moi ca change pas grand chose...
1 point par MHz a peu pres sous 3DMark06 :/


Message édité par the_bigboo le 03-01-2007 à 20:24:01
n°5265119
Death @nge​l
Tourette du clavier !
Posté le 03-01-2007 à 20:30:57  profilanswer
 

Ca veut peut être dire que la bande passante mémoire est largement suffisante pour la carte non?
 
Donc l'augmenter n'engendrerait pas de gain de perf...


---------------
3950X, RTX2080Ti, Odyssey G9, Lian Li DK-04X, Asrock Aqua
n°5265129
trueunborn
Posté le 03-01-2007 à 20:34:36  profilanswer
 

Bah ouais mais la passer à 1350Mhz sans que ça plante g un gros doute....

n°5265133
olioops
Si jeune et déjà mabuse.
Posté le 03-01-2007 à 20:36:14  profilanswer
 

Death @ngel a écrit :

Ca veut peut être dire que la bande passante mémoire est largement suffisante pour la carte non?
 
Donc l'augmenter n'engendrerait pas de gain de perf...


Ha ben oui bon sang mais c'est bien sûr [:evil]

n°5265141
Death @nge​l
Tourette du clavier !
Posté le 03-01-2007 à 20:40:23  profilanswer
 
n°5265146
olioops
Si jeune et déjà mabuse.
Posté le 03-01-2007 à 20:41:39  profilanswer
 

non non ! t'as vu juste , c'est tout bête en fait  ;)  ... on est tellement habitué à voir les perfs augmenter avec l'augmentation de la fréq ram  !!! sur ma gts entre 900 et 1000 je gagne plus rien non plus ! c'est  l'explication qui semble la plus plausible ... mais en fait j'en sais rien   :D .

Message cité 1 fois
Message édité par olioops le 03-01-2007 à 20:54:20
n°5265150
Death @nge​l
Tourette du clavier !
Posté le 03-01-2007 à 20:43:23  profilanswer
 

Oui b'en alors : GENIE INSIDE :lol:


---------------
3950X, RTX2080Ti, Odyssey G9, Lian Li DK-04X, Asrock Aqua
n°5265157
rycky
Posté le 03-01-2007 à 20:47:40  profilanswer
 

Euh, tester l'impact de la bp sous 3dmark sans filtrage ça prouve pas grand chose. Elle est largement suffisante sans filtrage c'est sur... Le pb c'est que ce sont ces derniers qui sont surtout friands de bp mémoire et à haute réso + filtrages avancés les 8800 gagneraient bien à mon avis à avoir une bp supérieure

n°5265159
Death @nge​l
Tourette du clavier !
Posté le 03-01-2007 à 20:48:37  profilanswer
 

Faut tester ça en montant la résol et les filtres sous 3dmark06 alors...


Message édité par Death @ngel le 03-01-2007 à 20:49:10

---------------
3950X, RTX2080Ti, Odyssey G9, Lian Li DK-04X, Asrock Aqua
n°5265160
rycky
Posté le 03-01-2007 à 20:49:26  profilanswer
 

Ben oui   [:spamafote] ;)


Message édité par rycky le 03-01-2007 à 20:49:48
n°5265161
theboss347​5
Posté le 03-01-2007 à 20:49:48  profilanswer
 

rycky a écrit :

Euh, tester l'impact de la bp sous 3dmark sans filtrage ça prouve pas grand chose. Elle est largement suffisante sans filtrage c'est sur... Le pb c'est que ce sont ces derniers qui sont surtout friands de bp mémoire et à haute réso + filtrages avancés les 8800 gagneraient bien à mon avis à avoir une bp supérieure


 tout comme les r600, les modeles 8800 avec la gddr4 sonr prevus 1er trimestre 2007 ;)

n°5265163
rycky
Posté le 03-01-2007 à 20:50:07  profilanswer
 

Oui c'est bien à eux que je pensais.  :lol:  On le voit dans plusieurs bench avec filtrages la 8800 ne creuse pas autant qu'elle devrait je suppose qu'il lui manque dans ces conditons un peu de bp pour s'exprimer totalement. nVidia a fait le choix de la DDR3@900mhz pour la dispo à mon avis, pas parcequ'elle suffisait amplement...
 
Edit:

Citation :

Impressionnant : dès le 1600*1200, la GeForce 8800 GTX se montre sur ce titre près de 2 fois plus rapide qu’une X1950 XTX ! L’écart se réduit ensuite, sans doute parce que la GeForce 8 reste en partie limitée par sa bande passante mémoire en très haute résolution : ainsi l’écart tombe à 55 % en 2048*1536 + filtres, que ce soit par rapport à la X1950 XTX ou sur la 7950 GX2, ce qui correspond à peu près à l’écart de bande passante entre ces cartes.

http://www.presence-pc.com/tests/geforce-8-496/18/
 
D'ailleurs si les benchs leakés du R600 sont réels, on ne voit aucun score sans filtrage (normal pour ce type de carte) mais je suis intimement persuadé que la supériorité du R600 viendra principalement de sa BP bien supérieure via son but 512 bits et non d'une efficacité supérieure de l'archi au niveau calcul. (ce n'est qu'une suputation bien sur  :lol: )


Message édité par rycky le 03-01-2007 à 21:01:59
n°5265165
theboss347​5
Posté le 03-01-2007 à 20:50:16  profilanswer
 

et bonne année mon riton ;)

n°5265168
rycky
Posté le 03-01-2007 à 20:52:14  profilanswer
 

Merci toi aussi  ;)

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  259  260  261  ..  895  896  897  898  899  900

Aller à :
Ajouter une réponse
 

Sujets relatifs
Probleme artefact avec nvidia geforce 6800geforce 6600gt qui déconne(encore une..)
Carte Geforce 7600 GT : problème de busPoint Of View Nvidia GeForce 7800GTX 256 Mo GDDR3
Probleme Pilote Geforce MX 200Une GeForce et une Radeon... sur un meme PC ?!
[Topic Unique]Radeon X850XT / PEgros probleme Freeze Geforce 6800 GS
Plus de sujets relatifs à : [Topic Unique] GeForce 8800


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)