Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2446 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  856  857  858  ..  895  896  897  898  899  900
Auteur Sujet :

[Topic Unique] GeForce 8800

n°6330162
minou16
Posté le 13-04-2008 à 09:04:08  profilanswer
 

Reprise du message précédent :
Ptites questions rapides:  
 
1)Le sli n'est possible que sur les cartes dotées d'un chipset nvidia c'est bien ça ?  
2)Le sli peut il se pratiquer avec deux cartes de deux constructeurs différents ?

Message cité 1 fois
Message édité par minou16 le 13-04-2008 à 09:09:50
mood
Publicité
Posté le 13-04-2008 à 09:04:08  profilanswer
 

n°6330164
Activation
21:9 kill Surround Gaming
Posté le 13-04-2008 à 09:06:52  profilanswer
 

caillebotte a écrit :


 
 
Neuve @ un bon prix... Je suis a la recherche d'une bonne carte 23cm et PCB noir.  :o


 
gt ou gts quoi  :o  vu que gtx ça va dépassé

n°6330166
Activation
21:9 kill Surround Gaming
Posté le 13-04-2008 à 09:07:14  profilanswer
 

minou16 a écrit :

Ptites questions rapide:  
 
1)Le sli n'est possible que sur les cartes dotée d'un chipset nvidia c'est bien ça ?  
2)Le sli peut il se pratiquer avec deux cartes de deux constructeurs différents ?  


 
oui (hors 9800gx2 qui est un sli en elle meme)
oui

Message cité 1 fois
Message édité par Activation le 13-04-2008 à 09:08:41
n°6330168
minou16
Posté le 13-04-2008 à 09:08:58  profilanswer
 

Activation a écrit :


 
oui (hors 9800gx2 qui est un sli en elle meme)
oui


Merci activation ;)

n°6330191
caillebott​e
Mes raboteurs de parquet sûrs
Posté le 13-04-2008 à 09:52:39  profilanswer
 

Activation a écrit :


 
gt ou gts quoi  :o  vu que gtx ça va dépassé


 
J'ai deja une GT avec PCB noir mais je suis deçu par XFX malgré tout... :o  
 
Je veux juste savoir si ça vaut le coup d'acheter une 640Mo neuve des nos jours.
 
eDIT: En fait je vais laisser tomber pour la 640 Mo car je l'ai vu @ 274 en  Allemagne  :whistle: ... Pourquoi chez Nvidiot ils font pas une carte balaise avec PCB noir sans pour autant qu'elle soit enorme. :pfff:

Message cité 1 fois
Message édité par caillebotte le 13-04-2008 à 10:04:59
n°6330199
Activation
21:9 kill Surround Gaming
Posté le 13-04-2008 à 10:05:46  profilanswer
 

caillebotte a écrit :


 
J'ai deja une GT avec PCB noir mais je suis deçu par XFX malgré tout... :o  
 
Je veux juste savoir si ça vaut le coup d'acheter une 640Mo neuve des nos jours.


 
franchement je dirais non
 
là les 8800gtx sont super interessante de par leur prix si on a le boitier qui permet de les accueillir
 
maintenant les 8800gts640Mo bof quoi
tu les trouve aux mieux au prix des gtx pour les qqs qui traine encore (les gts on été arreté en production plus tot)
elle se demarque moins que les 8800gtx par rapport à une 8800gts512
 
apres c est la question de savoir si tu peut attendre juillet du "frais" chez les 2 constructeurs

n°6330231
caillebott​e
Mes raboteurs de parquet sûrs
Posté le 13-04-2008 à 10:38:03  profilanswer
 

Je vais reflechir sur le cas de la GTX ou attendre juillet...
 
Merci ;)

n°6330262
bad_boy
Posté le 13-04-2008 à 11:09:28  profilanswer
 

Bonjour je voudrais savoir si avec ma config 2go suffisent ou si je pourrais voir des gains de performances en prenant un peu plus (pour les jeux récents bien sûr)?
Je joue à crysis avec 25fps en moyenne :/ et comme je sais que vista pompe pas mal j'aimerais savoir si ça vaudrait le coup de booster un peu la ram :)
merci


---------------
[Mon Topic jeux] [**igraal: top du net**]
n°6330313
minou16
Posté le 13-04-2008 à 11:38:59  profilanswer
 

Si tu tournes sous Wnndows Vista 32 bits, saches tu ne pourras  profiter au maximum en pratique que de 3.25 go (valable aussi sous Windows XP 32 bits). Après à savoir si 1 go de ram en plus ça fait la différence sur ce jeu je ne sais pas je ne connais pas ce jeu. Si tu veux rajouter de la ram, tu peux donc être tenter que de ne rajouter 1 go de ram. Sauf que vu le prix de la ram actuel, rajouter 2 go peut être une bonne opportunité pour le futur et la généralisation des systèmes 64 bits qui gèrent bien plus de ram.


Message édité par minou16 le 13-04-2008 à 11:59:02
n°6330347
rootsayen
Jungle Cat
Posté le 13-04-2008 à 11:56:45  profilanswer
 

Bien résumé... je rajouterais juste que, si tu comptes upgrader uniquement pour Crysis, alors ça ne servira pas à grand chose, car si l'on met de coté les systemes tri-sli&co, bah Crysis et les fps, c'est pas ça :o


---------------
"Being solitary is being alone well; being alone luxuriously immersed in doings of your own choice, aware of the fullness of your own presence rather than the absence of others."
mood
Publicité
Posté le 13-04-2008 à 11:56:45  profilanswer
 

n°6330388
Activation
21:9 kill Surround Gaming
Posté le 13-04-2008 à 12:16:35  profilanswer
 

bad_boy a écrit :

Bonjour je voudrais savoir si avec ma config 2go suffisent ou si je pourrais voir des gains de performances en prenant un peu plus (pour les jeux récents bien sûr)?
Je joue à crysis avec 25fps en moyenne :/ et comme je sais que vista pompe pas mal j'aimerais savoir si ça vaudrait le coup de booster un peu la ram :)
merci


 
non vista pompe pas "pas mal"
 
oui 2Go sur un vista ça suffit pour jouer à crysis
 
la seul chose qu il faut pour crysis c est une carte graphique qui n existe pas si tu veux jouer en 60fps tout le long du jeu en 1920*1200 AA 4X

n°6330440
kaiser52
Posté le 13-04-2008 à 12:43:50  profilanswer
 

Activation a écrit :


 
non vista pompe pas "pas mal"
 
oui 2Go sur un vista ça suffit pour jouer à crysis
 
la seul chose qu'il faut pour crysis c est une carte graphique qui n existe pas si tu veux jouer en 60fps tout le long du jeu en 1920*1200 AA 4X


 
Elle existera dans deux générations pour la première partie, et dans trois générations pour la seconde partie du jeux ^^
Sinon pas de nouvelle pour le PhysX sur les Geforces 8 ? C'était pas sensé venir par les drives ?


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°6330454
Activation
21:9 kill Surround Gaming
Posté le 13-04-2008 à 12:53:19  profilanswer
 

kaiser52 a écrit :


 
Elle existera dans deux générations pour la première partie, et dans trois générations pour la seconde partie du jeux ^^
Sinon pas de nouvelle pour le PhysX sur les Geforces 8 ? C'était pas sensé venir par les drives ?


 
 
c est pas déjà le cas ? (sous entendu la geforce 8 fait ce que fait le physx avec cuda car bon le physx c'est pas le monstre de puissance non plus qu il était supposé etre hein)
 
je demande car j ai un kit ageia dans mes ajout suppression de programmes
et dernierement j ai rien mit à jour hors les drivers nvidia

Message cité 1 fois
Message édité par Activation le 13-04-2008 à 12:54:57
n°6330457
Schtroumpf​lover
Posté le 13-04-2008 à 12:54:41  profilanswer
 

As tu UTIII ?!?
Il l'installe d'office :jap:

n°6330459
mourisse
Satan m'habite
Posté le 13-04-2008 à 12:54:46  profilanswer
 

Nan ce logiciel s'installe en meme temps que certains jeux, rien a voir avec les drivers nvidia.

n°6330464
Activation
21:9 kill Surround Gaming
Posté le 13-04-2008 à 12:56:01  profilanswer
 

bah j ai pas UT3
 
au depart j ai pensé que ça venait de fuel of wars.... sauf que le kit ageia est aussi present sur mon htpc ... là ou j ai jamais essayé d installé le dit jeu

n°6330486
kaiser52
Posté le 13-04-2008 à 13:09:35  profilanswer
 

Activation a écrit :


 
 
c est pas déjà le cas ? (sous entendu la geforce 8 fait ce que fait le physx avec cuda car bon le physx c'est pas le monstre de puissance non plus qu il était supposé etre hein)
 
je demande car j ai un kit ageia dans mes ajout suppression de programmes
et dernierement j ai rien mit à jour hors les drivers nvidia


 
Ouai mais je sais pas si ils ont fini de travailler sur sa au niveau des drivers.
après si faut passé au SLI pour sa, adios le physx ^^


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°6330494
Activation
21:9 kill Surround Gaming
Posté le 13-04-2008 à 13:13:20  profilanswer
 

toute facon c est déjà adios le physx vu qu un cpu fait autant dire aussi bien
apres est ce que le physx 2 (dont on a vu un proto sur carte pci express 8x) sortira un jour ou sera t il plutot destiné à un marché "professionnel" si jamais il sort ?

n°6330499
Schtroumpf​lover
Posté le 13-04-2008 à 13:15:39  profilanswer
 

J'avais lu sur ce sujet qu'on pouvait attribuer le PhysX justement à une seconde carte graphique, ça pourrait être une second souffle pour le marché de l'occaz' ;) ?
Perso je verrai bien une petite 8XXX en soutient de ma 8800GTX pour ça :jap:

n°6330502
kaiser52
Posté le 13-04-2008 à 13:17:33  profilanswer
 

Activation a écrit :

toute facon c est déjà adios le physx vu qu un cpu fait autant dire aussi bien
apres est ce que le physx 2 (dont on a vu un proto sur carte pci express 8x) sortira un jour ou sera t il plutot destiné à un marché "professionnel" si jamais il sort ?


 
Sa va surtout dépendre de Nvidia, après avoir racheter Aegia, vont-ils toujours les laissé développée leur produits Physx PX ?
Peut être que le GT200 aura un physx P2 dedans ^^ d'où les 1milliards de transistors....
 
edit :
 

Schtroumpflover a écrit :

J'avais lu sur ce sujet qu'on pouvait attribuer le PhysX justement à une seconde carte graphique, ça pourrait être une second souffle pour le marché de l'occaz' ;) ?
Perso je verrai bien une petite 8XXX en soutient de ma 8800GTX pour ça :jap:


 
Sauf si il faut une mobo Nvidia....

Message cité 1 fois
Message édité par kaiser52 le 13-04-2008 à 13:19:46

---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°6330508
minou16
Posté le 13-04-2008 à 13:20:53  profilanswer
 

ouai sauf pour ceux qui ont eu la volonté de choisir un bon chipset  intel qui dispose du crossfire mais qui se retrouve privé du SLI...J'aime pas trop la politique de Nvidia sur ce coup là... ils perdent des clients car l'option SLI des chipsets nvidia ne m'ont tout de même pas inciter à choisir un chipset nvidia paraît il pas terrible...si j'avais pu j'aurais acheté une seconde 8800 GTX (enfin un peu plus tard quand même...).

Message cité 1 fois
Message édité par minou16 le 13-04-2008 à 13:23:10
n°6330526
kaiser52
Posté le 13-04-2008 à 13:32:13  profilanswer
 

minou16 a écrit :

ouai sauf pour ceux qui ont eu la volonté de choisir un bon chipset  intel qui dispose du crossfire mais qui se retrouve privé du SLI...J'aime pas trop la politique de Nvidia sur ce coup là... ils perdent des clients car l'option SLI des chipsets nvidia ne m'ont tout de même pas inciter à choisir un chipset nvidia paraît il pas terrible...si j'avais pu j'aurais acheté une seconde 8800 GTX (enfin un peu plus tard quand même...).


 
Peut-être que le Nforce 8 redonnera un gout de Nforce 2.
Une très bonne carte mère, dans le haut de la liste.
Une vrai carte mère.


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°6330565
Activation
21:9 kill Surround Gaming
Posté le 13-04-2008 à 13:50:25  profilanswer
 

kaiser52 a écrit :


 
ça va surtout dépendre de Nvidia, après avoir racheter Aegia, vont-ils toujours les laissé développée leur produits Physx PX ?
Peut être que le GT200 aura un physx P2 dedans ^^ d'où les 1milliards de transistors....
 


 
1milliard c est pas enorme en soit pour un gpu de maintenant (on tourne dans les 754millions pour le G92)
 
maintenant les SP dans le G92 ont été boosté selon les désirata de ceux qui ont touché au sdk de CUDA (dont notamment la precision de calcul)
 
alors je vois pas trop l interet du physx 2 dorenavant
 
vaut mieux privilégié une puce polyvalente qu une puce à un usage unique... en tout du point de vu du grand public
 
maintenant la plus grosse connerie de nvidia c est de pas ouvrir son sli (je parle pas trilple way ou quad sli à 4 port)
 
car bon d un coté pour le moment nvidia peut se brosser pour des mobo pour nehalem
de l autre à 280-300€ la mobo nforce 7 sur du "haut de gamme" pas si haut de gamme en qualité
 
le "bas de gamme" nforce 7 tiend de l arlesienne tout comme le sli power et le sli hybride
 
à coté de ça nvidia qui trouve rien d autre que péter des score cpu via + gpu nvidia face à du intel
comprendre--> je suis dans merde à terme pour le marché mobo intel et j aimerais pas pour autant laché mes pigeons rempli de thune pret à acheter du "sli" à prix tres tres treeeeeeeeeeees prohibitif
 
nvidia joue un jeu tres malsain en ce moment
 
l avenir nvidia pour le moment sur plateforme intel ça tend à:
je vend des carte mono gpu
je vend des carte bi gpu
 
et basta ou faut que je trouve le moyen de pondre une carte tri gpu.... sortez vos dremel

n°6330570
Activation
21:9 kill Surround Gaming
Posté le 13-04-2008 à 13:53:00  profilanswer
 

kaiser52 a écrit :


 
Peut-être que le Nforce 8 redonnera un gout de Nforce 2.
Une très bonne carte mère, dans le haut de la liste.
Une vrai carte mère.


 
y aura t il seulement un nforce 8 intel edition ???
 
du nforce 8 pour phenom sur socket AM3 surement
mais du nforce 8 sur nehalem faudrait déjà avoir une license pour permettre de produire une telle mobo
 
sinon pareil que minou16
 
si du sli marchait sur du chipset intel j aurais tres probablement acheté une seconde 8800gtx
 
maintenant il est pas question d acheter une mobo à 300€ au chipset buggé juste pour les beau yeux de nvidia et de sont sli gardé tel les stock d or de fort knox
 
alors ok je vais regardé ce que le gt200 a dans le bide, mais je vais aussi zieuter sur un crossfire de rv770


Message édité par Activation le 13-04-2008 à 13:58:10
n°6330604
kaiser52
Posté le 13-04-2008 à 14:10:06  profilanswer
 

Activation >>
 
Ok ok je vois le truc.
Nvidia essaye peut-être de s'auto détruire...


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°6330758
donny11
Posté le 13-04-2008 à 15:31:08  profilanswer
 

article interessant  
 
Hardware.fr publie un article très intéressant concernant la consommation électrique de nos PC. Le but de l'article est de nous aider à mieux choisir la bonne puissance d'alimentation, en effet, il faut bien reconnaître que les fabricants nous forcent un peu la main en proposant des modèles toujours puissants et plus chers. Nos confrères ont mesuré la consommation de trois configs (bas, moyen et très haut de gamme) : ils ont pu en déduire qu'une bonne alimentation de 300 watts pour le milieu de gamme et 400 watts pour du haut de gamme est bien suffisante (y compris avec une 8800 GTX). Sauf pour un Sli de 8800 GTX, dans ce cas 500 watts seront nécessaires. Cet article a le mérite de démontrer le ridicule des alimentations de 800, 1000 ou 1200 watts, en réalité ces produits n'ont réellement aucun intérêt... sauf pour ceux qui auraient besoin de connecter 40 disques durs sur le PC à la limite...
 
Citation : Depuis quelques temps, on observe sur le marché des alimentations une véritable folie des watts de la part des constructeurs. Après les 800 watts, plusieurs constructeurs ont lancés des modèles capables de fournir 1000, voir même 1200 watts ! Le summum du ridicule fut atteint lors du CeBIT, lorsque nous avons vu Enermax puis Thermaltake essayer de justifier l’utilisation de telles alimentations. L’idée nous est alors venue de nous intéresser aux alimentations afin de faire le point, cet article n’étant donc qu’un commencement.
 
Avant toute chose, rappelons quels étaient les arguments des deux constructeurs suscités. Chez Enermax, on trouvait une configuration consommant pas moins de 933 watts. Basée sur un système Quad Opteron, elle avait la particularité d’embarquer pas moins de 24 disques durs, une paille.
 
Thermaltake allait encore plus loin, proposant une configuration consommant 1105,5 watts – oui la virgule est importante. Seul problème, seuls 605.5 watts sont vraiment consommés par le PC, les 500 watts restant l’étant par un amplificateur et des enceintes, soit des périphériques qui ne sont pas reliés à l’alimentation PC mais au directement au secteur !

Message cité 1 fois
Message édité par donny11 le 13-04-2008 à 15:31:25
n°6330787
kaiser52
Posté le 13-04-2008 à 15:46:18  profilanswer
 

donny11 >>
 
Tu pourrais me passer le liens tien XD
Merci d'avance !
 
 :hello:


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°6330797
Space
Profil: Maux des rateurs
Posté le 13-04-2008 à 15:50:29  profilanswer
 

mourisse a écrit :

Nan ce logiciel s'installe en meme temps que certains jeux, rien a voir avec les drivers nvidia.

Ageia PhysX s'installe avec pas mal de jeux et pas forcément des Doom-likes ^^


---------------
Topic écran Asus 27" 1440p Oled XG27AQDMG - Ma cinémathèque
n°6330889
donny11
Posté le 13-04-2008 à 16:50:07  profilanswer
 

kaiser52 a écrit :

donny11 >>
 
Tu pourrais me passer le liens tien XD
Merci d'avance !
 
 :hello:


 
 
http://www.hardware.fr/articles/67 [...] on-pc.html

n°6330899
mourisse
Satan m'habite
Posté le 13-04-2008 à 16:54:59  profilanswer
 

Space a écrit :

Ageia PhysX s'installe avec pas mal de jeux et pas forcément des Doom-likes ^^


 
J'ai jamais parlé de Doom Like ^^, j'ai bien écrit "certains jeux"

n°6330900
Activation
21:9 kill Surround Gaming
Posté le 13-04-2008 à 16:55:01  profilanswer
 

donny11 a écrit :

article interessant  
 
Hardware.fr publie un article très intéressant concernant la consommation électrique de nos PC. Le but de l'article est de nous aider à mieux choisir la bonne puissance d'alimentation, en effet, il faut bien reconnaître que les fabricants nous forcent un peu la main en proposant des modèles toujours puissants et plus chers. Nos confrères ont mesuré la consommation de trois configs (bas, moyen et très haut de gamme) : ils ont pu en déduire qu'une bonne alimentation de 300 watts pour le milieu de gamme et 400 watts pour du haut de gamme est bien suffisante (y compris avec une 8800 GTX). Sauf pour un Sli de 8800 GTX, dans ce cas 500 watts seront nécessaires. Cet article a le mérite de démontrer le ridicule des alimentations de 800, 1000 ou 1200 watts, en réalité ces produits n'ont réellement aucun intérêt... sauf pour ceux qui auraient besoin de connecter 40 disques durs sur le PC à la limite...
 
Citation : Depuis quelques temps, on observe sur le marché des alimentations une véritable folie des watts de la part des constructeurs. Après les 800 watts, plusieurs constructeurs ont lancés des modèles capables de fournir 1000, voir même 1200 watts ! Le summum du ridicule fut atteint lors du CeBIT, lorsque nous avons vu Enermax puis Thermaltake essayer de justifier l’utilisation de telles alimentations. L’idée nous est alors venue de nous intéresser aux alimentations afin de faire le point, cet article n’étant donc qu’un commencement.
 
Avant toute chose, rappelons quels étaient les arguments des deux constructeurs suscités. Chez Enermax, on trouvait une configuration consommant pas moins de 933 watts. Basée sur un système Quad Opteron, elle avait la particularité d’embarquer pas moins de 24 disques durs, une paille.
 
Thermaltake allait encore plus loin, proposant une configuration consommant 1105,5 watts – oui la virgule est importante. Seul problème, seuls 605.5 watts sont vraiment consommés par le PC, les 500 watts restant l’étant par un amplificateur et des enceintes, soit des périphériques qui ne sont pas reliés à l’alimentation PC mais au directement au secteur !


 
 
moi le seul interet que je vois au 800-1000Watts c est la connectique de serie pour foutre 2 carte graphique qui necessite un total de 4 molex 6pins ou 2molex 6pins + 2 molex 8pins
 
ça evite de foutre des adaptateur partout , la connectique est là ... souvent en modulaire donc on met les nappes que si on en a besoin
 
apres faudrait pas s arreter non plus sur la puissance de l alim
 
on a encore en tete des alim de 800-1000W à 250€ le bout si c est pas 350€
 
on trouve bien heureusement des 800-1000W à 100-150€ le bout comme certaine alim seasonic 600W pour ne pas la nommer tant prisé par beaucoup d acheteur et là franchement on se demande bien pourquoi vu le prix qui stagne inlassablement sur ce modele j ai envie de dire
 
car c est du seasonic car la tension bouge pas de 0.1volts.... oueh et alors ça la rend meilleur qu une alim de qualité (pas des truc en mousse genre lc power) qui bouge de 0.2volts... bah par specialement
 
si la foudre tombe et que pas d onduleur/parafoudre, elle cramera comme tout le monde, si y a un court circuit dans le PC car vous faittes le con genre enlever une carte pci à chaud... vous risquez de tout cramé pareil
 
au tout debut de l info j etait tres antec niveau alim (c etait la tendance general faut dire)
apres en avoir vu fumé 3 peu apres la garantie 3ans
bah maintenant  
c est le rapport qualité prix en fonction de ce que j en attend, je vais chez fortron, thermaltake, enermax, etc...
c est pas 1000W qui me gene je sais tres bien que les boufferait pas meme avec un sli de gt200 ni meme un crossfire de rv770
mais si le rapport qualité prix est bon, la connectique sympa, modulaire....
 
enfin bref la puissance n'est pas mon unique critere
maintenant si les fabricant d alim calme leur kikitoutdur et font des alim 600Watts avec la connectique qu on trouve sur les 1000-1200W moi j aurais rien contre


Message édité par Activation le 13-04-2008 à 16:57:29
n°6330953
donny11
Posté le 13-04-2008 à 17:19:42  profilanswer
 

je voudrai savoir si une MSI GeForce NX8800GTS-T2D320E-HD-OC est mieux qu'une 9600GT 512MO ?

n°6331362
vofou
Posté le 13-04-2008 à 20:58:11  profilanswer
 

Tu vas poser la même question dans tous les topics ?   :D
On t'a dit 9600gt ! (sauf si la 8800gts 320 est moitié moins chère que l'autre...)

n°6331855
Activation
21:9 kill Surround Gaming
Posté le 14-04-2008 à 10:45:28  profilanswer
 

donny11 a écrit :

je voudrai savoir si une MSI GeForce NX8800GTS-T2D320E-HD-OC est mieux qu'une 9600GT 512MO ?


 
depuis noel 2007 on va dire je crois que plus personne te recommandera une carte de moins de 512Mo pour gamer  
sinon apres t'as la 8800gt  :D  
 
(ou alors sur un portable 256Mo car bon en general sur les portable c est souvent du 1280*800 (meme pas du 1440*900 pff les rapia de constructeur) avec du gpu en retour d au mieux 1 génération)


Message édité par Activation le 14-04-2008 à 10:47:15
n°6331863
kaiser52
Posté le 14-04-2008 à 10:49:34  profilanswer
 

Activation >>
 
Y'a bien des portables DELL de 1920*1200 !
Mais avec une GTX, sa sent les 1h30 d'autonomies en jeux ...


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°6331887
Activation
21:9 kill Surround Gaming
Posté le 14-04-2008 à 11:06:28  profilanswer
 

kaiser52 a écrit :

Activation >>
 
Y'a bien des portables DELL de 1920*1200 !
Mais avec une GTX, sa sent les 1h30 d'autonomies en jeux ...


 
oueh euh je sais que y a des portables dell de 1920*1200  :o j ai commandé y a encore pas si longtemps un inspiron 8300 pour qqun au taff pour un usage particulier (et franchement d ailleur le gpu avec ... ok 512Mo mais le gpu pas taillé pour du game en 1920*1200 c est plus pour de la PAO/CAO, autocad)
 
mais t avouera que le plus gros qui par en portable depuis au moins 2 an dans le grand public c est du 15.4" en 1280*800 de merde

Message cité 2 fois
Message édité par Activation le 14-04-2008 à 11:10:24
n°6331905
kaiser52
Posté le 14-04-2008 à 11:24:27  profilanswer
 

Activation >>
 
Ouai ouai c'est sur ^^
après 1280*800 sur du 15.4" c'est plus raisonnables que du 1366*768 sur du 42" ^^
 
Je viens de lire le test de la 9800GTX sur Tom's Hardware. Ils parlent beaucoup de driver un peut vieillo pour les GTS512.
Pourtant il n'y a pas de changement radicale d'archi qui obligerait un changement dans les pilotes.
Théoriquement, les drivers pour G80/G92 devraient être les même.
 
Nvidia va délaissé le G80 pour promouvoir ces G92 de m***e !
 
Je suis persuade que l'écart avec la 8800GTX aurait été encore plus petit que sa.

Message cité 1 fois
Message édité par kaiser52 le 14-04-2008 à 11:24:36

---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°6331951
Activation
21:9 kill Surround Gaming
Posté le 14-04-2008 à 11:53:57  profilanswer
 

kaiser52 a écrit :

Activation >>
 
Ouai ouai c'est sur ^^
après 1280*800 sur du 15.4" c'est plus raisonnables que du 1366*768 sur du 42" ^^
 
Je viens de lire le test de la 9800GTX sur Tom's Hardware. Ils parlent beaucoup de driver un peut vieillo pour les GTS512.
Pourtant il n'y a pas de changement radicale d'archi qui obligerait un changement dans les pilotes.
Théoriquement, les drivers pour G80/G92 devraient être les même.
 
Nvidia va délaissé le G80 pour promouvoir ces G92 de m***e !
 
Je suis persuade que l'écart avec la 8800GTX aurait été encore plus petit que sa.


 
 
en 42" normalement t aura une full HD (ou alors le fabricant se fout de la gueule du monde)
en TV de 26 à 37" on va dire t'aura du 1366*768 car c est des TV "entre 2 mondes"
aussi bien avec des programmes SD: TNT standard ou hertzien classique, source peritel genre "vieille console", camescope non hd, etc...
que le monde HD (console next gen, blu ray "downscalé" )
 
perso moi j ai une tv 30"  "entre 2 mondes" une philips avec le super system pixelplus DE MERDE que tu peux pas désactiver
t'as un une super bouton test qui te montre avec et sans pixelplus en scindant l image en 2, lorsque je regarde un blu ray sur ma PS3 avec pixelplus l image est bruité... si j avais moyen de viré ce mode ... chose impossible, l image serait impec
 
réponse du SAV philips: "vérifié vos cables" --> OUI OUI mes cables chie uniquement sur la moitié de l image seulement  :sarcastic:  
 
j'attend que les TVs full HD à technologie LEDs se généralise (en ce moment y en a de rare dont une samsung mais coute peau du cul)
 
 
après on est d accord avec une 30" t es à 3-4mètres avec un 15.4" t es plutot à 50-60cm
 
sinon entre G80/G92 la difference se joue guere niveau des SP (sur le G92 elles sont plus precise mais ça c est dans un usage SDK CUDA)
y a purevideo hd 2 sur le G92 donc là y a une differnce tres notable niveau drivers entre les 2
 
après ce qui joue c est surtout les unité ROPs car meme si dans le G92 les "transactions" au niveau des ROPs ont été amelioré, ça à tout de même sont petit impact en hautes reso avec filtrage de l iamge d'en avoir plus sur le G80
après au niveau drivers ça joue peu niveau modification
au lieu de dire compte sur X unités ROPs faut juste dire tu peux compter sur X++
 
(je fais abstraction des ligne de code ou d un coté tout est dans le meme gpu et de l autres le G80 à son "siamoi" puce des IO)
 
alors niveau 3D sur la masse de code des drivers forceware il y a enormement en commun entre le G92/G80
mais il reste qu il y a tout de meme des nuances, si faut tenir compte de ses nuances à chaque profil de jeu contenu dans les drivers, ça fait tout de meme un bon ptit paquet de ligne de code au final meme si insignifiant au cas par cas par jeu :D

n°6331986
Raziel
Noel sfini
Posté le 14-04-2008 à 12:18:43  profilanswer
 

Yop,
J'avais posté ya quelques temps pour savoir quel ventilo mettre sur un hr-03 plus, et comme j'ai un bon d'achat chez LDLC jvoudrais l'utiliser :D
Je comptais prendre un Coolink swif-921 mais ils n'ont que le "922" qui semble plus bruyant... Quoi prendre? Noctua? Akasa?

n°6332005
olioops
Si jeune et déjà mabuse.
Posté le 14-04-2008 à 12:31:03  profilanswer
 

Activation >> ça me parait très bizarre que tu puisses pas désactivé le mode pixel plus  :heink: ... c'est spécifique à ta télé alors !!! Philips t'a confirmé que ça n'existait pas sur ton modèle ? dans le sous menu image/digital options ???
 
spa possible !!!
 
si c'est le cas faudrait se renseigner pour rentrer dans le "menu technicien"
 
edit : t'as essayer ça...
 
Notez que la fonction Pixel plus n'est pas active lorsque l'option multiécran, TELETEXT (TÉLÉTEXTE), NEXTVIEW ou DUAL SCREEN (DEUX ÉCRANS) est sélectionnée.


Message édité par olioops le 14-04-2008 à 12:37:05

---------------
Ne pas confondre gisement épuisé et mine de rien !
n°6332063
angelusdeu​s
BlobUmad
Posté le 14-04-2008 à 13:16:45  profilanswer
 

Activation a écrit :


 
 
mais t avouera que le plus gros qui par en portable depuis au moins 2 an dans le grand public c est du 15.4" en 1280*800 de merde


j'ai du 1440*900 sur mon 15"4 dell xps :love:

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  856  857  858  ..  895  896  897  898  899  900

Aller à :
Ajouter une réponse
 

Sujets relatifs
Probleme artefact avec nvidia geforce 6800geforce 6600gt qui déconne(encore une..)
Carte Geforce 7600 GT : problème de busPoint Of View Nvidia GeForce 7800GTX 256 Mo GDDR3
Probleme Pilote Geforce MX 200Une GeForce et une Radeon... sur un meme PC ?!
[Topic Unique]Radeon X850XT / PEgros probleme Freeze Geforce 6800 GS
Plus de sujets relatifs à : [Topic Unique] GeForce 8800


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)