Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
4310 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  832  833  834  ..  1004  1005  1006  1007  1008  1009
Auteur Sujet :

Graphical open bar (des infos, des intox, aux extraits de TheInq)

n°5662429
blazkowicz
Posté le 19-07-2007 à 20:07:36  profilanswer
 

Reprise du message précédent :
peut-être un peu plus intéressant que les GPU haut de gamme, voilà un PC pas cher, low power, adapté aux gens et sans merdes
http://arstechnica.com/news.ars/po [...] pware.html
(la vidéo intégrée est du S3 directX 9)
ça me plait bien comme idée même si on peut faire bien plus puissant avec un sempron :)


Message édité par blazkowicz le 19-07-2007 à 20:08:38
mood
Publicité
Posté le 19-07-2007 à 20:07:36  profilanswer
 

n°5662437
MEI
|DarthPingoo(tm)|
Posté le 19-07-2007 à 20:09:10  profilanswer
 

Tu veut pas un EasyGate non plus ? :P
 
Ceci dit pour 350€ on peut faire une UC en Pentium E2140 :)


Message édité par MEI le 19-07-2007 à 20:10:19

---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°5662447
blazkowicz
Posté le 19-07-2007 à 20:13:06  profilanswer
 

un easy quoi?

n°5662453
MEI
|DarthPingoo(tm)|
Posté le 19-07-2007 à 20:14:18  profilanswer
 

Laisse tombé c'est un machine Neuf Telecom 100% opensource.  
www.easyneuf.org/fr


Message édité par MEI le 19-07-2007 à 20:15:27

---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°5662455
Fouge
Posté le 19-07-2007 à 20:15:57  profilanswer
 

Ceci dit, niveau perf un Celeron M 600 ça doit valoir un VIA C7 1.7GHz, non ?

n°5662457
MEI
|DarthPingoo(tm)|
Posté le 19-07-2007 à 20:16:35  profilanswer
 

Y'a des chances :lol: :D


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°5662483
blazkowicz
Posté le 19-07-2007 à 20:25:41  profilanswer
 

on compare un PC en location sans disque dur orienté vers une utilisation restreinte et un vrai PC en vente (enfin, aux etats-unis), avec disque dur et un windoze OEM qui "vaut" un tiers du prix? :o
 
mais les deux initiatives sont bien, comme les machines chinoises à base de MIPS 64bits. des machines petites, fiables et low power c'est mieux pour les gens et les entreprises.

n°5662523
Fouge
Posté le 19-07-2007 à 20:41:41  profilanswer
 

Location ? Il me semble que contrairement à l'EasyGate, l'OpenGate sera vendu seul (cad sans abo ADSL) au prix de 269€.


Message édité par Fouge le 19-07-2007 à 20:45:33
n°5662708
mareek
Et de 3 \o/
Posté le 19-07-2007 à 21:55:34  profilanswer
 

vapeur_cochonne a écrit :


1Go c'est leger, pour photoshop il faut au moins 2.


Tu devrais arreter de squater les topics où tu ne comprends rien, ça ne te réussis pas :/


---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
n°5662841
blazkowicz
Posté le 19-07-2007 à 22:46:59  profilanswer
 

oouais ben j'en sais rien moi, c'est tellement clair comme truc

mood
Publicité
Posté le 19-07-2007 à 22:46:59  profilanswer
 

n°5664421
asmomo
Modérateur
Posté le 20-07-2007 à 17:15:46  profilanswer
 

Ce que j'aime bien c'est le bidule d'AMD avec CPU geode, écran intégré, et manivelle :p


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°5664557
Fouge
Posté le 20-07-2007 à 18:36:33  profilanswer
 

L'OLPC: http://laptop.org/index.fr.html

 

edit: image où l'on voit le modèle (abandonné ?) à manivelle
http://www.laptop.org/OLPC_files/laptop-crank.jpg

Message cité 1 fois
Message édité par Fouge le 20-07-2007 à 21:20:49
n°5664807
asmomo
Modérateur
Posté le 20-07-2007 à 20:55:02  profilanswer
 

Avec les super couleurs acidulées  :love:


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°5666801
giHefca
occupé à ne rien faire
Posté le 21-07-2007 à 23:15:38  profilanswer
 

elle sert à quoi la manivelle, à l'alimenter ? :D

n°5666805
Le Profana​teur
Passéiste désincarné
Posté le 21-07-2007 à 23:16:56  profilanswer
 

à moudre le café. [:klem3i1]


---------------
Abordez la pente du bon côté ! \o/ Let the light surround you \o/ To bleed or not to be...
n°5666823
Le Profana​teur
Passéiste désincarné
Posté le 21-07-2007 à 23:24:41  profilanswer
 

je t'ai dit que c'était pour moudre le café, et faire la farine [:haha]


---------------
Abordez la pente du bon côté ! \o/ Let the light surround you \o/ To bleed or not to be...
n°5666839
Le Profana​teur
Passéiste désincarné
Posté le 21-07-2007 à 23:32:47  profilanswer
 

Encore heureux que t'es raison. c'est quand même pas là pour faire tourner un hypothétique FDD :d


---------------
Abordez la pente du bon côté ! \o/ Let the light surround you \o/ To bleed or not to be...
n°5667031
asmomo
Modérateur
Posté le 22-07-2007 à 04:54:44  profilanswer
 

Pas de DD, c'est précisé. Juste 500Mo de flash.


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°5669323
Fouge
Posté le 23-07-2007 à 10:28:38  profilanswer
 

Surtout que ça tourne sous Linux, que c'est rempli de contenu éducatif et qu'il sera impossible à l'utilisateur final (l'enfant) d'ajouter du contenu.

n°5671819
worm'skill​er
Le roi de la petit côte
Posté le 24-07-2007 à 10:18:57  profilanswer
 

Dites, je me suis laissé dire que d'un point de vu architecture des GPU Dx10, contrairement à avant, ceux ci était obligés de consacrer/dédier  une partie de leurs transistors uniquement à des fonctions Dx9 (contrairement à avant où une carte Dx9 était capable en hadware de traiter le code Dx8, là le hardware Dx10 n'est pas capable de traiter le code Dx9).
 
Si celà est vrai, on pourrait mieux comprendre les choix d'architecture de ATI et Nvdia sur leur GPU Dx10 :
 
8800 : architecture hybrique qui a fait le choix d'être très performante en Dx9 (au détriment du potentiel en Dx10) tablant sur le fait que les vrais jeux Dx10 n'allaient pas sortir de suite. Associé à une politique commerciale visant à ralentir l'arrivée de jeux nativement Dx10, ce choix semble avoir été le plus payant à court terme.
 
2900 : Architecture tournée vers Dx10 qui a fait le choix de minimiser le hardware dédié à Dx9 (genre les PS et les ROP qui sont très utilisés en Dx9 mais qui dont les fonctions peuvent être faites par des Shaders génériques en Dx10). Ce choix me semble moins brillant à court terme mais peut être gage d'une pépénité de la carte sur le long terme ... si les développeurs passent assez rapidement en dev full Dx10 et non pas à des jeux patchés Dx10 comme on le voit actuellement (je mets Crisis dans le lot).
 
Qu'en pensez vous les experts en architecture GPU? :)


---------------
"le prix passe, la qualité reste"
n°5671876
Fouge
Posté le 24-07-2007 à 10:43:52  profilanswer
 

Je ne suis pas expert mais je vais quand même te répondre :D

 

J'ai pas entendu qu'un GPU DX10 devait consacrer des transistors dédiés au DX9 (et précédant j'imagine)

 

Le 8800 n'a pas d'architecture "hybride". Contrairement aux premières rumeurs, le 8800 possède des unités "unifiés" conçues pour les Shaders de DX10 mais aussi de DX9. En fait, rien n'empeche d'avoir une archi "unifiée" qui ferait QUE du DX9, ou une archi "classique" qui serait dédiée au DX10.

 

Concernant ATI, son archi DX10 n'est pas si éloigné de l'archi des X1xxx qui était une carte DX9.0c
Je ne sais pas quel type d'archi est la meilleur pour le court ou long terme (on le verra quand débarqueront "en masse" les jeux DX10) mais les GPU actuels sont bien full DX10 sans partie dédié au DX9 à ma connaissance.

 

Petite remarque aussi. L'incompatibilité totale de la nouvelle API avec la version précédante ne permet pas, comme avant de faire des jeux DX-N "patché" N+1 (edit: formulation à revoir). Avant tu pouvais tout à fait faire un jeux "full DX9" avec des effets utilisant les SM2/3 qui étaient désactivables pour que ça tourne sur une GF4 (DX8/SM1) par ex. Maintenant, il est impossible de créer quoi que ce soit en DX10 sur une carte qui n'est pas DX10, même si la scène 3D est complètement vierge : ça "plantera" à l'initialisation (enfin c'est ce que ça me fait lorsque j'essai les examples du SDK DX10 sur ma CG DX9). Donc les jeux seront soit DX9, soit DX10 mais pas de "mélange". A la limite, ce qu'on peut dire, c'est que les jeux DX10 actuels n'exploite pas toutes les possibilités de DX10 et qu'ils seraient à un niveau DX9+, mais ils sont bien full DX10 (ou full DX9 pour les CG DX9).

 

Attendons les réponses des "vrais" expert :D


Message édité par Fouge le 24-07-2007 à 10:48:38
n°5671915
bjone
Insert booze to continue
Posté le 24-07-2007 à 11:04:18  profilanswer
 

worm'skiller a écrit :

Dites, je me suis laissé dire que d'un point de vu architecture des GPU Dx10, contrairement à avant, ceux ci était obligés de consacrer/dédier  une partie de leurs transistors uniquement à des fonctions Dx9 (contrairement à avant où une carte Dx9 était capable en hadware de traiter le code Dx8, là le hardware Dx10 n'est pas capable de traiter le code Dx9).
 
Si celà est vrai, on pourrait mieux comprendre les choix d'architecture de ATI et Nvdia sur leur GPU Dx10 :
 
8800 : architecture hybrique qui a fait le choix d'être très performante en Dx9 (au détriment du potentiel en Dx10) tablant sur le fait que les vrais jeux Dx10 n'allaient pas sortir de suite. Associé à une politique commerciale visant à ralentir l'arrivée de jeux nativement Dx10, ce choix semble avoir été le plus payant à court terme.
 
2900 : Architecture tournée vers Dx10 qui a fait le choix de minimiser le hardware dédié à Dx9 (genre les PS et les ROP qui sont très utilisés en Dx9 mais qui dont les fonctions peuvent être faites par des Shaders génériques en Dx10). Ce choix me semble moins brillant à court terme mais peut être gage d'une pépénité de la carte sur le long terme ... si les développeurs passent assez rapidement en dev full Dx10 et non pas à des jeux patchés Dx10 comme on le voit actuellement (je mets Crisis dans le lot).
 
Qu'en pensez vous les experts en architecture GPU? :)


 
que nan.
 
certes, il est toujours possible de consommer des transistors pour favoriser un certain niveau de performances vis à vis d'une approche antérieure.
la dernière fois que c'était le cas, c'était plus les geforces fx qui avaient une "assistance" au TnL. (je sais plus si les Geforces 6 ont une assistance hardware TnL ou si c'est complètement émulé par shader, y'a des chances que ce soit le cas).
 
---
 
ensuite pour le nativement D3D10: y'a pas d'application plus ou moins D3D10.  
 
une fois que le moteur est codé pour utiliser l'api du D3D10, tu as des shaders avec des profils différents.  
 
après bien sûr suivant l'effet désiré, les ressources mise en oeuvre, et le "bugdet" de peformances offert par le parc courant, le profil des shaders changent.
 
alors après, dire que tel ou tel gpu sera plus efficace à l'avenir de manière globale est dur à dire. ça va dépendre des profils et de la tendance.
les GPUs (ou CPUs) s'adaptent aux profils d'utilisation, et l'utilisation s'adapte au budget matériel.
 
dans tous les cas, la magnitude de charge croit toujours à tous les niveaux, donc la 8800 gtx comme la 2900hd seront à la rue assez rapidement, juste pour des raisons différentes.....
 
par contre oui les choix du GF8 sont plus liés aux profils actuels, et peut être que la 2900 est plus liée aux profils futurs estimés par ATI, mais bon...
 
il est peut-être vrai que la 2900 hérite aussi des profils d'utilisation de la 360. (comme les consoles sont limitées en budget mémoire comparé à ce que l'on se permet sur PC, il y a peut être plus de favorisation d'aspect math que de l'aspect texture....)  
déjà que Gears of war semble avoir des samplers en bilinéaire avec mipmapping :D (enfin c'est ce que j'ai cru voir avec mon noeil)


Message édité par bjone le 24-07-2007 à 11:28:26
n°5671993
kao98
...
Posté le 24-07-2007 à 11:42:08  profilanswer
 

worm'skiller a écrit :

Dites, je me suis laissé dire que d'un point de vu architecture des GPU Dx10, contrairement à avant, ceux ci était obligés de consacrer/dédier  une partie de leurs transistors uniquement à des fonctions Dx9 (contrairement à avant où une carte Dx9 était capable en hadware de traiter le code Dx8, là le hardware Dx10 n'est pas capable de traiter le code Dx9).
 
Si celà est vrai, on pourrait mieux comprendre les choix d'architecture de ATI et Nvdia sur leur GPU Dx10 :
 
8800 : architecture hybrique qui a fait le choix d'être très performante en Dx9 (au détriment du potentiel en Dx10) tablant sur le fait que les vrais jeux Dx10 n'allaient pas sortir de suite. Associé à une politique commerciale visant à ralentir l'arrivée de jeux nativement Dx10, ce choix semble avoir été le plus payant à court terme.
 
2900 : Architecture tournée vers Dx10 qui a fait le choix de minimiser le hardware dédié à Dx9 (genre les PS et les ROP qui sont très utilisés en Dx9 mais qui dont les fonctions peuvent être faites par des Shaders génériques en Dx10). Ce choix me semble moins brillant à court terme mais peut être gage d'une pépénité de la carte sur le long terme ... si les développeurs passent assez rapidement en dev full Dx10 et non pas à des jeux patchés Dx10 comme on le voit actuellement (je mets Crisis dans le lot).
 
Qu'en pensez vous les experts en architecture GPU? :)


J'ai l'impression que tu es passé par le topic crysis non ? Et c'est là que tu as lu ces trucs là !?
Saches que le mec qui disait ça disait, à peu près, n'importe quoi avec ses histoires de cartes full directx 10. Je ne veut pas dire d'anneries, mais les réponses que tu viens d'avoir ici me confirme ma première impression.
 
Edit : un passage du topic crysis :
 

Message cité 2 fois
Message édité par kao98 le 24-07-2007 à 11:52:56

---------------
Kao ..98 - Uplay (R6S) : kao98.7.62x39 - Origin (BF4, BF1) : kntkao98
n°5672091
mimychatmi​aou
Building Better Worlds
Posté le 24-07-2007 à 12:18:43  profilanswer
 

Fouge a écrit :

L'OLPC: http://laptop.org/index.fr.html
 
edit: image où l'on voit le modèle (abandonné ?) à manivelle
http://www.laptop.org/OLPC_files/laptop-crank.jpg


 

giHefca a écrit :

elle sert à quoi la manivelle, à l'alimenter ? :D


 
 
 
 
Au passage, le pc a trouvé sa premiere vocation, Apprendre les fonctions de reproduction au petits nenfants :o
 
http://news.scotsman.com/latest.cfm?id=1129342007
 
Nigerian pupils browse porn on donated laptops
 
ABUJA (Reuters) - Nigerian schoolchildren who received laptops from a U.S. aid organisation have used them to explore pornographic sites on the Internet, the official News Agency of Nigeria (NAN) reported on Thursday.
(...)

n°5672119
Le Profana​teur
Passéiste désincarné
Posté le 24-07-2007 à 12:27:56  profilanswer
 

kao98 a écrit :


J'ai l'impression que tu es passé par le topic crysis non ? Et c'est là que tu as lu ces trucs là !?
Saches que le mec qui disait ça disait, à peu près, n'importe quoi avec ses histoires de cartes full directx 10. Je ne veut pas dire d'anneries, mais les réponses que tu viens d'avoir ici me confirme ma première impression.
 
Edit : un passage du topic crysis :


putain l'edit [:xx_xx] [:rofl]²²²²²


---------------
Abordez la pente du bon côté ! \o/ Let the light surround you \o/ To bleed or not to be...
n°5672130
tridam
Profil : Equipe HardWare.fr
Posté le 24-07-2007 à 12:35:38  profilanswer
 

Nvidia a pour habitude de viser plus à court terme qu'à long terme au niveau du profil de performances de ses architectures. L'implémentation de certaines possibilités de DirectX 10 a été faite de manière à ce que ce soit supporté, pas à ce que ce soit performant/utilisable. A l'opposé, ATI/AMD reste beaucoup plus proche de l'API. D'un côté plus de travail pour maximiser le rendement de l'architecture, de l'autre plus de travail pour s'assurer d'une bonne implémentation de l'API. Chaque approche a des avantages et des inconvénients.
 
Quoi qu'il en soit, sur une nouvelle API, c'est le premier sur le marché et le premier à équiper massivement les développeurs qui a l'avantage. Compte tenu de cela, je dirais que l'approche d'ATI/AMD permet de limiter les dégats en cas de retard alors que l'approche de Nvidia est beaucoup plus risquée. Si le Radeon HD 2900 était arrivé à l'heure et le GeForce 8800 arrivé 6 mois en retard, Nvidia aurait souffert beaucoup plus de ce retard qu'ATI/AMD.

n°5672339
Oxygen3
Tears from the moon
Posté le 24-07-2007 à 13:55:32  profilanswer
 

Pour l'histoire des DX9 *patchés* en DX10, est-ce que c'est pas simplement une conversion barbarre du code DX9 en code DX10 ?
 
Car j'imagine difficielemnt les développeur réaliser deux fois leur code pour supporter tout le parc des machines. Je vois plutot les devs coder tout en DX9 à l'heure actuelle, convertir en DX10, et rajouter/corriger ce qui se fait mieux en DX10 par des fonctions spécifiques à DX10.
 
Mais bon, je peux sans doute me planter :)


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°5672427
bjone
Insert booze to continue
Posté le 24-07-2007 à 14:31:05  profilanswer
 

oui plus ou moins.
 
coté API, D3D10 est une évolution du D3D9 avec suppression des fonctionnalitées rendues obslètes pour l'approche du tout-shader imposée (à juste titre).
 
donc comme le budget hardware est le même, on utilise quelque fonction de ci de là.  
des fois c'est bof, des fois c'est très palpable.

n°5672474
bjone
Insert booze to continue
Posté le 24-07-2007 à 14:50:52  profilanswer
 

kao98 a écrit :


J'ai l'impression que tu es passé par le topic crysis non ? Et c'est là que tu as lu ces trucs là !?
Saches que le mec qui disait ça disait, à peu près, n'importe quoi avec ses histoires de cartes full directx 10. Je ne veut pas dire d'anneries, mais les réponses que tu viens d'avoir ici me confirme ma première impression.
 
Edit : un passage du topic crysis :


 
ce que dit temujin est en partie faux (dumoins nécessite précisions).
 
à chaque génération, les nouvelles fontionnalitées "englobent" les fonctionnalitées précédentes dans la majorité des cas.
 
le hardware D3D10 n'a pas à avoir du transistor consommé pour le D3D9 (avec pour résultat un certain rapport entre les performances D3D10/D3D9 et la consommation transistor).
 
c'est comme un 386: y'a pas une ALU pour le 32bits et une ALU 16 bits et une ALU 8bits, y'en a une seul 32bits qui est faite "naturellement" pour couvrir triviallement tous les cas. (comme l'ALU d'un athlon 64 ou d'un C2D qui est la même que ce soit en 64 ou 32bits)
 
justement, dans le cas du 386, la mise en pipeline a commençée ce qui faisait que certaines instruction micro-codée était plus rapides exprimées par plusieures instructions classique atomiques que via l'instruction originelle.
 
au niveau hardware direct3d, c'est pareil. du hardware D3D10 est naturellement rétrocompatible D3D9 au niveau fonctionnalitée shader (l'inverse forcément n'est pas possible).
 
la période de transistion à ce niveau c'était plus D3D7 vs D3D8/9, où on est passé d'une archi TnL au shader-only.
là la radeon 9700 était déjà uniquement shader 2.0 au niveau hardware, est tout était ramené au niveau SM 2.0 (avec certainement quelques hacks)
et la geforce fx, avait une assistance interne TnL (plus ou moins poussée) aux pipes VS, et avait des ALU "switchables". (pour le coté half/float anticipatif qui a joué contre nV).
 
par exemple si tu utilises une Appli D3D7 avec que des fonctions fixes (des états de rendus API), comme le fog, le TnL... sur du hardware moderne D3D9/D3D10, c'est émulé en shader soit par le driver soit par le runtime microsoft.
 
avec une appli D3D7 TnL & Renderstates classiques, sur un GPU D3D9 ou D3D10:
 
dans le cas de Xp, le driver peut toujours exposer les vieilles fonctionnalitées, et le driver-produit alors du micro-code GPU directement (pas vraiment de niveau de spécificité, tout hack est possible).
 
dans le cas de Vista, les vielles fonctionnalitées sont en principe bennées du driver (il ne peut plus les exposer), le runtime microsoft converti les états D3D7 en Shader 2.0/3.0/4.0, et le passe au driver (qui à son tour produit du micro-code GPU).
 
à vérifier mais en principe c'est ça.
 
----
 
Bon après juste une petite précision sur l'aspect test des vertexs cachés (qu'il indique dans son post), c'est un raccourci pour rendre la chose plus compréhensible. En fait un GPU peut généralement traiter plus vite que ce qu'un CPU peut lui fournir en terme de volume de vertexs, donc la suppression des objets cachés, se fait généralement pour l'ensemble de l'objet via un système approximatif.

Message cité 2 fois
Message édité par bjone le 25-07-2007 à 14:45:51
n°5672739
tridam
Profil : Equipe HardWare.fr
Posté le 24-07-2007 à 16:04:59  profilanswer
 

bjone a écrit :


 
ce que dit temujin est en partie faux (dumoins nécessite précisions).
 
à chaque génération, les nouvelles fontionnalitées "englobent" les fonctionnalitées précédentes dans la majorité des cas.
 
le hardware D3D10 n'a pas à avoir du transistor consommé pour le D3D9 (avec pour résultat un certain rapport entre les performances D3D10/D3D9 et la consommation transistor).
 
c'est comme un 386: y'a pas unr ALU pour le 32bits et une ALU 16 bits et une ALU 8bits, y'en a une seul 32bits qui est faite "naturellement" pour couvrir triviallement tous les cas. (comme l'ALU d'un athlon 64 ou d'un C2D qui est la même que ce soit en 64 ou 32bits)
 
justement, dans le cas du 386, la mise en pipeline a commençée ce qui faisait que certaines instruction micro-codée était plus rapides exprimées par plusieures instructions classique atomiques que via l'instruction originelle.
 
au niveau hardware direct3d, c'est pareil. du hardware D3D10 est naturellement rétrocompatible D3D9 au niveau fonctionnalitée shader (l'inverse forcément n'est pas possible).
 
la période de transistion à ce niveau c'était plus D3D7 vs D3D8/9, où on est passé d'une archi TnL au shader-only.
là la radeon 9700 était déjà uniquement shader 2.0 au niveau hardware, est tout était ramené au niveau SM 2.0 (avec certainement quelques hacks)
et la geforce fx, avait une assistance interne TnL (plus ou moins poussée) aux pipes VS, et avait des ALU "switchables". (pour le coté half/float anticipatif qui a joué contre nV).
 
par exemple si tu utilises une Appli D3D7 avec que des fonctions fixes (des états de rendus API), comme le fog, le TnL... sur du hardware moderne D3D9/D3D10, c'est émulé en shader soit par le driver pour le runtime microsoft.
 
avec une appli D3D7 TnL & Renderstates classiques, sur un GPU D3D9 ou D3D10:
 
dans le cas de Xp, le driver peut toujours exposer les vieilles fonctionnalitées, et le driver-produit alors du micro-code GPU directement (pas vraiment de niveau de spécificité, tout hack est possible).
 
dans le cas de Vista, les vielles fonctionnalitées sont en principe bennées du driver (il ne peut plus les exposer), le runtime microsoft converti les états D3D7 en Shader 2.0/3.0/4.0, et le passe au driver (qui à son tour produit du micro-code GPU).
 
à vérifier mais en principe c'est ça.
 


 
Logiquement ce n'est que pour le driver Direct3D 10 que tout le reste disparaît. Le driver Direct3D 9 reste similaire à celui de XP. Mais concernant l'implémentation hardware de certaines fonctions, les fabricants de GPUs DX10 peuvent choisir de supprimer certaines parties fixes et de les émuler sous DX9 ou de les conserver (les particules par exemple il me semble). Elles ne peuvent pas être exposées sous DX10 mais tout reste possible sous DX9. Rien n'empêche un GPU DX10 d'avoir de la logique dédiée au T&L qui sera utilisée en OpenGL ou avec les précédents DX.
 
Un fabricant de GPU peut choisir d'utiliser plus de transistors pour augmenter les performances lors d'une utilisation type d'un jeu DX9 d'aujourd'hui ou pour l'utilisation future de DX10. Avec les GeForce 8, Nvidia supporte l'amplification géométrique telle que demandée par DX10 mais sans adapter son architecture pour qu'elle soit réellement utilisable avec un niveau de performances acceptable. Idem avec les branchements dynamiques et les PS3, idem lors du passage de DX8 à DX9. Il n'y a pas de différence selon moi à ce niveau par rapport aux générations précédentes. Les fabricants de GPUs ont toujours le choix d'utiliser leurs transistors plus dans un sens ou plus dans un autre et DX10 ne change rien à cela.

Message cité 1 fois
Message édité par tridam le 24-07-2007 à 16:11:59
n°5672752
asmomo
Modérateur
Posté le 24-07-2007 à 16:08:16  profilanswer
 

mimychatmiaou a écrit :

Au passage, le pc a trouvé sa premiere vocation, Apprendre les fonctions de reproduction au petits nenfants :o
 
http://news.scotsman.com/latest.cfm?id=1129342007
 
Nigerian pupils browse porn on donated laptops
 
ABUJA (Reuters) - Nigerian schoolchildren who received laptops from a U.S. aid organisation have used them to explore pornographic sites on the Internet, the official News Agency of Nigeria (NAN) reported on Thursday.
(...)


 
 [:bambookillah]


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°5672883
bjone
Insert booze to continue
Posté le 24-07-2007 à 16:48:47  profilanswer
 

tridam a écrit :


 
Logiquement ce n'est que pour le driver Direct3D 10 que tout le reste disparaît. Le driver Direct3D 9 reste similaire à celui de XP. Mais concernant l'implémentation hardware de certaines fonctions, les fabricants de GPUs DX10 peuvent choisir de supprimer certaines parties fixes et de les émuler sous DX9 ou de les conserver (les particules par exemple il me semble). Elles ne peuvent pas être exposées sous DX10 mais tout reste possible sous DX9. Rien n'empêche un GPU DX10 d'avoir de la logique dédiée au T&L qui sera utilisée en OpenGL ou avec les précédents DX.
 
Un fabricant de GPU peut choisir d'utiliser plus de transistors pour augmenter les performances lors d'une utilisation type d'un jeu DX9 d'aujourd'hui ou pour l'utilisation future de DX10. Avec les GeForce 8, Nvidia supporte l'amplification géométrique telle que demandée par DX10 mais sans adapter son architecture pour qu'elle soit réellement utilisable avec un niveau de performances acceptable. Idem avec les branchements dynamiques et les PS3, idem lors du passage de DX8 à DX9. Il n'y a pas de différence selon moi à ce niveau par rapport aux générations précédentes. Les fabricants de GPUs ont toujours le choix d'utiliser leurs transistors plus dans un sens ou plus dans un autre et DX10 ne change rien à cela.


 
ok je suis d'accord.
néanmoins je doutes que hors ptet PointSprites, il y ait des masses de transistors dans la Geforce 8 qui soit dédiée a des vieilles fonctionnalitées (qui soient émulables par shader j'entend).
 
tiens d'ailleurs pour en revenir à une chose, est-ce normal de voir toujours sous vista une version DDI 9Ex pour une Geforce 8 dans dxdiag ? (je m'attendais à un 10 dans le cas d'une Geforce 8)

n°5673052
tridam
Profil : Equipe HardWare.fr
Posté le 24-07-2007 à 17:53:23  profilanswer
 

Note que je n'ai pas dit que les pointsprites n'étaient pas émulés, je ne sais pas si c'est le cas à vrai dire. Mon point de vue est plutôt d'opposer le fait de mettre plus d'unités de texturing pour augmenter les performances actuelles vs intégrer une structure cache/mémoire plus avancée pour rendre certaines nouvelles possibilités de DX10 plus performantes.
 
Ce que reporte Dxdiag ce n'est pas l'API utilisée pour le bureau ? Donc 9Ex ? Enfin en tout cas c'est normal.

n°5673791
moggbomber
War, war never changes
Posté le 24-07-2007 à 23:32:34  profilanswer
 

tiens, je vois que des HD2400 vont sortir en AGP a 60€. je me demandais niveau perf qu'est ce que ca vaut par rapport a un 9800 d'aprés vous?

n°5673812
god is dea​d
Demain, j'arrête de poster.
Posté le 24-07-2007 à 23:50:37  profilanswer
 

La XT est légèrement inférieure à une 7600gs, donc peut être 15% meilleure qu'une 9800pro. Enfin, si c'est juste pour le jeu, l'upgrade n'est pas intéressante. Le seul intérêt des 2400 se résume en un mot : UVD, tu peux jeter le reste :o


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  832  833  834  ..  1004  1005  1006  1007  1008  1009

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Demande infos] Top AchatComment imprimer les infos du bios ?
Quel carte Open Gl la mieux adapte a 3dsMAXBesion d'infos sur les Graveur de DVD chui perdu
couldn't load open glNEC ND-1300: cherche infos
Mise a jour bios KT7A, prob direct x et open gl geforce 2 pro!!Salut je voudrait des infos sur l'instalation d'un processeur
Rech infos sur le nouveau graveur de DVD liteon multiformat !!!![INFOS a la con] si vous avez des PB avec votre ABIT NF7-S REV2.0
Plus de sujets relatifs à : Graphical open bar (des infos, des intox, aux extraits de TheInq)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)