Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2831 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  28  29  30  ..  73  74  75  76  77  78
Auteur Sujet :

[Topic Unique] GT300 // La nouvelle bête de combat nvidia en 40nm

n°6995608
Fantryt
Posté le 13-06-2009 à 20:26:26  profilanswer
 

Reprise du message précédent :
Tu croyais sincèrement que la technologie 3DVision de nVIDIA était la seule et unique solution pour qu'un écran puisse afficher en 3D ???!  :ouch:  
Non, ce procédé est probablement le plus rentable, parmi les dizaines d'autres procédés et technologies qui existent déjà pour qu'un écran affiche en 3D sans lunettes .

mood
Publicité
Posté le 13-06-2009 à 20:26:26  profilanswer
 

n°6995614
marllt2
Posté le 13-06-2009 à 20:30:42  profilanswer
 

Fantryt a écrit :

parmi les dizaines d'autres procédés et technologies qui existent déjà pour qu'un écran affiche en 3D sans lunettes .


Ca ne répond pas à ma question...

n°6995621
Fantryt
Posté le 13-06-2009 à 20:40:53  profilanswer
 

Soit .
Peut-être que ceci répondra à ta question :
http://www.lesnumeriques.com/article-62-341-84.html

n°6995622
Activation
21:9 kill Surround Gaming
Posté le 13-06-2009 à 20:41:00  profilanswer
 

marllt2 a écrit :


Ca ne répond pas à ma question...


 
 
en fait si tu veux pour simplifié imagine 2 sources de lumière mais si proche l une de l autre que tu n arrive pas à les distingué
 
maintenant tu joue sur l angle de diffusion de chacune de ses lumières
 
en gros faut plus s imaginer les pixel d un ecran comme des mini laser
 
et avoir plus en tete un syteme holographique mais à la différence d un systeme holographique ou en fait ou on a tout le volume de l objet que l on veut présenté  
 
avec une TV 3D c'est n'est que quelque couche (calque) de ce volume
 
en bref et sauf erreur avec ce qu il est possible actuellement on doit pouvoir avoir jusqu'à 6  calques d image ou tu aura l impression d avoir devant ta tv (bref 3D)
 
pour les techno les plus merdique actuel on est limité à 3 sauf erreur dans ce domaine
 
et toujours sauf erreur ça doit être des francais qui on la techno la plus pointu actuellement


Message édité par Activation le 13-06-2009 à 20:41:35
n°6995648
marllt2
Posté le 13-06-2009 à 20:59:33  profilanswer
 

:jap:

n°6995974
White Sh4d​ow
GHz-O-Meter !
Posté le 14-06-2009 à 09:42:13  profilanswer
 

mais pour ce genre d'écran, il faut être à la bonne distance de l'écran, sinon, le résultat est faussé voir inexistant...

n°6996100
Gigathlon
Quad-neurones natif
Posté le 14-06-2009 à 12:10:58  profilanswer
 

Le plus simple reste l'utilisation de lunettes en polarisation permanente et d'un écran 120Hz qui change la sienne...

n°6996188
bjone
Insert booze to continue
Posté le 14-06-2009 à 13:48:57  profilanswer
 

Bah deux projos et des lunettes en polarisation permanente, il faut rester orthogonal :D

n°6996517
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 14-06-2009 à 18:45:42  profilanswer
 

Citation :

Une fois la fonction opérationnelle, et à condition que vous soyez équipés d'une puce graphique NVIDIA (ce système a été développé en collaboration avec eux), les personnages des jeux paraissent véritablement sortir de la dalle.


Évidemment, avec une puce ATi, Matrox, Via, SGI, S3, PowerVR, ou Intel, ça ne fonctionne pas.  :sarcastic:
 

n°6996660
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 14-06-2009 à 20:10:05  profilanswer
 

NVidia va dévoiler 5 puces graphique, gravées en 40nm, lundi le 15 juin.
 
http://www.semiaccurate.com/static/uploads/june/NV_40_Mobile2.jpg
 
Malheureusement y'a pas de GT300 (ou G300 si vous préférez) parmis ces 5 puces.

Message cité 1 fois
Message édité par Wirmish le 14-06-2009 à 20:10:54
mood
Publicité
Posté le 14-06-2009 à 20:10:05  profilanswer
 

n°6996664
Ramichou
Posté le 14-06-2009 à 20:11:17  profilanswer
 

Genre c'est plus des G92 :(

n°6996672
mikestewar​t
Air Roll Spinnin'
Posté le 14-06-2009 à 20:15:00  profilanswer
 

Sympa d'apparition de la GDDR5 chez Nvidia. :)

 

Le GTS250M devrait avoir du succès.

Message cité 1 fois
Message édité par mikestewart le 14-06-2009 à 20:15:08
n°6996686
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 14-06-2009 à 20:19:56  profilanswer
 

Wirmish a écrit :

NVidia va dévoiler 5 puces graphique, gravées en 40nm, lundi le 15 juin.
 
http://www.semiaccurate.com/static [...] obile2.jpg
 
Malheureusement y'a pas de GT300 (ou G300 si vous préférez) parmis ces 5 puces.

Mais ce sont des puces pour portable ça ! A base de G92 révisé en 40nm


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°6996701
mikestewar​t
Air Roll Spinnin'
Posté le 14-06-2009 à 20:24:31  profilanswer
 

super_newbie_pro a écrit :

Mais ce sont des puces pour portable ça ! A base de G92 révisé en 40nm


 
Un G92 avec bus 128bits et gestion de la GDDR5. :D

n°6996709
Ramichou
Posté le 14-06-2009 à 20:28:48  profilanswer
 

Oué autant dire qu'ils n'ont pas du se ruiner en R&D pour sortir ca et que ca sert a prendre de l'expérience sur le 40nm (cf AMD avec la HD4770)

n°6997033
Gigathlon
Quad-neurones natif
Posté le 14-06-2009 à 23:41:03  profilanswer
 

mikestewart a écrit :

Sympa d'apparition de la GDDR5 chez Nvidia. :)
 
Le GTS250M devrait avoir du succès.


Hmmm... avec des perfs vraisemblablement inférieures à la 4830 mobility j'ai un doute.
 
96SP @1250MHz et ROPs @500MHz c'est vraiment faible, c'est tout juste comparable à une 9600GT (64SP @1625MHz, ROPs @650MHz & bus 256bits). Un peu plus de puissance de calcul mais au mieux 23% de fillrate et 11% de BP en moins.
 
En tout cas c'est du GT200 si ces chiffres sont exacts (la GT250 peut être vue comme 2/5e d'une GTX280... avec des fréquences légèrement à la baisse), y'a que la G210M qui n'en serait pas.

n°6997039
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 14-06-2009 à 23:43:28  profilanswer
 

Mais quand même... on parle de 5 GPU différents (ou plutôt 3 ?), gravés en 40nm... et lancé ce lundi... alors que TSMC est supposé avoir un tas de problèmes avec le 40nm, ayant même été dans l'obligation de stopper la production de RV740... moi ça me semble asser étrange cette histoire.
 
Enfin, on verra demain...

n°6997068
Gigathlon
Quad-neurones natif
Posté le 15-06-2009 à 00:07:43  profilanswer
 

3 voire 2, vu les conso annoncées pour les GT230/240...
 
Mais j'ai un doute pour la G210, ça fait vraiment trop léger pour du 40nm (c'est basiquement une 8500GT/9400GT...)

n°6997099
mikestewar​t
Air Roll Spinnin'
Posté le 15-06-2009 à 00:55:45  profilanswer
 

Gigathlon a écrit :


Hmmm... avec des perfs vraisemblablement inférieures à la 4830 mobility j'ai un doute.

 

96SP @1250MHz et ROPs @500MHz c'est vraiment faible, c'est tout juste comparable à une 9600GT (64SP @1625MHz, ROPs @650MHz & bus 256bits). Un peu plus de puissance de calcul mais au mieux 23% de fillrate et 11% de BP en moins.

 

En tout cas c'est du GT200 si ces chiffres sont exacts (la GT250 peut être vue comme 2/5e d'une GTX280... avec des fréquences légèrement à la baisse), y'a que la G210M qui n'en serait pas.

 

Je savais pas qu'AMD avait lancé une version Mobility du RV740. :jap:

 

Je trouvais le rapport puissance/TDP intéressant. :/

Message cité 1 fois
Message édité par mikestewart le 15-06-2009 à 00:56:52
n°6997101
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 15-06-2009 à 00:57:09  profilanswer
 
n°6997103
mikestewar​t
Air Roll Spinnin'
Posté le 15-06-2009 à 01:03:37  profilanswer
 


 
Merci.
 
Ah oui lancées y a 3 mois et j'ai rien vu dans le commerce. :/

n°6997139
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 15-06-2009 à 02:55:52  profilanswer
 

Asus K51AB
 
Asus doit attendre le feu vert d'Intel et de nVidia avant de mettre ce portable sur le marché...

n°6997414
Activation
21:9 kill Surround Gaming
Posté le 15-06-2009 à 12:43:00  profilanswer
 

Ramichou a écrit :

Genre c'est plus des G92 :(


 
 
comment ça c est plus des gts250  
 
 
 [:vince_astuce]

n°6997418
Activation
21:9 kill Surround Gaming
Posté le 15-06-2009 à 12:44:39  profilanswer
 

Wirmish a écrit :

Citation :

Une fois la fonction opérationnelle, et à condition que vous soyez équipés d'une puce graphique NVIDIA (ce système a été développé en collaboration avec eux), les personnages des jeux paraissent véritablement sortir de la dalle.


Évidemment, avec une puce ATi, Matrox, Via, SGI, S3, PowerVR, ou Intel, ça ne fonctionne pas.  :sarcastic:
 


 
 
bah t as vu une api dans directx qui s occupe de standardisé la gestion des lunettes  :o  
 
m enfin bon perso m en tape de ce système si c est pour avoir la gerbe

n°6997429
Yoyo_5
Posté le 15-06-2009 à 12:50:59  profilanswer
 

Activation a écrit :

bah t as vu une api dans directx qui s occupe de standardisé la gestion des lunettes  :o  
 
m enfin bon perso m en tape de ce système si c est pour avoir la gerbe


D'après lesnumériques, ce système est vraiment excellent, pas de mots de tête, rien, que dalle. :jap:


---------------
¤ Paix et félicité ¤

n°6997433
Activation
21:9 kill Surround Gaming
Posté le 15-06-2009 à 12:54:58  profilanswer
 

Yoyo_5 a écrit :


D'après lesnumériques, ce système est vraiment excellent, pas de mots de tête, rien, que dalle. :jap:


 
 
sur si t es dans les 68% des gens pas affecté  :o  
 
on est tout tout de meme loin des 95-100%
 
et fauit voir combien de temps ils sont resté devant... mais d avis qu au bout de 30minutes vont commencé à tilté
 
quand t en vois jouer durant 4 heures d affiler :D

Message cité 2 fois
Message édité par Activation le 15-06-2009 à 12:55:49
n°6997438
Sgt Sharp
Fortune favors the Bold
Posté le 15-06-2009 à 12:58:05  profilanswer
 

Activation a écrit :


quand t en vois jouer durant 4 heures d affiler :D


 
Heureusement les choses se sont beaucoup arrangées depuis le passage du CRT au LCD :D

n°6997445
Yoyo_5
Posté le 15-06-2009 à 13:02:29  profilanswer
 

Activation a écrit :

sur si t es dans les 68% des gens pas affecté  :o  
 
on est tout tout de meme loin des 95-100%
 
et fauit voir combien de temps ils sont resté devant... mais d avis qu au bout de 30minutes vont commencé à tilté
 
quand t en vois jouer durant 4 heures d affiler :D


Possible, mais perso j'avais essayé à l'époque des Geforce 256/2 GTS, et c'était vraiment douloureux pour la tête et les yeux, là ça ne l'est visiblement pas : http://www.lesnumeriques.com/article-397-5064-363.html :o


---------------
¤ Paix et félicité ¤

n°6997500
Gigathlon
Quad-neurones natif
Posté le 15-06-2009 à 13:45:27  profilanswer
 

Activation a écrit :

bah t as vu une api dans directx qui s occupe de standardisé la gestion des lunettes  :o  
 
m enfin bon perso m en tape de ce système si c est pour avoir la gerbe


Pas besoin d'API pour effectuer un même rendu selon 2 points de vue, c'est déjà utilisé pour certains effets d'ailleurs...
 
Ah par contre c'est sûr qu'il faut une puissance de calcul conséquente derrière, à tel point que même sur un triple SLI de GTX285 ça rame... du coup on se demande bien pourquoi nVidia en fait tout un foin.

n°6997933
Activation
21:9 kill Surround Gaming
Posté le 15-06-2009 à 18:53:51  profilanswer
 

Gigathlon a écrit :


Pas besoin d'API pour effectuer un même rendu selon 2 points de vue, c'est déjà utilisé pour certains effets d'ailleurs...
 
Ah par contre c'est sûr qu'il faut une puissance de calcul conséquente derrière, à tel point que même sur un triple SLI de GTX285 ça rame... du coup on se demande bien pourquoi nVidia en fait tout un foin.


 
 
ché po
 
moi me dit qu avec qqs bonne API on doit pouvoir pas trop voir le framerate se casser là gueule via qqs astuce :D

n°6997986
Gigathlon
Quad-neurones natif
Posté le 15-06-2009 à 19:28:49  profilanswer
 

C'est pas trop possible, les axes ne sont pas les mêmes pour les 2 vues donc vu qu'on utilise ça pour calculer l'image ça implique d'en calculer 2 complètes au lieu d'une...

n°6998220
White Sh4d​ow
GHz-O-Meter !
Posté le 15-06-2009 à 22:21:16  profilanswer
 

oui mais la scène n'est elle pas d'abord rendu en 3D ( en vrai je veux dire ), et qu'après il y a une "projection orthogonale" suivant l'écran ? dans ce cas, ca ne coute rien au framerate de faire deux projections... mais c'est pas comme ca que sont rendus les jeux, ca couterait trop de tout rendre si ca n'est pas nécessaire à l'écran
 
EDIT: je sais pas si vous me suivez ? :whistle:

Message cité 1 fois
Message édité par White Sh4dow le 15-06-2009 à 22:21:32
n°6998396
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 16-06-2009 à 01:39:17  profilanswer
 

White Sh4dow a écrit :

je sais pas si vous me suivez ? :whistle:


http://www.sim07.net/blog/wp-content/uploads/2009/01/wii-sexe-mini.jpg
 
Heu...
 
En fait non, pas vraiment.


Message édité par Wirmish le 16-06-2009 à 02:11:52
n°6998400
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 16-06-2009 à 01:44:41  profilanswer
 

Une scène 3D doit être entièrement recalculée dès qu'on change la position de la "camera" d'un seul pixel.
Donc, pour recréer un effet 3D à partir d'une télé, il faut nécessairement recalculer 2 fois la scène.

Message cité 1 fois
Message édité par Wirmish le 16-06-2009 à 02:14:21
n°6998430
bjone
Insert booze to continue
Posté le 16-06-2009 à 05:06:27  profilanswer
 

Dans un jeu, tout est retracé en boucle sans fin :) (Quelques fois régulé)
Une appli style 3DS c'est à la demande ou régulé.
 
En stéréoscopie, la scene passe deux fois le rendu (mais ce sont les mêmes batchs, le moteur ne va pas refaire le culling de la scène deux fois)
 
Question API, le D3D a bien la gestion des sorties multiples (plein écran).
Par exemple avec deux projos faut juste créer deux chaines d'affichage en principe.
 
Par contre l'OpenGl a la gestion stéréoscopique fenêtrée (que le D3D n'a pas). (les deux sorties affichent le framebuffer du bureau, avec l'un l'image gauche fenêtrée, l'autre l'image droite fenêtrée, peut-être un hack avec l'overlay pour afficher l'image gauche sur la l'image droite dans le framebuffer général unique :??:)
Enfin question stéréoscopie l'OpenGl a un avantage sur le D3D. (vu que c'est explicite)
 
Enfin j'ai pas trop joué avec ça, c'est ce qu'un collègue qui a pratiqué m'a dit et c'est un des seuls points qui nous force à rester en OpenGl (pour la stéréoscopie fenêtrée).


Message édité par bjone le 16-06-2009 à 12:18:11
n°6998460
Yoyo_5
Posté le 16-06-2009 à 08:27:53  profilanswer
 

Wirmish a écrit :

Une scène 3D doit être entièrement recalculée dès qu'on change la position de la "camera" d'un seul pixel.
Donc, pour recréer un effet 3D à partir d'une télé, il faut nécessairement recalculer 2 fois la scène.


Pas nécessairement, prends juste exemple sur un miroir dans un jeu, ça ne divise pas le framerate de la scène par deux il me semble, pourtant 2 angles de la même scène sont calculés... :/


---------------
¤ Paix et félicité ¤

n°6998720
bjone
Insert booze to continue
Posté le 16-06-2009 à 12:16:49  profilanswer
 

Bah ça dépends.
Les réflexions par rapport à un plan sont correctes en terme de pertes de perfs si tu n'es pas limité par la géométrie. Par contre dans le cas où tu est limité par la géométrie ça prends un coup. (enfin ça dépends comment tu fais, si il faut passer par une rendertarget, la résolution et la fréquence d'actualisation...)


Message édité par bjone le 16-06-2009 à 12:27:19
n°6999319
Activation
21:9 kill Surround Gaming
Posté le 16-06-2009 à 19:04:09  profilanswer
 

mais prenons les ombre par exemple.. en mode stéréoscopique ça doit pas être gégé... donc doit falloir les shunter

n°6999345
Yoyo_5
Posté le 16-06-2009 à 19:21:49  profilanswer
 

Euh...pourquoi...? [:cerveau autobot]
On peut très bien voir une ombre de 2 angles différents sans soucis.


---------------
¤ Paix et félicité ¤

n°6999591
F-T-Spike
Posté le 16-06-2009 à 22:19:47  profilanswer
 

Activation quand t'as décidé que t'aimais pas un truc... :D


---------------
"Vous êtes marié comme moi, vous savez que la monstruosité peut prendre des formes très diverses"
n°6999721
bjone
Insert booze to continue
Posté le 16-06-2009 à 23:53:05  profilanswer
 

Activation a écrit :

mais prenons les ombre par exemple.. en mode stéréoscopique ça doit pas être gégé... donc doit falloir les shunter


Non au contraire, il doit même y avoir moyen de partager les shadowmaps pour les deux points de vue.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  28  29  30  ..  73  74  75  76  77  78

Aller à :
 

Sujets relatifs
[Topic Unique] ATI Radeon HD 4800 Series (RV790 inside)[Topic Unique] ATI Radeon 4700 Series (RV740 inside)
question sur nouvelle configComment réduire le bruit d'une nouvelle configuration ?
Nouvelle config pour bien débuter l'année :)[ topic unique ] les alimentations be quiet!
cherche conseils pour nouvelle config[HELP!] Cherche un magasin d'info sur Annecy !
[Topic Unique] Boîtier Silverstone Raven RV01 : mobo orientée à 90° ! 
Plus de sujets relatifs à : [Topic Unique] GT300 // La nouvelle bête de combat nvidia en 40nm


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)