Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3085 connectés 

 

 

Quelle carte prendrez-vous ?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  76  77  78  ..  820  821  822  823  824  825
Auteur Sujet :

[Topic Unique] ATI Radeon HD 5800 et 5900 Series (RV870 inside)

n°7054607
White Sh4d​ow
GHz-O-Meter !
Posté le 29-07-2009 à 21:15:52  profilanswer
 

Reprise du message précédent :

Wirmish a écrit :


Ssi la mémoire est partagée.
C-à-d que seulement une des 2 puces est vu par l'OS et que cette puce "dirige" la 2e puce.


Donc qu'il n'y a "qu'une" mémoire, partagée entre les deux cores du gpu ?

mood
Publicité
Posté le 29-07-2009 à 21:15:52  profilanswer
 

n°7054608
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 29-07-2009 à 21:16:22  profilanswer
 

Encore moi ! http://digli.com/images/smiley/glasses.gif
 
ATI Evergreen to be called "7 Series"
 
http://www.semiaccurate.com/static/uploads/2009/july/Radeon_7_series_small.JPG
 
Naturellement ça doit être un fake.
C'est en tout cas ce qu'affirme W0mbat.

Message cité 2 fois
Message édité par Wirmish le 29-07-2009 à 21:27:38
n°7054610
White Sh4d​ow
GHz-O-Meter !
Posté le 29-07-2009 à 21:18:50  profilanswer
 

C'est à cause de windows 7, pour faire comprendre que ce sont les meilleurs cartes graphiques pour windows 7 que tout le monde voit déjà comme le remplacant de XP, le vrai.

n°7054618
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 29-07-2009 à 21:24:16  profilanswer
 

White Sh4dow a écrit :

Donc qu'il n'y a "qu'une" mémoire, partagée entre les deux cores du gpu ?


Si les 2 puces reçoivent des données il faut un bridge PLX pour rediriger les communications entre les deux.
 
Pour régler ce léger problème il faut un truc du genre:
 
1. Un GPU maître doit s'occuper de la gestion des données du bus PCIe.
    S'il y plus d'un GPU qui "parle" avec le PCIe, alors l'OS verra 2 puces.
 
2. Chaque GPU accède à sa propre mémoire mais partage sa moitié grâce au SidePort.
    Le GPU 1 doit savoir à tout moment ce qui se trouve dans la mémoire du GPU 0 et vice-versa.
 
3. La mémoire est reliée à une des 2 GPU et l'autre passe par le SidePort pour y accéder.
    L'OS ne voit qu'une puce et celle-ci s'occupe de la gestion de la RAM pour elle-même et pour l'autre puce.
 
4. Y'a certainement d'autres méthodes mais je vais m'arrêter là.


Message édité par Wirmish le 29-07-2009 à 21:29:04
n°7054641
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 29-07-2009 à 21:42:19  profilanswer
 

La roadmap de GlobalFoundries :
 
http://images.anandtech.com/reviews/cpu/GlobalFoundries/Fab2GroundBreaking/roadmap.jpg
 
On peut donc s'attendre à ce qu'AMD produise des GPU chez GF en 2011.
 
 
Quant au Fusion, il est repoussé à 2012... si tout va bien.

Citation :

"The first hybrid CPU/GPU from AMD will be built on GF’s 22nm SOI process in 2012."


 
LIEN


Message édité par Wirmish le 29-07-2009 à 21:43:47
n°7054647
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 29-07-2009 à 21:47:03  profilanswer
 

RV870 40nm yields should be good

Citation :

We had a chance to meet with Eric Demers, AMD CTO graphics Products group, and Carrell Killebrew, ATI's Director of GPU product planning group and we spent some pleasant time talking about technology and Evergreen, the card that we call RV870, should have healthy yields.

n°7054663
Ramichou
Posté le 29-07-2009 à 22:00:24  profilanswer
 

Encore une fois le : 40nm yield améliorés / bons / excellents / corrects !!!!
 
Je suis quand même assé sceptique sur cette histoire de 2 GPUs vus comme une seule puce : cela ne demanderait pas trop de pins de partager la mémoire et faire communiquer les 2 GPUs correctement ?  
Après pour répondre à ca, je pense qu'il faut être ingé chez AMD :p

n°7054664
marllt2
Posté le 29-07-2009 à 22:01:31  profilanswer
 

Wirmish a écrit :

Encore moi ! http://digli.com/images/smiley/glasses.gif
 
ATI Evergreen to be called "7 Series"
 
http://www.semiaccurate.com/static [...] _small.JPG
 
Naturellement ça doit être un fake.
C'est en tout cas ce qu'affirme W0mbat.


Pas forcément.  
 
Terry Mekedon a déjà dit que ce ne seraient pas des HD 5800.

n°7054677
White Sh4d​ow
GHz-O-Meter !
Posté le 29-07-2009 à 22:06:51  profilanswer
 

marllt2 a écrit :


Pas forcément.  
 
Terry Mekedon a déjà dit que ce ne seraient pas des HD 5800.


Lien please  :hello:

n°7054681
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 29-07-2009 à 22:10:05  profilanswer
 

Ramichou a écrit :

cela ne demanderait pas trop de pins de partager la mémoire et faire communiquer les 2 GPUs correctement ?  
Après pour répondre à ca, je pense qu'il faut être ingé chez AMD :p


Alors je vais y répondre...
 
Suffit d'utiliser un truc comme l'HyperTransport :

  • Board normal sur lequel chaque CPU a sa propre banque de mémoire : ICI
  • Board utilisant le bus HyperTransport pour partager la RAM entre les 2 CPU : ICI  


 

Message cité 1 fois
Message édité par Wirmish le 29-07-2009 à 22:28:15
mood
Publicité
Posté le 29-07-2009 à 22:10:05  profilanswer
 

n°7054720
ultraeurl
Posté le 29-07-2009 à 22:31:31  profilanswer
 

"ATI Evergreen to be called "7 Series"  
 
Thanks for the news Wirmish.  

7 series, ça c'est du marketing!

n°7054729
Activation
21:9 kill Surround Gaming
Posté le 29-07-2009 à 22:33:45  profilanswer
 

White Sh4dow a écrit :

C'est à cause de windows 7, pour faire comprendre que ce sont les meilleurs cartes graphiques pour windows 7 que tout le monde tout ceux qui on craché sans raison sur vista, voit déjà comme le remplacant de XP, le vrai.le vista sp3 payant  :o


 
 [:cbrs]


Message édité par Activation le 29-07-2009 à 22:35:44
n°7054733
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 29-07-2009 à 22:35:34  profilanswer
 

ultraeurl a écrit :

"ATI Evergreen to be called "7 Series"  
 
7 series, ça c'est du marketing!


C'est justement pourquoi je pense que c'est un fake.
AMD a un marketing de merde, donc c'est louche.
 
http://digli.com/images/smiley/run.gif ---> []

Message cité 2 fois
Message édité par Wirmish le 29-07-2009 à 22:37:50
n°7054735
Activation
21:9 kill Surround Gaming
Posté le 29-07-2009 à 22:36:26  profilanswer
 

Wirmish a écrit :


C'est justement pourquoi je pense que c'est un fake.
AMD a un marketing de merde, donc c'est louche.


 
 
c est pas qu ils on un marketing de merde... c est qu ils en ont plus du tout  :o
 
en meme temps ça leur fait pas de mal tellement la branche marketing les discréditait plus qu autre chose aux yeux des professionnel (rappelé vous les kit de gant en amiante du temps du intel prescott)
 
donc un service marketing qui coute des thunes rempli de glandu... ça devait pas servir à grand chose  :o


Message édité par Activation le 29-07-2009 à 22:38:21
n°7054742
ultraeurl
Posté le 29-07-2009 à 22:38:53  profilanswer
 

Wirmish a écrit :


C'est justement pourquoi je pense que c'est un fake.
AMD a un marketing de merde, donc c'est louche.


 
Disons qu'ils renforcent plus la marque 7 en oubliant de mettre la leur en avant. Sur le court terme, c'est intéressant, sur le long terme...

n°7054747
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 29-07-2009 à 22:40:39  profilanswer
 

Et le livre Dual Core pour les Nuls offert à Intel...  
 
Bravo le marketing AMD http://forum.gantzotaku.com/images/smilies/icon_suicide.gif


Message édité par Wirmish le 29-07-2009 à 22:42:43
n°7054749
ultraeurl
Posté le 29-07-2009 à 22:42:14  profilanswer
 

Quant au Fusion, il est repoussé à 2012... si tout va bien.
 
Ca, c'est le truc que je ne comprends pas et qui me fait dire que le marketing AMD craint, effectivement. Comment peuvent ils laisser INtel occuper le terrain? Pour quoi ne pas faire là aussi du  double die? La complexité du truc m'échappe, même si je conçois qu'intel le sorte le premier, je ne vois pas comment AMD peut faire pour le sortir avec 2 ans de retard (minimum) sur intel!
 
Et le livre Dual Core pour les Nuls offert à Intel...
 
Rooh les cons :)

Message cité 1 fois
Message édité par ultraeurl le 29-07-2009 à 22:44:42
n°7054753
couillesho​t
Les bouboules et la boubouche
Posté le 29-07-2009 à 22:43:29  profilanswer
 

Citation :

c est pas qu ils on un marketing de merde... c est qu ils en ont plus du tout  :o
 


 
Faut pas oublier qu'ils sont passé des radeon X**** aux radeon HD****, pour surfer sur la vague HD en 2007  :o  
Plutôt que marketing de merde ou absence de marketing je dirais qu'ils ont plus un marketing discret/sobre  :sarcastic:


Message édité par couilleshot le 29-07-2009 à 22:44:10

---------------
:o :o :o
n°7054759
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 29-07-2009 à 22:45:14  profilanswer
 

Moi, la seule explication que je vois, c'est qu'il existe 2 Fusion différents :
1. Un dual die en MCM.
2. Un single die totalement intégré.
 
Et seule la version single die serait reportée à 2012.
Mais j'ai pas encore toutes les infos sur ce sujet.

Message cité 1 fois
Message édité par Wirmish le 29-07-2009 à 22:45:23
n°7054773
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 29-07-2009 à 22:49:54  profilanswer
 

Comme tout le monde le sait, STMicroelectronics sera le premier nouveau client de Globalfoundries.
Ce que vous ne savez peut-être pas c'est que des chips STM ont fait apparition sur les dernières Radeon.
 
Le hasard fait bien les choses.
 
 
EDIT: Une news concernant les GPU -> ICI

Message cité 1 fois
Message édité par Wirmish le 29-07-2009 à 22:52:26
n°7054778
Activation
21:9 kill Surround Gaming
Posté le 29-07-2009 à 22:51:36  profilanswer
 

ultraeurl a écrit :

Quant au Fusion, il est repoussé à 2012... si tout va bien.
 
Ca, c'est le truc que je ne comprends pas et qui me fait dire que le marketing AMD craint, effectivement. Comment peuvent ils laisser INtel occuper le terrain? Pour quoi ne pas faire là aussi du  double die? La complexité du truc m'échappe, même si je conçois qu'intel le sorte le premier, je ne vois pas comment AMD peut faire pour le sortir avec 2 ans de retard (minimum) sur intel!
 
Et le livre Dual Core pour les Nuls offert à Intel...
 
Rooh les cons :)


 
 
perso fusion et l equivalent intel c est le plus le plus nul à mon sens
 
c est juste là pour faire de la vente lié du gpu avec son cpu
 
car franchement le gpu était aussi bien dans le chipset mobo pour la cible visé avec ce nouveau genre de processeur
 
là c est juste histoire de dire à des asus, dell hp acer..."mais quel dommage vous avez déjà le gpu inclut... ça serait bete d acheter un gpu à coté... bon par contre on vous propose bien sur notre chipset à nous aussi vu que de totue facon ça te sert à rien un chipset ion avec gpu vu qu on te fournit déjà le gpu
 
bref genre forcé la main encore plus sur les plateforme type netbook et netdesk
 
idem sur portable
 
si encore les solutions gpu intel était pas moisi et les drivers gpu intel tout aussi moisi
mais c est pas le cas
 
sans compter la perte de place en transistor pour le cpu pour loger le gpu
(alors que dans le chipset la place c est pas ce qui manque... c est juste que les chipset mobo ces enfoiré leur applique 1 ou 2 finesse de gravure de retard par rapport au cpu)
 
qui plus est faudra toujours les entrée/sortie sur la mobo donc faudra toujours avoir recours à des carte mère "conditionné pour solutions graphique intégré... sauf que la solution graphique ne sera pas intégré vu que dans le cpu"
 
envie de trusté le marché quand tu nous tiend  :o (genre intel à pas du aimé que beaucoup de portable soit équipé cpu intel mais solution graphique ati genre HD3450 ou geforce 9400)

Message cité 1 fois
Message édité par Activation le 29-07-2009 à 22:54:45
n°7054782
ultraeurl
Posté le 29-07-2009 à 22:52:41  profilanswer
 

Wirmish a écrit :

Moi, la seule explication que je vois, c'est qu'il existe 2 Fusion différents :
1. Un dual die en MCM.
2. Un single die totalement intégré.
 
Et seule la version single die serait reportée à 2012.
Mais j'ai pas encore toutes les infos sur ce sujet.


 
Mais ils ne communiquent pas sur le dual die!

n°7054794
ultraeurl
Posté le 29-07-2009 à 22:58:03  profilanswer
 

Je ne suis pas trop d'accord... je veux dire; intégrer le gpu est forcément un progrès, à partir d'une certaine géométrie, ce que s'est  peut être dit AMD avec fusion en le repoussant. Si y a moyen de remplacer un vieux chipset qui implique de la place sur le pcb + un surcout package, pourquoi pas. Si ça permet d'accélérer certaines procédures d'affichage ou de s'en servir comme auxiliaire physique, pourquoi pas.  
Après, clairement, vu la marge en terme de qualité graphique et vu la taille des bestioles pour gamers, clair que la puce graphique en stand alone a encore de beaux jours devant elle. Mais c'est autre chose.

Message cité 1 fois
Message édité par ultraeurl le 29-07-2009 à 22:58:51
n°7054802
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 29-07-2009 à 23:03:59  profilanswer
 

Activation a écrit :

perso fusion et l equivalent intel c est le plus le plus nul à mon sens
c est juste là pour faire de la vente lié du gpu avec son cpu
car franchement le gpu était aussi bien dans le chipset mobo pour la cible visé avec ce nouveau genre de processeur


Premièrement il faut savoir que la vente de chipsets représente 28% des revenus de nVidia au dernier trimestre.
Et il faut savoir que cette division est la plus rentable après celle des GPU pour professionnels.
 
Intel refuse d'accorder une licence à nVidia pour produire des chipsets compatibles avec les Core i7 et leurs petits frères.
AMD annonce que l'année prochaine il offrira de tout nouveaux chipsets pour les serveurs, excluant alors nVidia et Broadcom.
Le fait qu'Intel et AMD ait choisi d'intégré le GPU avec le CPU fera en sorte de "massacrer" la division chipset du caméléon.
 
Imaginez les pertes occasionnées par la disparition de la division chipset chez le caméléon.

n°7054823
marllt2
Posté le 29-07-2009 à 23:19:41  profilanswer
 


Il l'a dit sur son tweet.  
 

Wirmish a écrit :

Ce que vous ne savez peut-être pas c'est que des chips STM ont fait apparition sur les dernières Radeon.


 :??:

Message cité 1 fois
Message édité par marllt2 le 29-07-2009 à 23:20:28
n°7054834
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 29-07-2009 à 23:23:14  profilanswer
 

ultraeurl a écrit :

Je ne suis pas trop d'accord... je veux dire; intégrer le gpu est forcément un progrès...


En effet.
 
En ce moment on a un CPU qui possède, entre autre, des décodeurs, des pipelines, et des unitées d'exécution pour les Entiers, les Flottants, et les fonctions SIMD et SSE. On commence aussi à voir des programmes qui utilisent le GPU pour accélérer certaines fonctions. Notamment avec Cuda, Stream, et OpenCL.
 
Un CPU qui intégrerait les fonctions d'un GPU (un APU en fait) pourrait avoir 3 unitées d'exécution sur les entiers, 2 unitées pour les flottants, 2 unitées SIMD/SSE, et 40 unitées GPU. Une extension du langage C (OpenCL) pourrait alors permettre d'écrire un logiciel qui s'exécuterait uniquement dans un CPU, mais en y intégrant un tas de fonctions habituellement réservées à un GPU.
 
Actuellement c'est le CPU qui tri les triangles d'un scène avant d'envoyer le résultat au GPU. Autrement dit, le CPU travaille déja en concert avec le GPU. Alors, pourquoi ne pas les réunir tous les deux ?
 
Moi je vois les extension GPU comme une sorte de MMX, SSE, ou AVX.

n°7054847
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 29-07-2009 à 23:33:54  profilanswer
 


Tu fais donc parti de ceux qui ne sont pas au courant ?
Va vite suivre un cour de mise-à-niveau -> ICI

n°7054859
mikestewar​t
Air Roll Spinnin'
Posté le 29-07-2009 à 23:40:36  profilanswer
 

Wirmish a écrit :

Encore moi ! http://digli.com/images/smiley/glasses.gif
 
ATI Evergreen to be called "7 Series"
 
http://www.semiaccurate.com/static [...] _small.JPG
 
Naturellement ça doit être un fake.
C'est en tout cas ce qu'affirme W0mbat.


 
Ça pose un problème, il y a déjà eu des Radeons 7 !  [:renard1984]  
 
Celles qui étaient DX7, les premières Radeons, qui avaient été renommées "série 7" après l'apparition de la Radeon 8500 (DX8 donc). A l'époque, le premier chiffre correspondait à un DirectX, comme pour la 9700Pro, ensuite ça a dérivé : X (comprendre 10), X1, HD2 (le X remplacé par HD pour faire "hype" ), HD3, etc...
 
Donc, cette rumeur ne tient pas. :o
 
Ca va être la surprise.  [:bakk18]  
 
 

n°7054866
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 29-07-2009 à 23:45:15  profilanswer
 

T'as osé te servir de mes émoticones ! http://digli.com/images/smiley/what.gif http://digli.com/images/smiley/yellowcard.gif


Message édité par Wirmish le 29-07-2009 à 23:45:45
n°7054867
mikestewar​t
Air Roll Spinnin'
Posté le 29-07-2009 à 23:46:51  profilanswer
 

Je n'utilise que du smilie HFR, moi, monsieur.  :o ;)


Message édité par mikestewart le 29-07-2009 à 23:46:58
n°7054911
Ramichou
Posté le 30-07-2009 à 00:40:16  profilanswer
 

Wirmish a écrit :


Alors je vais y répondre...
 
Suffit d'utiliser un truc comme l'HyperTransport :

  • Board normal sur lequel chaque CPU a sa propre banque de mémoire : ICI
  • Board utilisant le bus HyperTransport pour partager la RAM entre les 2 CPU : ICI  


 


 
Donc en gros, ca existe déjà, et en plus dans la même entreprise !  [:anita_1]
 
PS : Omg la banque de smileys o_O

n°7055027
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 30-07-2009 à 03:58:11  profilanswer
 

On va l'aimer notre dx11 jvous l'dis ! http://www.pcgameshardware.com/aid [...] 296&page=1
 
C'est beau  :love: vive Crytek !


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°7055030
Cizia
Posté le 30-07-2009 à 04:03:25  profilanswer
 

super_newbie_pro a écrit :

On va l'aimer notre dx11 jvous l'dis ! http://www.pcgameshardware.com/aid [...] 296&page=1
 
C'est beau  :love: vive Crytek !


 
 
3 fps avec un cross de 5870 et 4 fps avec sli de gt300     :D  :D  
 
on commence a voir le bout du tunnel avec crysis 1,que ca repart avec un 2...  :whistle:
 
mais faut avouer que la végétation tabasse.  :sol:

Message cité 1 fois
Message édité par Cizia le 30-07-2009 à 04:04:27

---------------
Un Ami ? C'est quelqu'un à qui on peut téléphoner à trois heures du matin en disant qu'on vient de commettre un crime et qui vous répond seulement : " Où est le corps ?! " ~/~ Alain Delon
n°7055034
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 30-07-2009 à 04:15:46  profilanswer
 

Cizia a écrit :


3 fps avec un cross de 5870 et 4 fps avec sli de gt300     :D  :D  
on commence a voir le bout du tunnel avec crysis 1,que ca repart avec un 2...  :whistle:
mais faut avouer que la végétation tabasse.  :sol:

exptdrrr !!! +1  :love:  
 
http://www.pcgameshardware.com/screenshots/medium/2009/07/Cryengine-Raining-Fire-06.jpg http://www.pcgameshardware.com/screenshots/medium/2009/07/Cryengine-Raining-Fire-05.jpg http://www.pcgameshardware.com/screenshots/medium/2009/04/Raining-Fire-Cryengine-2-05.jpg
 
Vive l'évolution !! :love:
 
Petite pensée pour Wolfenstein http://www.gamasutra.com/features/20060901/wolfenstein-02.png

Message cité 2 fois
Message édité par super_newbie_pro le 30-07-2009 à 04:16:39

---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°7055040
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 30-07-2009 à 05:12:50  profilanswer
 

super_newbie_pro a écrit :

On va l'aimer notre dx11 jvous l'dis !


Heu... c'est du DX9/DX10 ça.

n°7055103
Yoyo_5
Posté le 30-07-2009 à 09:39:45  profilanswer
 

super_newbie_pro a écrit :

On va l'aimer notre dx11 jvous l'dis ! http://www.pcgameshardware.com/aid [...] 296&page=1
 
C'est beau  :love: vive Crytek !


Même pas d'AA...! :o


---------------
¤ Paix et félicité ¤

n°7055115
ultraeurl
Posté le 30-07-2009 à 09:57:45  profilanswer
 

super_newbie_pro a écrit :

On va l'aimer notre dx11 jvous l'dis ! http://www.pcgameshardware.com/aid [...] 296&page=1
 
C'est beau  :love: vive Crytek !


 
AU risque de passer pour un pisse froid, c'est quoi le matos utilisé pour calculer ça en temps réel? Est ce vraiment du temps réel? A plus d'une frame par seconde, hum?
Sinon, effectivement, prometteur.
 
Edit; sur certaines images, du 18 FPS.... et je suppose que c'est du matos de guedin.

Message cité 1 fois
Message édité par ultraeurl le 30-07-2009 à 09:59:04
n°7055122
Ramichou
Posté le 30-07-2009 à 10:00:52  profilanswer
 

Perso je lis DX9 32bits et on voit 20FPS, mais ca veut pas dire grand chose sans le matos utilisé.
 
Ca ressemble surtout à du crysis sur lequel toute les options ont étées poussées au dela du "Ultra" stou.

n°7055186
ultraeurl
Posté le 30-07-2009 à 11:05:17  profilanswer
 

Ramichou a écrit :

Perso je lis DX9 32bits et on voit 20FPS, mais ca veut pas dire grand chose sans le matos utilisé.
 
Ca ressemble surtout à du crysis sur lequel toute les options ont étées poussées au dela du "Ultra" stou.


 
Que ce ne soit pas DX11 n'est guère surprenant car peu de gens l'auront d''ici encore un an. Quant au DX10, c'est un DX9 qui ne dit pas son nom tant il a été dépouillé de tous ses features. RIen de choquant donc.

n°7055191
Profil sup​primé
Posté le 30-07-2009 à 11:14:03  answer
 
n°7055205
aliss
Rhyme the Rhyme Well
Posté le 30-07-2009 à 11:31:23  profilanswer
 

ultraeurl a écrit :


 
AU risque de passer pour un pisse froid, c'est quoi le matos utilisé pour calculer ça en temps réel? Est ce vraiment du temps réel? A plus d'une frame par seconde, hum?
Sinon, effectivement, prometteur.
 
Edit; sur certaines images, du 18 FPS.... et je suppose que c'est du matos de guedin.


 
Etant donné que ce sont les extraits d'un film, je suppose que non.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  76  77  78  ..  820  821  822  823  824  825

Aller à :
Ajouter une réponse
 

Sujets relatifs
Configuration (Intel inside) - Est-elle homogène ?Problème overclock Radeon HD4850
Reboot unique au démarrage... Normal ou pas?Radeon HD4870 ou 50 + C2D E6400 = bon ménage ?
Probleme sortie TV sur Radeon 9500 proATI HD3870 vers 4850-4870 ???
[Topic unique] Aide à la présentation de nouvelles configurations PC[Topic Unique] problèmes sur les G84 et G86 de Nvidia [8400 8600]
Plus de sujets relatifs à : [Topic Unique] ATI Radeon HD 5800 et 5900 Series (RV870 inside)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)