Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
4356 connectés 

 

 

Quelle carte prendrez-vous ?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  26  27  28  ..  820  821  822  823  824  825
Auteur Sujet :

[Topic Unique] ATI Radeon HD 5800 et 5900 Series (RV870 inside)

n°6939790
Cizia
Posté le 30-04-2009 à 02:26:05  profilanswer
 

Reprise du message précédent :

marllt2 a écrit :


Qui va donc se faire allumer par nVidia. Et même la X2.


 
 
tu oublie le phénomène que l'on a u avec rv770.
 
 
nvidia est en train de retomber exactement dans le même piège...
 
 
carte graphique a 500euros alors que la ati fera tourner les jeux très confortablement pour bien moins chére.
 
les consommateur fon de plus en plus gaffe a leur pognon...
 
pas besoin de 200fps pour s'amuser.

Message cité 2 fois
Message édité par Cizia le 30-04-2009 à 02:37:13

---------------
Un Ami ? C'est quelqu'un à qui on peut téléphoner à trois heures du matin en disant qu'on vient de commettre un crime et qui vous répond seulement : " Où est le corps ?! " ~/~ Alain Delon
mood
Publicité
Posté le 30-04-2009 à 02:26:05  profilanswer
 

n°6939791
Profil sup​primé
Posté le 30-04-2009 à 02:49:48  answer
 

avec la majorité des LCD bloqué sur 60/75 hertz, les 200fps c'est bien pour 3dmachin kikalaplugross, dans la pratique faire calculer des images qui ne seront pas affichée...... C'est EDF qui vous dit merci.

n°6939792
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 30-04-2009 à 02:50:36  profilanswer
 

marllt2 a écrit :

Qui va donc se faire allumer par nVidia. Et même la X2.


1280 SP par RV870 ferait en sorte que la X2 en aurait 2560 !
Je vois donc pas pourquoi la X2 se ferait allumer par le GT300.
 
GT200 = 240 SP -> GT300 = 512 SP (+213%)
RV770 = 800 SP -> RV870 = 1280 SP (+160%) et RV870-X2 = 2560 SP (+320%)
 
Le RV790 offre des perfs similaires au GTX 275.
On peut donc dire que 240 SP (GT200) = 800 SP (RV790).
Il faut donc 3.33 fois plus de SP du côté d'ATi pour offrir la même puissance que le GT200.
Le GT300 ayant supposément 512 SP, ATi aurait besoin de 1706 SP (512 x 3.33) pour l'égaler.
Une RV870-X2 ayant 2560 SP aurait 5 fois plus de SP que le GT300, soit bien asser pour le dépasser.
 
Il ne faut pas oublier que deux RV870 risquent d'avoir la même surface qu'un GT300.
Le coût de production d'un X2 ou d'un GT300 serait donc pratiquement le même.
 
 :jap:

n°6939794
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 30-04-2009 à 02:53:08  profilanswer
 


Et pourquoi ne pas afficher 60 images par seconde et utiliser les shaders qui se tournent les pouces pour calculer l'IA ou la physique ?

n°6939813
Activation
21:9 kill Surround Gaming
Posté le 30-04-2009 à 07:21:05  profilanswer
 

marllt2 a écrit :


Le GT300 c'est toujours du 512 bits.


 
t'es sur de ça ?
 
pour moi ça va redescendre à 320 ou 384bits
 
l un des problème majeur étant que le GT200 à récupéré l architecture des ROPs du G80 qui ne conviennent plus dans le cadre dedx10.1 et dx11
 
modifié l architecture de ces dites unité ROPs dans le GT300 doit permettre de redesecendre à 320/384bits sur le modele haut de gamme de nvidia
 
ce qui ouvrirait par cela le moyen de gamme à un modèle sur 256bits
 
car là pas question de prendre des GT200 d avant pour en faire les modele bas de gamme et moyen de gamme de demain, nvidia en serait reduit à les vendre à perte
 
donc faut mieux un nouveau gpu qui permette via qqs modif d etre emputé d une partie de ses transistor pour en faire un milieu de gamme
 
nvidia a pas le choix car sinon toute la gamme ne serait pas dx11  
et j imagine pas faire 3 architecture differente 1 par gamme
il est obligé de lacher enfin sont g92 resaucé, pourra plus sortir dx10.1 ça sert à rien on se contente de dx10

Message cité 1 fois
Message édité par Activation le 30-04-2009 à 07:38:52
n°6939817
god is dea​d
Demain, j'arrête de poster.
Posté le 30-04-2009 à 07:31:33  profilanswer
 

Cizia a écrit :


 
 
tu oublie le phénomène que l'on a u avec rv770.
 
 
nvidia est en train de retomber exactement dans le même piège..
.
 
 
carte graphique a 500euros alors que la ati fera tourner les jeux très confortablement pour bien moins chére.
 
les consommateur fon de plus en plus gaffe a leur pognon...
 
pas besoin de 200fps pour s'amuser.


C'est trop simpliste de se dire "souviens toi machin blabla". Quant au prix, on ne sait pas, on ne sait rien. Nvidia a tiré la leçon, c'est évident. D'autant que la gt 300 semble annoncer une nouvelle archi. Rappelons également que les parts de marché de ATI/AMD ont baissé, là où Nvidia a progressé !  Au final, Nvidia n'est ni "aux abois", ni en mauvaise posture, contrairement à ce que l'on aurait pu croire.
 
Tout était question de coût sur le gt200, lié en partie au 65nm, mais aussi à l'archi même. Le gt 300 aura sans trop de doute le même process de gravure que le rv870, donc plus vraiment dans le même rapport 55nm rv770/ 65nm gt 200, ensuite ce sera probablement une nouvelle archi. Absolument rien ne permet de dire que Nvidia s'achemine vers le même scénario qu'avec le gt 200, pas + qu'ATI n'a continué à se vautrer avec son R600... d'ailleurs t'aurais été le premier à dire qu'ATI a tiré les leçons du r600 blabla, mais pas Nvidia quoi :d
 
Il ne serait pas étonnant que le gt 300 soit nettement plus perf que le rv870 et que l'argument "gpu économique" ne soit plus aussi net qu'au temps du rv770.

Wirmish a écrit :


1280 SP par RV870 ferait en sorte que la X2 en aurait 2560 !
Je vois donc pas pourquoi la X2 se ferait allumer par le GT300.
 
GT200 = 240 SP -> GT300 = 512 SP (+213%)
RV770 = 800 SP -> RV870 = 1280 SP (+160%) et RV870-X2 = 2560 SP (+320%)
 
Le RV790 offre des perfs similaires au GTX 275.
On peut donc dire que 240 SP (GT200) = 800 SP (RV790).
Il faut donc 3.33 fois plus de SP du côté d'ATi pour offrir la même puissance que le GT200.
Le GT300 ayant supposément 512 SP, ATi aurait besoin de 1706 SP (512 x 3.33) pour l'égaler.
Une RV870-X2 ayant 2560 SP aurait 5 fois plus de SP que le GT300, soit bien asser pour le dépasser.
 
Il ne faut pas oublier que deux RV870 risquent d'avoir la même surface qu'un GT300.
Le coût de production d'un X2 ou d'un GT300 serait donc pratiquement le même.
 
 :jap:


Sauf que si le gt300 inaugure une nouvelle archi, ce qui semble être le cas, la question du coût est inconnue. Rien ne permet donc d'affirmer que le rv870 est plus économe. Idem avec les perfs, on ne connait rien de l'archi, ni de son rendement. Ton équivalence "240 sp nv = 800 sp ati" est sans réalité car si tu ne tiens pas comptes des fréquences, du bus mémoire et tout le reste, ça n'a pas de sens. hd 4850 = 800sp et gtx 285 = 240 sp, tu vois quoi :p Comme si la puissance de calcul décidait de tout, surtout qd on parle d'un rv770 texturing limited et bp !


Message édité par god is dead le 30-04-2009 à 07:40:20

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°6939821
Activation
21:9 kill Surround Gaming
Posté le 30-04-2009 à 07:46:27  profilanswer
 

c est clair que le RV7xx niveau texturing  
je sais pas ce que ça va donner pour le rv870 car nvidia va pas manquer d optimiser encore les perf à ce niveau
 
les TFlop on s en tape ... c est pas l argument qui fait les perf dans un jeu
 
ça c est plus pour faire plaisir à du compute shader d afficher les TFlops

n°6940105
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 30-04-2009 à 12:47:57  profilanswer
 

J'ai juste un petit problème avec la nouvelle archi de nVidia.
Peut-être que le GT300 a un bus de 320 ou 384 bit au lieu de 512.
Peut-être que nVidia a retenu la leçon qu'un gros GPU peut-être malmené par un tout petit.
 
Sauf que les rumeurs parlent de 512 SP... ce qui est loin d'être une petite puce.
 
Et puis, faut savoir que ça prend pratiquement 3 ans pour développer une archi.
Le RV770 est sorti y'a même pas 1 an... croyez-vous que nVidia a pu en prendre compte dans le développement de son GT300 ?
 
Si un espion de nVidia chez ATi leur a fait parvenir les plans des RV670/RV770/RV870 il y a environ 2 ans, alors ça a peut-être laissé le temps au camélléon de réviser ses propres plans et ajusté en conséquence la taille/rendement de son GT300.
 
Est-ce que nVidia a des espions chez ATi ? Je dirais que oui.
Alors on verra le résultat au 4e trimestre...

n°6940115
Gigathlon
Quad-neurones natif
Posté le 30-04-2009 à 12:55:06  profilanswer
 

marllt2 a écrit :


Qui va donc se faire allumer par nVidia. Et même la X2.


Pour le moment tout ce qu'on a sur le GT300 (comme le RV870 d'ailleurs) c'est des rumeurs hein... :o  
 
On ne peut pas espérer qu'ils fassent un GPU de 3G transistors en premier jet sur le 40nm.

n°6940163
Fantryt
Posté le 30-04-2009 à 13:22:07  profilanswer
 

Wirmish a écrit :

J'ai juste un petit problème avec la nouvelle archi de nVidia.
Peut-être que le GT300 a un bus de 320 ou 384 bit au lieu de 512.
Peut-être que nVidia a retenu la leçon qu'un gros GPU peut-être malmené par un tout petit.
 
Sauf que les rumeurs parlent de 512 SP... ce qui est loin d'être une petite puce.
 
Et puis, faut savoir que ça prend pratiquement 3 ans pour développer une archi.
Le RV770 est sorti y'a même pas 1 an... croyez-vous que nVidia a pu en prendre compte dans le développement de son GT300 ?
 
Si un espion de nVidia chez ATi leur a fait parvenir les plans des RV670/RV770/RV870 il y a environ 2 ans, alors ça a peut-être laissé le temps au camélléon de réviser ses propres plans et ajusté en conséquence la taille/rendement de son GT300.
 
Est-ce que nVidia a des espions chez ATi ? Je dirais que oui.
Alors on verra le résultat au 4e trimestre...


Un espion de nVidia chez ATi .
Bien sûr .  :D  
Et vice-versa ?  :whistle:

mood
Publicité
Posté le 30-04-2009 à 13:22:07  profilanswer
 

n°6940186
TheRealObi​-One
♥ Maître Jedi du Taunt ♥
Posté le 30-04-2009 à 13:36:38  profilanswer
 

Fantryt a écrit :


Un espion de nVidia chez ATi .
Bien sûr .  :D  
Et vice-versa ?  :whistle:


C'est surtout le côté James Bond du post qui est affligeant :sarcastic:


---------------
(Ex one1504) - [VDS] - Feed - Nostalg33k du PiseptO
n°6940210
hydrogen2
Posté le 30-04-2009 à 13:47:48  profilanswer
 

Activation a écrit :

c est clair que le RV7xx niveau texturing  
je sais pas ce que ça va donner pour le rv870 car nvidia va pas manquer d optimiser encore les perf à ce niveau
 
les TFlop on s en tape ... c est pas l argument qui fait les perf dans un jeu
 
ça c est plus pour faire plaisir à du compute shader d afficher les TFlops


 
J'avoue être très réservé sur cette histoire de manque de TMU du RV770, mais il est possible aussi que certains aient connaissance d'un test, d'un article qui prouve cette affirmation. Un lien ?

Message cité 2 fois
Message édité par hydrogen2 le 30-04-2009 à 13:50:24
n°6940231
linkin623
Posté le 30-04-2009 à 13:56:50  profilanswer
 


Fantryt a écrit :


Un espion de nVidia chez ATi .
Bien sûr .  :D  
Et vice-versa ?  :whistle:


 
L'espionnage industriel ça existe, et en France on est pas dans les meilleurs (que ça soit pour espionner ou choper les espions).
Après, si Nvidia a les données du RV6xx/RV7xx, ça m'étonnerai qu'il change leur plan, car il me semble qu'isl ont légèrement sous estimer ces puces.
 
Donc le GT300 sortira au pire comme si les RV7xx n'avaient pas eu le succès qu'on leur connais; au mieux Nvidia a corrigé le tir mais ne pourra pas trop changer sa puce car ATI est déjà en avance...

n°6940340
alexreunio​n
Posté le 30-04-2009 à 15:01:00  profilanswer
 

Il faudrait surtout arrêter de le quoter, si ça se trouve il s'en irait tout seul et on aurait plus besoin de subir ses trolls incessants :o


---------------
Mon feedback
n°6940343
TheRealObi​-One
♥ Maître Jedi du Taunt ♥
Posté le 30-04-2009 à 15:04:02  profilanswer
 

Exact :jap: ... d'ailleurs je ne le fait pas perso :D


Message édité par TheRealObi-One le 30-04-2009 à 15:04:35

---------------
(Ex one1504) - [VDS] - Feed - Nostalg33k du PiseptO
n°6940385
couillesho​t
Les bouboules et la boubouche
Posté le 30-04-2009 à 15:32:51  profilanswer
 

Faut pas oublier que Nvidia a prouvé qu'il était capable de pondre une puce économique et performante = le G92  
donc méfiance :o

Message cité 1 fois
Message édité par couilleshot le 30-04-2009 à 15:33:32

---------------
:o :o :o
n°6940414
Gigathlon
Quad-neurones natif
Posté le 30-04-2009 à 15:59:12  profilanswer
 

couilleshot a écrit :

Faut pas oublier que Nvidia a prouvé qu'il était capable de pondre une puce économique et performante = le G92  
donc méfiance :o


Le G92 économique? :heink:  
 
Avec sa surface de 324mm², soit plus que le RV770 dans sa version d'origine et autant après shrink en 55nm, j'appelle pas ça économique.

n°6940418
Gigathlon
Quad-neurones natif
Posté le 30-04-2009 à 16:02:43  profilanswer
 

hydrogen2 a écrit :


 
J'avoue être très réservé sur cette histoire de manque de TMU du RV770, mais il est possible aussi que certains aient connaissance d'un test, d'un article qui prouve cette affirmation. Un lien ?


Plusieurs faits indiquent ce déficit.
 
1- Rendement extraordinaire des TMU du RV770 (trop bon -> sous-dimensionné)
2- Perfs 4770 > 4850 dans certains cas (or, c'est au niveau des ROPs et TMU qu'il a un avantage, pas ailleurs)

n°6940426
hydrogen2
Posté le 30-04-2009 à 16:16:05  profilanswer
 

Gigathlon a écrit :


Plusieurs faits indiquent ce déficit.
 
1- Rendement extraordinaire des TMU du RV770 (trop bon -> sous-dimensionné)
2- Perfs 4770 > 4850 dans certains cas (or, c'est au niveau des ROPs et TMU qu'il a un avantage, pas ailleurs)


 
 
1 - Je ne suis pas le raisonnement. Explique.
2 - Ne le prend pas mal, mais c'est un argument aposteriori. Or l'idée qu'il manque des TMU au RV770 date de bien avant la connaissance des caractéristiques du RV740.  
 
Pas d'articles tiers ou de tests visants à prouver cette affirmation sur les TMU du RV770 ?


Message édité par hydrogen2 le 30-04-2009 à 16:21:00
n°6940430
couillesho​t
Les bouboules et la boubouche
Posté le 30-04-2009 à 16:18:55  profilanswer
 

Gigathlon a écrit :


Le G92 économique? :heink:  
 
Avec sa surface de 324mm², soit plus que le RV770 dans sa version d'origine et autant après shrink en 55nm, j'appelle pas ça économique.


 
Je me basait uniquement sur le prix de vente, on avait du HDG à 220€ avec la 8800gt à son arrivée avec des perfs équivalentes à une 8800gtx.
C'est peut être pas assez économique pour toi mais c'est tout de même une autre catégorie que les g80 et gt200.
Tout ça pour dire que Nvidia peut devenir raisonnable quand il veut

Message cité 1 fois
Message édité par couilleshot le 30-04-2009 à 16:22:25

---------------
:o :o :o
n°6940447
god is dea​d
Demain, j'arrête de poster.
Posté le 30-04-2009 à 16:39:39  profilanswer
 

Oué, sauf que la 8800gt n'a rien d'équivalent à la 8800gtx hein.


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°6940471
bilbo248
Posté le 30-04-2009 à 16:57:10  profilanswer
 

8800GT c'était pas du vrai HDG, le HDG c'est la carte à plus de 400€


---------------
Photographie |--| Stats BDPV - Photovoltaique
n°6940478
Cizia
Posté le 30-04-2009 à 17:03:17  profilanswer
 

bilbo248 a écrit :

8800GT c'était pas du vrai HDG, le HDG c'est la carte à plus de 400€


 
 
avec cette logique,une carte a 200e plus performante que celle a 400e ne serais donc pas "hdg" ?...    ca ce mord pas un peu la queue ça?      :D


Message édité par Cizia le 30-04-2009 à 17:03:34

---------------
Un Ami ? C'est quelqu'un à qui on peut téléphoner à trois heures du matin en disant qu'on vient de commettre un crime et qui vous répond seulement : " Où est le corps ?! " ~/~ Alain Delon
n°6940480
Fantryt
Posté le 30-04-2009 à 17:04:03  profilanswer
 

Alors, la 8800GT était HDG, et la carte à 400€ UHDG .

n°6940486
Profil sup​primé
Posté le 30-04-2009 à 17:07:03  answer
 

non le top de l'ultra haut de gamme reste la GeForce2 Ultra à 750€. [:cerveau o]

n°6940493
Cizia
Posté le 30-04-2009 à 17:11:11  profilanswer
 


 
 
yes..  
 
ou la grande époque des x1900xtx a 600euros ou 8800 ultra water a 700...  :D


Message édité par Cizia le 30-04-2009 à 17:12:16

---------------
Un Ami ? C'est quelqu'un à qui on peut téléphoner à trois heures du matin en disant qu'on vient de commettre un crime et qui vous répond seulement : " Où est le corps ?! " ~/~ Alain Delon
n°6940501
Fantryt
Posté le 30-04-2009 à 17:16:58  profilanswer
 

Bref, on s'éloigne du sujet .
Je remercie le ciel que les prix ne soient plus aussi élevés qu'à cette époque ...  :ouch:

n°6940505
Cizia
Posté le 30-04-2009 à 17:20:00  profilanswer
 

Fantryt a écrit :

Bref, on s'éloigne du sujet .
Je remercie le ciel que les prix ne soient plus aussi élevés qu'à cette époque ...  :ouch:


 
 
+1
 
mais logique que l'on papote un peu..  jeune tout ça et manque d'info.  :D


---------------
Un Ami ? C'est quelqu'un à qui on peut téléphoner à trois heures du matin en disant qu'on vient de commettre un crime et qui vous répond seulement : " Où est le corps ?! " ~/~ Alain Delon
n°6940547
Activation
21:9 kill Surround Gaming
Posté le 30-04-2009 à 17:53:33  profilanswer
 

Wirmish a écrit :

J'ai juste un petit problème avec la nouvelle archi de nVidia.
Peut-être que le GT300 a un bus de 320 ou 384 bit au lieu de 512.
Peut-être que nVidia a retenu la leçon qu'un gros GPU peut-être malmené par un tout petit.
 
Sauf que les rumeurs parlent de 512 SP... ce qui est loin d'être une petite puce.
 
Et puis, faut savoir que ça prend pratiquement 3 ans pour développer une archi.
Le RV770 est sorti y'a même pas 1 an... croyez-vous que nVidia a pu en prendre compte dans le développement de son GT300 ?
 
Si un espion de nVidia chez ATi leur a fait parvenir les plans des RV670/RV770/RV870 il y a environ 2 ans, alors ça a peut-être laissé le temps au camélléon de réviser ses propres plans et ajusté en conséquence la taille/rendement de son GT300.
 
Est-ce que nVidia a des espions chez ATi ? Je dirais que oui.
Alors on verra le résultat au 4e trimestre...


 
le G80 est sorti en 2006... les puce qui en ont découlé G92 et GT200... ça va je pense qu elle a été amorti l archi
 
on passe à dx11 là (ce qui implique de passer à dx10.1 pour nvidia)
si nvidia n a pas rendu sont archi G80/G92/GT200 compatible dx10.1 c est pas pour la rendre compatible dx11
 
va bien falloir cassé un peu cette archi par une nouvelle

n°6940631
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 30-04-2009 à 18:55:39  profilanswer
 

Ce que je veux dire c'est que c'est seulement fin 2007/début 2008 qu'ATi a indiqué qu'il laissait tomber les grosses puces, pour se concentrer sur les perfs/mm².
 
nVidia ne peut donc pas avoir prévu le coup avec son GT300 puisque son développement a débuté en 2006. Tout indique que nVidia a encore choisi de développer une énorme puce.
 
Mais en fait c'est pas si grâve que ça, puisque les dernières news indiquent qu'ATi a encore perdu des parts de marché malgré ses Radeon 4000.

n°6940668
Profil sup​primé
Posté le 30-04-2009 à 19:36:33  answer
 

si tu lis bien les news, c'est parce que la majorité des ventes se font sur le bas de gamme, ou le prix seul est plus pris en compte que le rapport perf/prix, et là la stratégie commerciale aggressive de nVidia lui permet d'être devant son concurrent.
Mais sur les autres secteurs ATI a fait beaucoup de mal à nVidia, qui le paye d'ailleurs par ses pertes actuelles.


Message édité par Profil supprimé le 30-04-2009 à 19:37:33
n°6940674
Yoyo_5
Posté le 30-04-2009 à 19:42:13  profilanswer
 

Ouais, je serais plus tenté de dire qu'ATI a limité sa perte de pdm. :jap:


---------------
¤ Paix et félicité ¤

n°6940683
bilbo248
Posté le 30-04-2009 à 19:53:01  profilanswer
 

Yoyo_5 a écrit :

Ouais, je serais plus tenté de dire qu'ATI a limité sa perte de pdm. :jap:


+1
 


---------------
Photographie |--| Stats BDPV - Photovoltaique
n°6940688
darkorel
Posté le 30-04-2009 à 19:57:19  profilanswer
 

.........faudrait pas non plus oublier larabee, car je ne pense pas qu'intel vienne seulement faire de la figuration........

n°6940695
Yoyo_5
Posté le 30-04-2009 à 20:00:42  profilanswer
 

Je l'avais oublié lui... :D
Il sort quand au fait...?  [:cerveau autobot]


---------------
¤ Paix et félicité ¤

n°6940698
sasuke87
Posté le 30-04-2009 à 20:01:54  profilanswer
 

darkorel a écrit :

.........faudrait pas non plus oublier larabee, car je ne pense pas qu'intel vienne seulement faire de la figuration........


 
moi je crois que si  :D  
 
Sinon DX11 ne risquerait pas de mettre en évidence les faiblesses des geforce 9800/8800 et GT200 dans le domaine des GS?

n°6940718
Fantryt
Posté le 30-04-2009 à 20:13:18  profilanswer
 

Yoyo_5 a écrit :

Je l'avais oublié lui... :D
Il sort quand au fait...?  [:cerveau autobot]


Bah ... la première "carte" à être basée sur une puce LARRABEE devrait théoriquement sortir d'ici la fin 2009, d'après INTEL .

n°6940720
darkorel
Posté le 30-04-2009 à 20:13:54  profilanswer
 

faudrai pas oublier qu intel compte bien mettre son larabee dans une des prochaines consoles, c'est donc que ça a du potentiel leur truc.
Et ya pas que dx dans la vie, par exemple Carmak a déja commencé de bosser(sur l id tech 6) sur du larabee, et il semblerait qu'il n'en dise que du bien.
(pour les lien cherchez dans gogole)


Message édité par darkorel le 30-04-2009 à 20:17:04
n°6940721
sasuke87
Posté le 30-04-2009 à 20:15:31  profilanswer
 

ou pas... c'est juste qu'ils ont les moyens de pression pour imposer leurs produits... :whistle:


Message édité par sasuke87 le 30-04-2009 à 20:17:02
n°6940728
darkorel
Posté le 30-04-2009 à 20:25:42  profilanswer
 

.....verra bien, vivement la fin de l'année en tous cas, et en parlant de pression, j commence à avoir soif moi.
Ah et pour ceux qui n'auraient pas vu:  http://www.puissance-pc.net/cartes [...] ?Itemid=49
c sympathique.


Message édité par darkorel le 30-04-2009 à 20:26:56
n°6940762
intel's fa​n
Kev inside
Posté le 30-04-2009 à 20:49:52  profilanswer
 

darkorel a écrit :

.........faudrait pas non plus oublier larabee, car je ne pense pas qu'intel vienne seulement faire de la figuration........


A mon avis Intel restera dans l'entre gamme (ou milieu gamme au mieux) et n'entrera pas directement au HDG et UHDG, ca sera trop beau et trop facile  :D


---------------
Samsung Galaxy S II / Gingerbread 2.3.5 stock
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  26  27  28  ..  820  821  822  823  824  825

Aller à :
Ajouter une réponse
 

Sujets relatifs
Configuration (Intel inside) - Est-elle homogène ?Problème overclock Radeon HD4850
Reboot unique au démarrage... Normal ou pas?Radeon HD4870 ou 50 + C2D E6400 = bon ménage ?
Probleme sortie TV sur Radeon 9500 proATI HD3870 vers 4850-4870 ???
[Topic unique] Aide à la présentation de nouvelles configurations PC[Topic Unique] problèmes sur les G84 et G86 de Nvidia [8400 8600]
Plus de sujets relatifs à : [Topic Unique] ATI Radeon HD 5800 et 5900 Series (RV870 inside)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)