Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2971 connectés 

 

 

Intel semble vouloir bouleverser le marché de la carte graphique. Mais entre les volontés du fondeur et celles du consommateur, où vous placez vous dans vos attentes d'une carte graphique ?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter
Les invités peuvent voter

 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13  14  15  16
Auteur Sujet :

[Topic unique] INTEL Larrabee - MAJ 05/12/2009

n°6838080
tfpsly
Sly
Posté le 09-02-2009 à 07:54:42  profilanswer
 

Reprise du message précédent :
Mon dernier jeu a été salué par la presse pour la qualité de sa version PC ;)
 
Quand à exploiter correctement un quad, ça devrait se faire automatiquement, les moteurs des jeux étant modifiés le moins possible entre plateforme ; donc qui exploite correctement un CPU tri-core double threads (soit 6 threads) sur X360, devrait exploiter correctement un CPU quadcore sur PC. Autrement la version console n'est pas si aboutie que cela ;)

mood
Publicité
Posté le 09-02-2009 à 07:54:42  profilanswer
 

n°6838106
Sat45
ÉcouTeSA
Posté le 09-02-2009 à 09:01:49  profilanswer
 

Nan mais ce qu'il veux dire c'est que dans un souci de compatibilité entre tous les matériels, on ne peu pas exploitier l'architechture d'un PC au maximum comme on le fais pour une archi fixe.
 
La ou tu va pouvoir optimiser tel ou tel truc sur un jeu Xboite, tu pourra pas forcement l'optimiser sur PC, soit parceque ca se fera au detriment de tel ou tel modele de CG qui ne gere pas telle ou telle chose, etc etc...


---------------
106R / / / 1300 POWAAAA !!!  /!\ ~ TeSA - Séda c'est çà session ~ /!\
n°6838118
vibroboy_f​r
Posté le 09-02-2009 à 09:29:10  profilanswer
 

Ce n' est pas seulement une question de parc "hardware" mais aussi une question de programmation. Sur console on a tendance a dire qu' on code "au ras du métal" avec des librairies bas niveau, en adressant directement les puces donc efficacité maximum(je penses au consoles de sony, dures a programmer a cause de ça).Avec le pc on passe par des librairies "haut niveau" qui ne s' adressent pas au hardware mais a directX par exemple. Résultat: c' est plus simple de programmer, on est tjs en terrain connu mais il y a bcq de surcouche et au final les perfs sont lissés.

Message cité 1 fois
Message édité par vibroboy_fr le 09-02-2009 à 09:30:08
n°6838119
Profil sup​primé
Posté le 09-02-2009 à 09:29:32  answer
 

tfpsly a écrit :

Mon dernier jeu a été salué par la presse pour la qualité de sa version PC ;)
 
Quand à exploiter correctement un quad, ça devrait se faire automatiquement, les moteurs des jeux étant modifiés le moins possible entre plateforme ; donc qui exploite correctement un CPU tri-core double threads (soit 6 threads) sur X360, devrait exploiter correctement un CPU quadcore sur PC. Autrement la version console n'est pas si aboutie que cela ;)


 
J'ai jamais di que les jeux étaient mauvais, loin de la, (Prince of Persia  sur lequel tu as travaillé est un model du genre :jap: ), seulement qu'un pc haut de gamme est loin d'être poussé a fond, et pire on ne cherche même plus vraiment a le faire, on porte le moteur sur pc, il tourne bien ok, mais on va chercher a faire beaucoup plus, on optimise le jeu pour qu'il tourne bien sur X config, voila, je généralise la, tous les jeux n'en sont pas la...menfin regarde le désastre du dernier gta iV...le portage de la honte...
 
La ou je veux en venir (avec bien du mal il faut dire), le pc devient la 3eme roue du carrosse et de plus en plus je trouve, les portages limites sont de plus en plus nombreux, y en a de vraiment réussit, surtout quand le moteur pc est au point, mais ne peuvent ils pas faire un effort et nous rajouter des textures dignes de nos pc, plutôt que de nous laisser les textures xboite beurk pas belles... ils n'ont pas le temps je pense, bin tien le fait de laisser les textures grossieres n'est il pas justement une preuve qu'on ne cherche pas à exploiter nos carte graphique...même milieu de gamme actuel...
 
Tien un exemple, un jeu vraiment pas mal comme dead space, ne mérite t il pas de plus belles textures sur pc, et franchement il est loin de mettre nos pc (edit :) a genouX, même milieu de gamme, n'auraient ils pas du rajouter qq détails et effets, dead space est très loin d'exploiter nos pc, bon après un jeu vidéo ne se résume pas a ses graphismes et fort heureusement, mais quand même on nivelle par le bas et cela a cause des consoles, et c bien dommage je trouve, a quand la mort du jeu vidéo sur pc...
 
Menfin toussa est HS et j'en suis désolé, faute a moi  [:deiphine] et je respect beaucoup le travail des dev, mais y en a qui poussent trop le bouchon et nous sortent des jeux baclés du fion quand même...et très très loin de se que peuvent faire nos pc.

Message cité 1 fois
Message édité par Profil supprimé le 09-02-2009 à 09:40:25
n°6838216
Sat45
ÉcouTeSA
Posté le 09-02-2009 à 10:43:26  profilanswer
 

Moi je suis entierement d'accord, GTA IV je trouve abusé la moteur graphique, pas optimisé, aliasé comme c'est pas permis, des ombres moche, un effet de flou pour masquer les textures a 2 francs etc...


---------------
106R / / / 1300 POWAAAA !!!  /!\ ~ TeSA - Séda c'est çà session ~ /!\
n°6838637
tfpsly
Sly
Posté le 09-02-2009 à 15:40:51  profilanswer
 

vibroboy_fr a écrit :

Sur console on a tendance a dire qu' on code "au ras du métal" avec des librairies bas niveau, en adressant directement les puces donc efficacité maximum(je penses au consoles de sony, dures a programmer a cause de ça).

C'est au moins en partie faux désormais. Rien que tout ce qui touche à l'affichage utilise désormais des API de niveaux et de complexité équivalentes entre les consoles et les PC.

 

Sur PC, la plupart des jeux demandent désormais un shader model 3 (6600GT et + en gros), ainsi toutes les cartes graphiques s'utilisent de la même façon. Par contre on va couper ou non certains effets en fonction de la vitesse de la carte.

 

Reste certaines choses liées au CPU, aux canaux DMA, et les datas dont la taille est bien optimisée en fonction de la mémoire dispo physiquement, de la vitesse de streaming...

 

Dit comme ça, y'a rien à rajouter : ça a l'air en effet d'être le cas. Ça fait longtemps que je n'ai pas vu un jeu PC avec au moins des textures refaites en highres (souvent, ce sont des joueurs qui refont certaines textures, comme dans Fallout3 par exemple).
GTA4? :whistle:


Message édité par tfpsly le 09-02-2009 à 15:41:34
n°6838819
vibroboy_f​r
Posté le 09-02-2009 à 18:03:07  profilanswer
 

Si ce que je dis est en partie faux, c' est ptet que ça fait trop longtemps que j' ai quitté le dev de jeu :)
 
Info de samedi en passant: Sony a démenti l' usage du larabee pour sa PS4.


Message édité par vibroboy_fr le 09-02-2009 à 18:03:25
n°6843726
Fantryt
Posté le 12-02-2009 à 18:13:43  profilanswer
 

Allez, je balance une info :
http://www.pcinpact.com/actu/news/ [...] ration.htm
Même si elle n'a pas de rapport direct avec LARRABEE, il est fort à parier que la technologie HYDRA ENGINE et LARRABEE soient liés dans le futur .

n°6843807
tfpsly
Sly
Posté le 12-02-2009 à 19:10:54  profilanswer
 

Déjà passé ;)

n°6844215
tfpsly
Sly
Posté le 13-02-2009 à 00:13:39  profilanswer
 
mood
Publicité
Posté le 13-02-2009 à 00:13:39  profilanswer
 

n°6844663
TheBigO
ShowTime!
Posté le 13-02-2009 à 12:33:52  profilanswer
 

ca doit depoter 40 cpu486 à 3ghz :lol:


---------------
"Big O Showtime! Cast in the name of GOD, ye not guilty!" Roger Smith
n°6844680
bjone
Insert booze to continue
Posté le 13-02-2009 à 12:42:48  profilanswer
 


 

Citation :

- Texture soft fault on page miss (easy mega-texturing, easy procedural texturing)!


Gniark !  :p

n°6847962
lefty-worl​d
mono-core inside
Posté le 15-02-2009 à 17:54:09  profilanswer
 

J'y comprend rien :pfff:


---------------
Le mode sans echec de windows, prouve bien que le mode normal est un echec .
n°6848090
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 15-02-2009 à 19:06:03  profilanswer
 

lefty-world je te traduis ; << C'est super puissant peut tout faire >>
 
voila.


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°6848666
lefty-worl​d
mono-core inside
Posté le 16-02-2009 à 11:00:02  profilanswer
 

super_newbie_pro a écrit :

lefty-world je te traduis ; << C'est super puissant peut tout faire >>
 
voila.


 
 
MDR
wahou merci ^^
bon elle promet alors cette "carte graphique"  


---------------
Le mode sans echec de windows, prouve bien que le mode normal est un echec .
n°6849289
tfpsly
Sly
Posté le 16-02-2009 à 19:40:19  profilanswer
 
n°6851071
civcortex
Firefox powered
Posté le 18-02-2009 à 06:06:09  profilanswer
 

drapal


---------------
Topic vente et feedback
n°6858748
tfpsly
Sly
Posté le 23-02-2009 à 17:48:30  profilanswer
 

Interview de Pat Gelsinger, ex-CTO de Intel par Forbes (en Anglais donc). Il y parle un peu de Larrabee.

n°6865813
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 01-03-2009 à 07:51:10  profilanswer
 

Une annonce dite "stratégique" ( ?? ) devra avoir lieu prochainement conjointement par intel et Taiwan Semiconductor (une alliance ? uhm uhm...) source : http://blogs.barrons.com/techtrade [...] ouncement/
 
Je ne sais pas vous, mais moi je sens du larrabee 40nm dans l'air produit par TSMC ^^


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°6865816
marllt2
Posté le 01-03-2009 à 08:30:55  profilanswer
 

Larrabee sera fabriqué dans les Fabs d'Intel. ;)

n°6865835
Fantryt
Posté le 01-03-2009 à 09:48:30  profilanswer
 

TSMC + Larrabee = [error]  :pt1cable:  
Je n'y crois pas une seconde ...
 
Mais, dites, les coeurs du Larrabee seront-ils des coeurs de processeur x86 ? Parce que si on imagine 16 coeurs, la consommation pourrait facilement atteindre 200W et bien au-delà ...  :whistle:

n°6867470
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 02-03-2009 à 15:10:46  profilanswer
 

Intel et le fondeur taïwanais TSMC tiendront aujourd'hui une conférence de presse commune pour faire une « annonce stratégique » importante.
 
La conférence aura lieu chez Intel à Taïwan, en présence de hauts cadres exécutifs des deux entreprises, comme Anand Chandrasekher, responsable de la division ultramobilité d'Intel, Sean Maloney, le monsieur marketing du géant américain, ainsi que les PDG et vice-président de TSMC.
 
Pas plus de détails pour l'instant, mais on parle déjà d'un partenariat stratégique entre Intel et TSMC sur les puces graphiques, un secteur dans lequel le processus de gravure de TSMC est parfaitement rodé avec ATI et NVIDIA. Selon les rumeurs, Intel souhaiterait donc sous-traiter la fonte de ses GPU à TSMC.
 
D'autres vont plus loin, en parlant d'un partenariat autour du prochain processeur avec circuit graphique intégré d'Intel, le Claskdale. La fonte du GPU serait alors confiée à TSMC, pour être ensuite intégrée sur le paquetage du processeur d'Intel. On le saura très bientôt.
source : http://www.pcinpact.com/actu/news/ [...] egique.htm


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°6867528
Fantryt
Posté le 02-03-2009 à 15:47:49  profilanswer
 

Tu m'as devancé ! Zut !  :D

n°6867559
Ill Nino
Love
Posté le 02-03-2009 à 16:14:32  profilanswer
 

Fantryt a écrit :

Tu m'as devancé ! Zut !  :D


Super! :o


---------------
Faut qu'on court comme des lions, des tigres et des ours!
n°6867583
Fantryt
Posté le 02-03-2009 à 16:26:09  profilanswer
 


T'es de mauvaise humeur ou t'as une dent contre moi ?  :o

n°6867585
Ill Nino
Love
Posté le 02-03-2009 à 16:27:37  profilanswer
 

Ni l'un ni l'autre...


---------------
Faut qu'on court comme des lions, des tigres et des ours!
n°6867590
Fantryt
Posté le 02-03-2009 à 16:28:36  profilanswer
 

Bon, ben, il n'y a pas de problème ...  :jap:

n°6876604
Ill Nino
Love
Posté le 09-03-2009 à 09:13:28  profilanswer
 

Dossier Larabee:
http://www.presence-pc.com/tests/i [...] ure-22867/


---------------
Faut qu'on court comme des lions, des tigres et des ours!
n°6877808
Fantryt
Posté le 10-03-2009 à 07:45:51  profilanswer
 

Citation :

Dans quelques jours, nous vous proposerons de plonger dans l’épineux côté logiciel de Larrabee.


Citation tirée de la conclusion .
Vivement "dans quelques jours" ...
 
 :bounce:

n°6889076
marllt2
Posté le 19-03-2009 à 03:15:57  profilanswer
 

Intel recrute en masse, nottamment dans la branche graphique: http://www.fudzilla.com/index.php? [...] 6&Itemid=1


Message édité par marllt2 le 19-03-2009 à 03:21:13
n°6899636
poiuytr
\o/
Posté le 27-03-2009 à 16:14:16  profilanswer
 

Intel dévoile des instructions de Larrabee : http://www.presence-pc.com/actuali [...] bee-34246/
Je n'y comprends à peu près rien mais peut être que ça intéresse quelqu'un. :D


---------------

n°6899647
ssx99harlo​ck
Posté le 27-03-2009 à 16:28:03  profilanswer
 

Drapalito...

n°6900410
marllt2
Posté le 28-03-2009 à 02:11:25  profilanswer
 

Je ne sais pas ce que ça vaut, mais des bruits de couloirs basés sur les estimations de perfs des slides d'Intel disent ça:
 
Dans Fear, un Larrabee 16 cores @ 3 GHz aurait les même perfs qu'une GTX 280.

n°6900413
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 28-03-2009 à 02:26:27  profilanswer
 

Donc la version 32 cores sera plus perf théoriquement... En gros intel sera "dans la course" pour le HDG


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°6900807
Fantryt
Posté le 28-03-2009 à 14:24:26  profilanswer
 

marllt2 a écrit :

Je ne sais pas ce que ça vaut, mais des bruits de couloirs basés sur les estimations de perfs des slides d'Intel disent ça:
 
Dans Fear, un Larrabee 16 cores @ 3 GHz aurait les même perfs qu'une GTX 280.


 :ouch:  
 
Vivement que la puce Hydra s'accorde avec elle ... là, ce sera du tonnerre ... d'autant plus que l'OC d'un Larrabee doit être tout ce qu'il y a de plus sympathique ...  :D

n°6902698
Ill Nino
Love
Posté le 30-03-2009 à 09:59:45  profilanswer
 

marllt2 a écrit :

Je ne sais pas ce que ça vaut, mais des bruits de couloirs basés sur les estimations de perfs des slides d'Intel disent ça:
 
Dans Fear, un Larrabee 16 cores @ 3 GHz aurait les même perfs qu'une GTX 280.


Ouai, rien de bien scientifique quoi... :D


---------------
Faut qu'on court comme des lions, des tigres et des ours!
n°6902892
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 30-03-2009 à 13:10:26  profilanswer
 
n°6902963
bjone
Insert booze to continue
Posté le 30-03-2009 à 13:55:31  profilanswer
 


Juste une petite remarque: bien que les API 3D soient des api immédiates, le concept de renderer différé est applicable et appliqué sur les gpu actuels (stalker).  
le deferred renderer est une solution alternative au forward renderer. que les api soient immédiates se joue au niveau supérieur.
Après oui Larabee aimera les deferred renderer c'est sûr.

n°6903083
tfpsly
Sly
Posté le 30-03-2009 à 15:39:00  profilanswer
 

bjone a écrit :

Juste une petite remarque: bien que les API 3D soient des api immédiates, le concept de renderer différé est applicable et appliqué sur les gpu actuels (stalker).

Gaffe parce qu'immédiat n'a pas le même sens que forward rendering, surtout dans le sens que tu lui donnes dans la partie soulignée :

  • Les dernières versions des apis 3D ne font plus d'affichage dit immédiat : par exemple les blocs de glBegin .. glEnd dans les anciennes versions de OpenGL, maintenant abandonnées dans OGL3.1+ car très lentes. D'autre part depuis longtemps les commandes sont bufferisées et exécutées de manière asynchrone par le GPU ; forcer le GPU et le CPU à se synchroniser est d'ailleurs le cas le plus courant de gaspillage de resources (stall). Donc la notion de rendu immédiat au sens temporel est caduque.
  • Forward rendering vs defered rendering ou shading : ok. Mais les api 3D ne sont pas spécialement orientées forward rendering ; c'est simplement l'utilisation classique.

n°6903105
bjone
Insert booze to continue
Posté le 30-03-2009 à 16:02:54  profilanswer
 

Tout à fait, on est d'accord.
Ce que je voulais dire, c'était que l'article semble mettre en opposition des techniques qui ne relèvent pas du même domaine.  
Immédiat ou pas: domaine api
Forward ou deferred: domaine techniques de rendu

n°6903158
Zeross
Posté le 30-03-2009 à 16:26:24  profilanswer
 

bjone a écrit :

Juste une petite remarque: bien que les API 3D soient des api immédiates, le concept de renderer différé est applicable et appliqué sur les gpu actuels (stalker).


 
Pour Stalker ou KillZone 2 seul le shading est différé : tu stockes des buffers intermédiaires en mémoire et ensuite tu les traites (je me doute que tu sais de quoi il  est question mais c'est pour qu'on soit bien d'accords sur les termes qu'on emploit ;)). Tu es d'accord que ça reste différent d'un rendu totalement différé comme celui effectué par les GPUs de PowerVR ou le moteur 3D d'intel dans le sens où ils créent une étape intermédiaire durant laquelle les triangles transformés sont stockés en mémoire sous forme de display lists et qui ensuite effectuent tout le rendu (rastérisation ET shading) en différé. Bon après je suis d'accord que ça reste une question de terminologie, mais je voulais pas embrouiller tout le monde.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13  14  15  16

Aller à :
Ajouter une réponse
 

Sujets relatifs
Baisse de prix intel le 21 Juillet.Température procceseur Intel
Baisse des prix INTEL du 20 JuilletLe ventirad de l'Intel box est il silencieux ?
Performance : Drivers pour chipset intel P45 (P5Q XXX et autres)Intel Q 9450 & carte(s) mère ASUS = CHALEUR!(?)
[Topic Unique] ATI Radeon HD 5800 et 5900 Series (RV870 inside)Màj de mon ancienne config, qu'en pensez vous ?
Plus de sujets relatifs à : [Topic unique] INTEL Larrabee - MAJ 05/12/2009


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR