Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1126 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  980  981  982  ..  1003  1004  1005  1006  1007  1008
Auteur Sujet :

Graphical open bar (des infos, des intox, aux extraits de TheInq)

n°10399298
ZzDazzleZz
Bencheur Oufff
Posté le 28-07-2018 à 19:41:14  profilanswer
 

Reprise du message précédent :

aliss a écrit :

AMD a publié ses chiffres pour Q2, l'embellie se poursuit.
 
http://ir.amd.com/news-releases/ne [...] al-results
 


 
Au moins ils ne sont plus dans le rouge  :o  
 
 [:a t t i c u s:4]

mood
Publicité
Posté le 28-07-2018 à 19:41:14  profilanswer
 

n°10399403
durandal2
Goatse bless 'Murica
Posté le 29-07-2018 à 04:44:38  profilanswer
 

si seulement ils pouvaient devenir beaucoup plus compétitifs... Comme au temps des 48xx


---------------
Soutien aux modérateurs victimes des attentats trollesques du topic Charlie Hebdo.
n°10399475
havoc_28
Posté le 29-07-2018 à 11:45:22  profilanswer
 

durandal2 a écrit :

si seulement ils pouvaient devenir beaucoup plus compétitifs... Comme au temps des 48xx


 
Ils ont été compétitif jusqu'à Maxwell, les HD48xx avaient un super rapport qualité prix, mais la couronne était quand même chez Nvidia :o. Pas que Polaris soit foncièrement mauvais, mais avoir délaissé totalement le haut de gamme pendant plus de un an ... et y revenir avec une puce orienté HPC/Deep Learning (manque les FP64, ça viendra avec la vega en 7nm) c'était pas ce qui avait de mieux pour les joueurs.

n°10400155
durandal2
Goatse bless 'Murica
Posté le 31-07-2018 à 04:37:33  profilanswer
 

M'enfin ca a marché, les mineurs ont acheté leurs cartes :o


---------------
Soutien aux modérateurs victimes des attentats trollesques du topic Charlie Hebdo.
n°10400160
aliss
Rhyme the Rhyme Well
Posté le 31-07-2018 à 07:46:50  profilanswer
 

Nouvel AA chez nV.
 
We introduce a pragmatic algorithm for real-time adaptive supersampling in games. It extends temporal antialiasing of rasterized images with adaptive ray tracing...
 
http://research.nvidia.com/publica [...] tialiasing

n°10400258
havoc_28
Posté le 31-07-2018 à 11:53:47  profilanswer
 

aliss a écrit :

Nouvel AA chez nV.
 
We introduce a pragmatic algorithm for real-time adaptive supersampling in games. It extends temporal antialiasing of rasterized images with adaptive ray tracing...
 
http://research.nvidia.com/publica [...] tialiasing


 

Citation :

The real-time ray tracing ecosystem of drivers, GPUs, and algorithms must emerge together over the next few years.


 
Quelques années encore ? :o

n°10404512
Bébé Yoda
Posté le 10-08-2018 à 17:32:49  profilanswer
 

[:lardoncru:3]

n°10405756
Nono0000
Posté le 14-08-2018 à 09:06:49  profilanswer
 

bon alors, vous avez trouvé toutes les références dans le teaser ? ;)
https://forums.guru3d.com/threads/n [...] er.422474/

 

Pour le moment ce qui a été trouvé :
One of the chat session is RoyTeX = RTX = Ray Tracing technology
Not_11 = clearly not 11 .. ergo it is not GeForce GTX 1180
Eating, gimme 20 ...
Mac-20 = 20 Series ... hints towards the 20 series
Eight-Tee = 80 ... GTX 2080
AlanaT = I love this one, Alan Turing?
Zenith20 = They name 20 series
Ray = Ray tracing
GPS coordinates: “50.968495,7.014026” describe launch location
Rolling date numbers seems to be 2,0,8,0
Music in the background shouts 'i am coming' repeatedly. Which obviously refers to the pending launch.

https://www.guru3d.com/news-story/n [...] -2080.html


Message édité par Nono0000 le 14-08-2018 à 09:11:11

---------------
CPU: 6950X 4.3Ghz (Uncore: 3.7Ghz) WC HM -- Mem: 4x8Go 3200Mhz 14-16-17-32-1T -- Mobo: Asus X99 Deluxe -- GPU: 4080 (GPU: 3015Mhz, VRAM: 12200Mhz) -- Carte Son: X-Fi Titanium Fatal1ty Professional -- SSD: M.2 PCIE XP941 -- Ecran: DELL AW3423DW QD-OLED
n°10406250
bgx
reviens brunette!
Posté le 15-08-2018 à 00:05:18  profilanswer
 

super important le noms...
Je veux savoir le prix, et vu la competition sur le segment, j'ai tres tres peur.
 
bon, vega 2 en 7nm arrive quand qu'il y ait un peu de competition et donc des prix raisonables?

n°10406255
ZzDazzleZz
Bencheur Oufff
Posté le 15-08-2018 à 00:31:15  profilanswer
 

bgx a écrit :

super important le noms...
Je veux savoir le prix, et vu la competition sur le segment, j'ai tres tres peur.
 
bon, vega 2 en 7nm arrive quand qu'il y ait un peu de competition et donc des prix raisonables?


 
Jamais :( !! prochain gpu sera navi pour 2019 si tout va bien :o  reste l'inconnu prendra t'il la relève des polaris qui reste l'option la plus cohérente, soit remplacera VEGA mais la c'est à prendre avec des grosses pincettes de crabe géant  :D

mood
Publicité
Posté le 15-08-2018 à 00:31:15  profilanswer
 

n°10406257
havoc_28
Posté le 15-08-2018 à 00:41:31  profilanswer
 

bgx a écrit :

super important le noms...
Je veux savoir le prix, et vu la competition sur le segment, j'ai tres tres peur.
 
bon, vega 2 en 7nm arrive quand qu'il y ait un peu de competition et donc des prix raisonables?


 
Vega 20 en 7nm, c'est une puce présentée uniquement pour le HPC etc, ça prend V10 comme base, mais on passe à un bus mémoire 4096 bits (4 empilements de HBM2), on ajoute des instructions coté HPC et deep learning, et surtout retour des FP64 (double précision), le tout avec une augmentation de la fréquence pour limiter au mieux les goulets d'étranglement de G.C.N.
 
Cette puce aux dernières nouvelles ne sera donc pas déclinée en version pour joueur (sauf si changement de feuille de route), et est donc destiné à l'IA / HPC etc , usage pro uniquement. Phase d’échantillonnage en cette fin d'année et commercialisant courant premier semestre 2019.
 
Navi quelque par lors du second semestre 2019 si la feuille de route est bien respectée.


Message édité par havoc_28 le 15-08-2018 à 00:44:39
n°10406277
major95
The !!!! Beat
Posté le 15-08-2018 à 06:08:30  profilanswer
 

bgx a écrit :


Je veux savoir le prix, et vu la competition sur le segment, j'ai tres tres peur.

 

bon, vega 2 en 7nm arrive quand qu'il y ait un peu de competition et donc des prix raisonables?

 

Y'aura rien comme la précisé havoc_28 [:oukellestlababalle]

 

Je crois qu'ils se concentrent sur le GPU pour la prochaine Sony.


Message édité par major95 le 15-08-2018 à 06:08:37
n°10406362
bgx
reviens brunette!
Posté le 15-08-2018 à 13:01:11  profilanswer
 

argh.
Apres, vu comment vega 1 etait une deception, ils se sont peut etre dit que ca servait a rien de faire un truc tres cher pour les joueurs mais moins performant que la concurrence.
 
On va se marrer sur les prix des cartes nvidia alors.
 
Il pourrait pas sortir un polaris2 en 7nm le temps d'attendre? Juste un die shrink quoi.... Polaris est competitif. Meme rapport Q/P que les 1060

n°10406675
aliss
Rhyme the Rhyme Well
Posté le 15-08-2018 à 22:12:05  profilanswer
 

Intel *tease* déjà son arrivée sur le marché en 2020... :D  
 
https://twitter.com/IntelGraphics

n°10406679
havoc_28
Posté le 15-08-2018 à 22:18:34  profilanswer
 

bgx a écrit :

argh.
Apres, vu comment vega 1 etait une deception, ils se sont peut etre dit que ca servait a rien de faire un truc tres cher pour les joueurs mais moins performant que la concurrence.
 
On va se marrer sur les prix des cartes nvidia alors.
 
Il pourrait pas sortir un polaris2 en 7nm le temps d'attendre? Juste un die shrink quoi.... Polaris est competitif. Meme rapport Q/P que les 1060


 
Un Die Shrink de Polaris en 7nm ça ferait des puces vraiment petites juste pour l'entrée de gamme quoi, genre un P10/20/Ellesmere Dieshrinké se retrouverait avec la taille d'un P11/21(ou à peine plus). Ils ont un Vega mobile qui n'est pas aussi chargé niveau HPC (Deep Learning/FP16 etc), mais toujours le soucis de la HBM2.  
 

aliss a écrit :

Intel *tease* déjà son arrivée sur le marché en 2020... :D  
 
https://twitter.com/IntelGraphics


 
2020 ça sera juste le début :o, mais ça pourra donner une idée de ce qu'ambitionne Intel sur le long terme (s'ils ont enfin donné le temps et les moyens à la branche GPU de commencer à faire quelque chose de vraiment sérieux hors iGP entrée de gamme).


Message édité par havoc_28 le 15-08-2018 à 22:20:22
n°10406734
Fouge
Posté le 15-08-2018 à 23:49:03  profilanswer
 

aliss a écrit :

Intel *tease* déjà son arrivée sur le marché en 2020... :D  
 
https://twitter.com/IntelGraphics

C'est sa 3ème arrivée, non ? :D

n°10406737
Bébé Yoda
Posté le 15-08-2018 à 23:52:36  profilanswer
 

Je suis assez impatient de voir ce que prépare Intel.
Avec NVIDIA se reposant un peu trop sur ses lauriers, AMD en mauvaise posture... Pourquoi pas un nouvel acteur avec une solution plus performante, pas handicapé par l'héritage de générations précédentes ?

 

A suivre

n°10406739
Zeross
Posté le 16-08-2018 à 00:07:01  profilanswer
 

Pourquoi les générations précédentes constitueraient un handicap ?
On est pas sur du x86, Nvidia et AMD n'ont jamais hésité à radicalement changer leurs architectures, si elles se sont relativement stabilisées ces dernières années c'est essentiellement parce qu'ils sont arrivés des architectures  efficace qu'il n'y a plus qu'à affiner.

n°10406752
Fouge
Posté le 16-08-2018 à 01:00:24  profilanswer
 

Pas sur du x86 ? Et pourquoi ne pas faire un gros GPU constitué de plein de petits cores x86 dotés de grosses unités vectorielles et d'un peu de hardware dédié au graphique (en provenance de ces bons vieux IGP, pas la peine de réinventer la roue) : on obtiendrait un GPU capable de tout supporter (DirectX, OpenGL, OpenCL, Vulkan, etc.) du moment que les drivers suivent, attaquant AMD et nVidia sur le terrain des cartes graphiques mais aussi celui du HPC. Juste en recompilant nos programmes x86, on pourrait les faire tourner de manière massivement parallèle :love:

 

https://i.imgflip.com/2fy66b.jpg

Message cité 4 fois
Message édité par Fouge le 16-08-2018 à 01:02:51
n°10406754
havoc_28
Posté le 16-08-2018 à 01:07:51  profilanswer
 

Bébé Yoda a écrit :

Je suis assez impatient de voir ce que prépare Intel.
Avec NVIDIA se reposant un peu trop sur ses lauriers, AMD en mauvaise posture... Pourquoi pas un nouvel acteur avec une solution plus performante, pas handicapé par l'héritage de générations précédentes ?
 
A suivre


 
Nvidia tant qu'on ne connait pas le gain apporté par la futur génération qui sera présentée vraisemblablement ce 20 août (Turing) , on ne peut pas trop dire qu'ils se reposent sur leurs lauriers, si "Turing" apporte des gains importants, ils pourront faire comme entre Maxwell et Pascal entre le 28 et 16 nm, mais cette fois ci entre le 12 nm FFN + et le futur 7nm, reprendre "Turing" quelques amélioration légère et profiter du passage au 7nm.

Message cité 1 fois
Message édité par havoc_28 le 16-08-2018 à 01:09:19
n°10406755
ZzDazzleZz
Bencheur Oufff
Posté le 16-08-2018 à 01:12:10  profilanswer
 

Attendons déjà de voir ce que va donner Turing en 12nm , et faire même partiellement du raytracing en hardware ce n'est pas se reposer sur ses lauriers loin de la... :o

n°10406756
Le Profana​teur
Passéiste désincarné
Posté le 16-08-2018 à 01:21:06  profilanswer
 

Fouge a écrit :

Pas sur du x86 ? Et pourquoi ne pas faire un gros GPU constitué de plein de petits cores x86 dotés de grosses unités vectorielles et d'un peu de hardware dédié au graphique (en provenance de ces bons vieux IGP, pas la peine de réinventer la roue) : on obtiendrait un GPU capable de tout supporter (DirectX, OpenGL, OpenCL, Vulkan, etc.) du moment que les drivers suivent, attaquant AMD et nVidia sur le terrain des cartes graphiques mais aussi celui du HPC. Juste en recompilant nos programmes x86, on pourrait les faire tourner de manière massivement parallèle :love:
 
https://i.imgflip.com/2fy66b.jpg


À cause de l’efficacité thermique à la rue ?  [:mister_k]


---------------
Abordez la pente du bon côté ! \o/ Let the light surround you \o/ To bleed or not to be...
n°10406758
ZzDazzleZz
Bencheur Oufff
Posté le 16-08-2018 à 01:26:41  profilanswer
 

Fouge a écrit :

Pas sur du x86 ? Et pourquoi ne pas faire un gros GPU constitué de plein de petits cores x86 dotés de grosses unités vectorielles et d'un peu de hardware dédié au graphique (en provenance de ces bons vieux IGP, pas la peine de réinventer la roue) : on obtiendrait un GPU capable de tout supporter (DirectX, OpenGL, OpenCL, Vulkan, etc.) du moment que les drivers suivent, attaquant AMD et nVidia sur le terrain des cartes graphiques mais aussi celui du HPC. Juste en recompilant nos programmes x86, on pourrait les faire tourner de manière massivement parallèle :love:
 
https://i.imgflip.com/2fy66b.jpg


 
Il y avait eu un projet chez intel avec cette idée de coller plein de petit processeur X86 pour faire une carte graphique mais le projet à été abandonné "larabee" si je ne me trompe pas :o

n°10406759
Zeross
Posté le 16-08-2018 à 01:28:53  profilanswer
 

Fouge a écrit :

Pas sur du x86 ? Et pourquoi ne pas faire un gros GPU constitué de plein de petits cores x86 dotés de grosses unités vectorielles et d'un peu de hardware dédié au graphique (en provenance de ces bons vieux IGP, pas la peine de réinventer la roue) : on obtiendrait un GPU capable de tout supporter (DirectX, OpenGL, OpenCL, Vulkan, etc.) du moment que les drivers suivent, attaquant AMD et nVidia sur le terrain des cartes graphiques mais aussi celui du HPC. Juste en recompilant nos programmes x86, on pourrait les faire tourner de manière massivement parallèle :love:
 
https://i.imgflip.com/2fy66b.jpg


 
:D
https://cdn.arstechnica.net/news.media/larrabee-gpu.gif
 
10 ans plus tard l'idée est toujours séduisante (ou pas)

n°10406785
MEI
|DarthPingoo(tm)|
Posté le 16-08-2018 à 08:40:49  profilanswer
 

Le Profanateur a écrit :


À cause de l’efficacité thermique à la rue ?  [:mister_k]


A priori le pb c'était que l'équipe Hardware et l'équipe Software du projet était completement séparé et donc ça partait un peu dans tout les sens.
 
Intel aurai sans doute pu arrivé à quelque chose qui concurrence au moins les parties HPC des GPU actuels. Mais bon au final, un Xeon avec AVX512 et les instructions ajoutés pour Cooper Lake devrais aussi bien combattre là dedans.
 
Et l'archi. GPU Intel actuel, avec plus de moyens en software, ça devrait sortir quelque chose pour contrer au moins le segment @ 300-350€ je pense...


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°10406792
aliss
Rhyme the Rhyme Well
Posté le 16-08-2018 à 08:55:56  profilanswer
 

Fouge a écrit :

C'est sa 3ème arrivée, non ? :D

 

Jamais sur le segment performance (sauf projet avorté).

 

Je suis curieux de voir ce que l'équipe de Raja nous prépare avec des fonds autrement plus importants qu'au RTG.

 

J'espère sincèrement qu'ils seront au niveau dès le premier jet, ce duopole n'a que trop duré, le segment était nettement plus innovant et excitant il y a 20 ans.

 


Message cité 3 fois
Message édité par aliss le 16-08-2018 à 08:57:29
n°10406797
Bébé Yoda
Posté le 16-08-2018 à 08:59:18  profilanswer
 

havoc_28 a écrit :

 

Nvidia tant qu'on ne connait pas le gain apporté par la futur génération qui sera présentée vraisemblablement ce 20 août (Turing) , on ne peut pas trop dire qu'ils se reposent sur leurs lauriers, si "Turing" apporte des gains importants, ils pourront faire comme entre Maxwell et Pascal entre le 28 et 16 nm, mais cette fois ci entre le 12 nm FFN + et le futur 7nm, reprendre "Turing" quelques amélioration légère et profiter du passage au 7nm.

 

D'ici 2020 on verra, et on verra aussi les gains de la nouvelle génération.
Mais ils me donnent l'impression de prendre leur temps, de pas être sous pression donc j'imagine qu'à terme ça peut jouer.
Il me semble que la nouvelle génération était prévue depuis un moment mais a été retardée non ?

n°10406808
major95
The !!!! Beat
Posté le 16-08-2018 à 09:16:04  profilanswer
 

aliss a écrit :


Jamais sur le segment performance (sauf projet avorté).

 

Je suis curieux de voir ce que l'équipe de Raja nous prépare avec des fonds autrement plus importants qu'au RTG.

 

J'espère sincèrement qu'ils seront au niveau dès le premier jet, ce duopole n'a que trop duré, le segment était nettement plus innovant et excitant il y a 20 ans.

 

Il y'a 20 ans c'était encore l'age de pierre de la 3D.

 

Et ça innove toujours avec le Ray-Tracing, le nouvel anti-aliasing RT et quelques améliorations intéressantes comme le HDR sur LCD une fois bien maîtrisé.


Message édité par major95 le 16-08-2018 à 12:22:07
n°10406812
aliss
Rhyme the Rhyme Well
Posté le 16-08-2018 à 09:28:20  profilanswer
 

L'utilisation du RT devait arriver tôt ou tard à grande échelle mais cette méthode de rendu existe depuis plusieurs dizaines d'années.
 
Combien d'options "gadget" pour de réelles innovations depuis que ATI/AMD et nV se partagent le marché ?

n°10406813
Bébé Yoda
Posté le 16-08-2018 à 09:30:57  profilanswer
 

Est-ce que la technologie d'atomontage a déjà été discutée sur le topic ?
Vu de loin c'est prometteur avec des trucs vraiment beaux avec du matériel modeste, mais en pratique est-ce que ça va réellement être utilisable pour des jeux vidéo ?

 

Si ça a déjà été discuté sur 200 pages, vous pouvez m'ignorer :o

n°10406816
major95
The !!!! Beat
Posté le 16-08-2018 à 09:38:14  profilanswer
 

aliss a écrit :

L'utilisation du RT devait arriver tôt ou tard à grande échelle mais cette méthode de rendu existe depuis plusieurs dizaines d'années.


 
Arriver à le faire tourner en temps réel reste quand même une sacrée performance depuis le temps qu'Intel nous teasait ce rendu avec Larrabee.  
 

n°10406818
aliss
Rhyme the Rhyme Well
Posté le 16-08-2018 à 09:44:05  profilanswer
 

Bébé Yoda a écrit :

Est-ce que la technologie d'atomontage a déjà été discutée sur le topic ?
Vu de loin c'est prometteur avec des trucs vraiment beaux avec du matériel modeste, mais en pratique est-ce que ça va réellement être utilisable pour des jeux vidéo ?
 
Si ça a déjà été discuté sur 200 pages, vous pouvez m'ignorer :o


 
Il y a un TU (peu fréquenté) sur B3D.  ;)  
 
https://forum.beyond3d.com/threads/ [...] sed.51103/

n°10406819
aliss
Rhyme the Rhyme Well
Posté le 16-08-2018 à 09:45:23  profilanswer
 

major95 a écrit :

 

Arriver à le faire tourner en temps réel reste quand même une sacrée performance depuis le temps qu'Intel nous teasait ce rendu avec Larrabee.

 


 

Espérons que ça motivera les devs à migrer sur DX12 / Vulkan qui sont encore majoritairement boudés plus de 2 ans après leur sortie.


Message édité par aliss le 16-08-2018 à 09:46:13
n°10406833
MEI
|DarthPingoo(tm)|
Posté le 16-08-2018 à 10:07:01  profilanswer
 

aliss a écrit :


 
Jamais sur le segment performance (sauf projet avorté).
 
Je suis curieux de voir ce que l'équipe de Raja nous prépare avec des fonds autrement plus importants qu'au RTG.  
 
J'espère sincèrement qu'ils seront au niveau dès le premier jet, ce duopole n'a que trop duré, le segment était nettement plus innovant et excitant il y a 20 ans.
 
 


Pour l'instant pour 2020 ça risque d'être un dérivé des iGPU sans plus... La pate de Raja ça sera pas pour 2020 je pense.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°10406834
Fouge
Posté le 16-08-2018 à 10:09:17  profilanswer
 

aliss a écrit :

Jamais sur le segment performance (sauf projet avorté).

 

Je suis curieux de voir ce que l'équipe de Raja nous prépare avec des fonds autrement plus importants qu'au RTG.

 

J'espère sincèrement qu'ils seront au niveau dès le premier jet, ce duopole n'a que trop duré, le segment était nettement plus innovant et excitant il y a 20 ans.

Intel ne le voulait pas ou alors il n'y était pas arrivé (produit trop peu perf/peu abouti dans la pratique, abandon au vu des résultats, etc.) ?

 

Il y a 20 ans justement, l'âge où il y avait beaucoup à faire en terme de 3D accélérée, Intel se lance avec l'i740, et c'était une carte AGP 2D/3D qui ciblait clairement les gamers. Test ici : https://www.hardware.fr/articles/37-1/intel-i740.html Mais ce fût un échec et son cadavre servit de base à la lignée d'IGP qui se sont succédé pendant 20 ans.

 

10 ans plus tard, Intel veut se lancer à l’assaut du HPC et des gamers avec le projet Larrabee (x86 everywhere), mais le projet prend du retard, le software a du mal à suivre et il fut décidé d'abandonner l'objectif "graphique" du projet, malgré le support logiciel des dernières versions des API 3D du moment et de la présence de 10% de transistors dédiés (qui sera conservé un temps  alors que non utilisé). Tout cela donna finalement naissance aux Xeon Phi.

 

Donc 3ème tentative en 2020 ? Dans la pratique ça va peut-être faire comme les fois précédentes : trop peu performant et/ou (partiellement) abandonné. Et à la 4ème tentative les plus optimistes diront que cette fois c'est la bonne, les 3 premières fois Intel ne voulait pas cibler le marché des gamers :o
Ceci dit le teaser en jette, et on sait comment ça finit trop souvent quand les annonces et les attentes sont élevées [:the geddons]

 

A propos de Larrabee, lecture que j'avais trouvé intéressante, par 2 personnes ayant bossé sur le projet :
Why didn't Larrabee fail? par Tom Forsyth
The story of ispc par Matt Pharr

 
MEI a écrit :

Pour l'instant pour 2020 ça risque d'être un dérivé des iGPU sans plus... La pate de Raja ça sera pas pour 2020 je pense.

2020, c'est pas la prochaine génération de Larrabee justement ? [:ddr555]

 

Quelques extraits issus du 1er lien :

Citation :

So let's talk about the elephant in the room - graphics. Yes, at that we did fail. And we failed mainly for reasons of time and politics. And even then we didn't fail by nearly as much as people think. Because we were never allowed to ship it, people just saw a giant crater, but in fact Larrabee did run graphics, and it ran it surprisingly well. Larrabee emulated a fully DirectX11 and OpenGL4.x compliant graphics card - by which I mean it was a PCIe card, you plugged it into your machine, you plugged the monitor into the back, you installed the standard Windows driver, and... it was a graphics card. There was no other graphics cards in the system. It had the full DX11 feature set, and there were over 300 titles running perfectly - you download the game from Steam and they Just Work - they totally think it's a graphics card! [...] Larrabee was the first fully DirectX11-compatible card Intel had, because unlike Gen we didn't have to make a new chip when Microsoft released a new spec. It was also the fastest graphics card Intel had - possibly still is. Of course that's a totally unfair comparison because Gen (the integrated Intel gfx processor) has far less power and area budget. But that should still tell you that Larrabee ran graphics at perfectly respectable speeds. I got very good at ~Dirt3 on Larrabee.


Citation :

No, it wasn't competitive with the fastest GPUs on the market at the time, unless you chose the workload very carefully (it was excellent at running Compute Shaders). If we'd had more time to tune the software, it would have got a lot closer. And the next rev of the chip would have closed the gap further. It would have been a very strong chip in the high-end visualization world, where tiny triangles, super-short lines and massive data sets are the main workloads - all things Larrabee was great at. But we never got the time or the political will to get there, and so the graphics side was very publicly cancelled.


Citation :

I could also wish for a graphics-capable version of KNL (i.e. add the texture units back in), but honestly just imagine what people could have done in the five years since KNC shipped if they had allowed normal people to access the existing texture units, and write their own graphics pipelines - it would have been amazing!

 

Et si une équipe avait justement travaillé en secret sur ce point ? :o

Message cité 1 fois
Message édité par Fouge le 16-08-2018 à 10:31:38
n°10406847
doum
Mentalita nissarda
Posté le 16-08-2018 à 10:44:56  profilanswer
 

Je vois pas pourquoi Intel serait incapable de suivre nvidia
financierement c'est un mastodonte  
 
faut juste qu'il s'en donne les moyens
 
Dans tous les cas l'arrivée d'un nouveau concurrent sur le marché ne peut qu'etre positif.  
 
Le seul probleme c'est qu'nvidia a une image (on se rappelle a quel point AMD/ATI a été longtemps handicapé par exemple par ses drivers pourris) a construire de 0 sur ce domaine, donc pour conquérir des joueurs va vraiment falloir qu'ils envoient du gros bois, soit niveau perfs en etant tres supérieur a Nvidia a prix egal, soit niveau prix en faisant aussi bien pour bcp moins cher.
 
On verra bien ce que donne l'avenir

n°10406857
MEI
|DarthPingoo(tm)|
Posté le 16-08-2018 à 11:06:57  profilanswer
 

Fouge a écrit :

Intel ne le voulait pas ou alors il n'y était pas arrivé (produit trop peu perf/peu abouti dans la pratique, abandon au vu des résultats, etc.) ?
 
Il y a 20 ans justement, l'âge où il y avait beaucoup à faire en terme de 3D accélérée, Intel se lance avec l'i740, et c'était une carte AGP 2D/3D qui ciblait clairement les gamers. Test ici : https://www.hardware.fr/articles/37-1/intel-i740.html Mais ce fût un échec et son cadavre servit de base à la lignée d'IGP qui se sont succédé pendant 20 ans.
 
10 ans plus tard, Intel veut se lancer à l’assaut du HPC et des gamers avec le projet Larrabee (x86 everywhere), mais le projet prend du retard, le software a du mal à suivre et il fut décidé d'abandonner l'objectif "graphique" du projet, malgré le support logiciel des dernières versions des API 3D du moment et de la présence de 10% de transistors dédiés (qui sera conservé un temps  alors que non utilisé). Tout cela donna finalement naissance aux Xeon Phi.
 
Donc 3ème tentative en 2020 ? Dans la pratique ça va peut-être faire comme les fois précédentes : trop peu performant et/ou (partiellement) abandonné. Et à la 4ème tentative les plus optimistes diront que cette fois c'est la bonne, les 3 premières fois Intel ne voulait pas cibler le marché des gamers :o
Ceci dit le teaser en jette, et on sait comment ça finit trop souvent quand les annonces et les attentes sont élevées [:the geddons]  
 
A propos de Larrabee, lecture que j'avais trouvé intéressante, par 2 personnes ayant bossé sur le projet :
Why didn't Larrabee fail? par Tom Forsyth
The story of ispc par Matt Pharr
 


 

Fouge a écrit :

2020, c'est pas la prochaine génération de Larrabee justement ? [:ddr555]  
 
Quelques extraits issus du 1er lien :

Citation :

So let's talk about the elephant in the room - graphics. Yes, at that we did fail. And we failed mainly for reasons of time and politics. And even then we didn't fail by nearly as much as people think. Because we were never allowed to ship it, people just saw a giant crater, but in fact Larrabee did run graphics, and it ran it surprisingly well. Larrabee emulated a fully DirectX11 and OpenGL4.x compliant graphics card - by which I mean it was a PCIe card, you plugged it into your machine, you plugged the monitor into the back, you installed the standard Windows driver, and... it was a graphics card. There was no other graphics cards in the system. It had the full DX11 feature set, and there were over 300 titles running perfectly - you download the game from Steam and they Just Work - they totally think it's a graphics card! [...] Larrabee was the first fully DirectX11-compatible card Intel had, because unlike Gen we didn't have to make a new chip when Microsoft released a new spec. It was also the fastest graphics card Intel had - possibly still is. Of course that's a totally unfair comparison because Gen (the integrated Intel gfx processor) has far less power and area budget. But that should still tell you that Larrabee ran graphics at perfectly respectable speeds. I got very good at ~Dirt3 on Larrabee.


Citation :

No, it wasn't competitive with the fastest GPUs on the market at the time, unless you chose the workload very carefully (it was excellent at running Compute Shaders). If we'd had more time to tune the software, it would have got a lot closer. And the next rev of the chip would have closed the gap further. It would have been a very strong chip in the high-end visualization world, where tiny triangles, super-short lines and massive data sets are the main workloads - all things Larrabee was great at. But we never got the time or the political will to get there, and so the graphics side was very publicly cancelled.


Citation :

I could also wish for a graphics-capable version of KNL (i.e. add the texture units back in), but honestly just imagine what people could have done in the five years since KNC shipped if they had allowed normal people to access the existing texture units, and write their own graphics pipelines - it would have been amazing!


 
Et si une équipe avait justement travaillé en secret sur ce point ? :o


 
C'est pas ce qu'on a pu avoir comme fuite... du coup... Franchement, pour le HPC, Intel a d'autres armes avec les Xeons. Si Intel revient sur le GPU, c'est pour faire des GPU qui traiterons des workload GPU. Si c'est pour faire du GP-GPU, quasi aucun intérêt, vu qu'il serait plus facile de faire une archi dédié a l'IA par exemple et d'écrire de wrapper pour les libs en place.
 
Là faire un GPU, c'est pour deux choses :
- chopper le marcher GPU gamer / laptop high end (avoir des choses à propose à Apple par ex sans devoir faire une puce dédié avec un iGPU plus costaud).
- pouvoir tanter de chopper le marcher des SoC console (AMD a quand même MS / Sony / un chinois dans on girons... NVIDIA Nintendo...).
 
Avec un dGPU costaud, et du software à jour, on peu imaginer Intel sortir un SoC avec des iGPU/eDRAM plus costaud et qui resterais crédible pour MS/Sony en terme de perf/W/ecosysteme de dev.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°10406859
havoc_28
Posté le 16-08-2018 à 11:14:47  profilanswer
 

Bébé Yoda a écrit :


 
D'ici 2020 on verra, et on verra aussi les gains de la nouvelle génération.
Mais ils me donnent l'impression de prendre leur temps, de pas être sous pression donc j'imagine qu'à terme ça peut jouer.
Il me semble que la nouvelle génération était prévue depuis un moment mais a été retardée non ?


 
Le retard n'est au maximum que de 3/4 mois, pas plus, et ce report est de leur fait, de même le développement de ce qui vient après on peut en conclure qu'il n'a pas été ralenti pour autant. Les écarts des générations saufs soucis techniques chez Nvidia c'est entre 18/24 mois (ces dernières années). La ça a durée un peu plus, mais pas non plus tant que ça.

n°10406864
Bébé Yoda
Posté le 16-08-2018 à 11:28:05  profilanswer
 

havoc_28 a écrit :

 

Le retard n'est au maximum que de 3/4 mois, pas plus, et ce report est de leur fait, de même le développement de ce qui vient après on peut en conclure qu'il n'a pas été ralenti pour autant. Les écarts des générations saufs soucis techniques chez Nvidia c'est entre 18/24 mois (ces dernières années). La ça a durée un peu plus, mais pas non plus tant que ça.

 

J'avais gardé en mémoire que le premier report avait été annoncé au moment du "flop" Vega, donc qu'en absence de vraie concurrence ils avaient traîné pour écouler leurs cartes tranquille et maximiser leurs marges.
J'ai dû rêver, pas grave :)

n°10406867
havoc_28
Posté le 16-08-2018 à 11:30:20  profilanswer
 

Bébé Yoda a écrit :

J'avais gardé en mémoire que le premier report avait été annoncé au moment du "flop" Vega, donc qu'en absence de vraie concurrence ils avaient traîné pour écouler leurs cartes tranquille et maximiser leurs marges. J'ai dû rêver, pas grave :)


 
ça s’appelle une rumeur, rien de plus, y a eut aucun communiqué de presse, ou modification de roadmap de Nvidia à ce moment la. De plus la GDDR6 sa disponibilité en masse c'est assez récent, Samsung en premier, puis Micron et encore plus récemment SK Hynix.
 
Bref ils auraient pu sortir au mieux leurs cartes à la fin du printemps quand la GDDR6 a commencé a vraiment être disponible ... donc décaler une sortie de fin mai / début juin à toute fin août / courant septembre c'est pas la mort.

Message cité 2 fois
Message édité par havoc_28 le 16-08-2018 à 11:44:04
n°10406873
Bébé Yoda
Posté le 16-08-2018 à 11:41:54  profilanswer
 

havoc_28 a écrit :

 

ça s’appelle une rumeur, rien de plus, y a eut aucun communiqué de presse, ou modification de roadmap de Nvidia à ce moment la. De plus la GDDR6 sa disponibilité en masse c'est assez récent, Samsung en premier, puis Micron et encore plus récemment SK Hynix.

 

Bref ils auraient pu sortir au mieux leurs cartes à la fin du printemps quand la GDDR6 a commencé a vraiment être disponible ... Bref décaler une sortie de Fin mai / début juin à toute fin août / courant septembre c'est pas la mort.

 

Merci pour les précisions et ça m'évitera de dire des conneries :D

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  980  981  982  ..  1003  1004  1005  1006  1007  1008

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Demande infos] Top AchatComment imprimer les infos du bios ?
Quel carte Open Gl la mieux adapte a 3dsMAXBesion d'infos sur les Graveur de DVD chui perdu
couldn't load open glNEC ND-1300: cherche infos
Mise a jour bios KT7A, prob direct x et open gl geforce 2 pro!!Salut je voudrait des infos sur l'instalation d'un processeur
Rech infos sur le nouveau graveur de DVD liteon multiformat !!!![INFOS a la con] si vous avez des PB avec votre ABIT NF7-S REV2.0
Plus de sujets relatifs à : Graphical open bar (des infos, des intox, aux extraits de TheInq)


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR