Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1028 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  979  980  981  ..  1003  1004  1005  1006  1007  1008
Auteur Sujet :

Graphical open bar (des infos, des intox, aux extraits de TheInq)

n°10378629
havoc_28
Posté le 05-06-2018 à 13:09:18  profilanswer
 

Reprise du message précédent :
Le Q2 risque de suivre la même tendance, si ce n'est pire.

mood
Publicité
Posté le 05-06-2018 à 13:09:18  profilanswer
 

n°10380001
aliss
Rhyme the Rhyme Well
Posté le 08-06-2018 à 16:04:36  profilanswer
 

Nvidia’s ‘infinite resolution’ patent could change gaming forever
 
In a patent filing released on Thursday, June 7, Nvidia describes a technology that could fundamentally alter the way games look, feel, and perform. Nvidia calls it “infinite resolution,” and it’s effectively a clever way of using vector graphics to replace static textures in games. Let’s dive into what that means and why it could be a big deal...
 
...Nvidia’s solution would fix these issues. Instead of packaging games with a massive set of static textures, games built using Nvidia’s technology would include only a single set of texture information, not the actual textures themselves. Effectively, each in-game texture would be drawn in real time from instructions the developers include in the game. Your computer would use its processing and graphics rendering horsepower to do the heavy lifting here...
 
...Because your computer would be drawing each texture in real time, your games would be future-proofed to some extent. If a game like Diablo 2 was built using this technology, that would mean playing the game on a massive 8K monitor would look just as tack-sharp and detailed as it would on an old 800 x 600 CRT monitor...

 
https://www.digitaltrends.com/compu [...] nt-filing/
 
Le brevet en question :
 
http://pdfaiw.uspto.gov/.aiw?PageN [...] 0180158227

n°10380029
Invite_Sur​prise
Racaille de Shanghaï
Posté le 08-06-2018 à 16:42:27  profilanswer
 

Merci pour l'info aliss  :jap:

n°10380082
Dark Schne​iderr
⭐⭐
Posté le 08-06-2018 à 18:58:27  profilanswer
 

Intéressant !

n°10380113
havoc_28
Posté le 08-06-2018 à 20:16:37  profilanswer
 

C'est bien d'avoir de jolies textures. Mais bon quid de la puissance consommée ?  
 
Et même si ça peut atténuer un peu le passage du temps, ça ne va pas non plus changer radicalement la donne, on a bien des packs textures high res qui sortent en mods pour nombres de jeux solos encore aujourd'hui.
 
Surtout qu'est ce que ça donne en vrai ? RTX, et maintenant ça, pour l'instant je vois toujours pas qu'est ce que ça rapporte de manière concrète :o.

Message cité 3 fois
Message édité par havoc_28 le 08-06-2018 à 20:18:57
n°10380121
Nono0000
Posté le 08-06-2018 à 20:32:55  profilanswer
 

havoc_28 a écrit :

C'est bien d'avoir de jolies textures. Mais bon quid de la puissance consommée ?  
 
Et même si ça peut atténuer un peu le passage du temps, ça ne va pas non plus changer radicalement la donne, on a bien des packs textures high res qui sortent en mods pour nombres de jeux solos encore aujourd'hui.
 
Surtout qu'est ce que ça donne en vrai ? RTX, et maintenant ça, pour l'instant je vois toujours pas qu'est ce que ça rapporte de manière concrète :o.


 
Et bien au lieu d'avoir besoin d'un pack HD, tu n'en n'auras plus besoin et la taille des jeux ou des applications sera fortement réduite…
Mais bon ce n'est pas près d'arriver de si tôt.


---------------
CPU: 6950X 4.3Ghz (Uncore: 3.7Ghz) WC HM -- Mem: 4x8Go 3200Mhz 14-16-17-32-1T -- Mobo: Asus X99 Deluxe -- GPU: 4080 (GPU: 3015Mhz, VRAM: 12200Mhz) -- Carte Son: X-Fi Titanium Fatal1ty Professional -- SSD: M.2 PCIE XP941 -- Ecran: DELL AW3423DW QD-OLED
n°10380134
havoc_28
Posté le 08-06-2018 à 21:09:45  profilanswer
 

Nono0000 a écrit :


 
Et bien au lieu d'avoir besoin d'un pack HD, tu n'en n'auras plus besoin et la taille des jeux ou des applications sera fortement réduite…
Mais bon ce n'est pas près d'arriver de si tôt.


 
Faut voir si ça marche aussi bien qu'un pack de texture HD, pour l'instant je n'ai pas vu d'utilisation concrète de la chose.

n°10380136
Profil sup​primé
Posté le 08-06-2018 à 21:10:21  answer
 

havoc_28 a écrit :

C'est bien d'avoir de jolies textures. Mais bon quid de la puissance consommée ?  
 
Et même si ça peut atténuer un peu le passage du temps, ça ne va pas non plus changer radicalement la donne, on a bien des packs textures high res qui sortent en mods pour nombres de jeux solos encore aujourd'hui.
 
Surtout qu'est ce que ça donne en vrai ? RTX, et maintenant ça, pour l'instant je vois toujours pas qu'est ce que ça rapporte de manière concrète :o.


c'est super intéressant ( merci aliss pour le lien )  
mais en effet, ça soulève plein de questions  
 
c'est juste une nouvelle manière de voir les choses  
 
c'est forcément une charge supplémentaire en terme de calcul  
mais de quelle manière par rapport aux unités de texturing ?  
est ce que ça nécessiterait une/des unités spécifiques ou est que ça fait appel au shaders ?  
( j'ai juste zieuté , car mon anglais peut vite montrer ses limites, si certains plus doués que moi ont trouvé des réponses à ces questions , on est preneur )  
 
mais d'un autre coté , tu libère en grande partie la mémoire et la bande passante  
 
c'est super intéressant en tout cas , reste à voir comment ça peut être exploité  :jap:

Message cité 1 fois
Message édité par Profil supprimé le 08-06-2018 à 21:11:09
n°10380140
Nono0000
Posté le 08-06-2018 à 21:26:44  profilanswer
 

havoc_28 a écrit :


 
Faut voir si ça marche aussi bien qu'un pack de texture HD, pour l'instant je n'ai pas vu d'utilisation concrète de la chose.


 
Si la projection est faite en temps réelle pour chaque frame, cela permet également de fortement réduire l'utilisation de la VRAM…
La génération actuelle de CG n'est peut être pas pourvue d'accélérateur pour cette tache mais la suivante peut-être…
Et il ne faut pas oublier que Nvidia équipe la Switch et que pour celui-ci (ou la suivante) cela peut être très intéressant et plus rapidement mis en place.


---------------
CPU: 6950X 4.3Ghz (Uncore: 3.7Ghz) WC HM -- Mem: 4x8Go 3200Mhz 14-16-17-32-1T -- Mobo: Asus X99 Deluxe -- GPU: 4080 (GPU: 3015Mhz, VRAM: 12200Mhz) -- Carte Son: X-Fi Titanium Fatal1ty Professional -- SSD: M.2 PCIE XP941 -- Ecran: DELL AW3423DW QD-OLED
n°10380145
havoc_28
Posté le 08-06-2018 à 21:39:13  profilanswer
 


 
Oui cela est intéressant, mais pour l'instant ça m'a l'air encore vraiment loin pour une utilisation de la chose.
 

Nono0000 a écrit :


 
Si la projection est faite en temps réelle pour chaque frame, cela permet également de fortement réduire l'utilisation de la VRAM…
La génération actuelle de CG n'est peut être pas pourvue d'accélérateur pour cette tache mais la suivante peut-être…
Et il ne faut pas oublier que Nvidia équipe la Switch et que pour celui-ci (ou la suivante) cela peut être très intéressant et plus rapidement mis en place.


 
 
Quand y aura une utilisation concrète de la chose, ça permettra de mieux éclairer l'aspect technique de comment ça marche.  
Tant qu'on ne montre pas un résultat concret, pour moi ça reste juste une annonce à confirmer.
 
C'est pas la première fois qu'on nous annonce de nouvelles méthodes de ceci ou cela, pour au final n'avoir qu'un intérêt limité en pratique, ou sinon utilisable que des années après.
La tesselation, ça a commencé si on peut dire avec le TruForm mis en avant par ATI avec les 8500 en 2001, combien d'année avant de voir la tesselation réellement utilisé en jeu ?  
 
La on a brevet OK, et un article avec un titre un poil exagéré.
 

Citation :

Nvidia’s ‘infinite resolution’ patent could change gaming forever


 
Heureusement que c'est au conditionnel.


Message édité par havoc_28 le 08-06-2018 à 21:49:34
mood
Publicité
Posté le 08-06-2018 à 21:39:13  profilanswer
 

n°10380150
Nono0000
Posté le 08-06-2018 à 21:53:01  profilanswer
 

Honnêtement sur PC, je doute que cela soit mis en place un jour. Le parc est trop hétéroclite...


---------------
CPU: 6950X 4.3Ghz (Uncore: 3.7Ghz) WC HM -- Mem: 4x8Go 3200Mhz 14-16-17-32-1T -- Mobo: Asus X99 Deluxe -- GPU: 4080 (GPU: 3015Mhz, VRAM: 12200Mhz) -- Carte Son: X-Fi Titanium Fatal1ty Professional -- SSD: M.2 PCIE XP941 -- Ecran: DELL AW3423DW QD-OLED
n°10380224
Yeagermach​42
Posté le 09-06-2018 à 03:57:24  profilanswer
 

Nono0000 a écrit :

Honnêtement sur PC, je doute que cela soit mis en place un jour. Le parc est trop hétéroclite...


Suffira d'attendre quelques generations et au debut ne mettre cela que comme une option dans les jeux.

n°10380228
nicolas_ya​d
Spoons made me fat
Posté le 09-06-2018 à 05:55:53  profilanswer
 

havoc_28 a écrit :

C'est bien d'avoir de jolies textures. Mais bon quid de la puissance consommée ?  
 
Et même si ça peut atténuer un peu le passage du temps, ça ne va pas non plus changer radicalement la donne, on a bien des packs textures high res qui sortent en mods pour nombres de jeux solos encore aujourd'hui.
 
Surtout qu'est ce que ça donne en vrai ? RTX, et maintenant ça, pour l'instant je vois toujours pas qu'est ce que ça rapporte de manière concrète :o.


ça doit effectivement bouffer pas mal de puissance, je suis curieux de voir la technologie à l'œuvre.
Les textures pack HD c'est sympa, mais ça suppose qu'on augmente toujours la mémoire (VRAM, RAM et espace de stockage avec faible latence et débit élevé) pour pouvoir streamer les textures, tout ça a un coût.
Si les futures générations de GPU permettent de freiner cette explosion de consommation de mémoire c'est pas plus mal.

n°10380238
dje33
57 BUTS !!!
Posté le 09-06-2018 à 07:47:54  profilanswer
 

aliss a écrit :

Nvidia’s ‘infinite resolution’ patent could change gaming forever

 

In a patent filing released on Thursday, June 7, Nvidia describes a technology that could fundamentally alter the way games look, feel, and perform. Nvidia calls it “infinite resolution,” and it’s effectively a clever way of using vector graphics to replace static textures in games. Let’s dive into what that means and why it could be a big deal...

 

...Nvidia’s solution would fix these issues. Instead of packaging games with a massive set of static textures, games built using Nvidia’s technology would include only a single set of texture information, not the actual textures themselves. Effectively, each in-game texture would be drawn in real time from instructions the developers include in the game. Your computer would use its processing and graphics rendering horsepower to do the heavy lifting here...

 

...Because your computer would be drawing each texture in real time, your games would be future-proofed to some extent. If a game like Diablo 2 was built using this technology, that would mean playing the game on a massive 8K monitor would look just as tack-sharp and detailed as it would on an old 800 x 600 CRT monitor...

 

https://www.digitaltrends.com/compu [...] nt-filing/

 

Le brevet en question :

 

http://pdfaiw.uspto.gov/.aiw?PageN [...] 0180158227


Un peu comme Another World il y a 25 ans.

n°10380993
MEI
|DarthPingoo(tm)|
Posté le 11-06-2018 à 10:14:29  profilanswer
 

dje33 a écrit :


Un peu comme Another World il y a 25 ans.


Sur le papier c'est facile à concevoir un tel brevet.
 
En pratique toutes les textures/modèles ne pourrons pas être décrites de façons procédural donc ça ne sera jamais aussi magique que ça. Même avec les IA qui permette déjà de bon résultat pour générer des photos & co.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°10381011
dje33
57 BUTS !!!
Posté le 11-06-2018 à 11:01:50  profilanswer
 

Il "suffit" de faire toutes les textures en format vectoriel. :O

n°10382127
Dark Schne​iderr
⭐⭐
Posté le 13-06-2018 à 19:00:32  profilanswer
 

Bah oui.

n°10384877
mogana
Posté le 21-06-2018 à 03:16:56  profilanswer
 

je sais pas ce que ça vaut mais peut-être une explication sur le délai des 11xx, un excès d'inventaire de 300000 gpu  
J'y crois pas trop parce que c'est quoi 300000 gpu à aller on va dire 200$ max (si c'est bien des gpu seuls), c'est 60 millions de dollars en perte sèche, je crois pas que c'est ça qui va gêner nvidia, à moins que ce ne soit que la pointe de l'iceberg :o
 
https://linustechtips.com/main/topi [...] d-partner/

n°10384902
aliss
Rhyme the Rhyme Well
Posté le 21-06-2018 à 08:41:08  profilanswer
 

nV n'a jamais communiqué une date de présentation/lancement il me semble ?
 
Dès lors je me demande sur quelle base on peut parler de retard ou lancement repoussé.
 
On dirait surtout que wccmachin cherche à se dédouaner de s'être planté (encore...).
 

n°10386794
major95
The !!!! Beat
Posté le 25-06-2018 à 21:04:50  profilanswer
 

J'ai une petite question à la con au sujet de la DDR4, plus précisément sur l'importance des deux timings décrit sur cette page :

 

https://www.hardware.fr/articles/92 [...] uence.html

 

Le problème c'est que je ne trouve nulle part mention de ces valeurs tCCD et tCCD_L dans le bios mais il y'a bien  tRRD_S et tRRD_L.

 

Je suppose qu'ils correspondent à ceux de l'article avec une appellation différente ?

 


Message édité par major95 le 25-06-2018 à 21:05:34
n°10386895
ZzDazzleZz
Bencheur Oufff
Posté le 26-06-2018 à 01:16:03  profilanswer
 

De dieu ils n'en ont pas marre à sortir des grosses conneries chez Nvidia ???? franchement si c'est véridique, ils vont encore ce faire défoncer comme il faut sur la toile... :fou:  
 
https://videocardz.com/76645/nvidia [...] ent-leaked
 
La nouvelle NDA de NVIDIA stipule que toute information confidentielle fournie à la partie doit être utilisée « uniquement au profit de NVIDIA ». Cela peut être compris de plusieurs façons, mais pour un journaliste, le partage d'informations confidentielles ne signifie pas toujours un reportage en faveur du nouveau produit, parfois c'est le contraire. La critique brise-t-elle la nouvelle NDA? Heise.de s'inquiète que cela puisse empêcher les journalistes d'écrire ce qu'ils veulent.
 
Déjà que le GPP était digne d'un comportement puérile, mais la ça monte d'un cran au niveau de l'absurde et de l'éthique..


Message édité par ZzDazzleZz le 26-06-2018 à 01:41:54
n°10387066
Profil sup​primé
Posté le 26-06-2018 à 14:24:55  answer
 

les dérives du monopole  
monopole qui d'un point de vue juridique n'en est pas un :/  
 
pour peu qu'un jour ceux d'en face se réveille , la chute va être dure  
 
allez les bleus et les rouges , réveillez vous et bottez lui le fion à ce megalo de huang :o  
 

n°10387074
Fouge
Posté le 26-06-2018 à 14:36:53  profilanswer
 

Ceci dit, jusqu'ici si tu critiquais un peu trop durement un produit, t'avais toujours le risque que par la suite on te ne propose plus de prêt de matériel ni de signer de nouveau NDA. Là ça ne fait que mettre noir sur blanc ce qui se faisait +/- sournoisement, c'est moche mais c'est clairement annoncé.
 
Raison de plus j'ai envie de dire, de tester le matos en toute indépendance, sans rien signer ni rien réclamer : plus de pression sur le contenu journalistique et plus de date à respecter, tout le monde y gagne :o Bon, c'est sûr qu'il y a des contraintes, c'est plus compliqué et cher à gérer, tout le monde ne peut pas faire comme CPCH avec les Ryzen.

n°10387082
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 26-06-2018 à 14:43:39  profilanswer
 

Suffit de signer et de s’en foutre, le jour ou un tribunal condamnera un journaliste sur cette base on en reparle.

Message cité 1 fois
Message édité par Marc le 26-06-2018 à 14:58:28
n°10387083
aliss
Rhyme the Rhyme Well
Posté le 26-06-2018 à 14:44:57  profilanswer
 

Même en te procurant du matériel ou une info sans avoir signé, il y a forcément quelqu'un en bout de chaîne qui brise le NDA.
 
Si on enlève les leaks "volontaires" des fabricants (qui passent par un tiers pour donner une info), ce n'est pas si courant que ça.

n°10387091
MEI
|DarthPingoo(tm)|
Posté le 26-06-2018 à 14:51:45  profilanswer
 

Fouge a écrit :

Ceci dit, jusqu'ici si tu critiquais un peu trop durement un produit, t'avais toujours le risque que par la suite on te ne propose plus de prêt de matériel ni de signer de nouveau NDA. Là ça ne fait que mettre noir sur blanc ce qui se faisait +/- sournoisement, c'est moche mais c'est clairement annoncé.
 
Raison de plus j'ai envie de dire, de tester le matos en toute indépendance, sans rien signer ni rien réclamer : plus de pression sur le contenu journalistique et plus de date à respecter, tout le monde y gagne :o Bon, c'est sûr qu'il y a des contraintes, c'est plus compliqué et cher à gérer, tout le monde ne peut pas faire comme CPCH avec les Ryzen.


Et du coup avoir des infos +/- erronés sur les Zen+ / X470... :o


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°10387094
Neji Hyuga
Modérateur
:grut:
Posté le 26-06-2018 à 14:52:14  profilanswer
 

Marc a écrit :

Suffit de signer et de s’en foutre, le jour ou un tribunal condamnera une journaliste sur cette base on en reparle.


 
C'est ce que j'allais demander : ça a vraiment une valeur légale ce genre de clause (bon j'ai ma réponse :o) ?


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°10387096
Profil sup​primé
Posté le 26-06-2018 à 14:55:20  answer
 

Fouge a écrit :

Ceci dit, jusqu'ici si tu critiquais un peu trop durement un produit, t'avais toujours le risque que par la suite on te ne propose plus de prêt de matériel ni de signer de nouveau NDA. Là ça ne fait que mettre noir sur blanc ce qui se faisait +/- sournoisement, c'est moche mais c'est clairement annoncé.
 
Raison de plus j'ai envie de dire, de tester le matos en toute indépendance, sans rien signer ni rien réclamer : plus de pression sur le contenu journalistique et plus de date à respecter, tout le monde y gagne :o Bon, c'est sûr qu'il y a des contraintes, c'est plus compliqué et cher à gérer, tout le monde ne peut pas faire comme CPCH avec les Ryzen.


 
dans un média qui peine à être rentable  
ça a une importance capitale quand même [:skeye]
 
mais c'est vrai , ça existe depuis longtemps , et pas seulement dans le hardware  :jap:  

n°10387147
ZzDazzleZz
Bencheur Oufff
Posté le 26-06-2018 à 16:43:03  profilanswer
 

Sauf que la c'est officiel et non derrière les rideaux..
Mais bon apparemment cette magouille de bas étage tape de partout.
Il me semble que le comptoire hardware a subit des foudres fut un temps  :sweat:

n°10387149
aliss
Rhyme the Rhyme Well
Posté le 26-06-2018 à 16:47:50  profilanswer
 

EK a fait pareil (NDA leaké par Kyle... :o ).
 
https://drive.google.com/file/d/1h7 [...] knOYS/view
 

n°10387260
Profil sup​primé
Posté le 26-06-2018 à 21:11:22  answer
 

HardLife :o

n°10387378
Yeagermach​42
Posté le 27-06-2018 à 08:29:32  profilanswer
 

Neji Hyuga a écrit :


 
C'est ce que j'allais demander : ça a vraiment une valeur légale ce genre de clause (bon j'ai ma réponse :o) ?


En France peu de chance, dans les autres pays pas sur.

n°10393199
bjone
Insert booze to continue
Posté le 11-07-2018 à 09:01:38  profilanswer
 

aliss a écrit :

Nvidia’s ‘infinite resolution’ patent could change gaming forever
 
In a patent filing released on Thursday, June 7, Nvidia describes a technology that could fundamentally alter the way games look, feel, and perform. Nvidia calls it “infinite resolution,” and it’s effectively a clever way of using vector graphics to replace static textures in games. Let’s dive into what that means and why it could be a big deal...
 
...Nvidia’s solution would fix these issues. Instead of packaging games with a massive set of static textures, games built using Nvidia’s technology would include only a single set of texture information, not the actual textures themselves. Effectively, each in-game texture would be drawn in real time from instructions the developers include in the game. Your computer would use its processing and graphics rendering horsepower to do the heavy lifting here...
 
...Because your computer would be drawing each texture in real time, your games would be future-proofed to some extent. If a game like Diablo 2 was built using this technology, that would mean playing the game on a massive 8K monitor would look just as tack-sharp and detailed as it would on an old 800 x 600 CRT monitor...

 
https://www.digitaltrends.com/compu [...] nt-filing/
 
Le brevet en question :
 
http://pdfaiw.uspto.gov/.aiw?PageN [...] 0180158227


 
Pas inintéressant, mais super-spécifiique: ça n'a améliorerait que les contours, les gradients, mais sans rajouter de détail dans le sens grain comme le peu le faire une texture procédurale.
(Pour moi le plus fun serait de pouvoir exécuter un shader à la page-fault sur un texture virtuellement très large genre 128k, mais je sais pas à quel niveau les Tiled Resources permetteraient de le faire - probablement post-passe de rendu)

Message cité 1 fois
Message édité par bjone le 11-07-2018 à 09:13:57
n°10393203
bjone
Insert booze to continue
Posté le 11-07-2018 à 09:12:47  profilanswer
 

Nono0000 a écrit :


 
Et bien au lieu d'avoir besoin d'un pack HD, tu n'en n'auras plus besoin et la taille des jeux ou des applications sera fortement réduite…
Mais bon ce n'est pas près d'arriver de si tôt.


 
En fait la structure d'accélération parcourue par une unité de texture pourrait être vu comme un pas vers une approche générique pour essayer d'accélérer le ray-tracing. Ou alors c'est l'inverse la technique d'embarquer des courbes de gradients dans la texture est peut-être une conséquence de la recherche expérimentale vers du hardware favorisant le RT ou autre.

n°10393228
major95
The !!!! Beat
Posté le 11-07-2018 à 11:01:29  profilanswer
 

bjone a écrit :


 
Pas inintéressant, mais super-spécifiique: ça n'a améliorerait que les contours, les gradients, mais sans rajouter de détail dans le sens grain comme le peu le faire une texture procédurale.
(Pour moi le plus fun serait de pouvoir exécuter un shader à la page-fault sur un texture virtuellement très large genre 128k, mais je sais pas à quel niveau les Tiled Resources permetteraient de le faire - probablement post-passe de rendu)


 
En gros ça revient à avoir des textures au format .svg au lieu des .dds ?

n°10393639
bjone
Insert booze to continue
Posté le 12-07-2018 à 16:43:04  profilanswer
 

Oui on serait plus dans une logique de smoothitude :D infinie que de détail infini.
 
Le convertisseur prends une texture "trop haute" résolution, détecte les courbes flagrante de l'image et ressors une texture bitmap low res + courbes + table de lookup par texel => quand l'unité de texture filtre, elle lookup quelle courbe influence le plus la coordoonée de texture et fait sa popote entre le bitmap et la distance à la courbe.
 
On se retrouverai donc avec un plugin photoshop qui ferait toute la popote façon .dds - mais avec un format propriétaire. (ou une extension propriétaire au .dds si le format le supporte)
 
On retomberai sur un scénario à la S3TC, avec des packs de textures amélioré qui tomberont pour les gros jeux.  
 
Si le .dds est conteneurisé, on peut imaginer avoir le bitmap DXTC classique, et la table de courbes en bonus pour le hardware qui le supporte - ce qui ferait que çasse comme dans du beurre au niveau rétro-compatibilité (enfin après update du runtime et des drivers au moins pour supporter le drop ou pas du bloc de données avec les courbes).
 
Ou un bordel de licence hardware et de comment exposer le truc au niveau software. (MS avait acheté la licence S3TC pour DX, mais y'avait du brevet côté hw)
 
Maintenant le résultat visuel pourrait être très sympa (tu peux dégager le feeling de pixels genre dans le bois bien nervuré).
 
A voir comment ça se démocratiserait (au niveau jeux & côté hw concurrents).


Message édité par bjone le 12-07-2018 à 16:47:58
n°10397351
johnclaude
You know nothing johnclaude
Posté le 24-07-2018 à 10:49:59  profilanswer
 

Je ne sais pas si je suis au bon endroit, mais on aurait les dates de sortie des geforce 11:
30 aout pour les 1180 (le jour de mon anniversaire, n'hésitez pas à participer)
30 septembre pour les 1170 et 1180+ (mais on ne sait pas encore ce que c'est que la 1180+)
30 octobre pour les 1160
 
Source: https://www.tomshardware.fr/article [...] 68072.html


---------------
Topic vente:
n°10397611
Profil sup​primé
Posté le 24-07-2018 à 20:04:38  answer
 

johnclaude a écrit :

Je ne sais pas si je suis au bon endroit, mais on aurait les dates de sortie des geforce 11:  15
30 aout pour les 1180 (le jour de mon anniversaire, n'hésitez pas à participer)
30 septembre pour les 1170 et 1180+ (mais on ne sait pas encore ce que c'est que la 1180+)
30 octobre pour les 1160
 
Source: https://www.tomshardware.fr/article [...] 68072.html


 
 :o


Message édité par Profil supprimé le 24-07-2018 à 20:05:08
n°10399206
mogana
Posté le 28-07-2018 à 16:01:28  profilanswer
 

lien que j'ai trouvé sur reddit
https://twitter.com/_Humus_/status/1018846492273119233
une vue de l'intérieur sur la réécriture par ati de son opengl  
ou comment réécrire un gros soft n'est pas forcément une bonne idée

n°10399211
aliss
Rhyme the Rhyme Well
Posté le 28-07-2018 à 16:06:09  profilanswer
 

AMD a publié ses chiffres pour Q2, l'embellie se poursuit.
 
http://ir.amd.com/news-releases/ne [...] al-results
 

n°10399298
ZzDazzleZz
Bencheur Oufff
Posté le 28-07-2018 à 19:41:14  profilanswer
 

aliss a écrit :

AMD a publié ses chiffres pour Q2, l'embellie se poursuit.
 
http://ir.amd.com/news-releases/ne [...] al-results
 


 
Au moins ils ne sont plus dans le rouge  :o  
 
 [:a t t i c u s:4]

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  979  980  981  ..  1003  1004  1005  1006  1007  1008

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Demande infos] Top AchatComment imprimer les infos du bios ?
Quel carte Open Gl la mieux adapte a 3dsMAXBesion d'infos sur les Graveur de DVD chui perdu
couldn't load open glNEC ND-1300: cherche infos
Mise a jour bios KT7A, prob direct x et open gl geforce 2 pro!!Salut je voudrait des infos sur l'instalation d'un processeur
Rech infos sur le nouveau graveur de DVD liteon multiformat !!!![INFOS a la con] si vous avez des PB avec votre ABIT NF7-S REV2.0
Plus de sujets relatifs à : Graphical open bar (des infos, des intox, aux extraits de TheInq)


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR