Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3039 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  987  988  989  ..  1004  1005  1006  1007  1008  1009
Auteur Sujet :

Graphical open bar (des infos, des intox, aux extraits de TheInq)

n°10433450
lapin
Posté le 24-09-2018 à 14:17:27  profilanswer
 

Reprise du message précédent :

major95 a écrit :

Les déplacements de données c'est ce qu'il y'a de plus coûteux en informatique.  
 
Si tu veux faire exécuter une partie par le GPU et le reste au CPU (ou le contraire), il faudra une très bonne interconnexion et c'est pas avec les 12Go/s (en pratique) du PCI-Express qu'on va y'arriver.  
 
Pas pour rien que les GPU ont des mémoires très rapides à plus de 500 Go/s. :o


 
 
tu dis n'importe quoi déjà c'est le CPU qui exécute le jeu en premier puis le reste des données en envoyer en Direct Mémory Accès de la mémoire centrale du Système d'exploitation et pour ça il faut que le CPU dise au GPU ou pioché les données, d'ailleurs je suis sur qu'une partie des points X et Y et Z des polygones sont exécuter coté CPU ne serai ce que pour la physique, puis le reste est envoyer au GPU pour tracer les polygones, de plus si je te dis qu'avant même des truc en 720P était fait sous DOS en rastérisation voir en Voxel Space par le CPU cas typique de la plus par des jeux sous dos dont notamment Wing commander ou Privateer 2: The Darkening et le flux vidéo était envoyer en 720P a la carte graphique qui n'était que 2D à l'époque, et le bus s'était du PCI simple à 133 Mhz voire 66 Mhz.
 
bon il n'y avait pas des masse de polygones à l'époque, mais s'était très largement en 720P voir 800P en 4/3 et même certains jeux vidéo supportait des définition supérieur à 1920*1280 genre ne serai ce que fly simulator et même des FPS genre Quake le 1 était en software coté CPU même si il utilisait OPENGL ça n'était pas obligatoirement Rasterisé par la carte graphique et il n'était pas rare d'avoir au moins du 1280*800, la plus par des jeux 3D sous dos étaient rendu logiciellement et à l'époque les cartes graphiques ou cartes accélératrice étaient rares et il fallait un bon gros CPU pour lancer le jeu et un encore plus puissant si la carte n'était que 2D.


Message édité par lapin le 24-09-2018 à 14:23:14
mood
Publicité
Posté le 24-09-2018 à 14:17:27  profilanswer
 

n°10433463
chr$
Pocket , Mini PC , FPGA !
Posté le 24-09-2018 à 14:44:03  profilanswer
 

Ton idée est séduisante ;-)
A voir si AMD ou Intel n'y pensent pas déjà.
Ca doit quand même leur faire mal de voir NVidia demander 1300€ pour une CG, alors que les processeurs HdG Grand Public se vendent en général dans les 350€ + qq dizaines d'€ pour la puce sur la CM.
Nvidia est en train de pomper un maximum de valeur du marché des PC :
Car avec un i7 d'il y a 4 ou 5 ans encore parfaitement adapté avec une 2080Ti, ça ne pousse pas à le renouveler ! Ce sont des $$$ en moins pour AMD-Intel.

n°10433477
lapin
Posté le 24-09-2018 à 15:03:56  profilanswer
 

chr$ a écrit :

Ton idée est séduisante ;-)
A voir si AMD ou Intel n'y pensent pas déjà.
Ca doit quand même leur faire mal de voir NVidia demander 1300€ pour une CG, alors que les processeurs HdG Grand Public se vendent en général dans les 350€ + qq dizaines d'€ pour la puce sur la CM.
Nvidia est en train de pomper un maximum de valeur du marché des PC :
Car avec un i7 d'il y a 4 ou 5 ans encore parfaitement adapté avec une 2080Ti, ça ne pousse pas à le renouveler ! Ce sont des $$$ en moins pour AMD-Intel.


 
 
mais pas orignal, ça revient presque à revenir à avant, quand les cartes graphique n'était que 2D et ne savait pas faire de rasterisation, et après il c'est passer un sacré moment avant que les GPU sache faire des polygones et encore c'était limité.
 
ma S3 Trio 32/64 n'était que 2D et à l'époque il était courant que tous le rendu 3D était le plus souvent exécuter coté CPU, même si les cartes accélératrice 3D comme la Voodoo commençait à proposer des chose intéressant niveau accélérations 3D, et 3DFX à proposer d’accéléré la rastérisation de l'OpenGL ou du Glide et à l'époque les polygones étaient encore exécuter coté CPU.
 
 
 
 

n°10433504
Zeross
Posté le 24-09-2018 à 15:42:25  profilanswer
 

Sérieusement ? Vous partez du postulat qu'on peut raytracer une scène simple en 320x240 et que par conséquent ça serait utile d'utiliser des cores CPU pour faire ça dans un jeu ?

 

Rappel : en 2008 intel faisait pas mal d'expériences sur le raytracing ils utilisaient Quake Wars à l'époque pour leurs tests et voilà les perfs qu'ils obtenaient :With Intel’s latest quad-socket systems-equipped with a 2.66 GHz Dunnington processor in each socket-we can achieve approximately 20 to 35 fps at a resolution of 1280x720.

 

OK les processeurs actuels sont largement plus puissants mais déjà à l'époque ils utilisaient 24 cores rien que pour ça et ils n'étaient même pas à 30 fps en 1280x720. Sur un jeu plus moderne (donc largement plus complexe en termes de géométrie) et en Full HD imaginez le carnage même avec les progrès des CPU modernes.
La scène dont tu parles c'est le cas d'école du raytracing : une scène simple, quelques surfaces analytiques dont tu peux calculer facilement l'intersection avec le rayon, pas une soupe de triangles dont tu dois extraire une hiérarchie de volumes englobants etc... Et même comme ça je pense que c'était au mieux du simple Whitted raytracing : un rayon pour la visibilité, un pour la réflexion (miroir) et un pour l'ombre, bref pas un algo de path tracing complexe.

 

Déporter les calculs entre CPU et GPU ça me semble voué à l'échec : ça veut dire plus de communications entre les deux, ajout d'un point de synchronisation entre les deux, duplication de données à maintenir synchronisées entre les deux (chacun aura sa BVH)... Bref c'est l'enfer à gérer

Message cité 1 fois
Message édité par Zeross le 24-09-2018 à 15:43:12
n°10433506
MEI
|DarthPingoo(tm)|
Posté le 24-09-2018 à 15:47:59  profilanswer
 

Zeross a écrit :

Sérieusement ? Vous partez du postulat qu'on peut raytracer une scène simple en 320x240 et que par conséquent ça serait utile d'utiliser des cores CPU pour faire ça dans un jeu ?
 
Rappel : en 2008 intel faisait pas mal d'expériences sur le raytracing ils utilisaient Quake Wars à l'époque pour leurs tests et voilà les perfs qu'ils obtenaient :With Intel’s latest quad-socket systems-equipped with a 2.66 GHz Dunnington processor in each socket-we can achieve approximately 20 to 35 fps at a resolution of 1280x720.
 
OK les processeurs actuels sont largement plus puissants mais déjà à l'époque ils utilisaient 24 cores rien que pour ça et ils n'étaient même pas à 30 fps en 1280x720. Sur un jeu plus moderne (donc largement plus complexe en termes de géométrie) et en Full HD imaginez le carnage même avec les progrès des CPU modernes.
La scène dont tu parles c'est le cas d'école du raytracing : une scène simple, quelques surfaces analytiques dont tu peux calculer facilement l'intersection avec le rayon, pas une soupe de triangles dont tu dois extraire une hiérarchie de volumes englobants etc... Et même comme ça je pense que c'était au mieux du simple Whitted raytracing : un rayon pour la visibilité, un pour la réflexion (miroir) et un pour l'ombre, bref pas un algo de path tracing complexe.  
 
Déporter les calculs entre CPU et GPU ça me semble voué à l'échec : ça veut dire plus de communications entre les deux, ajout d'un point de synchronisation entre les deux, duplication de données à maintenir synchronisées entre les deux (chacun aura sa BVH)... Bref c'est l'enfer à gérer


Par contre un des but de Larrabee justement c'était de pouvoir switcher de manière "efficiente" du Raster eu Ray-Tracing via la stack sofware du "GPU" à mesure que les itérations successives aurai gagnée en puissance.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°10433525
lapin
Posté le 24-09-2018 à 16:30:00  profilanswer
 

J'ai pas dis que le CPU devrait faire 100% de l'affichage en ray tracing, mais d'en déchargé une partie environ 15% de la surface de l'écran.
 
À une époque il n'y avais pas de transform and light, s'était le CPU qui traitait les polygones.
 
J'avais un petit logiciel pour direct x, qui permettait de désactiver le transform and light des GPU, et bien même si c'était pas fluide j'avais quelques chose comme 15 à 20 images par seconde, maintenant les CPU genre RYZEN 2700 ou RYZEN THREADRIPPER 2950X sont bien plus puissant.
 
Après faudra évité le plaquage de textures précalculé et prefere le procédural pour évité d'utiliser la bande passante de la mémoire centrale.

n°10441071
cartemere
Posté le 08-10-2018 à 08:16:39  profilanswer
 

lapin a écrit :

J'ai pas dis que le CPU devrait faire 100% de l'affichage en ray tracing, mais d'en déchargé une partie environ 15% de la surface de l'écran.
 
À une époque il n'y avais pas de transform and light, s'était le CPU qui traitait les polygones.
 
J'avais un petit logiciel pour direct x, qui permettait de désactiver le transform and light des GPU, et bien même si c'était pas fluide j'avais quelques chose comme 15 à 20 images par seconde, maintenant les CPU genre RYZEN 2700 ou RYZEN THREADRIPPER 2950X sont bien plus puissant.
 
Après faudra évité le plaquage de textures précalculé et prefere le procédural pour évité d'utiliser la bande passante de la mémoire centrale.


Mais grâce au T&L et à tout ce qui a été déplacé sur le GPU, la puissance de calcul a explosé, et les jeux ont tiré partie de cette explosion de puissance de calcul.
 
Faire du rendu RayTracing en temps réel, ça implique de gérer des dizaines de millions de rayons par seconde.
Et ça, aucun CPU x86 actuel n'arrive à le faire, même un gros threadripper en 32 cores.
(il suffit de lancer un rendering en raytracing dans un soft pro et de voir le temps de rendu... tu pleures)
 
Conceptuellement, c'est pas quelque chose qui est fait pour être réalisé par un CPU :
il y a très peu de dépendances (un rayon ne va pas influencer un autre), donc c'est très fortement parallélisable.
le core d'un CPU va tirer le 1er rayon, puis le 2nd, puis le 3ième, etc.
le GPU va batcher 2048 rayons en parallèle à chaque cycle d'horloge.
 
et le résultat est ce qu'il est  [:cerveau spamafote]  
Et c'est pour ça que les dernières RTX sont attendues comme le messie par les Pros, ça leur fait un gain de plusieurs milliers de % en temps de rendu par rapport à leurs grosses plateformes actuelles.

n°10447224
aliss
Rhyme the Rhyme Well
Posté le 16-10-2018 à 13:59:01  profilanswer
 

Lu sur B3D.
 
Some new performance numbers on the "Speed of Light" demo from talks on this years GTC:
 
It reached 24fps ("We define real-time as 24fps" ). At FHD with 20% super sampling. Running on not one, but two RTX 6000 in SFR.
 
Effectively, they got around 15 (hitting / missing) rays per pixel per frame. Not than fancy "10 Giga-rays per second" claimed by Jensen, but a far more modest 300 Mega-rays per second and card against a non-empty BVH, and that despite 95% of the GPU load being attributed to just the "hidden" parts of the ray tracing, not actual shading. With that performance number being relatively stable within a broad range of model complexity.
 
15 rays per pixel is a joke, for anything but the most trivial, pure specular materials or pure shadow calculation. For a couple of effects, like scattering with transparent materials, they still had to fall back to screen space post processing effects, partially because unsupported by the card, partially because that requires significantly more rays. Also no geometry in the scene other than the car and the box lights, in order to waste as little rays outside the relevant area as possible.
 
Transfer these numbers to a modern 4k @ 60fps requirement, and you are left with less than 1 ray per pixel per frame, after already using a hybrid tracer. Not even enough to cast shadows against a single point-light.
 
 
The "dancing robot" demo from GTC? Ran on 4 GPUs, "live". Probably with the same "cinematic restrictions".
Yes, it's still impressive. But it's about factor 16-32x away from the efficiency and performance required to make this in any form relevant for actual real-time computer graphics.
 
And keep in mind that even Jensen acknowledged this time that Moore's Law is dead, even for Nvidia. They can still afford to add more special function units (not running in parallel) with smaller nodes, but they are hitting a wall with power density as well, and the only way around that wall would be to switch from high performance to a low power node, getting another factor 2. Or in other terms: That required performance increase is simply not possible.

 
 
https://forum.beyond3d.com/threads/ [...] 73/page-13

n°10458108
aliss
Rhyme the Rhyme Well
Posté le 01-11-2018 à 10:07:44  profilanswer
 

Encore un...
 
Darren Mcphee joins Intel's Discrete Graphics group
 
It appears that some ex-AMD chaps have managed to draw in yet another ex-AMD guy to Intel, with Darren McPhee joining the blue camp as the Product Marketing Manager in Intel's Discrete Graphics group.
 
The ex-AMD guys are apparently drawing a lot of talent to the "dark side" as big names like Raja Koduri, Jim Keller, and, more specific for this case, Chris Hook, are drawing more and more people from AMD to Intel.

 
https://www.fudzilla.com/news/47506 [...] -for-intel

n°10458113
Profil sup​primé
Posté le 01-11-2018 à 10:16:58  answer
 

tant qu'ils ne reprennent pas l'archi GCN tout va bien :o


Message édité par Profil supprimé le 01-11-2018 à 10:17:13
mood
Publicité
Posté le 01-11-2018 à 10:16:58  profilanswer
 

n°10458122
aliss
Rhyme the Rhyme Well
Posté le 01-11-2018 à 10:38:34  profilanswer
 

Note qu'être au niveau de GCN pour un premier jet, ça serait déjà un exploit.  :D

n°10458124
Profil sup​primé
Posté le 01-11-2018 à 10:42:19  answer
 

ça serait pas intel , oui c'est certain  
 
mais là vu la débauches de moyens et de têtes pensantes , je risque d'être un peu exigeant  :whistle:


Message édité par Profil supprimé le 01-11-2018 à 10:42:37
n°10458131
aliss
Rhyme the Rhyme Well
Posté le 01-11-2018 à 10:54:31  profilanswer
 

Avoir des moyens n'est pas forcément suffisant... ;)  
 
https://www.hardware.fr/news/4500/s [...] ponge.html

n°10458133
Profil sup​primé
Posté le 01-11-2018 à 10:56:58  answer
 

c'est pas gentil de remuer le couteau dans la plaie  :D  
on espérait beaucoup de la kyro 3 à l'époque   :cry:


Message édité par Profil supprimé le 01-11-2018 à 10:57:13
n°10458139
aliss
Rhyme the Rhyme Well
Posté le 01-11-2018 à 11:07:10  profilanswer
 

Je ne leur souhaite pas la même chose mais je me demande quand même si aujourd'hui il y a de la place pour 3 acteurs.

n°10458140
Profil sup​primé
Posté le 01-11-2018 à 11:15:42  answer
 

d'un coté je me trompe peut être mais je suis pas sûr que le marché gaming intéresse tant que ça intel  
le pognon est ailleurs aujourd'hui il me semble :/

n°10458146
aliss
Rhyme the Rhyme Well
Posté le 01-11-2018 à 11:28:08  profilanswer
 

Leur teasing du Syggraph était assez orienté multimedia/gaming pourtant.
 
...Interestingly, a 2020 launch date for the new discrete GPU is inside the estimate window we had seen for the project. But the long development cycle for a high-end GPU means that this project was undoubtedly started before Raja Koduri joined Intel in late 2017 – most likely it would have needed to kick off at the start of the year, if not in 2016 – so this implies that Koduri has indeed inherited an existing Intel project, rather than starting from scratch. Whether this is an evolution of Intel’s Gen GPU or an entirely new architecture remains to be seen, as there are good arguments for both sides.
 
Intel isn’t saying anything else about the GPU at this time. Though we do know from Intel’s statements when they hired Koduri that they’re starting with high-end GPUs, a fitting choice given the accelerator market Intel is going after. This GPU is almost certainly aimed at compute users first and foremost – especially if Intel adopts a bleeding edge-like strategy that AMD and NVIDIA have started to favor – but Intel’s dGPU efforts are not entirely focused on professionals. Intel has also confirmed that they want to go after the gaming market as well, though what that would entail – and when – is another question entirely...

 
https://www.anandtech.com/show/1296 [...] t-for-2020


Message édité par aliss le 01-11-2018 à 11:33:29
n°10458148
Fouge
Posté le 01-11-2018 à 11:33:05  profilanswer
 

Le gaming ce n'est pas que sur PC, et les GPU ce n'est pas que pour du gaming.
Il y a de la place pour 3, mais ça va être très difficile de se faire une place.

n°10458181
obduction
Posté le 01-11-2018 à 12:23:55  profilanswer
 

aliss a écrit :

Avoir des moyens n'est pas forcément suffisant... ;)  
 
https://www.hardware.fr/news/4500/s [...] ponge.html


Ce n'est pas comparable. STM ne possédait pas le créateur des cartes powervr (IT), c'était juste le partenaire de powervr (IT) pour les powervr series 3, ce n’était pas du tout le coeur de métier ni avaient une envie de s'y investir plus longtemps avec powervr (IT). powervr n'a pas trouvé ensuite de partenaire pour les powervr 4 PC et s'est orienté vers les mobiles.
 
Intel se lance enfin pour de bons dans les gpus après le raté i740 et l'hybride cpu le cul entre 2 chaises annulé larabee. Ils recrutent enfin des spécialistes et sont très motivés à faire un vrai gpu. A moins que leur équipe fasse de la merde (toujours possible car kaja n'a pas fait que des hits), aucune raison que ça ne soit pas pérenne.

n°10458184
obduction
Posté le 01-11-2018 à 12:26:17  profilanswer
 


Pourtant ils ont bien dit qu'ils visaient aussi le gaming. Le pognon est ailleurs mais aussi là. Si tu fais des archis performantes, ce serait bête de ne pas sortir pour le gaming car il n'y pas forcément besoin maintenant de faire une archi spéciale pour le gaming en plus des archis pour les pros, embarqué etc.

n°10458242
couillesho​t
Les bouboules et la boubouche
Posté le 01-11-2018 à 14:19:52  profilanswer
 

Étonnant que tous ces ex AMD n'aient pas eu de clause de non concurrence dans leur contrat.


---------------
:o :o :o
n°10458248
aliss
Rhyme the Rhyme Well
Posté le 01-11-2018 à 14:25:37  profilanswer
 

couilleshot a écrit :

Étonnant que tous ces ex AMD n'aient pas eu de clause de non concurrence dans leur contrat.

 

Ce sont surtout tous des anciens de chez ATI qui n'ont pas nécessairement digéré le rachat par AMD.

 



Message édité par aliss le 01-11-2018 à 14:27:34
n°10458261
Profil sup​primé
Posté le 01-11-2018 à 14:34:24  answer
 

si ATI s'est retrouvé en position d'être racheté , c'est peut être aussi que certains d'entre eux ont merdé à un moment donné :D

n°10458265
aliss
Rhyme the Rhyme Well
Posté le 01-11-2018 à 14:37:34  profilanswer
 

Sans doute.
 
Mais ils font partie à n'en pas douter des mutins/lieutenants de Raja mentionnés par Kyle dans son article en 2016.
 
Peut-être que des contrats plus souples ont été crées à la création du RTG en cas de départ.


Message édité par aliss le 01-11-2018 à 14:37:46
n°10458277
lapin
Posté le 01-11-2018 à 14:51:54  profilanswer
 

je crois qu'aux USA il n'y a plus trop de clause de non concurrence, car cela créaient de gros problèmes entre les G.A.F.A.M.A.I.N.
 
 

n°10458279
Profil sup​primé
Posté le 01-11-2018 à 14:55:33  answer
 

oui enfin je supposte que amd à quand même des brevets  
tu peux pas faire ce que tu veux non plus [:skeye]


Message édité par Profil supprimé le 01-11-2018 à 14:56:02
n°10458280
lapin
Posté le 01-11-2018 à 14:58:09  profilanswer
 

mais qui à dit le contraire, ce sont des ingénieurs ils peuvent travailler sur les mêmes choses tout en ayant une approche différentes en tous cas suffisament différente pour contourné le brevet.


Message édité par lapin le 01-11-2018 à 14:58:56
n°10458282
couillesho​t
Les bouboules et la boubouche
Posté le 01-11-2018 à 14:59:33  profilanswer
 

Il est possible d'indemniser l'ex employeur pour annuler ces clauses de toute manière.


---------------
:o :o :o
n°10458296
aliss
Rhyme the Rhyme Well
Posté le 01-11-2018 à 15:17:34  profilanswer
 

Tiens j'avais raté ça, encore un journaliste enrôlé...
 
https://www.pcper.com/news/Editoria [...] ew-journey
 

n°10458466
Profil sup​primé
Posté le 01-11-2018 à 19:28:51  answer
 

voilà pourquoi y'a plus de bonnes reviews nul part  :o


Message édité par Profil supprimé le 01-11-2018 à 19:29:12
n°10458563
Le Profana​teur
Passéiste désincarné
Posté le 01-11-2018 à 22:47:37  profilanswer
 

Et plus que des publi reportages... Ha ben là aussi ils ont enrôlés les «journalistes»  [:vizera]


---------------
Abordez la pente du bon côté ! \o/ Let the light surround you \o/ To bleed or not to be...
n°10460581
HokutoNoFr​ed
Posté le 05-11-2018 à 15:18:39  profilanswer
 

Salut,
 
n'ayant pas trouvé de topic "conseil d'achat CG" je tente ma chance ici.
 
Je me suis fait une configuration fin 2017 à base de :
- Intel Kabylake i5 7500 (3.40 GHz)
- Corsair Vengeance DDR4 2133MHz CL13 (2x 4Go)
- Shuttle SH170R6 (alim 300W)
pour laquelle l'objectif était d'avoir un PC silencieux et peu énergivore.
 
1 an plus tard, il me prend l'envie d'y caser une carte graphique, pour rattraper un peu de mon retard vidéo-ludique (jeune papa inside).
A priori, il y a pas mal de place à l'intérieur du Shuttle.
(voir le paragraphe dédié au modèle "R-Series(R4,R6)" )
Je devrai donc pouvoir installer un modèle classique de CG.
(il y a 15 ans lors de mon premier essai - infructueux - d'un Shuttle, il fallait choisir une CG "low profile" )
 
Se pose donc la question de choisir une CG dont les performances ne soient pas trop bridées par mon proc et ma RAM, qui correspondaient à du milieu de gamme il y a 1 an, si je me souviens bien.
 
Ayant décroché de l'univers des CG depuis un paquet d'années (ma dernière config gaming date de 2012...), je souhaiterai savoir si par exemple une GeForce GTX 1050 Ti serait adaptée à ma config actuelle ?
(modèle pioché un peu au hasard, car son prix de ~200€ collerai à mon budget)
 
Merci par avance pour toute suggestion/info (modèle, marque, etc...).


---------------
Quand Chuck Norris te répond "Dans ton cul", vérifie...
n°10461677
bgx
reviens brunette!
Posté le 06-11-2018 à 21:21:28  profilanswer
 

une GTX 1060 / R470/480 sera mieux qu'une 1050ti pour pas bcp plus cher, et ca devrait rentrer. peut etre une 1060  car moins energivore que la 470/480

n°10462129
HokutoNoFr​ed
Posté le 07-11-2018 à 17:21:32  profilanswer
 

Merci pour ces propositions.  :jap:  
 
Une GTX 1060 Ti (ou équivalent) ne serait donc pas bridée par mon CPU/RAM ?
 
Apparemment ce modèle a bientôt 2 ans et demi.
Il n'y a pas d'équivalent plus récent ?
 
Car je voudrai pouvoir jouer à des jeux "récents" pendant quelques années.
Par exemple The Witcher 3, ou Red Dead Redemption 2, s'il sort sur PC par la suite.
Evidémment je sais que je ne pourrai pas pousser les détails à fond, mais je souhaiterai un modèle qui ne soit pas à la ramasse complète au bout de 2 ans.
 
Pour info j'ai un écran 24 pouces en 1920x1200.


---------------
Quand Chuck Norris te répond "Dans ton cul", vérifie...
n°10462215
Profil sup​primé
Posté le 07-11-2018 à 18:46:39  answer
 

par contre il te l'as pas dit , mais tu n'es pas du tout sur le bon topic
 
une 1060 sera très bien avec ton i5
 
si tu veux plus de précisions , créé directement un topic mais ici c'est pas le sujet ;)

n°10462297
HokutoNoFr​ed
Posté le 07-11-2018 à 20:43:03  profilanswer
 

D'acc, je vais rester sur la piste GTX 1060, et arrêter de polluer votre topic.
 
Merci encore.


---------------
Quand Chuck Norris te répond "Dans ton cul", vérifie...
n°10463142
bgx
reviens brunette!
Posté le 09-11-2018 à 02:24:37  profilanswer
 

Juste un truc a verifier, je ne sais pas ce que tu as comme connecteur additionel pour le GPU - tu as besoin d'un 6 pin sur 1060 je pense, alors que pas besoin sur 1050ti. Mais j'imagine que tu dois avoir ca, ou au pire adaptateur depuis une prise molex. Verifie. Mais c'est facile 50% plus perf, pour pas tellement plus. plus recent, chez nvidia, y'a pas (les 2070 sont trop gourmande et trop grosse pour ton boitier).

n°10476982
aliss
Rhyme the Rhyme Well
Posté le 28-11-2018 à 18:45:37  profilanswer
 

Intel to host conference for discrete GPU in December
 
Intel is expected to host a conference for its GPU architecture technologies in December with its chief architect Raja Koduri and several high-ranking executives to provide updates about the company's latest technologies and the business unit's outlook...
 
https://www.digitimes.com/news/a20181128PD203.html
 
 
 

n°10477303
MEI
|DarthPingoo(tm)|
Posté le 29-11-2018 à 08:29:41  profilanswer
 

Si vite... je prend les paris que Intel a licensié des IP AMD pour préparé son GPU quitte à faire du homemade pour tout après plusieurs itération...
 
(même si de mémoire ils ont les licences PowerVR gratos à vie aussi...)


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°10477388
Invite_Sur​prise
Racaille de Shanghaï
Posté le 29-11-2018 à 10:26:54  profilanswer
 

aliss a écrit :

Intel to host conference for discrete GPU in December
 
Intel is expected to host a conference for its GPU architecture technologies in December with its chief architect Raja Koduri and several high-ranking executives to provide updates about the company's latest technologies and the business unit's outlook...
 
https://www.digitimes.com/news/a20181128PD203.html


 

Citation :

It’s intel architecture day..not a ‘dgpu day’


 
http://twitter.com/Rajaontheedge/s [...] 6505815040
 

n°10477401
MEI
|DarthPingoo(tm)|
Posté le 29-11-2018 à 10:40:22  profilanswer
 

Quoi ... ils serait assez ouf pour sortir l'archi en iGPU aussi cash ? :o


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  987  988  989  ..  1004  1005  1006  1007  1008  1009

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Demande infos] Top AchatComment imprimer les infos du bios ?
Quel carte Open Gl la mieux adapte a 3dsMAXBesion d'infos sur les Graveur de DVD chui perdu
couldn't load open glNEC ND-1300: cherche infos
Mise a jour bios KT7A, prob direct x et open gl geforce 2 pro!!Salut je voudrait des infos sur l'instalation d'un processeur
Rech infos sur le nouveau graveur de DVD liteon multiformat !!!![INFOS a la con] si vous avez des PB avec votre ABIT NF7-S REV2.0
Plus de sujets relatifs à : Graphical open bar (des infos, des intox, aux extraits de TheInq)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)