Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
4632 connectés 

 


Activez-vous le Ray Tracing quand vous jouez à un jeu qui le supporte?


 
28.1 %
 48 votes
1.  Je l'active systématiquement.
 
 
24.6 %
 42 votes
2.  Je l'active seulement dans certains jeux.
 
 
15.8 %
 27 votes
3.  Je ne l'active jamais car l'amélioration visuelle n'est pas suffisante
 
 
19.3 %
 33 votes
4.  Je ne l'active jamais car l'impact sur les perfs est trop important.
 
 
12.3 %
 21 votes
5.  Ma carte graphique n'est pas compatible.
 

Total : 188 votes (17 votes blancs)
Sondage à 2 choix possibles.
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  592  593  594  ..  804  805  806  807  808  809
Auteur Sujet :

[TU] Nvidia Ada Lovelace - GeForce RTX 4000 - 4 Slots et au-delà!

n°11269101
It_Connexi​on
Posté le 02-08-2023 à 13:57:05  profilanswer
 

Reprise du message précédent :

sniper 46 a écrit :


 
A ce sujet, est-ce qu'il y a une différence de qualité (d'image) entre le DLSS d'une RTX2080 Ti et d'une RTX de la série 4000 ?  :??: Une amélioration notable entre ces générations ?
Car jusqu'à maintenant, je n'avais jamais testé le DLSS avec ma RTX2080 Ti... jusqu'à avant hier sur Diablo 4, mais je voyais une perte de qualité graphique  :heink: (texture moins nette et une perte sur les couleurs, plus ternes). J'ai testé plusieurs niveau du DLSS, mais toujours une petite différence. Alors oui... j'avais bien un gain de performance (je passais de 130/140 à 180 fps de mémoire).  
 
 
 


 
Tu joues en quelle reso sur D4 ?


---------------
Galerie Photo Personnelle
mood
Publicité
Posté le 02-08-2023 à 13:57:05  profilanswer
 

n°11269109
Xantar_Eoz​enn
Posté le 02-08-2023 à 14:10:15  profilanswer
 

sniper 46 a écrit :


 
Oui, 130/140 fps sur Diablo 4 c'est parfait (ce n'est pas très speed comme jeu  :D )
C'était plus par curiosité après avoir vu l'option DLSS dans les menus de D4  :)  
 
Xantar_Eozenn Merci pour ces explications !  :jap:  
Je regarderais pour le DLAA, je n'ai pas testé cette option (donc me semble qu'elle doit être actuellement désactivée). Je suis en 2560x1440px - 240 Hz.  


 
 
Pour le DLAA cela dépend des jeux.
 
Jusqu'à récemment, c'était soit DLSS, soit DLAA, sur 2 options bien séparées, mais très rarement possible d'avoir les 2 en même temps (Forza 5 tu pouvais avoir les 2 en même temps). Mais généralement quand tu actives le DLSS, l'option DLAA devient grisé (CyberPunk 2077).
 
Et maintenant, dans les derniers SDK Nvidia, le DLAA est directement intégré comme un niveau de DLSS. Par exemple dans Diablo 4, le DLAA c'est la dernière option de la liste du DLSS.
 
Comme dit, le DLAA utilise les Tensor Core comme le DLSS pour mettre de l'antialiasing sur toute l'image.  
 
Sauf que le DLAA ne fait pas d'upscaling, lui il calcule l'image en native, si tu veux du 4k, il calcule du 4k et applique l'AA.
 
Activer le DLSS applique automatiquement le DLAA
 
En gros tu as 3 façons de faire :
 
La normale, les Cuda Core de ton GPU calculent ton image native, puis les cores appliquent l'AA
Avec le DLAA, les Cuda Core du GPU calculent ton image native, puis les Tensors Core appliquent l'AA, ce qui réduit un peu la charge sur les Cuda Core  
Avec le DLSS, les Cuda Core calculent ton image réduite par un facteur spécifique (voir le tableau), puis les Tensors Core upscal l'image et applique l'AA du DLAA ce qui réduit beaucoup la charge sur les Cuda Core
 
 
Si tu es du genre à mettre un Frame Limit à 100/120fps, la consommation de ta RTX sera moindre avec l'utilisation du DLSS
 
Et on peut rajouter le DSR (calculer plus grand que l'image native puis la réduire (calculé par les Cuda Core)) et le DLDSR (c'est le DSR mais géré par les Tensors Core)


Message édité par Xantar_Eozenn le 03-08-2023 à 10:11:27
n°11269113
Xantar_Eoz​enn
Posté le 02-08-2023 à 14:13:27  profilanswer
 

btbw03 a écrit :

D4 en 4k bouffe un peu pour être a plus de 100 fps, dlaa j'ai mis frame generator. Aucunes diff visibles.


 
 
Bien entendu cela depend de ta CG.

n°11269121
sniper 46
Posté le 02-08-2023 à 14:34:57  profilanswer
 

It_Connexion a écrit :


 
Tu joues en quelle reso sur D4 ?


 
Tous les jeux en 2560x1440px  :jap:  (j'ai le Samsung Odyssey G7 27 pouces VA)


---------------
Pseudo en game - Icewind
n°11269122
fabroo
Je ne suis pas roux ^^
Posté le 02-08-2023 à 14:35:47  profilanswer
 

sniper 46 a écrit :


Je regarderais pour le DLAA, je n'ai pas testé cette option (donc me semble qu'elle doit être actuellement désactivée).  


 
Fonces tu ne sera pas déçu  :sol:  
 
L'option est tout en bas dans le menu déroulant , en dessous du DLSS.
 


---------------
Enfin, Röhrl a également égratigné le nouveau champion du monde Max Verstappen. "Il conduit certainement très bien, mais c’est une brute. Il pilote comme une hache sauvage dans une forêt."
n°11269123
It_Connexi​on
Posté le 02-08-2023 à 14:39:35  profilanswer
 

sniper 46 a écrit :


 
Tous les jeux en 2560x1440px  :jap:  (j'ai le Samsung Odyssey G7 27 pouces VA)


 
 :jap:  
 
Mais du coup ça doit bien tourner D4 sur une 2080Ti même sans DLSS, je suis étonné


---------------
Galerie Photo Personnelle
n°11269135
Xantar_Eoz​enn
Posté le 02-08-2023 à 15:06:14  profilanswer
 

It_Connexion a écrit :


 
 :jap:  
 
Mais du coup ça doit bien tourner D4 sur une 2080Ti même sans DLSS, je suis étonné


 
 
Je viens de regarder vite fait quelques benchs, effectivement autour de 120fps en 1440p Ultra sans DLSS


Message édité par Xantar_Eozenn le 02-08-2023 à 15:07:12
n°11269140
Space
Profil: Maux des rateurs
Posté le 02-08-2023 à 15:18:00  profilanswer
 

En général les Hack & Slash ne sont pas très gourmands niveau GPU, ce style de vue en vue de dessus offre l'avantage d'afficher une faible profondeur de champ, cela aide pas mal :D


---------------
Topic écran Asus 27" 1440p Oled XG27AQDMG - Ma cinémathèque
n°11269160
petit-tigr​e
miaou
Posté le 02-08-2023 à 15:52:06  profilanswer
 

It_Connexion a écrit :


 
 :jap:  
 
Mais du coup ça doit bien tourner D4 sur une 2080Ti même sans DLSS, je suis étonné


Bé oui, ce n'est pas parce qu'on a 1, 2 ou 3 nouvelles générations de cartes qu'automatiquement les anciennes ne savent plus rien faire.


---------------
mIaOuUuUuUuUuUu
n°11269165
Xantar_Eoz​enn
Posté le 02-08-2023 à 16:03:32  profilanswer
 

petit-tigre a écrit :


Bé oui, ce n'est pas parce qu'on a 1, 2 ou 3 nouvelles générations de cartes qu'automatiquement les anciennes ne savent plus rien faire.


 
 
Je pense que c'est l'inverse, It Connexion est étonné de voir que Sniper46 active le DLSS avec une 2080Ti sur D4 en 1440p
 
Bon, la 2080Ti, fait 120fps moyen en 1440p Ultra, et Sniper46 a un écran 144hz.
 
Après, si GSync rentre en compte, autant lock à 100fps et pas chercher les 144fps absolument.

Message cité 3 fois
Message édité par Xantar_Eozenn le 02-08-2023 à 16:06:17
mood
Publicité
Posté le 02-08-2023 à 16:03:32  profilanswer
 

n°11269193
petit-tigr​e
miaou
Posté le 02-08-2023 à 17:09:14  profilanswer
 

Xantar_Eozenn a écrit :


 
 
Je pense que c'est l'inverse, It Connexion est étonné de voir que Sniper46 active le DLSS avec une 2080Ti sur D4 en 1440p
 
Bon, la 2080Ti, fait 120fps moyen en 1440p Ultra, et Sniper46 a un écran 144hz.
 
Après, si GSync rentre en compte, autant lock à 100fps et pas chercher les 144fps absolument.


Aucune mauvaise intention sur le propos de It connexion :)
 
Concernant l'écran, avec Gsync, je vois pas l'intérêt de lock le framerate par contre. L'un des buts du truc étant justement de ne plus vraiment s'en soucier.


---------------
mIaOuUuUuUuUuUu
n°11269194
coil whine
Renvoie-là au SAV
Posté le 02-08-2023 à 17:10:19  profilanswer
 

petit-tigre a écrit :


Aucune mauvaise intention sur le propos de It connexion :)
 
Concernant l'écran, avec Gsync, je vois pas l'intérêt de lock le framerate par contre. L'un des buts du truc étant justement de ne plus vraiment s'en soucier.


L’un des interêts c’est la conso.

n°11269217
sniper 46
Posté le 02-08-2023 à 18:00:52  profilanswer
 

Xantar_Eozenn a écrit :


 
 
Je pense que c'est l'inverse, It Connexion est étonné de voir que Sniper46 active le DLSS avec une 2080Ti sur D4 en 1440p
 
Bon, la 2080Ti, fait 120fps moyen en 1440p Ultra, et Sniper46 a un écran 144hz.
 
Après, si GSync rentre en compte, autant lock à 100fps et pas chercher les 144fps absolument.


 
Oui, je confirme que Diablo 4 tourne très bien avec la RTX2080 Ti (autour de 140 fps)   :jap:  
Comme évoqué sur l'un de mes précédents postes, jusqu'à maintenant, je n'ai jamais activé le DLSS (peu importe le jeu). C'était donc plus par curiosité de tester le DLSS (et voir ce que ça donne en ingame) que de rechercher un gain de performance dont je n'ai pas besoin sur Diablo 4 :) Après, effectivement, j'aurais pu faire mon test sur un jeu plus gourmand  :whistle:  C'est surtout, que j'étais un peu surpris par la diminution graphique (même avec le premier palier du DLSS).  
Après, c'est une fonctionnalité sympathique pour des cartes graphiques moins puissantes et des titres plus gourmands.  :jap:  
 
Xantar_Eozenn a d'ailleurs donné de nombreuses informations au sujet de cette fonctionnalité :) C'est bon à savoir.
 
Ecran 240 Hz ;) aucun blocage des FPS, juste G-SYNC en actif, et toutes les options en Ultra (dans tous les jeux vidéo). Et généralement, ça tourne bien  :)


---------------
Pseudo en game - Icewind
n°11269265
Xantar_Eoz​enn
Posté le 02-08-2023 à 20:14:38  profilanswer
 

petit-tigre a écrit :


Aucune mauvaise intention sur le propos de It connexion :)
 
Concernant l'écran, avec Gsync, je vois pas l'intérêt de lock le framerate par contre. L'un des buts du truc étant justement de ne plus vraiment s'en soucier.


Bah, tu peux lock les FPS et ta CG consomme moins. et sur Diablo entre 100 et 140 ou 200 fps ... si tu peux reduire la conso de ta RTX de 20/30/40/xx% et donc la chauffe et la ventilation c'est potentiellement un intérêt.
Moi sur D4 en 4k Ultra avec ma RTX 4090 si je lock rien j'ai 200 fps et elle consomme plus de 400w.
J'ai un écran GSync 120hz, si je lock à 120fps ma consommation tombe à 320w environ.
Si j'active le DLSS Qualité en plus, ma conso tombe à 220w.
Si je lock à 100fps, ma conso tombe à 180w ...
Sur Diablo 4, 100 fps stable est nettement suffisant.  
 
 
Bien sur, il faut prendre les jeux au cas par cas, CyberPunk 2077 par exemple c'est pas pareil ...


Message édité par Xantar_Eozenn le 02-08-2023 à 23:48:40
n°11269295
It_Connexi​on
Posté le 02-08-2023 à 20:42:25  profilanswer
 

petit-tigre a écrit :


Bé oui, ce n'est pas parce qu'on a 1, 2 ou 3 nouvelles générations de cartes qu'automatiquement les anciennes ne savent plus rien faire.


 

Xantar_Eozenn a écrit :


 
 
Je pense que c'est l'inverse, It Connexion est étonné de voir que Sniper46 active le DLSS avec une 2080Ti sur D4 en 1440p
 
Bon, la 2080Ti, fait 120fps moyen en 1440p Ultra, et Sniper46 a un écran 144hz.
 
Après, si GSync rentre en compte, autant lock à 100fps et pas chercher les 144fps absolument.


 
Oui c'est bien ça, j'étais étonné car pour moi la 2080ti tient bien la route en 1440p  :jap:


---------------
Galerie Photo Personnelle
n°11269309
ze m't
Posté le 02-08-2023 à 20:55:43  profilanswer
 

btbw03 a écrit :


 
Zotac extrême airo
 
 
Ok je vais regarde de ce côté là aussi pour voir


 
Tu utilise le soft de monitoring Zotac?
Chez moi sur la 4090 j'avais des soucis d'utilisation GPU (et donc de ventilation)en idle, quand j'utilisais le soft Zotac (pour la gestion du rgb) et MSi AfterB à côté.
 
J'ai viré le soft Zotac, gardé/réinstallé MSi AB, et soucis résolu.


---------------
 Ma gallerie Flickr
n°11269448
Scrabble
Posté le 03-08-2023 à 09:03:35  profilanswer
 

petit-tigre a écrit :


Bé oui, ce n'est pas parce qu'on a 1, 2 ou 3 nouvelles générations de cartes qu'automatiquement les anciennes ne savent plus rien faire.


Exactement, et le marché est tellement saturé et les ventes de GPU atones, que Nvidia a réduit la production de certaines RTX 40X0 :
https://www.youtube.com/watch?v=3o4U8RTMBxA
Donc les prix des cartes graphiques devraient arrêter de baisser

n°11269885
hellion666
Posté le 04-08-2023 à 17:20:41  profilanswer
 

azubal a écrit :


 
Merci.
Intéressant la bride à 250W.
Je vais peut être faire ça aussi alors.


 
yo.
 
Ma boite utilise aussi des serveurs de calcul pour de la simu et de l AI, on utilise 2 machines Dell pro avec des blowers en nvidia A6000 (3x) et du pro genre le fameux 56 cœurs intel. https://www.dell.com/fr-fr/shop/sta [...] 6b773e3cd3
Effectivement, avant la mise en production, on le mettait sous les bureaux et ça soufflait fort lol.  
Maintenant ca fait 7 mois qu'ils sont sous clim dans la salle serveur. c'est toujours frais… et ça mouline à donf sans planter.
Pour ta machine, si tu n utilises pas  de dell pro 20k €, tu aurais pu te passer du 13900k et passé sur un i3 avec le rad d'origine. Ou un i5 65w an 6 cœurs?
Si tu voulais absolument prendre le 13900k  : dégage le all in one Bequeiet c est le pire de tous. Passe sur du arctic, ou même du corsair, ou un truc avec la pompe sur le processeur. La 4090 suprimx liquid du haut ok , avec son rad sur le côté. la 4090 du bas, tu pourrais passer sur une Suprim X en air cooling , et pas en refroidissement liquide.  Comme ça, tu gagnes l'emplacement du haut pour l'AIO du 13900K. En h24, le rad d'une suprim x est tout à fait capable de refroidir la carte. j'ai moi même une suprimx.
 
dernier argument : aircooling cest plus fiable sur la durée, si tu bricoles pas le matos p. Bonne chance.

n°11269949
azubal
Posté le 04-08-2023 à 22:41:12  profilanswer
 

hellion666 a écrit :


 
yo.
 
Ma boite utilise aussi des serveurs de calcul pour de la simu et de l AI, on utilise 2 machines Dell pro avec des blowers en nvidia A6000 (3x) et du pro genre le fameux 56 cœurs intel. https://www.dell.com/fr-fr/shop/sta [...] 6b773e3cd3
Effectivement, avant la mise en production, on le mettait sous les bureaux et ça soufflait fort lol.  
Maintenant ca fait 7 mois qu'ils sont sous clim dans la salle serveur. c'est toujours frais… et ça mouline à donf sans planter.
Pour ta machine, si tu n utilises pas  de dell pro 20k €, tu aurais pu te passer du 13900k et passé sur un i3 avec le rad d'origine. Ou un i5 65w an 6 cœurs?
Si tu voulais absolument prendre le 13900k  : dégage le all in one Bequeiet c est le pire de tous. Passe sur du arctic, ou même du corsair, ou un truc avec la pompe sur le processeur. La 4090 suprimx liquid du haut ok , avec son rad sur le côté. la 4090 du bas, tu pourrais passer sur une Suprim X en air cooling , et pas en refroidissement liquide.  Comme ça, tu gagnes l'emplacement du haut pour l'AIO du 13900K. En h24, le rad d'une suprim x est tout à fait capable de refroidir la carte. j'ai moi même une suprimx.
 
dernier argument : aircooling cest plus fiable sur la durée, si tu bricoles pas le matos p. Bonne chance.


 
37k€ la machine  [:tinostar]  
On parle pas du tout de la meme chose!
 
Apres, concernant ma conf, on a largement abordé le sujet ici. Si je devais recommencer, j'imposerai d'autres choix à l'assembleur. Mais c'est fait donc ca va rester comme ca. La machine tourne au poil et fait ce que j'attend d'elle.

n°11269950
lonely
Posté le 04-08-2023 à 23:01:24  profilanswer
 

Scrabble a écrit :


Exactement, et le marché est tellement saturé et les ventes de GPU atones, que Nvidia a réduit la production de certaines RTX 40X0 :
https://www.youtube.com/watch?v=3o4U8RTMBxA
Donc les prix des cartes graphiques devraient arrêter de baisser


 
A moins que NVidia ne réaffecte ses usines à la fabrication des H800 qui sont très proches au niveau architecture et qui sont les GPU les plus puissants autorisés en Chine par les USA.
 
Nvidia's AI GPUs Are Selling for up to $70,000 in China
https://www.tomshardware.com/news/p [...] 0-in-china


Message édité par lonely le 05-08-2023 à 09:34:30
n°11269961
dazouille
ex dazi
Posté le 05-08-2023 à 00:09:10  profilanswer
 

What  
 
Les câbles d’origines 12vhpwr avec les alims ne sont pas les meme entre rtx 3000 et 4000 ?


---------------
Ici : http://forum.hardware.fr/hfr/Achat [...] 1291_1.htm
n°11270144
Scrabble
Posté le 05-08-2023 à 20:04:47  profilanswer
 
n°11270147
uNReaLx77
üNReaL
Posté le 05-08-2023 à 20:13:31  profilanswer
 

dazouille a écrit :

What  
 
Les câbles d’origines 12vhpwr avec les alims ne sont pas les meme entre rtx 3000 et 4000 ?


Non, d'ailleurs y avait que la fe en 12v, la ftw3 c'était 3x pcie.

n°11270183
LeMakisar
Posté le 05-08-2023 à 22:39:47  profilanswer
 

uNReaLx77 a écrit :


Non, d'ailleurs y avait que la fe en 12v, la ftw3 c'était 3x pcie.


 
Mais oui !  
ça n'a jamais été un problème ces anciens cables PCIe, sauf pour les kikoolol qui étaient deg de pas voir toutes leurs LED :o
D'ailleurs EVGA vendait pas une espèce d'équerre pour que ça fasse propre ?


---------------
Feedback
n°11270185
dazouille
ex dazi
Posté le 05-08-2023 à 22:49:09  profilanswer
 

Bon bah je garde le câble pour quand je choperais une 4090 fe à bon prix :O


---------------
Ici : http://forum.hardware.fr/hfr/Achat [...] 1291_1.htm
n°11270188
uNReaLx77
üNReaL
Posté le 05-08-2023 à 22:53:47  profilanswer
 

C'est pas le même on te dis :D
 
Ah tu as le nouveau avec ton alim ?
Et tu as une 3080/90 fe je suppose.
 

LeMakisar a écrit :


 
Mais oui !  
ça n'a jamais été un problème ces anciens cables PCIe, sauf pour les kikoolol qui étaient deg de pas voir toutes leurs LED :o
D'ailleurs EVGA vendait pas une espèce d'équerre pour que ça fasse propre ?


J'ai pas compris
12v ou PCI express... Tu as les girlandes quand même. La pieuvre se partage en 3 donc c'est pas mieux...Non evga n'avait pas d équerre.

Message cité 1 fois
Message édité par uNReaLx77 le 05-08-2023 à 22:58:57
n°11270195
dazouille
ex dazi
Posté le 05-08-2023 à 23:44:57  profilanswer
 

Oui je suis passé sur une deepcool 1200w et j’ai un câble pour les rtx 4xxx avec mais je pensais pouvoir l’utiliser sur ma 3080ti fe :O


---------------
Ici : http://forum.hardware.fr/hfr/Achat [...] 1291_1.htm
n°11270214
booba92i
Posté le 06-08-2023 à 04:58:17  profilanswer
 

uNReaLx77 a écrit :


J'ai pas compris
12v ou PCI express... Tu as les girlandes quand même. La pieuvre se partage en 3 donc c'est pas mieux...Non evga n'avait pas d équerre.


 
Pour info il y a pas de pieuvre avec la Evga 3090, sauf pour la TI  :o

Message cité 1 fois
Message édité par booba92i le 06-08-2023 à 04:59:31

---------------
WiiDS: Sauf que IL2 a un mode DirectX, et que ce dernier reste plus performant même sous nVidia. lol :)
n°11270219
Xixou2
Posté le 06-08-2023 à 06:21:22  profilanswer
 

En fait il ne raconte que des conneries mdr.

n°11270225
lonely
Posté le 06-08-2023 à 08:14:56  profilanswer
 


 
Avec la chute des cryptos, NVidia fait désormais 2 fois plus de chiffres d'affaire dans les datacenters que dans le gaming (sans parler des marges) et prévoit de doubler sa production de cartes professionnels au détriment des cartes gaming pour faire face à la pénurie dans les Datacenter. Le marché de l'intelligence artificielle devrait représenter 300 milliards de dollars en 2027 dont 75 % irait à NVidia.
 
L'action NVidia a pris 212% depuis le début de l'année
 
Nvidia expects revenue boom as AI drives chip demand
https://www.ft.com/content/6b03dee3 [...] f4f029d806
 
http://www.nextplatform.com/wp-content/uploads/2023/02/nvidia-q4-f2023-divisions.jpg

n°11270269
Gunman24
Posté le 06-08-2023 à 12:44:09  profilanswer
 

l'IA ça fleure bon le truc qui est à la mode maintenant et dans 5 ans on en parlera au passé en l'appelant "la bulle de l'IA".

n°11270274
Valaint671​30
Cinquième soleil
Posté le 06-08-2023 à 12:54:38  profilanswer
 

Vu l'argent que ça peut faire économiser rien que pour les RH, à mon avis on en est qu'au début :o


---------------
Mon topic ~ EVGA✞ FANboy - Allergique à l'inaptocratie
n°11270282
Aqua-Niki
Posté le 06-08-2023 à 13:09:50  profilanswer
 

Gunman24 a écrit :

l'IA ça fleure bon le truc qui est à la mode maintenant et dans 5 ans on en parlera au passé en l'appelant "la bulle de l'IA".


J'y crois pas du tout. Il y a sans doute plein d'applications et d'implémentations qui sont sans avenir, mais je suis aussi convaincu qu'on trouvera plein de choses pour lesquelles ça fonctionne bien. C'est un outil puissant mais pas omnipotent. Il y a des domaines dans lesquels l'IA aura sans doute toujours du mal à rivaliser avec l'humain, mais il y en aura aussi où l'humain sera très vite largué.

n°11270287
uNReaLx77
üNReaL
Posté le 06-08-2023 à 13:40:24  profilanswer
 

L' ia va explosé oui....trop moi je dis.
Ça va tout gérer.

Message cité 1 fois
Message édité par uNReaLx77 le 06-08-2023 à 13:40:46
n°11270288
uNReaLx77
üNReaL
Posté le 06-08-2023 à 13:42:53  profilanswer
 

booba92i a écrit :


 
Pour info il y a pas de pieuvre avec la Evga 3090, sauf pour la TI  :o


Je parlais des pieuvres 4000.... Pour info ;)
C'est pas.mieux que.les 3 connecteurs PCI 3xpress.... Ça fait pas beau quoi ...
 
Ils sont tous aussi moche mis comme ça :lol:
https://i.ibb.co/WGH6DL0/IMG-20230512-223540.jpg https://i.ibb.co/h8MDXcq/IMG-20230224-161816.jpg https://i.ibb.co/Jd1qwPY/IMG-20221219-181239.jpg


Message édité par uNReaLx77 le 06-08-2023 à 14:03:44
n°11270313
booba92i
Posté le 06-08-2023 à 15:09:49  profilanswer
 

Faut savoir arranger les choses pour leurs donner un belle image :D  
 
Cable d'origine et Spacer en plastique livrée avec l'alim d'Asus  :o  
https://i.ibb.co/wK8sj9w/IMG-20230806-150351.jpg
 
Pour la pieuvre je croyais que tu parlais de l'adaptateur livrée d'origine avec la 3090 Ti et qui n'est pas présent sur la 3090 tout court.


Message édité par booba92i le 06-08-2023 à 15:22:46

---------------
WiiDS: Sauf que IL2 a un mode DirectX, et que ce dernier reste plus performant même sous nVidia. lol :)
n°11270320
Equipments
Posté le 06-08-2023 à 15:41:32  profilanswer
 

Gunman24 a écrit :

l'IA ça fleure bon le truc qui est à la mode maintenant et dans 5 ans on en parlera au passé en l'appelant "la bulle de l'IA".


 
 
N'importe quoi [:prozac]

n°11270330
cyberfred
Posté le 06-08-2023 à 16:13:43  profilanswer
 

uNReaLx77 a écrit :

L' ia va explosé oui....trop moi je dis.
Ça va tout gérer.


 
ouep c'est ce que je pense aussi :jap:
je ne pense pas que l'IA soit juste un sujet passager ;  dans 5 ans , ca sera largement plus développé qu'aujourd'hui.
Y qu'à voir NVidia qui investi des sommes colossales sur le sujet  !


Message édité par cyberfred le 06-08-2023 à 16:14:57
n°11270339
Ill Nino
Love
Posté le 06-08-2023 à 17:02:49  profilanswer
 

Non ca va pas tout gérer. C'est comme toutes choses... :spamafote: Si c'était comme ca on passera nos vies a 100% derrière un ordi ou les chinois domineraient le monde ou on serait tous blonds aux yeux bleus etc...etc...


---------------
Faut qu'on court comme des lions, des tigres et des ours!
n°11270341
uNReaLx77
üNReaL
Posté le 06-08-2023 à 17:09:49  profilanswer
 

Ill Nino a écrit :

Non ca va pas tout gérer. C'est comme toutes choses... :spamafote: Si c'était comme ca on passera nos vies a 100% derrière un ordi ou les chinois domineraient le monde ou on serait tous blonds aux yeux bleus etc...etc...


Ah ouai ? Et 90% derrière un smartphone ça te dis ?
Non parce que c'est ce qui se passe en fait.... C'est la vie d'aujourd'hui et tu crois ça va retourner en arrière ?
 
Les entreprises se mettent à l'ia pour beaucoup de chose maintenant... Et évidemment que ça va aller en grandissant

n°11270360
petit-tigr​e
miaou
Posté le 06-08-2023 à 19:28:10  profilanswer
 

Tout gérer non mais faire des trucs sournois sous couvert de la main de l'homme, ça, faut s'y attendre.


---------------
mIaOuUuUuUuUuUu
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  592  593  594  ..  804  805  806  807  808  809

Aller à :
Ajouter une réponse
 

Sujets relatifs
Compatibilité B550 Geforce série 10000Epaisseur pads thermique RTX 2060
RTX 3050 ou GTX 1660 super ou Ti ?Nouvelle config avec carte RTX 3070 Ti
RTX 2070 Super tourne au ralenti (30%)Chauffe RTX 3080
temperature i7 10700kf et carte video nvidia rtx2060Rtx 3080 Radiateur abimé
Code erreur 43 RTX 2080ti 
Plus de sujets relatifs à : [TU] Nvidia Ada Lovelace - GeForce RTX 4000 - 4 Slots et au-delà!


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)