Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1405 connectés 

 


La vie convenable c'est


 
23.9 %
 32 votes
1.  Du sexe, de la drogue et du Rock'n'Roll
 
 
21.6 %
 29 votes
2.  Un conjoint, un pavillon, deux enfants et un scenic
 
 
8.2 %
 11 votes
3.  Une carrière fulgurante, peu importe les impacts sur la vie privée
 
 
6.7 %
 9 votes
4.  Consommer, consommer, consommer
 
 
14.2 %
 19 votes
5.  De l'épargne avant tout
 
 
25.4 %
 34 votes
6.  Autre (à développer)
 

Total : 163 votes (29 votes blancs)
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  29000  29001  29002  ..  30280  30281  30282  30283  30284  30285
Auteur Sujet :

Combien faut il par mois pour vivre convenablement?

n°72303173
Youmoussa
Ecrou-vis
Posté le 29-01-2025 à 16:57:49  profilanswer
 

Reprise du message précédent :

SekYo a écrit :


C'est quand même marrant, tu as admis juste avant avec ta question sur Deepseek ne pas suivre du tout ce qu'il se passait sur l'IA en ce moment, mais dans le même temps tu penses que la valo de nVidia (qui est à 80% -et je suis gentil- basée sur les besoins futurs en compute pour l'IA) est justifiée. Je vois un petit problème de cohérence :o
 


 
This.
 
Après c’est pareil, si les coûts diminuent, le marché augmente et ça peut mécaniquement augmenter les revenus de NVidia, même si le prix du GPU baisse.

Message cité 1 fois
Message édité par Youmoussa le 29-01-2025 à 16:59:05

---------------
L'humain est celui « qui agit puis qui pense : ce n’est pas parce qu’il soutient telle position qu’il agit de telle manière, mais parce qu’il a agi (comme il a été amené à le faire) qu’il va adopter telle position
mood
Publicité
Posté le 29-01-2025 à 16:57:49  profilanswer
 

n°72303182
kaboom85
Posté le 29-01-2025 à 16:58:51  profilanswer
 

après c'est pas comme si on était habitué avec lui :D


---------------
Topic escape game \o/ / Topic Artifact
n°72303195
gregouf
Abubu Grigoufi Al-Hibi
Posté le 29-01-2025 à 17:01:24  profilanswer
 


Youmoussa a écrit :


 
 :jap:  
 
Le pote qui a fait des recherches après que je lui ai proposé à trouvé cette vidéo https://www.youtube.com/watch?v=i6kGTF2PT18
 
1- ça me ferait chier de me foutre dans la merde à cause d’un groupe mal preparé
2- j’aurais aimé avoir plus de détails car il semble que tout le monde dans le grand groupe était mal preparé. Ils semblent tomber dans la définition de Grégouf  :o  


 
Pas eu le courage de regarder plus de 10' de la vidéo, MAM léger avec hypothermie? Plutôt que d'attendre des heures les secours, faut redescendre en plus ça réchauffe. Si trop HS, alors bivy et se mettre nu avec la personne en hypothermie. La chaleur se transmet bien mieux en peau à peau. Et tout ce qui est chaud par dessus...


---------------
"I do not want you to agree, I ask you to think, nothing more" - Pepe Mujica
n°72303207
gimly the ​knight
Posté le 29-01-2025 à 17:02:42  profilanswer
 

moilol1228 a écrit :


 
 
DeepSeek AI est une société chinoise d'intelligence artificielle et le nom de son agent conversationnel, qui exploite un grand modèle de langage. Établie à Hangzhou, la société est fondée et soutenue par le fonds spéculatif chinois High-Flyer.
 
Depuis quand des fonds speculatifs sont devenus socialiste ?


 
Ben va lui parler, tu verras  [:spamafote]
 
Il s’agit d’un IA qui se comporte conformément et selon la doctrine socialiste chinoise, et elle n’a aucun complexe à l’assumer.

Message cité 1 fois
Message édité par gimly the knight le 29-01-2025 à 17:04:08
n°72303237
KaiserCz
bros before hoes
Posté le 29-01-2025 à 17:07:20  profilanswer
 

gimly the knight a écrit :


 
Ben va lui parler, tu verras  [:spamafote]
 
Il s’agit d’un IA qui se comporte conformément et selon la doctrine socialiste chinoise, et elle n’a aucun complexe à l’assumer.


https://media.discordapp.net/attachments/931298130220187668/1333845203483885699/IMG_9556.jpg?ex=679b0866&is=6799b6e6&hm=9393be3ec12511e35a9aed1304443bbf5713980b7119b5d095421b8e2210925b&=&format=webp&width=1517&height=897

n°72303269
gimly the ​knight
Posté le 29-01-2025 à 17:12:10  profilanswer
 
n°72303285
hadado
Posté le 29-01-2025 à 17:14:46  profilanswer
 

Youmoussa a écrit :


 
J’ai un immense respect pour ce que tu as fait, mais des fois je me demande si tu comprends la technologie et comment les avancées changent la donne. Tu sembles beaucoup trop lié à ta propre expérience et pas sur ce qui s’est passé sur un horizon plus grand.
 
Ce qui est justement mis en avant avec DeepSeek, ce n’est pas que les réponses soient forcément 10x mieux qu’OpenAi, c’est que ça arrive à la même chose  en dépensant 100x moins pour entraîner le modèle en ayant recours à une nouvelle méthodologie.
 
Le coût de l’AI quand tu ne fais pas d’imagerie médicale en France est justement plus le coût d’entraînement. Tu ne sembles pas voir qu’il y a pleins de boîtes qui ont déjà une énorme quantité de données à disposition. Ça inclut les assureurs médicaux aux US qui ont accès à toutes les radiographies et dossiers médicaux de leurs clients. J’ai un pote qui bossait là dessus, c’était pas le manque de données le problème.


Justement c'est toi qui comprend pas la tech. Les LLM et modèle génératif sont les seul avec des coût de training délirant. Les modèles de traitement d'image utilisé en radiologie sont bien moins gourmands. Ca fait très longtemps que le coût des gpu n'est plus un gros driver business dans genre d'applications. Les données tu peux les avoir en masse ça coûte quand même cher a traité, mettre en forme, annoté etc.... même si la simu changera sûrement les choses dans le futur.
 
Je suis admiratif techniquement de ce que fait deepseek le seul truc qui m'étonne c'est que le gens soient si étonné. C'est une évolution logique de la technologie que la commodisation des modèles quand les données sont ouvertes. C'est pas un sport de masse mais c'est pas de la fission nucléaire non plus.

Message cité 2 fois
Message édité par hadado le 29-01-2025 à 17:19:26
n°72303312
KaiserCz
bros before hoes
Posté le 29-01-2025 à 17:18:18  profilanswer
 

gimly the knight a écrit :


 
Toi, t’as voulu lui parler de Tian'anmen  [:luc@s]  
 
:o


 [:so-saugrenu23:9]  
 
même si les ricains ont leurs puritanisme à la con, je crois que je préfère encore les LLM ricains quand même :o

n°72303329
MEI
|DarthPingoo(tm)|
Posté le 29-01-2025 à 17:21:05  profilanswer
 

hadado a écrit :

Pour le coup je pense que NVIDIA est une des rares boîte tech qui mériterait presque sa valo :o


Mouai...  En réalité aujourd'hui on est ASML limited pour l'IA. Parce que dans le fond, le pb c'est pas d'avoir NVIDIA (ou autres) qui fait de meilleur GPU, ni même au delà de ça TSMC qui peut produire plus de puces via de nouvelles usines. Le pb c'est qu'ASML quoiqu'il arrive, même si demain un état (genre USA) lançait un chantier pour faire 10 usines ASAP, avec tout le pognon qu'il faut, ASML n'arriverais pas à fournir la demande.
 
Du coup, en réalité, ouai NVIDIA fait de beau GPU. Et ils ont les couilles de faire des puces géantes. Mais dans le fond, c'est pas vraiment grâce à eux qu'on a l'IA. Parce qu'AMD, Intel, Google, Apple, les équipes compétentes pour faire des accélérateurs d'IA on en a plein. Si NVIDIA est devant c'est parce que c'est son seul marché où il pouvais croitre vraiment. Intel se focus comme un con sur le CPU, Apple sur les devices, Google sur les services, et au bout du compte AMD n'est pas si largué que ça (au moins pour l'entrainement).
 
Alors je sais pas si on peux dire qu'ils ne mérite pas leur valorisation. Par contre l'explosion de la valo de NVIDIA c'est quand même du à la hype d'IA. Ca ferait presque penser à la bulle internet FR du début 2000. :o


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°72303338
r06
Posté le 29-01-2025 à 17:23:05  profilanswer
 

MEI a écrit :


Mouai...  En réalité aujourd'hui on est ASML limited pour l'IA. Parce que dans le fond, le pb c'est pas d'avoir NVIDIA (ou autres) qui fait de meilleur GPU, ni même au delà de ça TSMC qui peut produire plus de puces via de nouvelles usines. Le pb c'est qu'ASML quoiqu'il arrive, même si demain un état (genre USA) lançait un chantier pour faire 10 usines ASAP, avec tout le pognon qu'il faut, ASML n'arriverais pas à fournir la demande.

 

Du coup, en réalité, ouai NVIDIA fait de beau GPU. Et ils ont les couilles de faire des puces géantes. Mais dans le fond, c'est pas vraiment grâce à eux qu'on a l'IA. Parce qu'AMD, Intel, Google, Apple, les équipes compétentes pour faire des accélérateurs d'IA on en a plein. Si NVIDIA est devant c'est parce que c'est son seul marché où il pouvais croitre vraiment. Intel se focus comme un con sur le CPU, Apple sur les devices, Google sur les services, et au bout du compte AMD n'est pas si largué que ça (au moins pour l'entrainement).

 

Alors je sais pas si on peux dire qu'ils ne mérite pas leur valorisation. Par contre l'explosion de la valo de NVIDIA c'est quand même du à la hype d'IA. Ca ferait presque penser à la bulle internet FR du début 2000. :o

 


Les mecs sont devenus milliardaires par hasard juste parce qu'ils avaient que la ou aller, c'est dommage pour les autres quand même....:o

Message cité 2 fois
Message édité par r06 le 29-01-2025 à 17:23:19
mood
Publicité
Posté le 29-01-2025 à 17:23:05  profilanswer
 

n°72303387
MEI
|DarthPingoo(tm)|
Posté le 29-01-2025 à 17:28:55  profilanswer
 

r06 a écrit :


 
 
Les mecs sont devenus milliardaires par hasard juste parce qu'ils avaient que la ou aller, c'est dommage pour les autres quand même....:o


 
Bah concrètement, c'est un peu ça de proche en proche. Les mecs faisaient des "3D accelerator" jusqu'au jour où ils ont inventé le terme "GPU". Bon bah à partir du moment où tu boudes un peu les consoles, ton marcher PC reste assez restreint.
Après ils ont décelé les besoins en calcul scientifique et ont lancé le concept de "GPGPU" et certes BEAUCOUP d'effort software avec CUDA & tout ce qu'il faut.
Et oui après de vouloir accéleré le Deep Learning c'était p'tet la donne idée. M'enfin ça date d'il y a ~10 ans quand même... :o
 
Et au bout du compte, c'est la hype du produit "ChatGPT" qui a mis en lumière les LLM et l'IA (qui est devenu un terme générique foure tout depuis) qui les as mis en lumière. Mais au bout du compte, ça fait depuis ~15 ans qu'on a du HW qui permet de train des LLM. Plus ou moins efficacement certes... :o


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°72303397
Youmoussa
Ecrou-vis
Posté le 29-01-2025 à 17:30:22  profilanswer
 

hadado a écrit :


Justement c'est toi qui comprend pas la tech. Les LLM et modèle génératif sont les seul avec des coût de training délirant. Les modèles de traitement d'image utilisé en radiologie sont bien moins gourmands. Ca fait très longtemps que le coût des gpu n'est plus un gros driver business dans genre d'applications. Les données tu peux les avoir en masse ça coûte quand même cher a traité, mettre en forme, annoté etc.... même si la simu changera sûrement les choses dans le futur.
 
Je suis admiratif techniquement de ce que fait deepseek le seul truc qui m'étonne c'est que le gens soient si étonné. C'est une évolution logique de la technologie que la commodisation des modèles quand les données sont ouvertes. C'est pas un sport de masse mais c'est pas de la fission nucléaire non plus.


 
Mon projet de fin d’études en 2001 était sur de l’imagerie médicale. Quand je vois les différents progrès réalisés, je suis peut être à côté de la plaque, mais je n’ai pas l’impression que le coût soit le problème #1.
 
Je me trompe peut être, mais j’imagine que vu le type de données et les clients que tu avais, vous n’envoyiez pas tout en Inde pour avoir le boulot fait à 3x moins cher qu’en France  :o


---------------
L'humain est celui « qui agit puis qui pense : ce n’est pas parce qu’il soutient telle position qu’il agit de telle manière, mais parce qu’il a agi (comme il a été amené à le faire) qu’il va adopter telle position
n°72303403
r06
Posté le 29-01-2025 à 17:31:43  profilanswer
 

MEI a écrit :


 
Bah concrètement, c'est un peu ça de proche en proche. Les mecs faisaient des "3D accelerator" jusqu'au jour où ils ont inventé le terme "GPU". Bon bah à partir du moment où tu boudes un peu les consoles, ton marcher PC reste assez restreint.
Après ils ont décelé les besoins en calcul scientifique et ont lancé le concept de "GPGPU" et certes BEAUCOUP d'effort software avec CUDA & tout ce qu'il faut.
Et oui après de vouloir accéleré le Deep Learning c'était p'tet la donne idée. M'enfin ça date d'il y a ~10 ans quand même... :o
 
Et au bout du compte, c'est la hype du produit "ChatGPT" qui a mis en lumière les LLM et l'IA (qui est devenu un terme générique foure tout depuis) qui les as mis en lumière. Mais au bout du compte, ça fait depuis ~15 ans qu'on a du HW qui permet de train des LLM. Plus ou moins efficacement certes... :o


 
 
J'arrive pas à comprendre ce que tu essaies de dire... :lol:  
En gros ils sont arrivés la par hasard bon ok peut être un peu :o ensuite malgres le fait que c'est devenu à la mode et que tout le monde essaie d'en faire ils restent leader, à nouveau surement de la chance...:o

n°72303405
hadado
Posté le 29-01-2025 à 17:31:54  profilanswer
 

Youmoussa a écrit :


 
This.
 
Après c’est pareil, si les coûts diminuent, le marché augmente et ça peut mécaniquement augmenter les revenus de NVidia, même si le prix du GPU baisse.


Bien sur que si. Maintenant on peut porter un LLM en edge, très bien, qui fais la carte tu crois ? nvidia. Dans 3ans il y aura pas un drone qui vol sans Jetson.
 
Ton pc qui a chipset graphique intel ba le prochain tu voudras un qui fasse tourner en local un llm de deepseek pour la prise de note de manière sécurisée, il sera fait pas qui ce chipset? NVIDIA....
 
En fait vous voyez l'IA uniquement sur le point de vue training ...  

n°72303407
oh_damned
Posté le 29-01-2025 à 17:31:59  profilanswer
 

Qui ici achètera un Tesla Optimus quand ça sera dispo à la vente ?


---------------
“Everyone has a plan: until they get punched in the face.” – Mike Tyson
n°72303419
hadado
Posté le 29-01-2025 à 17:33:10  profilanswer
 

MEI a écrit :


Mouai...  En réalité aujourd'hui on est ASML limited pour l'IA. Parce que dans le fond, le pb c'est pas d'avoir NVIDIA (ou autres) qui fait de meilleur GPU, ni même au delà de ça TSMC qui peut produire plus de puces via de nouvelles usines. Le pb c'est qu'ASML quoiqu'il arrive, même si demain un état (genre USA) lançait un chantier pour faire 10 usines ASAP, avec tout le pognon qu'il faut, ASML n'arriverais pas à fournir la demande.
 
Du coup, en réalité, ouai NVIDIA fait de beau GPU. Et ils ont les couilles de faire des puces géantes. Mais dans le fond, c'est pas vraiment grâce à eux qu'on a l'IA. Parce qu'AMD, Intel, Google, Apple, les équipes compétentes pour faire des accélérateurs d'IA on en a plein. Si NVIDIA est devant c'est parce que c'est son seul marché où il pouvais croitre vraiment. Intel se focus comme un con sur le CPU, Apple sur les devices, Google sur les services, et au bout du compte AMD n'est pas si largué que ça (au moins pour l'entrainement).
 
Alors je sais pas si on peux dire qu'ils ne mérite pas leur valorisation. Par contre l'explosion de la valo de NVIDIA c'est quand même du à la hype d'IA. Ca ferait presque penser à la bulle internet FR du début 2000. :o


Relis ce que j'ai écrit. C'est pas me GPU la différenciation de Nvidia. C'est le middleware par dessus.  Aujourd'hui l'IA global est vendorlock sur le soft NVIDIA

n°72303422
Youmoussa
Ecrou-vis
Posté le 29-01-2025 à 17:33:44  profilanswer
 

KaiserCz a écrit :


 [:so-saugrenu23:9]  
 
même si les ricains ont leurs puritanisme à la con, je crois que je préfère encore les LLM ricains quand même :o


 
L’algo est open source et est indépendant des données utilisées pour l’entraînement ou mise à dispo pour la démo.
 
Là où je rejoins Hadado, c’est sur le changement de qui seront les grosses boites dans 10 ans. Pas sûr que ce soit Meta ou OpenAi  :o


---------------
L'humain est celui « qui agit puis qui pense : ce n’est pas parce qu’il soutient telle position qu’il agit de telle manière, mais parce qu’il a agi (comme il a été amené à le faire) qu’il va adopter telle position
n°72303454
Youmoussa
Ecrou-vis
Posté le 29-01-2025 à 17:37:05  profilanswer
 

r06 a écrit :


 
 
Les mecs sont devenus milliardaires par hasard juste parce qu'ils avaient que la ou aller, c'est dommage pour les autres quand même....:o


 
Ils faisaient des jeux pour les applis vidéos et type CAD.
 
Je ne suis pas sûr qu’il ait prédit longtemps en avance que quelqu’un y verrait un intérêt pour miner des bitcoins ou faire de l’IA. L’œuf ou la poule  :o  
 
La lettre G dans GPU est là pour le rappeler  :o


---------------
L'humain est celui « qui agit puis qui pense : ce n’est pas parce qu’il soutient telle position qu’il agit de telle manière, mais parce qu’il a agi (comme il a été amené à le faire) qu’il va adopter telle position
n°72303463
oh_damned
Posté le 29-01-2025 à 17:38:18  profilanswer
 

Youmoussa a écrit :


 
L’algo est open source et est indépendant des données utilisées pour l’entraînement ou mise à dispo pour la démo.
 
Là où je rejoins Hadado, c’est sur le changement de qui seront les grosses boites dans 10 ans. Pas sûr que ce soit Meta ou OpenAi  :o


 
 
Tesla number 1 dans 10 ans  
200 000 Milliards de valo :o
 


---------------
“Everyone has a plan: until they get punched in the face.” – Mike Tyson
n°72303486
Youmoussa
Ecrou-vis
Posté le 29-01-2025 à 17:42:36  profilanswer
 

hadado a écrit :


Bien sur que si. Maintenant on peut porter un LLM en edge, très bien, qui fais la carte tu crois ? nvidia. Dans 3ans il y aura pas un drone qui vol sans Jetson.
 
Ton pc qui a chipset graphique intel ba le prochain tu voudras un qui fasse tourner en local un llm de deepseek pour la prise de note de manière sécurisée, il sera fait pas qui ce chipset? NVIDIA....
 
En fait vous voyez l'IA uniquement sur le point de vue training ...  


 
L’histoire regorge de nouveaux entrants qui délogent « l’incumbent ».
 
Je me garderais bien de dire que NVidia restera pendant très longtemps la référence sur tout, même si leur monopole va permettre de faire durer tout ça.


---------------
L'humain est celui « qui agit puis qui pense : ce n’est pas parce qu’il soutient telle position qu’il agit de telle manière, mais parce qu’il a agi (comme il a été amené à le faire) qu’il va adopter telle position
n°72303491
Youmoussa
Ecrou-vis
Posté le 29-01-2025 à 17:43:21  profilanswer
 

oh_damned a écrit :

Qui ici achètera un Tesla Optimus quand ça sera dispo à la vente ?


 
Ça dépend s’il me rapporte le café le matin en faisant un salut romain.


---------------
L'humain est celui « qui agit puis qui pense : ce n’est pas parce qu’il soutient telle position qu’il agit de telle manière, mais parce qu’il a agi (comme il a été amené à le faire) qu’il va adopter telle position
n°72303494
MEI
|DarthPingoo(tm)|
Posté le 29-01-2025 à 17:43:57  profilanswer
 

hadado a écrit :


Bien sur que si. Maintenant on peut porter un LLM en edge, très bien, qui fais la carte tu crois ? nvidia. Dans 3ans il y aura pas un drone qui vol sans Jetson.
 
Ton pc qui a chipset graphique intel ba le prochain tu voudras un qui fasse tourner en local un llm de deepseek pour la prise de note de manière sécurisée, il sera fait pas qui ce chipset? NVIDIA....
 
En fait vous voyez l'IA uniquement sur le point de vue training ...  


 
En exécution locale, jamais de la vie NVIDIA va être le seul.
Tout fabricant de SoC a des puces qui font le job, et si le besoin augmente, c'est carrément pas un soucis d'augmenter les perfs d'execution IA, quitte à dimiunuer les coeurs CPU/GPU (et encore).
J'aurai même tendance à dire que l'enjeu c'est pas d'avoir assez de perfs, mais plutôt une très bonne efficience pour que ce soit possible en mobilité sans revenir plusieurs années en arrière en autonomie.
 


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°72303503
hadado
Posté le 29-01-2025 à 17:45:18  profilanswer
 

Youmoussa a écrit :


 
L’histoire regorge de nouveaux entrants qui délogent « l’incumbent ».
 
Je me garderais bien de dire que NVidia restera pendant très longtemps la référence sur tout, même si leur monopole va permettre de faire durer tout ça.


Ca oui en effet. Tu peux avoir le nouveau entrant qui casse le truc. Ou le CEO qui part et une nouveau CEO qui n'a plus la vision. On peut imaginer aussi une lois anti-trust. Évidemment personne n'est à l'abri de changement.

n°72303528
hadado
Posté le 29-01-2025 à 17:47:56  profilanswer
 

MEI a écrit :

 

En exécution locale, jamais de la vie NVIDIA va être le seul.
Tout fabricant de SoC a des puces qui font le job, et si le besoin augmente, c'est carrément pas un soucis d'augmenter les perfs d'execution IA, quitte à dimiunuer les coeurs CPU/GPU (et encore).
J'aurai même tendance à dire que l'enjeu c'est pas d'avoir assez de perfs, mais plutôt une très bonne efficience pour que ce soit possible en mobilité sans revenir plusieurs années en arrière en autonomie.

 



J'ai bossé sur l'embarqué et justement Nvidia est entrain de peter le truc. Parceque avant il fallait un ingé micro-électronique pour porter ton IA sur SOC, maintenant grâce à leurs outils, un ingé 2ans d'xp et du python tu fais tourner de L'IA sur 5w :o Tous les projets embarqué que j'ai vue récent sont entrain de passer sur Jetson.

Message cité 1 fois
Message édité par hadado le 29-01-2025 à 17:59:31
n°72303530
feu d'arti​fice
Posté le 29-01-2025 à 17:48:21  profilanswer
 

Filob a écrit :


 
Clairement je pourrais pas passer l’aspi a 3h du mat et ça n’à rien à voir avec la qualité de l’isolation:
1: je ne vis pas seule en fait
2: j'ai franchement autre chose à faire à cette heure là :o


 
Je parlais bien dans le contexte : après le repas et la soirée entre amis chez soi, ou les amis s'en vont vers 3h du matin, je suppose que le/la conjoint(e) ne va pas se coucher avant le départ des invités tout de même  :D  et que donc on est pas encore couchés, ils viennent de partir, c'est le meilleur moment pour faire le ménage de suite tranquille, de toute façon je ne peux pas me coucher maison sale.
 
Exemple : Réveillon du Nouvel An, un des groupes d'amis donc nous étions 14 à table, 8 adultes et 6 enfants, ils sont partis entre 4 et 4h30 du matin, j'ai pu faire tout mon ménage direct derrière, car lors des grosses soirées comme ça je laisse les gens entrer en chaussures, donc je ne peux pas ne pas laver de suite derrière, je ne vais pas remettre mes chaussures en sortant du lit pour aller aux wc... et je ne vais pas marcher en chaussettes ou pieds nus ou en chaussons d'intérieur sur le même sol ou les gens ont marchés en chaussures, c'est pas hygiénique du tout. J'ai pu faire tout mon ménage, prendre une douche et me coucher à 6h du matin tranquille pour pouvoir me lever à 13h le 1er janvier dans une maison parfaitement propre, pépouze. N'étant pas du matin et étant pleine bourre la nuit avec plein d'énergie, c'est l'idéal pour moi. Impossible à faire en appartement

n°72303538
MEI
|DarthPingoo(tm)|
Posté le 29-01-2025 à 17:49:20  profilanswer
 

Youmoussa a écrit :


 
L’histoire regorge de nouveaux entrants qui délogent « l’incumbent ».
 
Je me garderais bien de dire que NVidia restera pendant très longtemps la référence sur tout, même si leur monopole va permettre de faire durer tout ça.


 
Faut voir qu'ils sont à un stade de grosse tête où Jensen dit que le prix n'est plus un pb, et que même si le concurrent était gratuit, les clients iraient chez eux. :o
Il croit tellement fort en l'écosystème de NVIDIA que pour lui il n'y a plus de concurrence.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°72303569
Cassavetes​_J
Posté le 29-01-2025 à 17:53:13  profilanswer
 

:hello:  
 
Selon vous : est-ce que le cas Deepseek, développé en peu de temps avec peu de moyen, peut être une lueur d'espoir pour voir émerger un équivalent Européen ?

n°72303584
foudres
Posté le 29-01-2025 à 17:56:03  profilanswer
 

gimly the knight a écrit :


 
Je sais franchement pas dans quel monde tu rencontres une nana un samedi soir, tu fricottes, et avant de passer au lit tu t'enquiers si elle est célib ou pas franchement...
 
Enfin, c'est peut être le cas de nos jours au moment de remplir le formulaire de consentement, mais alors, le monde n'a pas changé qu'en bien :o


 
Tout le monde ne vie pas sa vie de la même façon.  
 
Si je cherche un peu, je trouve que les gens ont en moyenne eu 5-10 partenaire dans leur vie et que de l'ordre de 20% à la louche on eu au moins 1 coup d'une soir dans l'année. De façon notable, les jeunes ont aussi moins de relations sexuelles que les générations précédente au même age.
 
Du coup je pense donc que ça varie beaucoup d'une personne à l'autre, mais si tu fricotte le samedi soir pour un coup d'un soir, je pense que tu va pas conclure avec n'importe qui non plus. Tu va surtour avoir des gens qui cherchent un coup d'un soir, des célibataires en quête d'une relation ou des gens qui avaient l'intention de tromper leur partenaire.
 
Tous ceux qui ne veulent pas tromper leur partenaire ou tout simplement sont pas trop intéréssé par la chose, bah ils s'auto éliminent.

n°72303587
hyca
Vraie personne certifiée
Posté le 29-01-2025 à 17:56:26  profilanswer
 

Cassavetes_J a écrit :

:hello:  
 
Selon vous : est-ce que le cas Deepseek, développé en peu de temps avec peu de moyen, peut être une lueur d'espoir pour voir émerger un équivalent Européen ?


 
mauvais topic?

n°72303592
MEI
|DarthPingoo(tm)|
Posté le 29-01-2025 à 17:57:41  profilanswer
 

hadado a écrit :


J'ai bossé sur l'embarqué et justement Nvidia est entrain de peter de le teuc. Parceque avant il fallait un ingé micro-électronique pour porter ton IA sur SOC, maintenant grâce à leurs outils m, un ingé 2ans d'xp et du python tu fais tourner de L'IA sur 5w :o Tous les projets embarqués que j'ai vue récent sont entrain de passer sur Jetson.


Non mais la finalité, c'est quand même de délivrer de l'IA dans la maison.
Donc l'écosystème laptop/smartphone/watch/TV hein... Et là c'est essentiellement du iOS/Android avec du SoC ARM. Et ô miracle ces OS (et Windows) ont des couches d'abstractions qui vont bien... :o
 
Ce n'est pas parce que NVIDIA a porté PyTorch sur CUDA que ce sont les rois du monde non plus. ;)


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°72303597
Cassavetes​_J
Posté le 29-01-2025 à 17:58:02  profilanswer
 

hyca a écrit :


 
mauvais topic?


 
C'est pas comme s'il n'y avait pas une "légère" digression sur le sujet depuis quelques pages.....

n°72303606
Youmoussa
Ecrou-vis
Posté le 29-01-2025 à 17:59:10  profilanswer
 

MEI a écrit :


Non mais la finalité, c'est quand même de délivrer de l'IA dans la maison.
Donc l'écosystème laptop/smartphone/watch/TV hein... Et là c'est essentiellement du iOS/Android avec du SoC ARM. Et ô miracle ces OS (et Windows) ont des couches d'abstractions qui vont bien... :o
 
Ce n'est pas parce que NVIDIA a porté PyTorch sur CUDA que ce sont les rois du monde non plus. ;)


 
Pourquoi cela serait la finalité  :??:


---------------
L'humain est celui « qui agit puis qui pense : ce n’est pas parce qu’il soutient telle position qu’il agit de telle manière, mais parce qu’il a agi (comme il a été amené à le faire) qu’il va adopter telle position
n°72303611
KaiserCz
bros before hoes
Posté le 29-01-2025 à 17:59:42  profilanswer
 

Youmoussa a écrit :


 
L’algo est open source et est indépendant des données utilisées pour l’entraînement ou mise à dispo pour la démo.
 
Là où je rejoins Hadado, c’est sur le changement de qui seront les grosses boites dans 10 ans. Pas sûr que ce soit Meta ou OpenAi  :o


ah non mais loin de moi l'idée d'affirmer quoi que ça soit, moi j'ai juste fait le con avec les divers LLM pour le fun pas plus pas moins [:cosmoschtroumpf]  
 
et donc je trollais juste gentiment :D
 

n°72303619
gimly the ​knight
Posté le 29-01-2025 à 18:01:07  profilanswer
 

feu d'artifice a écrit :


 
Je parlais bien dans le contexte : après le repas et la soirée entre amis chez soi, ou les amis s'en vont vers 3h du matin, je suppose que le/la conjoint(e) ne va pas se coucher avant le départ des invités tout de même  :D  et que donc on est pas encore couchés, ils viennent de partir, c'est le meilleur moment pour faire le ménage de suite tranquille, de toute façon je ne peux pas me coucher maison sale.
 
Exemple : Réveillon du Nouvel An, un des groupes d'amis donc nous étions 14 à table, 8 adultes et 6 enfants, ils sont partis entre 4 et 4h30 du matin, j'ai pu faire tout mon ménage direct derrière, car lors des grosses soirées comme ça je laisse les gens entrer en chaussures, donc je ne peux pas ne pas laver de suite derrière, je ne vais pas remettre mes chaussures en sortant du lit pour aller aux wc... et je ne vais pas marcher en chaussettes ou pieds nus ou en chaussons d'intérieur sur le même sol ou les gens ont marchés en chaussures, c'est pas hygiénique du tout. J'ai pu faire tout mon ménage, prendre une douche et me coucher à 6h du matin tranquille pour pouvoir me lever à 13h le 1er janvier dans une maison parfaitement propre, pépouze. N'étant pas du matin et étant pleine bourre la nuit avec plein d'énergie, c'est l'idéal pour moi. Impossible à faire en appartement


 
C’est quand même fou ça.

n°72303623
philibear
Orbital Bacon
Posté le 29-01-2025 à 18:02:04  profilanswer
 

mais chut :o


---------------
Mon topok ACH/VENTE: http://forum.hardware.fr/forum2.ph [...] ost=572744
n°72303628
oh_damned
Posté le 29-01-2025 à 18:02:33  profilanswer
 

Cassavetes_J a écrit :

:hello:  
 
Selon vous : est-ce que le cas Deepseek, développé en peu de temps avec peu de moyen, peut être une lueur d'espoir pour voir émerger un équivalent Européen ?


 
C'est beau qu'il y ait encore des gens pour avoir de l'espoir pour l'Europe.
Presque la larme à l'oeil devant tant d'optimisme.


---------------
“Everyone has a plan: until they get punched in the face.” – Mike Tyson
n°72303631
MEI
|DarthPingoo(tm)|
Posté le 29-01-2025 à 18:02:57  profilanswer
 

Youmoussa a écrit :


 
Pourquoi cela serait la finalité  :??:


Bah c'est un peu la base pour un assistant conversationnel qui se veut un peu la version +++ des Siri & co. ;)


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°72303635
foudres
Posté le 29-01-2025 à 18:03:22  profilanswer
 

Geekette lachieuze a écrit :


Si le mec s'en tape pourquoi un tiers qui n'a rien à voir avec le couple devrait s'en soucier. J'arrive pas à comprendre la logique.


 
A dans au boulot, j'ai un statut de "manager" dans ma boite, donc c'est clairement écrit que si je tente quoi que ce soit avec un subalterne, c'est licenciement. Même si c'est un coup d'un soir du samedi soir ou qu'on s'adore.

n°72303640
feu d'arti​fice
Posté le 29-01-2025 à 18:04:07  profilanswer
 

gimly the knight a écrit :


 
C’est quand même fou ça.


 
Ben ça salit, germes, microbes, bactéries du dehors donc potentiellement des micros parties d'excréments, de pisse etc... donc derrière il faut tout nettoyer.
 

n°72303667
oh_damned
Posté le 29-01-2025 à 18:11:07  profilanswer
 

feu d'artifice a écrit :


 
Ben ça salit, germes, microbes, bactéries du dehors donc potentiellement des micros parties d'excréments, de pisse etc... donc derrière il faut tout nettoyer.
 


 
 
Et donc si tu attends le lendemain matin ta maison aura été dissoute dans l'intervalle dans les micros-résidus de saleté ?
 
Tu serais pas un peu, mais alors juste un peu, une maniaque de la propreté ?


---------------
“Everyone has a plan: until they get punched in the face.” – Mike Tyson
n°72303708
EvilTyler
ex-Consultant Hippie
Posté le 29-01-2025 à 18:18:42  profilanswer
 

feu d'artifice a écrit :


 
Ben ça salit, germes, microbes, bactéries du dehors donc potentiellement des micros parties d'excréments, de pisse etc... donc derrière il faut tout nettoyer.
 


 
 [:hclinton]


---------------
More GG, more skill
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  29000  29001  29002  ..  30280  30281  30282  30283  30284  30285

Aller à :
Ajouter une réponse
 

Sujets relatifs
l'ail en consommer combien?Combien ca coute de se faire faire une radiographie du crane ?
Comment faire partir qqun qui squatte depuis 6 mois ?[bricolage/deco] combien coute un "cadre" comme ca?
Ca prend combien de temps d'entrainement pour avoir l'air de Arnold ?Aux Etats-Unis pendant 2 mois quand on parle mal anglais?
A votre avis combien coute un hélicoptere ?combien sa coute un phare d opel kadett a peu pres ?
L'ex-PDG de pere-noel.fr condamné à 30 mois de prison fermeRabaisser sa voiture de combien ?
Plus de sujets relatifs à : Combien faut il par mois pour vivre convenablement?


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)