Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3594 connectés 

 

 

Avez-vous basculé sur ChatGPT Plus ?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  46  47  48  ..  256  257  258  259  260  261
Auteur Sujet :

[Topic unique] IA générative de texte, ChatGPT, Copilot, Gemini & co

n°69309292
XaTriX
Posté le 01-10-2023 à 14:47:31  profilanswer
 

Reprise du message précédent :
Bon parfois c'est pas la joie le advanced python :o
https://i.imgur.com/vWb0n6F.png


---------------
Proxytaf ? porn, xxx, hentai, camgirl, onlyfans, torrent, warez, crack, keygen, serials, darknet, tor, vpn, proxy, hacktool, metasploit, sql injection, password list, brute force, cp, gore, deepweb
mood
Publicité
Posté le 01-10-2023 à 14:47:31  profilanswer
 

n°69315872
fils_de_la​_lumiere
Posté le 02-10-2023 à 17:38:16  profilanswer
 

Si on supprime totalement la latence‚ que l'on ajoute la possibilité de couper le chatbot ou la personne de façon naturelle pendant qu'il parle et que l'on augmente le nombre de tokens mémorisés à 100 000‚ on est dans HER [:kirk_lee_hammett:10]

 

https://youtu.be/JYiRIVvf4yg?si=LerXEkhcKoQ-32-D

Message cité 1 fois
Message édité par fils_de_la_lumiere le 02-10-2023 à 17:43:37

---------------
"Pour chaque problème complexe, il existe une solution simple, directe et fausse" Henri Louis Mencken
n°69316133
gusano
Posté le 02-10-2023 à 18:20:25  profilanswer
 

fils_de_la_lumiere a écrit :

Si on supprime totalement la latence‚ que l'on ajoute la possibilité de couper le chatbot ou la personne de façon naturelle pendant qu'il parle et que l'on augmente le nombre de tokens mémorisés à 100 000‚ on est dans HER [:kirk_lee_hammett:10]

 

https://youtu.be/JYiRIVvf4yg?si=LerXEkhcKoQ-32-D


Ça fonctionne en français :love:
J'avais raté ça :love:
Je viens de tester, c'est excellent :love:

Message cité 2 fois
Message édité par gusano le 02-10-2023 à 18:21:18
n°69316458
fils_de_la​_lumiere
Posté le 02-10-2023 à 19:15:36  profilanswer
 

gusano a écrit :


Ça fonctionne en français :love:
J'avais raté ça :love:
Je viens de tester, c'est excellent :love:


Quoi ??!! C'est censé être encore en déploiement. Probablement un coup de chance ! Ça pourrait me motiver à réactiver mon compte ChatGPT+

 

Y a-t-il toujours cette fichue limitation en nombre de messages par heure avec GPT 4 ?

 

https://www.youtube.com/watch?v=e0KvdMvJwQY

 

Bon sang cette synthèse vocale  [:apges:5]

 

Bon dans la démo y'a un drôle d'accent mais c'est sacrément impressionnant !

Message cité 1 fois
Message édité par fils_de_la_lumiere le 02-10-2023 à 19:17:34

---------------
"Pour chaque problème complexe, il existe une solution simple, directe et fausse" Henri Louis Mencken
n°69316509
Coroners
les insoumis emmerdent le FN
Posté le 02-10-2023 à 19:21:28  profilanswer
 

allé on y va là ! [:dr_doak]  
 
qu'on voit ça avant la fin du monde [:dr_doak]

n°69316538
gusano
Posté le 02-10-2023 à 19:24:43  profilanswer
 

fils_de_la_lumiere a écrit :


Quoi ??!! C'est censé être encore en déploiement. Probablement un coup de chance ! Ça pourrait me motiver à réactiver mon compte ChatGPT+

 

Y a-t-il toujours cette fichue limitation en nombre de messages par heure avec GPT 4 ?

 

https://www.youtube.com/watch?v=e0KvdMvJwQY

 

Bon sang cette synthèse vocale  [:apges:5]

 

Bon dans la démo y'a un drôle d'accent mais c'est sacrément impressionnant !


50 messages par tranche de 3 heures.

 

Le speech to speech ne semble pas décompté. Ca fonctionne avec l'appli sur mobile ; j'ai discuté pendant un quart d'heure, c'est à la fois fascinant et très dérangeant. J'anthropomorphise l'IA 10.000 fois plus qu'avec l'interface clavier/écran.

 

Ce n'est évidemment pas le même usage, mais une nouvelle étape est franchie.

 

EDIT : Par ailleurs, clairement, le bot conversationnel est programmé différemment en speech to speech, afin de tenir une conversation plutôt que juste apporter une réponse. Il finit de nombreux messages vocaux (la plupart ?) par une autre question ou une invitation à approfondir le sujet en cours, etc.

Message cité 1 fois
Message édité par gusano le 02-10-2023 à 19:32:35
n°69316620
fils_de_la​_lumiere
Posté le 02-10-2023 à 19:37:55  profilanswer
 

Je pense que les prochaines étapes sont :

 

- La fin échanges talkies-walkies (je parle, tu réponds, je parle, tu réponds etc)
- Du rire, des chants, de la tristesse, bref, tout le spectre des émotions pour rajouter encore plus de diablerie  :lol:
- Des onomatopées du style "hum hum" PENDANT que l'on parle pour expliquer un truc


Message édité par fils_de_la_lumiere le 02-10-2023 à 19:44:57

---------------
"Pour chaque problème complexe, il existe une solution simple, directe et fausse" Henri Louis Mencken
n°69316627
fils_de_la​_lumiere
Posté le 02-10-2023 à 19:39:03  profilanswer
 

gusano a écrit :


50 messages par tranche de 3 heures.
 
Le speech to speech ne semble pas décompté. Ca fonctionne avec l'appli sur mobile ; j'ai discuté pendant un quart d'heure, c'est à la fois fascinant et très dérangeant. J'anthropomorphise l'IA 10.000 fois plus qu'avec l'interface clavier/écran.
 
Ce n'est évidemment pas le même usage, mais une nouvelle étape est franchie.
 
EDIT : Par ailleurs, clairement, le bot conversationnel est programmé différemment en speech to speech, afin de tenir une conversation plutôt que juste apporter une réponse. Il finit de nombreux messages vocaux (la plupart ?) par une autre question ou une invitation à approfondir le sujet en cours, etc.


Après réflexion je me dis que ça utilise peut-être GPT 3.5 vu le délai très court nécessaire pour générer la réponse non ?


---------------
"Pour chaque problème complexe, il existe une solution simple, directe et fausse" Henri Louis Mencken
n°69318822
LibreArbit​re
La /root est longue
Posté le 02-10-2023 à 23:39:18  profilanswer
 

Tristesse, j'ai pas encore l'option sur mon iPhone 13 :/


---------------
Hebergement d'images
n°69319246
gusano
Posté le 03-10-2023 à 08:04:19  profilanswer
 

fils_de_la_lumiere a écrit :


Après réflexion je me dis que ça utilise peut-être GPT 3.5 vu le délai très court nécessaire pour générer la réponse non ?


Quand je lui pose la question, il me répond GPT4.


Message édité par gusano le 03-10-2023 à 12:17:00
mood
Publicité
Posté le 03-10-2023 à 08:04:19  profilanswer
 

n°69319256
gusano
Posté le 03-10-2023 à 08:07:15  profilanswer
 

LibreArbitre a écrit :

Tristesse, j'ai pas encore l'option sur mon iPhone 13 :/


Pour ceux qui ont l'appli Android et ChatPT Plus :
 
Menu>Settings>Beta Features>Voice conversations

n°69320914
morcok
Posté le 03-10-2023 à 12:03:46  profilanswer
 

LibreArbitre a écrit :


Le problème des générateurs open source performants (type LLaMA-13B, Alpaca-13B, Vicuna-13B) c'est qu'ils imposent des GPU avec entre 24 et 76 Go de VRAM (1-2 3090/4090, RTX A5000, Nvidia A100, etc.) pour générer des réponses à peu près aussi qualitatives que les solutions propriétaires... Du coup si tu veux pouvoir les exécuter localement il va te falloir dépenser des milliers d'euros... Bien entendu tu peux exécuter des modèles moins performants (à base de 7 milliards de paramètres ou 4 bits quantization) mais cela s'apparentera plus à du GPT-2 donc sans aucune commune mesure avec les modèles récents...
 
Note aussi que ces modèles n'ont pas été aussi bien entraîné avec du contenu autre qu l'anglais (ou à minima) ce qui limite encore leur diffusion...


 
les 13B passent sur ma 12Go avec un peu de décharge sur la ram, mais ça marche très bien.
Pour une carte 24Go c'est 200€ environ, le truc casse couille c'est de la refroidir.
Pour ce qui est du francais, les autres modèles sont aussi entrainés sur d'autres langues, les datasets sont plus diverses que ça tout de même.
 
Mais bon s'interesser et tester c'est pas obligatoirement avoir un résultat identique. Je pensais que sur un forum qui avait une place pour la bidouille, je trouverais des bidouilleurs de ça, mais non, dommage. Perso j'avoue être court face aux modèles de chat, mais c'est pareil pour chatgpt 3.5 qui est super limité et part souvent en halu.
 

kaloskagatos a écrit :


 
Moi c'est clairement mon but d'avoir une chaîne totalement fonctionnelle en local dans ma boîte, soit en achetant des cartes dédiées, ou a minima en payant des VPS avec GPU administrés par ma boîte. En attendant je me fais la main avec l'API d'OpenAI parce que bon, les résultats sont quand même bien meilleurs pour le moment. On peut tester plusieurs modèles Lama ici https://labs.perplexity.ai/ (le modèle PPLX-70B-Chat est vraiment pas mal) et là une démo de Falcon 180B (à peu près équivalent de GPT 3.5) mais qui a l'air plutôt down actuellement https://huggingface.co/spaces/tiiuae/falcon-180b-demo


Tu veux faire un LoRa custo?
 
 

n°69321263
ionik
Posté le 03-10-2023 à 12:56:11  profilanswer
 

morcok a écrit :

 

les 13B passent sur ma 12Go avec un peu de décharge sur la ram, mais ça marche très bien.
Pour une carte 24Go c'est 200€ environ, le truc casse couille c'est de la refroidir.
Pour ce qui est du francais, les autres modèles sont aussi entrainés sur d'autres langues, les datasets sont plus diverses que ça tout de même.

 

Mais bon s'interesser et tester c'est pas obligatoirement avoir un résultat identique. Je pensais que sur un forum qui avait une place pour la bidouille, je trouverais des bidouilleurs de ça, mais non, dommage. Perso j'avoue être court face aux modèles de chat, mais c'est pareil pour chatgpt 3.5 qui est super limité et part souvent en halu.

 


 

Tu penses a quelle carte pour 24go a 200 euros ?
Pour quelle performance par rapport à une récente ?


---------------
Recette cookeo | Recette de cuisine | Extension chrome HFR
n°69321367
LibreArbit​re
La /root est longue
Posté le 03-10-2023 à 13:16:59  profilanswer
 

morcok a écrit :

Je pensais que sur un forum qui avait une place pour la bidouille, je trouverais des bidouilleurs de ça, mais non, dommage.


Pour dire ça tu dois être quelqu'un qui n'a qu'une seule passion à la fois pour être aussi réducteur... Pour ma part je monte des PoC toutes les semaines et ça ne se limite pas à l'IA générative et c'est pas parce que je n'en parle pas sur HFR que je ne fais rien c'est juste qu'on n'a pas forcément envie ou besoin de faire des retours d'expérience... Il y a ceux qui font et ceux qui veulent faire ;)

 
ionik a écrit :

Tu penses a quelle carte pour 24go a 200 euros ?
Pour quelle performance par rapport à une récente ?


Je pense qu'il fait référence aux vieilles Tesla P40/P100/M10/K80...

 

Message cité 2 fois
Message édité par LibreArbitre le 03-10-2023 à 13:17:42

---------------
Hebergement d'images
n°69321536
kaloskagat​os
Posté le 03-10-2023 à 13:37:16  profilanswer
 

morcok a écrit :


Tu veux faire un LoRa custo?

 

Je ne pense pas non, c'est plutôt dans l'optique qu'aucune info confidentielle ne sorte de l'infrastructure de ma boîte. Ce serait uniquement pour faire tourner des modèles existants avec différente techniques de prompts et de bases vectorielles.

 

Dans la doc d'OpenAI ils expliquent que le fine-tuning est rarement justifié face à un bon prompt engineering, donc je préfère essayer d'autres méthodes avant de passer à ce genre de chose (pas le temps, pas l'argent).  https://platform.openai.com/docs/gu [...] ine-tuning

Message cité 1 fois
Message édité par kaloskagatos le 03-10-2023 à 13:37:36

---------------
« Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. »
n°69321604
ionik
Posté le 03-10-2023 à 13:45:29  profilanswer
 

LibreArbitre a écrit :


Je pense qu'il fait référence aux vieilles Tesla P40/P100/M10/K80...
 


 
Justement je me pose la question du meilleur rapport entre GB et prix.
Tu en penses quoi ?  (il faut un ventilateur sur la carte de préférence ^^ )
 
j'avais zieuté la 3090 mais qui est a 700+ pour 24gb, si on veut avoir plus de 40Gb sur 2 carte ça commence a vite chiffrer mais je n'ai aucune vision sur la différence de temps nécessaire pour la génération pour des anciennes cartes qui ont pas mal de mémoire.

Message cité 2 fois
Message édité par ionik le 03-10-2023 à 13:45:59

---------------
Recette cookeo | Recette de cuisine | Extension chrome HFR
n°69322471
Profil sup​primé
Posté le 03-10-2023 à 15:27:08  answer
 

J'avais testé GPT pour des conneries auparavant, là je me suis dit pourquoi pas pour une lettre de motivation (j'ai tjrs détesté ce truc de faux cul) avec quelques indications essentielles, c'est incroyable la qualité du résultat, j'ai plus qu'à ajuster / rajouter quelques trucs et c'est perfect  :lol:  
 
Heureusement que ça existait pas pendant mes études  [:sad frog:5]

n°69322495
morcok
Posté le 03-10-2023 à 15:30:08  profilanswer
 

LibreArbitre a écrit :


Pour dire ça tu dois être quelqu'un qui n'a qu'une seule passion à la fois pour être aussi réducteur... Pour ma part je monte des PoC toutes les semaines et ça ne se limite pas à l'IA générative et c'est pas parce que je n'en parle pas sur HFR que je ne fais rien c'est juste qu'on n'a pas forcément envie ou besoin de faire des retours d'expérience... Il y a ceux qui font et ceux qui veulent faire ;)
 
 
Je pense qu'il fait référence aux vieilles Tesla P40/P100/M10/K80...
 


J'ai explosé de rire en te lisant. Par contre je t'avais bien cerné en deux trois messages.  
 
Sinon je parle que des P40.
 

ionik a écrit :


 
Justement je me pose la question du meilleur rapport entre GB et prix.
Tu en penses quoi ?  (il faut un ventilateur sur la carte de préférence ^^ )
 
j'avais zieuté la 3090 mais qui est a 700+ pour 24gb, si on veut avoir plus de 40Gb sur 2 carte ça commence a vite chiffrer mais je n'ai aucune vision sur la différence de temps nécessaire pour la génération pour des anciennes cartes qui ont pas mal de mémoire.


 
Je répond même si c'est pas à moi que tu demandes : le meilleur rapport gb prix c'est les P40 sans hésiter, mais ça vient avec pas mal de soucis : une alimentation spécifique, une obligation d'avoir recours à un refroidissement DIY ou WC. Le mieux à mon sens c'est celui là https://www.thingiverse.com/thing:6038375
Enfin si tu as de la place dans la tour tu peux mettre une version sans coude. C'est toujours mieux.
 
Et surtout tu as les perfs de l'époque, par rapport à une 3090 tu vas voir la différence de vitesse je pense, je ne connais pas les chiffres pour la 3090, pour la p40 c'est de l'ordre de 14t/s sur un 13B
 
Il faut aussi voir que c'est plus compliqué pour le support qu'une 3090.  
 
C'est pas parfait et c'est du domaine de la bidouille. Mais bon, la diff de prix est là. En plus 700+ pour une 3090 c'est un peu optimiste... ;)

n°69322542
gusano
Posté le 03-10-2023 à 15:36:09  profilanswer
 


Quel dommage, plutôt ?

n°69322549
ionik
Posté le 03-10-2023 à 15:36:58  profilanswer
 

morcok a écrit :


 
Je répond même si c'est pas à moi que tu demandes : le meilleur rapport gb prix c'est les P40 sans hésiter, mais ça vient avec pas mal de soucis : une alimentation spécifique, une obligation d'avoir recours à un refroidissement DIY ou WC. Le mieux à mon sens c'est celui là https://www.thingiverse.com/thing:6038375
Enfin si tu as de la place dans la tour tu peux mettre une version sans coude. C'est toujours mieux.
 
Et surtout tu as les perfs de l'époque, par rapport à une 3090 tu vas voir la différence de vitesse je pense, je ne connais pas les chiffres pour la 3090, pour la p40 c'est de l'ordre de 14t/s sur un 13B
 
Il faut aussi voir que c'est plus compliqué pour le support qu'une 3090.  
 
C'est pas parfait et c'est du domaine de la bidouille. Mais bon, la diff de prix est là. En plus 700+ pour une 3090 c'est un peu optimiste... ;)


La question était pour toi aussi ;)
 
Donc pour toi c'est la P40 le bon compromis, tu as une version avec ventilo intégré qui est un autre bon compromis malgré tout ?


---------------
Recette cookeo | Recette de cuisine | Extension chrome HFR
n°69322637
morcok
Posté le 03-10-2023 à 15:46:28  profilanswer
 

ionik a écrit :


La question était pour toi aussi ;)
 
Donc pour toi c'est la P40 le bon compromis, tu as une version avec ventilo intégré qui est un autre bon compromis malgré tout ?


 
Il n'y a pas de version avec ventilo intégré :)
 
Pour moi la P40 est très bien si on veut avoir le meilleur rapport prix GB possible, mais il faut retrousser ses manches c'est pour ça que j'énumérais les soucis. Pour pas se prendre la tête faut prendre du gpu classique.
 
3060 12 Go, 4060 16Go (bien que les 16Go soient pas un sweet spot) etc. Et la gamme amd, mais j'ai pas de retour sur les llm avec cette marque.
 
A noter que si tu as plusieurs gpu, la vitesse sera celle du plus lent.

n°69322719
ionik
Posté le 03-10-2023 à 15:57:05  profilanswer
 

morcok a écrit :


 
Il n'y a pas de version avec ventilo intégré :)
 
Pour moi la P40 est très bien si on veut avoir le meilleur rapport prix GB possible, mais il faut retrousser ses manches c'est pour ça que j'énumérais les soucis. Pour pas se prendre la tête faut prendre du gpu classique.
 
3060 12 Go, 4060 16Go (bien que les 16Go soient pas un sweet spot) etc. Et la gamme amd, mais j'ai pas de retour sur les llm avec cette marque.
 
A noter que si tu as plusieurs gpu, la vitesse sera celle du plus lent.


La p40 n'a pas de ventilo je sais, la question c'était plutot quel est le mieux a trouvé en 24Gb avec de base un ventilateur en rapport prix/gb


---------------
Recette cookeo | Recette de cuisine | Extension chrome HFR
n°69322756
fazero
Salut c'est Ralph
Posté le 03-10-2023 à 16:01:53  profilanswer
 

kaloskagatos a écrit :


 
Je ne pense pas non, c'est plutôt dans l'optique qu'aucune info confidentielle ne sorte de l'infrastructure de ma boîte. Ce serait uniquement pour faire tourner des modèles existants avec différente techniques de prompts et de bases vectorielles.
 
Dans la doc d'OpenAI ils expliquent que le fine-tuning est rarement justifié face à un bon prompt engineering, donc je préfère essayer d'autres méthodes avant de passer à ce genre de chose (pas le temps, pas l'argent).  https://platform.openai.com/docs/gu [...] ine-tuning


y'a quand même des gains significatifs à aller chercher, cf par exemple ce papier: https://arxiv.org/pdf/2104.08691.pdf
mais je suis d'accord qu'il faut quand même commencer par essayer ça

n°69322778
Profil sup​primé
Posté le 03-10-2023 à 16:05:08  answer
 

gusano a écrit :


Quel dommage, plutôt ?


Nan c'est un coup à s'atrophier le cerveau...j'étais déjà pas courageux, mais alors avec ce truc...

n°69322823
morcok
Posté le 03-10-2023 à 16:10:23  profilanswer
 

ionik a écrit :


La p40 n'a pas de ventilo je sais, la question c'était plutot quel est le mieux a trouvé en 24Gb avec de base un ventilateur en rapport prix/gb


 
Deux 3060 12Go alors.
 
Après c'est à pondérer avec le fait que la 3090 sert aussi à jouer ;)

n°69322847
fazero
Salut c'est Ralph
Posté le 03-10-2023 à 16:12:34  profilanswer
 


pour ce que c'est utile les LDM :o

n°69322893
ionik
Posté le 03-10-2023 à 16:17:47  profilanswer
 

morcok a écrit :


 
Deux 3060 12Go alors.
 
Après c'est à pondérer avec le fait que la 3090 sert aussi à jouer ;)


 
Ok faut que je regarde ça alors.
 
Je voulais privilégié une 24G car si on veut en rajouter une c'est plus simple que 4 pour la même chose ^^


---------------
Recette cookeo | Recette de cuisine | Extension chrome HFR
n°69322970
LibreArbit​re
La /root est longue
Posté le 03-10-2023 à 16:24:53  profilanswer
 

ionik a écrit :

Justement je me pose la question du meilleur rapport entre GB et prix.
Tu en penses quoi ?  (il faut un ventilateur sur la carte de préférence ^^ )

 

j'avais zieuté la 3090 mais qui est a 700+ pour 24gb, si on veut avoir plus de 40Gb sur 2 carte ça commence a vite chiffrer mais je n'ai aucune vision sur la différence de temps nécessaire pour la génération pour des anciennes cartes qui ont pas mal de mémoire.


Le problème de ces cartes de 2016 c'est que de base elles sont passives car destinées à être dans un rack 2U+ du coup la ventilation adaptée sera probablement très bruyante...

 

De plus, quand tu les compares à une 3090, sur la seule base de leur specs elles sont dépassées (sur le papier), consomme pas mal (forcément en 16/ ou 8 nm) du coup la perf par watt est pas dingue :

 

Tesla P40 (24 GB, 200e mais passive et doit donc être ventilée) : https://gadgetversus.com/graphics-c [...] tesla-p40/
Tesla M10 (32 GB, 400e mais passive et doit donc être ventilée) : https://gadgetversus.com/graphics-c [...] tesla-m10/
Tesla K80 (24 GB, 150e mais passive et doit donc être ventilée) : https://gadgetversus.com/graphics-c [...] tesla-k80/

 

Un mec avait posté des benchs sur Reddit avec ces cartes, faudrait que je le retrouve...

Message cité 1 fois
Message édité par LibreArbitre le 03-10-2023 à 16:26:47

---------------
Hebergement d'images
n°69322982
ionik
Posté le 03-10-2023 à 16:26:42  profilanswer
 

LibreArbitre a écrit :


Le problème de ces cartes de 2016 c'est que de base elles sont passives car destinées à être dans un rack 2U+ du coup la ventilation adaptée sera probablement très bruyante...
 
De plus, quand tu les compares à une 3090, sur la seule base de leur specs elles sont dépassées (sur le papier), consomme pas mal (forcément en 28 nm) du coup la perf par watt est pas dingue :
 
Tesla P40 (24 GB, 200e mais passive et doit donc être ventilée) : https://gadgetversus.com/graphics-c [...] tesla-p40/
Tesla M10 (32 GB, 400e mais passive et doit donc être ventilée) : https://gadgetversus.com/graphics-c [...] tesla-m10/
Tesla K80 (24 GB, 150e mais passive et doit donc être ventilée) : https://gadgetversus.com/graphics-c [...] tesla-k80/
 
Un mec avait posté des benchs sur Reddit avec ces cartes, faudrait que je le retrouve...


 
ha oui je veux bien si tu retrouve les bench, mais je crois l'avoir vu passé.
Oui les perfs par watt doivent pas être exceptionnelle j'avoue.


---------------
Recette cookeo | Recette de cuisine | Extension chrome HFR
n°69323941
morcok
Posté le 03-10-2023 à 18:57:31  profilanswer
 

ionik a écrit :


 
ha oui je veux bien si tu retrouve les bench, mais je crois l'avoir vu passé.
Oui les perfs par watt doivent pas être exceptionnelle j'avoue.


 
 
pour les watts c'est assez limité, déjà parce qu'une carte en ia tourne pas tout le temps, et en plus on parle de cartes à 250w de tdp. une 3090 c'est quasi l'équivalent de deux cartes.
 
prennez pas les m10 ou k80...
 
Pour les benchs https://github.com/oobabooga/text-g [...] 1528897556

Message cité 1 fois
Message édité par morcok le 03-10-2023 à 19:03:11
n°69323948
_tchip_
Posté le 03-10-2023 à 18:59:21  profilanswer
 

gusano a écrit :

Ça fonctionne en français :love:
J'avais raté ça :love:
Je viens de tester, c'est excellent :love:

est il capable de programmer des sortie extravéhiculaire pour des opérations de maintenance ?


---------------
He likes the taste...
n°69324165
ionik
Posté le 03-10-2023 à 19:49:00  profilanswer
 

morcok a écrit :

 


pour les watts c'est assez limité, déjà parce qu'une carte en ia tourne pas tout le temps, et en plus on parle de cartes à 250w de tdp. une 3090 c'est quasi l'équivalent de deux cartes.

 

prennez pas les m10 ou k80...

 

Pour les benchs https://github.com/oobabooga/text-g [...] 1528897556


C'est exactement ce que je cherchais, j'ai aussi trouvé un adaptateur pour un ventilateur 80 quand tu en colles deux côte a côte (a voir si ça passe)

 

Il n'y a pas de limitation particulière si on a une P40 plutôt qu'une autre sans parler de la quantité de mémoire.

Message cité 1 fois
Message édité par ionik le 03-10-2023 à 19:50:26

---------------
Recette cookeo | Recette de cuisine | Extension chrome HFR
n°69324342
morcok
Posté le 03-10-2023 à 20:20:14  profilanswer
 

ionik a écrit :


C'est exactement ce que je cherchais, j'ai aussi trouvé un adaptateur pour un ventilateur 80 quand tu en colles deux côte a côte (a voir si ça passe)
 
Il n'y a pas de limitation particulière si on a une P40 plutôt qu'une autre sans parler de la quantité de mémoire.


Si me me souviens bien les autres cartes maxwell ne supporte pas certaines fonctions.
 
Ca m'interesse si tu trouves un autre systeme de refroidissement. J'ai 3 pcie full.
 
Ah oui, tu savais qu'il n'y a pas de sortie video?  

n°69324405
Profil sup​primé
Posté le 03-10-2023 à 20:28:22  answer
 

fazero a écrit :


pour ce que c'est utile les LDM :o


Exactement pour ça que j'ai sollicité GPT :D  
 
Plus envie de m'emmerder avec ces usages d'un autre âge, hypocrisie totale.

n°69324429
ionik
Posté le 03-10-2023 à 20:32:52  profilanswer
 

morcok a écrit :


Si me me souviens bien les autres cartes maxwell ne supporte pas certaines fonctions.

 

Ca m'interesse si tu trouves un autre systeme de refroidissement. J'ai 3 pcie full.

 

Ah oui, tu savais qu'il n'y a pas de sortie video?


Oui je sais qu'il n'y a pas de sorti, c'est pour mettre sur mon serveur de génération de texte et d'image donc réservé à cette usage avec une carte bi Xeon qui supporte 1To de ram et qui a tous les PCIE qu'il faut  :D

 

Je parle de ce support qui a l'air bien
https://cults3d.com/fr/mod%C3%A8le- [...] l-fan-duct


---------------
Recette cookeo | Recette de cuisine | Extension chrome HFR
n°69325256
LibreArbit​re
La /root est longue
Posté le 03-10-2023 à 22:04:09  profilanswer
 

Ça me tente bien aussi, j'imprimerai ça ce week-end...


---------------
Hebergement d'images
n°69325716
ionik
Posté le 03-10-2023 à 22:44:42  profilanswer
 

LibreArbitre a écrit :

Ça me tente bien aussi, j'imprimerai ça ce week-end...


Si tu fais ça je veux bien un retour sur la taille entre la carte et l'adaptateur ventilateur compris, histoire de voir si ça rentre dans le boîtier.
 
Et si c'est envisageable de modifier le fichier pour faire en sorte d'orienter un vers le haut et un vers le bas pour penser le cas éventuel où on en met 4  :D
Edit: sur ma CM il faut que j'emploi des risers si je veux faire ça (en mettre 4), donc juste la taille en longueur suffira pour deux cartes :), ce qui sera déjà bien associé a mon A4000 pour la génération d'image.


Message édité par ionik le 04-10-2023 à 09:06:14

---------------
Recette cookeo | Recette de cuisine | Extension chrome HFR
n°69325782
gusano
Posté le 03-10-2023 à 22:49:08  profilanswer
 

_tchip_ a écrit :

est il capable de programmer des sortie extravéhiculaire pour des opérations de maintenance ?


Je préfère ne pas lui demander, c'est le genre de conversation à ne pas rentrer de sitôt.
[:sid sidious]


Message édité par gusano le 03-10-2023 à 22:50:13
n°69326859
_tchip_
Posté le 04-10-2023 à 08:24:40  profilanswer
 

Tant qu'il ne lit pas sur les lèvres ça va  [:le-covid]


---------------
He likes the taste...
n°69378775
JPHFR
Posté le 11-10-2023 à 09:09:29  profilanswer
 

Hello, drapeau car j'essaye d'utiliser ollama et codellama avec l'extension Continue pour Visual Studio Code mais j'ai une erreur.
 
Quelqu'un utilise ce combo ?

n°69384106
kaloskagat​os
Posté le 11-10-2023 à 20:43:16  profilanswer
 

Non désolé mais ça m'intéresse, je testerai un de ces jours. T'as testé de coller l'erreur dans perplexity.ai avec copilot (gpt4) activé (il faut être loggué)?


Message édité par kaloskagatos le 11-10-2023 à 20:43:50

---------------
« Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. »
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  46  47  48  ..  256  257  258  259  260  261

Aller à :
Ajouter une réponse
 

Sujets relatifs
THE GAME -S01Q86 - MDJ : MIZA, Histoire d'amour et de comptableNombre de réponses par page par défaut
Jeu du Dico : POPOLL Vainqueur de la S3 - RDV sur le topic de la S4Notification des réponses
mails d'avertissements des réponses sur hfr[Questions sans réponses] Timidité, rejet, décès
(voiture) casi achat, besoin de réponses[Le topic de toutes les réponses]
Je voudrais avoir vos réponses pour mes questionsAPL petite question sans réponses
Plus de sujets relatifs à : [Topic unique] IA générative de texte, ChatGPT, Copilot, Gemini & co


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)