Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1655 connectés 

 

 

Avez-vous basculé sur ChatGPT Plus ?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  108  109  110  111  112  113
Auteur Sujet :

[Topic unique] IA générative de texte, ChatGPT, Copilot, Gemini & co

n°72602520
dante2002
HEUUU NOOOOOOOOON
Posté le 21-03-2025 à 12:49:51  profilanswer
 

Reprise du message précédent :

falkon1000 a écrit :

Quel équivalent en perf des modèles commerciaux tu peux faire tourner en local sur un pc normal avec un gpu grand public ?
 
ChatGPT team aussi s’engage sur la confidentialité


 
Sans doute mega crame, mais avec des collègues on fait des tests sur la version locale de Mistral sorti il y a 3-4 jours et c’est top


---------------
Parce que le vote pour Emmanuel Macron n'est pas un vote de conviction mais une nécessité démocratique
mood
Publicité
Posté le 21-03-2025 à 12:49:51  profilanswer
 

n°72602929
falkon1000
Posté le 21-03-2025 à 13:50:48  profilanswer
 

ok pour info depuis j'en ai testé pas mal et celui qui sort du lot pour moi c'est Gemma 3


---------------
https://www.instagram.com/crustobsession
n°72602961
crepator4
Deus ex machina
Posté le 21-03-2025 à 13:54:47  profilanswer
 

testé gemini sur android, quel feignasse ce truc ,
 je lui demande le trajet en train le - long ,il me dit 4h (je sais que c'est faux )je lui fait repeter la question en lui disant que y"a - long, plusieurs fois toujours 4h , je lui dit qu'il existe un trajet de 2h ....
 
reponse :  "ah oui effectivement blabla bla ..."
 
 [:somberlainv:1]


Message édité par crepator4 le 21-03-2025 à 13:55:51

---------------
...survivre à ses Medecins...
n°72603152
JohnSmith
Executive vice president
Posté le 21-03-2025 à 14:19:07  profilanswer
 

dante2002 a écrit :

 

Sans doute mega crame, mais avec des collègues on fait des tests sur la version locale de Mistral sorti il y a 3-4 jours et c’est top

 
falkon1000 a écrit :

ok pour info depuis j'en ai testé pas mal et celui qui sort du lot pour moi c'est Gemma 3

 

Soyez plus précis si possible;
Les modèles évoluent sans cesse. Donc il suffit que la version ait plus de paramètre et elle est a priori supérieure non ?  

 

Autre levier : Avoir de meilleures données.
Mais est ce qu'on a un moyen de comparer les données des différents modèles ?

 

Au final c'est le truc qui va différencier les IA je pense.
Il suffit d'avoir de la donnée que le voisin n'a pas et t'es meilleur.

 

Indépendamment de la puissance des paramètres.

 

Message cité 1 fois
Message édité par JohnSmith le 21-03-2025 à 14:19:45
n°72603174
Yor_le_Bou​rrin
Posté le 21-03-2025 à 14:20:49  profilanswer
 

dante2002 a écrit :


 
Sans doute mega crame, mais avec des collègues on fait des tests sur la version locale de Mistral sorti il y a 3-4 jours et c’est top


 

falkon1000 a écrit :

ok pour info depuis j'en ai testé pas mal et celui qui sort du lot pour moi c'est Gemma 3


Avec quelle config ? Je ne vais pas tarder à changer mon laptop, j'hésite à prendre un avec un i9 270HX RTX 5080 (version laptop donc, genre ça avec upgrade RAM en plus : https://www.ldlc.com/fiche/PB00668735.html ) pour expérimenter avec des LLM et faire quelques entrainements de modèles
 
Et  [:gaga drapal] au passage

n°72603357
falkon1000
Posté le 21-03-2025 à 14:42:57  profilanswer
 

JohnSmith a écrit :


 
Soyez plus précis si possible;  
Les modèles évoluent sans cesse. Donc il suffit que la version ait plus de paramètre et elle est a priori supérieure non ?  
 
Autre levier : Avoir de meilleures données.  
Mais est ce qu'on a un moyen de comparer les données des différents modèles ?  
 
Au final c'est le truc qui va différencier les IA je pense.  
Il suffit d'avoir de la donnée que le voisin n'a pas et t'es meilleur.  
 
Indépendamment de la puissance des paramètres.  
 

Veux tu que je repolisse le plateau d'argent avant de te l'apporter ? :pt1cable:  
 
https://www.google.com/search?q=gem [...] s-wiz-serp


---------------
https://www.instagram.com/crustobsession
n°72603562
JohnSmith
Executive vice president
Posté le 21-03-2025 à 15:13:06  profilanswer
 

Non juste donnez bien les versions c'est tout.
 
Après les benchmark on s'en fou un peu j'ai envie de dire.  
C'est vraiment le quotidien qui est important.  
 
C'est bien d'avoir des retour pragmatiques.  
 
Moi j'arrive pas à décrocher du online. Ca me semble tellement en avance par rapport à un truc en local.  
Mais j'ai pas de données locales donc bon ..  
 
De ce que j'ai compris :  
Mistral 7 -> 7 milliards de paramètres
GPT 4.5 -> 1800 milliards de paramètres  
 
Ca donne l'ordre de grandeur  [:rsh3:2]

Message cité 1 fois
Message édité par JohnSmith le 21-03-2025 à 15:23:29
n°72603703
falkon1000
Posté le 21-03-2025 à 15:36:31  profilanswer
 

Peros j'utilise que les modèles commerciaux aussi, mais j'apprécie l'idée d'avoir un modèle local qui peut tourner sur mon ordi ou mon tel quand j'ai pas de connexion

 

Par exemple quand je vais aux USA pour le taf, dans l'avion ça peut être pratique sur l'ordi;
Autre cas, je serai dans des régions désertiques d'Afrique du Nord dans un mois (voyage auto tour) et avoir un LLM sur le tel ça peut être cool pour avoir quelques infos sur le lieu où on est

 

Si on voit plus loin, si un jour on a des modèles locaux très performant ce sera moins couteux que de prendre des abonnements

 

Quand je vois ce que stable diffusion me sort en local je suis impressionné. Sur un simple MacBook Air M3 on obtient le niveau de qualité qu'on obtenait des modèles commerciaux il y a un peu plus de deux ans. Pour le coup, j'ai des cas d'usage concrets et ça va me faire économiser des appels API couteux


Message édité par falkon1000 le 21-03-2025 à 15:36:58

---------------
https://www.instagram.com/crustobsession
n°72603819
bulldozer_​fusion
rip Mekthoub
Posté le 21-03-2025 à 15:52:17  profilanswer
 

Yor_le_Bourrin a écrit :


Avec quelle config ? Je ne vais pas tarder à changer mon laptop, j'hésite à prendre un avec un i9 270HX RTX 5080 (version laptop donc, genre ça avec upgrade RAM en plus : https://www.ldlc.com/fiche/PB00668735.html ) pour expérimenter avec des LLM et faire quelques entrainements de modèles

 

Et [:gaga drapal] au passage


Belle bête, tu comptes jouer aussi un peu et faire tourner des modèles IA photos et vidéos?


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°72604436
CoyoteErab​le
Dorée et Colorée
Posté le 21-03-2025 à 17:29:12  profilanswer
 

JohnSmith a écrit :

Non juste donnez bien les versions c'est tout.

 

Après les benchmark on s'en fou un peu j'ai envie de dire.
C'est vraiment le quotidien qui est important.

 

C'est bien d'avoir des retour pragmatiques.

 

Moi j'arrive pas à décrocher du online. Ca me semble tellement en avance par rapport à un truc en local.
Mais j'ai pas de données locales donc bon ..

 

De ce que j'ai compris :
Mistral 7 -> 7 milliards de paramètres
GPT 4.5 -> 1800 milliards de paramètres

 

Ca donne l'ordre de grandeur [:rsh3:2]


Un modèle 32B tournant en q4, fine tuné sur des données nécessaires à un cas d'utilisation très précis + potentiellement du RAG sera forcément plus intéressant que GPT4.5 qui n'aura jamais vu ces données et n'aura jamais été paramétré dessus, malgré sa taille.

 

Mais alors, pour trouver les bonnes données histoire de renforcer la probabilité d'une réponse adéquate au contexte idoine, bonne chance. Perso, je suis dans l'optique de fine-tuner un modèle type Qwen/R1-Distill 70B doté d'un raisonnement autour de données en sciences humaines et sociales mais je galère à trouver de bonnes bibliothèques de données ouvertes, de bonne qualité (je peux potentiellement aspirer Anna's archives mais ça va être trèèès long de trier)... et ça va me coûter un rein de louer plusieurs GPU type H100 en cloud computing pour entraîner le modèle, sans compter la question l'inférence en cloud, la sauvegarde, la difficulté technique etc... Si j'avais les moyens de me payer un Mac Studio ou un GPU avec suffisamment de VRAM pourquoi pas :o mais pour l'instant ça reste compliqué de se doter d'un LLM adapté à un usage très précis.

 

J'envie les dev, j'ai l'impression que la plupart des LLM tournent autour du code. Y'a bien que o1 Pro qui me semble assez polyvalent, même en SHS (mais avec le bon contexte).


---------------
"Je prononce à regret cette fatale vérité...mais Louis doit mourir parce qu'il faut que la patrie vive."
mood
Publicité
Posté le 21-03-2025 à 17:29:12  profilanswer
 

n°72604735
Yor_le_Bou​rrin
Posté le 21-03-2025 à 18:22:51  profilanswer
 

bulldozer_fusion a écrit :


Belle bête, tu comptes jouer aussi un peu et faire tourner des modèles IA photos et vidéos?


Quasi pas de jeu [:tinostar]
 
J'ai parfois besoin au taf d'extracteurs de texte, on explore pour faire ça par LLM au lieu d'heuristiques. Avoir une grosse machine me permettrait aussi de fine tune des modèles huggingface, ou entrainer quelques autres modèles simples style deeplearning de reconnaissance. En CPU c'est une vraie plaie le temps que ça prend  [:bouh94:2]
 
Le training par cloud public étant touchy politiquement dans mon cas, le gros laptop serait un compromis.

n°72604858
CoyoteErab​le
Dorée et Colorée
Posté le 21-03-2025 à 18:46:35  profilanswer
 

Par OVH ça passe pas ?


---------------
"Je prononce à regret cette fatale vérité...mais Louis doit mourir parce qu'il faut que la patrie vive."
n°72604894
alanou
HFR certified
Posté le 21-03-2025 à 18:54:43  profilanswer
 

Yor_le_Bourrin a écrit :


Quasi pas de jeu [:tinostar]
 
J'ai parfois besoin au taf d'extracteurs de texte, on explore pour faire ça par LLM au lieu d'heuristiques. Avoir une grosse machine me permettrait aussi de fine tune des modèles huggingface, ou entrainer quelques autres modèles simples style deeplearning de reconnaissance. En CPU c'est une vraie plaie le temps que ça prend  [:bouh94:2]
 
Le training par cloud public étant touchy politiquement dans mon cas, le gros laptop serait un compromis.


 
Pareil j'avais un MBP 14 M3 max 128Go refurb dans le panier pendant 3j avant de décider d'être raisonnable  :o


---------------
Bolidage tête rouge - ateliers certifiés ISO0069
n°72605087
haralph
Sometimes I hate my conscience
Posté le 21-03-2025 à 19:27:15  profilanswer
 

Yor_le_Bourrin a écrit :


 
 
Avec quelle config ? Je ne vais pas tarder à changer mon laptop, j'hésite à prendre un avec un i9 270HX RTX 5080 (version laptop donc, genre ça avec upgrade RAM en plus : https://www.ldlc.com/fiche/PB00668735.html ) pour expérimenter avec des LLM et faire quelques entrainements de modèles
 
Et  [:gaga drapal] au passage


 
Tu n'as pas peur d'user prématurément le pc ? Je sais pas la fréquence d'usage, mais niveau ventilation/refroidissement, ça reste bien en dessous d'une tour.


---------------
Flickr
n°72605105
falkon1000
Posté le 21-03-2025 à 19:29:43  profilanswer
 

Y'a encore des gens qui achètent des PC portables en 2025 ?  
Une bonne puce Apple Silicon sur un portable ça envoie bien sinon


---------------
https://www.instagram.com/crustobsession
n°72605137
alanou
HFR certified
Posté le 21-03-2025 à 19:35:39  profilanswer
 

falkon1000 a écrit :

Y'a encore des gens qui achètent des PC portables en 2025 ?  
Une bonne puce Apple Silicon sur un portable ça envoie bien sinon


 
C'est pas magique non plus, tu peux pas "tout" faire tourner, particulièrement en VLM (et en agents même si ça a l'air de se débloquer un peu) où c'est très en retard niveau implémentation.


---------------
Bolidage tête rouge - ateliers certifiés ISO0069
n°72605160
CoyoteErab​le
Dorée et Colorée
Posté le 21-03-2025 à 19:39:03  profilanswer
 

falkon1000 a écrit :

Y'a encore des gens qui achètent des PC portables en 2025 ?
Une bonne puce Apple Silicon sur un portable ça envoie bien sinon


https://www.notebookcheck.biz/Test- [...] 586.0.html

 

Ça par exemple c'est plutôt bien. On en trouvera prochainement dans des Mini PC comme le GMK Evo X2 ou sur le futur Framework Desktop.

 
Spoiler :

le seul laptop dispo avec est cette tablette/PC Asus ROG Flow Z13 assez laide... https://rehost.diberie.com/Picture/Get/r/380093

Message cité 1 fois
Message édité par CoyoteErable le 21-03-2025 à 19:45:02

---------------
"Je prononce à regret cette fatale vérité...mais Louis doit mourir parce qu'il faut que la patrie vive."
n°72605189
Yor_le_Bou​rrin
Posté le 21-03-2025 à 19:45:27  profilanswer
 

haralph a écrit :

 

Tu n'as pas peur d'user prématurément le pc ? Je sais pas la fréquence d'usage, mais niveau ventilation/refroidissement, ça reste bien en dessous d'une tour.


Le but n'est pas de faire tourner pendant la nuit entière, chaque jour. Si j'ai besoin d'autant ça sera cloud ou rien. Après un portable gamer ça tient bien logiquement, ça supportait mes LAN d'étudiant en tout cas.

 

@falcon : je ne connais personne en milieu pro de dev qui bosse sur autre chose que laptop. Certains sont sur macos (surtout dev iphone), mais la majorité est sur windows. A plus forte raison pour les équipes dotnet.

n°72605214
Yor_le_Bou​rrin
Posté le 21-03-2025 à 19:50:42  profilanswer
 

CoyoteErable a écrit :


https://www.notebookcheck.biz/Test- [...] 586.0.html

 

Ça par exemple c'est plutôt bien. On en trouvera prochainement dans des Mini PC comme le GMK Evo X2 ou sur le futur Framework Desktop.

 
Spoiler :

le seul laptop dispo avec est cette tablette/PC Asus ROG Flow Z13 assez laide... https://rehost.diberie.com/Picture/Get/r/380093



Bonne alternative. Merci pour l'info :jap:

n°72605547
crepator4
Deus ex machina
Posté le 21-03-2025 à 21:01:24  profilanswer
 

MANUS IA : CODE HACKÉ & VÉRITÉ DÉVOILÉE !  
https://www.youtube.com/watch?v=is8IK8cvJv4


---------------
...survivre à ses Medecins...
n°72605990
CoyoteErab​le
Dorée et Colorée
Posté le 21-03-2025 à 22:38:22  profilanswer
 

Yor_le_Bourrin a écrit :


Bonne alternative. Merci pour l'info :jap:


Après bon 256gb/s (en théorie) et 40CU ça sera pas un foudre de guerre par rapport à un M3 Ultra (800gb/s) ou M4 Max (500gb/s) 128gb.

 

Que ce soit en traitement du contexte ou la sortie.


---------------
"Je prononce à regret cette fatale vérité...mais Louis doit mourir parce qu'il faut que la patrie vive."
n°72606138
bulldozer_​fusion
rip Mekthoub
Posté le 21-03-2025 à 23:14:15  profilanswer
 

Yor_le_Bourrin a écrit :


Quasi pas de jeu [:tinostar]

 

J'ai parfois besoin au taf d'extracteurs de texte, on explore pour faire ça par LLM au lieu d'heuristiques. Avoir une grosse machine me permettrait aussi de fine tune des modèles huggingface, ou entrainer quelques autres modèles simples style deeplearning de reconnaissance. En CPU c'est une vraie plaie le temps que ça prend [:bouh94:2]

 

Le training par cloud public étant touchy politiquement dans mon cas, le gros laptop serait un compromis.


Ça s'entend :jap:


---------------
feed-back : http://forum.hardware.fr/forum2.ph [...] nojs=0#bas
n°72606591
falkon1000
Posté le 22-03-2025 à 06:31:53  profilanswer
 

crepator4 a écrit :

MANUS IA : CODE HACKÉ & VÉRITÉ DÉVOILÉE !  
https://www.youtube.com/watch?v=is8IK8cvJv4


C’est cool qu’un des influenceurs IA soit lucide, concret, critique et pragmatique  
Ce sont des valeurs qui se sont perdues depuis longtemps sur les réseaux


---------------
https://www.instagram.com/crustobsession
n°72606666
gagaches
Posté le 22-03-2025 à 07:43:40  profilanswer
 

crepator4 a écrit :

MANUS IA : CODE HACKÉ & VÉRITÉ DÉVOILÉE !
https://www.youtube.com/watch?v=is8IK8cvJv4

 

Plus visible  :(
Ça parlait de quoi ?


---------------

n°72606829
falkon1000
Posté le 22-03-2025 à 08:35:48  profilanswer
 

Incroyable ! "Cette vidéo n'est plus disponible en raison d'une réclamation pour atteinte aux droits d'auteur envoyée par Ludo SALENNE"

 

Dans la vidéo supprimée, le type montrait que Manus était bien conçu et + qu'un simple wrapper mais qu'ils ont utilisé les influenceurs ia connus pour totalement survendre le truc et la vidéo le démontrait très bien en critiquant une vidéo de ce Ludo

 

EDIT : après avoir regardé plusieurs vidéos je me fais un avis rapide. C'est encore un vendeur de formation miracle sauf qu'il a un discours différent des autres.
Les influenceurs classiques ont un discours de type "Je vais vous donner tous les secrets, achetez mon truc"
Lui c'est "Tout le monde est nul et vous ment par ignorance, achetez mon truc"

 

A choisir je préfère les gens positifs et bienveillants

Message cité 1 fois
Message édité par falkon1000 le 22-03-2025 à 09:44:13

---------------
https://www.instagram.com/crustobsession
n°72608566
sorg
trop sur HFR depuis 2001
Posté le 22-03-2025 à 15:07:49  profilanswer
 

Je joue avec Claude code. C'est bien foutu et plutôt plus efficace que continue.dev ou copilot. Par contre avec claude-3.7 le cout des tokens fait très mal.  [:bahamut49:10]

n°72609646
manuleluti​n
Posté le 22-03-2025 à 18:05:02  profilanswer
 

falkon1000 a écrit :

Incroyable ! "Cette vidéo n'est plus disponible en raison d'une réclamation pour atteinte aux droits d'auteur envoyée par Ludo SALENNE"

 

Dans la vidéo supprimée, le type montrait que Manus était bien conçu et + qu'un simple wrapper mais qu'ils ont utilisé les influenceurs ia connus pour totalement survendre le truc et la vidéo le démontrait très bien en critiquant une vidéo de ce Ludo

 

EDIT : après avoir regardé plusieurs vidéos je me fais un avis rapide. C'est encore un vendeur de formation miracle sauf qu'il a un discours différent des autres.
Les influenceurs classiques ont un discours de type "Je vais vous donner tous les secrets, achetez mon truc"
Lui c'est "Tout le monde est nul et vous ment par ignorance, achetez mon truc"

 

A choisir je préfère les gens positifs et bienveillants


J'avais arrété de suivre ce type assez vite... (comme d'autre) Y'a un buisness "facile" avec l'ia, bcp en profites. Je ne suis plus que "two minutes paper" pour ce qui concerne l'ia sur YT (recherche).
Pour l'usage des llms et les actus, j'ai des feed genre "the rundown ai", c'est déjà de trop   :D


Message édité par manulelutin le 22-03-2025 à 18:05:56
n°72609716
XaTriX
Posté le 22-03-2025 à 18:18:11  profilanswer
 

sorg a écrit :

Je joue avec Claude code. C'est bien foutu et plutôt plus efficace que continue.dev ou copilot. Par contre avec claude-3.7 le cout des tokens fait très mal. [:bahamut49:10]


C'est pas inclus dans l'abonnement ?


---------------
"Xat le punk à chien facho raciste. C'est complexe comme personnage." caudacien 05/10/2020
n°72610394
sorg
trop sur HFR depuis 2001
Posté le 22-03-2025 à 20:38:53  profilanswer
 

XaTriX a écrit :


C'est pas inclus dans l'abonnement ?


Nope. Ça consomme des crédits API.

n°72610574
XaTriX
Posté le 22-03-2025 à 21:22:40  profilanswer
 

aie


---------------
"Xat le punk à chien facho raciste. C'est complexe comme personnage." caudacien 05/10/2020
n°72610591
Agile Tool​kit
Posté le 22-03-2025 à 21:28:00  profilanswer
 

crepator4 a écrit :

apres une video tutube gemini advanced me fait de l'oeil ... 1mois gratos

 

https://gemini.google/advanced/?hl=fr

 

Super Faux bon Achats ... :D

 

Sinon passé sur une chaine tutube autre (avec accent), ils sont en train de sortir des modeles qui consomment 10x moins qu'actuellement...

 

Autre :
 Agilité et IA #14 : On teste l'IA en local avec Ollama
https://www.youtube.com/watch?v=qhCH237rC9c   (bon bien sur on connais pas la config )

 


Bonjour,

 

Je suis l'auteur de la vidéo que vous avez citée.

 

Pour info, je découvre ce forum et ce topic sur IA générative. J'ai lu la charte du forum qui stipule que "Les messages à vocation publicitaire sont proscrits".
Je précise que je n'ai rien à vendre et que mon message n'a pas pour but de faire la promotion de ma vidéo mais d'échanger techniquement sur l'IA.

 

Pour information la config est sommairement décrite dans la vidéo ici : https://youtu.be/qhCH237rC9c?si=bPy [...] T1z&t=2947
Je vais ajouter cette information dans la description de la vidéo.

 

Si vous voulez l'info directement : j'ai testé Ollama avec Llama 3.2 sur deux configs :
Un PC Desktop que j'ai monté moi même:

  • 13th Gen Intel(R) Core(TM) i5-13600KF   3.50 GHz
  • 64,0 Go DDR4
  • NVIDIA Geforce RTX 4070 12 Go
  • Un SSD mvne


Un laptop ASUS ExpertBook B7 Flip B7402FEA-LA0110R de 2021

  • Intel Core i7-1195G7 @ 2.90GHz
  • 16 Go
  • Carte graphique intégrée Intel® Iris® Xe Graphics


Pour le desktop vous pouvez voir dans la vidéo qu'avec le modèle Llama 3.2 l'utilisation est tout à fait rapide. Pour le latptop, qui est peu puissant, c'est plus lent mais utilisable

 

Au cours de mes tests j'ai été impressionné par la facilité d'utilisation d'Ollama et le fait que les petits modèles comme Llama 3.2 tournent très bien même sur un laptop assez ancien.

Message cité 1 fois
Message édité par Agile Toolkit le 22-03-2025 à 21:31:34
n°72610909
ionik
Posté le 22-03-2025 à 22:41:13  profilanswer
 

sorg a écrit :

Je joue avec Claude code. C'est bien foutu et plutôt plus efficace que continue.dev ou copilot. Par contre avec claude-3.7 le cout des tokens fait très mal. [:bahamut49:10]


C'est plutôt le partage du code qui me poserais plus de soucis  :D


---------------
Recette cookeo Recette de cuisine
n°72610927
LaRoueEstT​ombee
Hortense ! Pour moi !
Posté le 22-03-2025 à 22:44:17  profilanswer
 

Agile Toolkit a écrit :

 


Bonjour,

 

Je suis l'auteur de la vidéo que vous avez citée.

 

Pour info, je découvre ce forum et ce topic sur IA générative. J'ai lu la charte du forum qui stipule que "Les messages à vocation publicitaire sont proscrits".
Je précise que je n'ai rien à vendre et que mon message n'a pas pour but de faire la promotion de ma vidéo mais d'échanger techniquement sur l'IA.

 

Pour information la config est sommairement décrite dans la vidéo ici : https://youtu.be/qhCH237rC9c?si=bPy [...] T1z&t=2947
Je vais ajouter cette information dans la description de la vidéo.

 

Si vous voulez l'info directement : j'ai testé Ollama avec Llama 3.2 sur deux configs :
Un PC Desktop que j'ai monté moi même:

  • 13th Gen Intel(R) Core(TM) i5-13600KF 3.50 GHz
  • 64,0 Go DDR4
  • NVIDIA Geforce RTX 4070 12 Go
  • Un SSD mvne


Un laptop ASUS ExpertBook B7 Flip B7402FEA-LA0110R de 2021

  • Intel Core i7-1195G7 @ 2.90GHz
  • 16 Go
  • Carte graphique intégrée Intel® Iris® Xe Graphics


Pour le desktop vous pouvez voir dans la vidéo qu'avec le modèle Llama 3.2 l'utilisation est tout à fait rapide. Pour le latptop, qui est peu puissant, c'est plus lent mais utilisable

 

Au cours de mes tests j'ai été impressionné par la facilité d'utilisation d'Ollama et le fait que les petits modèles comme Llama 3.2 tournent très bien même sur un laptop assez ancien.


C'est sympa de passer :)

 

Et cool pour les précisions.

 

Et bienvenue sur hfr :D


---------------
Votre couroux impitoiable Veut-il renverser l'Univers ?
n°72611138
gremi
Vieux con des neiges d'antan
Posté le 22-03-2025 à 23:40:24  profilanswer
 

Oui pas de soucis, du moment que c’est des échanges et pas de la pub déguisée c’est même bienvenu …
On a le youtubeur « Techniques Spatiales » qui passe de temps en temps sur le topik fusées par exemple … et c’est toujours au top !


---------------
In aligot we trust.
n°72611183
Agile Tool​kit
Posté le 23-03-2025 à 00:00:53  profilanswer
 

Super, merci pour votre accueil !
J'ai vu que certaines questions portent sur les sujets de génération de documents .doc ou de présentations powerpoint par exemple.
 
C'est aussi un sujet sur lequel je travaille. Jusqu'à aujourd'hui mes tests ne sont pas très concluants car je veux atteindre un niveau de qualité suffisant pour le milieu professionnel.
 
Si l'occasion se présente je posterai le résultat de mes recherches sur le sujet :)

n°72611464
gagaches
Posté le 23-03-2025 à 07:51:02  profilanswer
 

Agile Toolkit a écrit :

Super, merci pour votre accueil !
J'ai vu que certaines questions portent sur les sujets de génération de documents .doc ou de présentations powerpoint par exemple.

 

C'est aussi un sujet sur lequel je travaille. Jusqu'à aujourd'hui mes tests ne sont pas très concluants car je veux atteindre un niveau de qualité suffisant pour le milieu professionnel.

 

Si l'occasion se présente je posterai le résultat de mes recherches sur le sujet :)

 

:jap: et bienvenu.

 

Pour ce genre de choses, je n'utilise pas les formats MS. Toutes les IA sont en galère dessus pour en créer.

 

j'obtiens des résultats beaucoup plus intéressants en format markdown et mermaid pour les schémas.

 

Et en demandant de faire du revealjs, ça fait des slides techs pas mal.

Message cité 1 fois
Message édité par gagaches le 23-03-2025 à 07:51:52

---------------

n°72612028
sorg
trop sur HFR depuis 2001
Posté le 23-03-2025 à 09:59:09  profilanswer
 

Agile Toolkit a écrit :

Super, merci pour votre accueil !
J'ai vu que certaines questions portent sur les sujets de génération de documents .doc ou de présentations powerpoint par exemple.

 

C'est aussi un sujet sur lequel je travaille. Jusqu'à aujourd'hui mes tests ne sont pas très concluants car je veux atteindre un niveau de qualité suffisant pour le milieu professionnel.

 

Si l'occasion se présente je posterai le résultat de mes recherches sur le sujet :)


Ce sujet m'intéresse beaucoup. Ma femme exerce en libéral et doit écrire beaucoup de compte-rendu.
Pour l'instant elle fait des ça et vient entre un chatLLM et son traitement de texte mais c'est pas au top. On cherche des solutions plus efficaces.

n°72612069
fazero
Salut c'est Ralph
Posté le 23-03-2025 à 10:08:34  profilanswer
 

sorg a écrit :


Ce sujet m'intéresse beaucoup. Ma femme exerce en libéral et doit écrire beaucoup de compte-rendu.
Pour l'instant elle fait des ça et vient entre un chatLLM et son traitement de texte mais c'est pas au top. On cherche des solutions plus efficaces.


Tu as essayé superwhisper avec un prompt custom ?
(Dispo sur mac/iPhone seulement par contre)


Message édité par fazero le 23-03-2025 à 10:15:58

---------------
Agent immobilier sur Paris 16
n°72612295
freddy021
Les Français qui dégomment
Posté le 23-03-2025 à 11:10:45  profilanswer
 

Agile Toolkit a écrit :

Super, merci pour votre accueil !
J'ai vu que certaines questions portent sur les sujets de génération de documents .doc ou de présentations powerpoint par exemple.
 
C'est aussi un sujet sur lequel je travaille. Jusqu'à aujourd'hui mes tests ne sont pas très concluants car je veux atteindre un niveau de qualité suffisant pour le milieu professionnel.
 
Si l'occasion se présente je posterai le résultat de mes recherches sur le sujet :)


Pour les présentations, avec make (/n8n), un llm pris en charge, et Google appscript, y’a moyen de faire quelque chose, selon le secteur.
Le formatage des présentations étant relativement standardisé, avec une approche de construction H1/H2/H3/paragraphe, tu peux aboutir à une base assez sérieuse.
D’ailleurs un outil comme Relume pourrait très bien être adapté par ses concepteurs pour pondre des présentations plutôt que des sites web, et serait très puissant.
 
Pour des présentations type technique avec des schémas et Cie, c’est une autre difficulté en revanche.


---------------
Israélien dans l’âme, français par hasard mais Macroniste invétéré.
n°72613747
Agile Tool​kit
Posté le 23-03-2025 à 16:26:03  profilanswer
 

gagaches a écrit :

 

:jap: et bienvenu.

 

Pour ce genre de choses, je n'utilise pas les formats MS. Toutes les IA sont en galère dessus pour en créer.

 

j'obtiens des résultats beaucoup plus intéressants en format markdown et mermaid pour les schémas.

 

Et en demandant de faire du revealjs, ça fait des slides techs pas mal.

 

Oui tout à fait : les formats MS comme le .pptx  ou même les autres formats (Libre Office, Google Slides) ne sont pas adaptés à la génération textuelle car ce sont des textes très gros, très verbeux, c'est une sorte de code, très dense.
La bonne approche est de faire générer les slides dans un format informatique plus simple : le Markdown me parait une excellente approche. Mermaid je ne connais pas, je regarderai. J'ai pensé à une autre idée c'est demander à l'IA de générer des calls API vers Google Slides API. C'est cette approche que je compte tester dans les semaines à venir.

 

revealjs, je ne connais pas. Merci je regarderai aussi.

 


sorg a écrit :


Ce sujet m'intéresse beaucoup. Ma femme exerce en libéral et doit écrire beaucoup de compte-rendu.
Pour l'instant elle fait des ça et vient entre un chatLLM et son traitement de texte mais c'est pas au top. On cherche des solutions plus efficaces.

 

Pour ce qui est "compte-rendu" textuel là aussi, je donne du texte brut à ChatGPT. Je lui demande de me le synthétiser sous forme de Markdown, puis je convertis le Mardown en .pdf. Cela fonctionne bien. je n'ai pas essayé de générer du .doc mais il doit certainement être facile de convertir du Markdown en .doc

 
freddy021 a écrit :


Pour les présentations, avec make (/n8n), un llm pris en charge, et Google appscript, y’a moyen de faire quelque chose, selon le secteur.
Le formatage des présentations étant relativement standardisé, avec une approche de construction H1/H2/H3/paragraphe, tu peux aboutir à une base assez sérieuse.
D’ailleurs un outil comme Relume pourrait très bien être adapté par ses concepteurs pour pondre des présentations plutôt que des sites web, et serait très puissant.

 

Pour des présentations type technique avec des schémas et Cie, c’est une autre difficulté en revanche.

 

Merci pour ces pistes, j'y jetterai un oeil à l'occasion.

 

Pour les schémas en effet, c'est un autre problème spécifique. Pour l'instant je pars du principe que dans mes présentations je fournis les schémas en input sous forme d'image.


Message édité par Agile Toolkit le 23-03-2025 à 16:26:55
n°72613844
sorg
trop sur HFR depuis 2001
Posté le 23-03-2025 à 16:44:28  profilanswer
 

ionik a écrit :


C'est plutôt le partage du code qui me poserais plus de soucis  :D


Dans mon cas, c'est pour un projet perso, ca n'est pas un enjeu, mais je comprends que çà soit un point de vigilance.
 
Pour info, entre temps, j'ai trouvé ceci: https://github.com/dnakov/anon-kode
le code de claude code a leaké, et a été forké pour le rendre compatible avec tout LLM compatible avec l'API openAI. Ca permet de l'utiliser avec un LLM auto-hebergé.
Je l'utilise également avec Gemini en mode free tier. On est vite limité par les limites d'appel à l'API, mais ca permet de jouer.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  108  109  110  111  112  113

Aller à :
Ajouter une réponse
 

Sujets relatifs
THE GAME -S01Q86 - MDJ : MIZA, Histoire d'amour et de comptableNombre de réponses par page par défaut
Jeu du Dico : POPOLL Vainqueur de la S3 - RDV sur le topic de la S4Notification des réponses
mails d'avertissements des réponses sur hfr[Questions sans réponses] Timidité, rejet, décès
(voiture) casi achat, besoin de réponses[Le topic de toutes les réponses]
Je voudrais avoir vos réponses pour mes questionsAPL petite question sans réponses
Plus de sujets relatifs à : [Topic unique] IA générative de texte, ChatGPT, Copilot, Gemini & co


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)