Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
962 connectés 

 

 

Avez-vous basculé sur ChatGPT Plus ?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  62  63  64  65  66  67
Auteur Sujet :

[Topic unique] IA générative de texte, ChatGPT, Copilot, Gemini & co

n°70639718
Olivie
SUUUUUUUUUUUUUU
Posté le 18-05-2024 à 10:46:10  profilanswer
 

Reprise du message précédent :
@aintnoclue [:scarlettj:2]  [:scarlettj:2]


---------------

mood
Publicité
Posté le 18-05-2024 à 10:46:10  profilanswer
 

n°70642312
XaTriX
Posté le 18-05-2024 à 21:51:13  profilanswer
 

Le 4o me casse les burnes, je continue la discussion sur des sujets précis, il répond. PUIS régénère encore le reste de la discussion antérieure :fou:  
Et ici c'est assez long donc super relou


---------------
"Xat le punk à chien facho raciste. C'est complexe comme personnage." caudacien 05/10/2020
n°70642473
chris282
id steam/psn : chris282_fr
Posté le 18-05-2024 à 22:17:24  profilanswer
 

Drap je m'amuse depuis que j'ai ma RTX 4070 en local. voici ce qui fait un peu rager sur le topic RTX :D
 
 

Citation :

je trouvais perso que Nvidia était cher. et puis j'ai vu un graphique qui indiquait qu'il n'étaient pas rentable sur le secteur gaming. et puis j'ai relativisé.
 
et puis j'ai posé la question à mon IA , voici sa réponse (en synthèse AMD RADEON c'est pour les pauvres)


 
https://rehost.diberie.com/Picture/Get/t/277153


Message édité par chris282 le 18-05-2024 à 22:18:46
n°70642916
XaTriX
Posté le 18-05-2024 à 23:17:19  profilanswer
 

Bon j'ai discuté avec GPT-4o qui me dit qu'il me sert à rien pour du python. Voir même pour GPT-4turbo.
Ca coûte moins cher et c'est plus rapide mais je m'en fous, je veux les meilleures réponses possibles.
Donc pour du code autant utiliser GPT4 "classic" ? Y'a t'il une différence en terme de données à jour entre ces modèles ?
Et j'ai aussi compris que le "o" était pour "omni", multimodal avec images, vidéos, sons jsais pas quoi, mais je m'en branle :o
 
Un exemple concret avec un code python où je demande de convertir une (petite) classe en dataclasses (une évolution de python) :

Code :
  1. class Config:
  2.     def __init__(self, env_vars_list=None):
  3.         self.env_vars_list = env_vars_list or ["HFR_LOGIN", "HFR_PASSWD"]
  4.         self.env_vars = self._get_env_vars()
  5.     def _get_env_vars(self):
  6.         env_vars_dict = {}
  7.         for var in self.env_vars_list:
  8.             value = os.getenv(var)
  9.             if value:
  10.                 env_vars_dict[var] = value
  11.             else:
  12.                 raise EnvironmentError(f"Environment variable {var} is not set." )
  13.         return env_vars_dict
  14.     def get(self, key):
  15.         return self.env_vars.get(key)


 
Avec GPT-4o il me sort un InitVar avec un default_factory, ce qui n'a pas l'air d'être tout simplement possible :o.
Si je lui demande s'il a raison sur ce point, il se démonte pas. Si je lui demande si initvar & default_factory sont compatibles alors il reconnait sa faute et corrigel e code.
Si j'utilise GPT-4turbo ou 4 normal, il fait pas l'erreur.
 
Sur chat.openai en gratos j'ai aussi tenté et il a pas fait l'erreur. Par contre il me dit qu'il est GTP-4turbo, je pense qu'on avait le 4o sur le gratos :??:


---------------
"Xat le punk à chien facho raciste. C'est complexe comme personnage." caudacien 05/10/2020
n°70643221
under_scor​e
I wear my sunglasses at night
Posté le 19-05-2024 à 01:53:20  profilanswer
 

Par rapport à ce que je disais plus haut, et après recul, j'ai pu me confirmer que 4o n'est pas adapté pour de la conversation avec reprise de points de détails et approfondissements. À la moindre question que je repose, il revient sur le sujet d'origine, et répète en boucle le contexte général (il est pas mauvais sur ce point certes, mais ça peut être 3, 4 fois d'affilée la même réponse). Si je veux approfondir, je suis obligé de repasser en v4 sinon j'ai l'impression d'avoir affaire à un perroquet  :D

n°70643369
XaTriX
Posté le 19-05-2024 à 08:39:49  profilanswer
 

+1 total pour la reprise de contexte, une plaie.
Tu y accède comment ?


---------------
"Xat le punk à chien facho raciste. C'est complexe comme personnage." caudacien 05/10/2020
n°70644993
under_scor​e
I wear my sunglasses at night
Posté le 19-05-2024 à 16:13:00  profilanswer
 

Je suis toujours sur l'interface de chat de openAI. Sur reddit j'avais lu certains qui disaient que la 4o est une version accélérée, et donc dégradée, d'une version à venir.
Je ne suis que de loin l'actu, mais je m'étonne que ça saute pas plus aux yeux des utilisateurs, pour moi la 4o est inutilisable hors question 'oneshot'. Ce qui est étrange, vu la démo façon 'Her' qu'ils nous ont fait.

n°70646089
chris282
id steam/psn : chris282_fr
Posté le 19-05-2024 à 19:42:01  profilanswer
 

Hello, curieux de savoir ce que vous pensez de la qualité de la réponse ?

 

j'ai questionné mon IA locale avec ce prompt :

 

What is the most advance sample of code in typescript in terms of complexity ? give an example

 


Voici le résultat (pdf sur mon google drive) :
https://drive.google.com/file/d/1SN [...] drive_link


Message édité par chris282 le 19-05-2024 à 19:44:06
n°70646099
kaloskagat​os
Posté le 19-05-2024 à 19:44:58  profilanswer
 

Pour moi c'est la 3.5 qui est inutilisable. La 4o est une approximation de la 4 bien plus rapide. Je trouve aussi que la 4 est plus performante mais sa lenteur est aussi assez frustrante. Donc la 4o est un intermédiaire, qui soulage les serveurs, minimise les coûts.

 

Vous avez vu qu'au sein d'une même conversation on peut faire régénérer une réponse par un autre modèle ?

 


---------------
« Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. »
n°70646816
LibreArbit​re
RIP mon Orion
Posté le 19-05-2024 à 22:01:30  profilanswer
 

acteon89 a écrit :

[:cerveau drapal]  
Je test le résumé de vidéo Youtube par Gemini, je trouve ca balaise  :love:


Alors c'est impressionnant mais en vrai ça génère un résumé d'après les sous-titre hein, ça lit pas la vidéo :o


---------------
Hebergement d'images | Le topic de la VR standalone
mood
Publicité
Posté le 19-05-2024 à 22:01:30  profilanswer
 

n°70655615
Olivie
SUUUUUUUUUUUUUU
Posté le 21-05-2024 à 15:10:32  profilanswer
 

Bonjour les génies, pour ceux qui utilisent l'API chatGPT pour un bot, comment estimer le cout ?
Par exemple une personne qui pose 2-3 questions simples en lien avec un site, la formule "1 token = 0,75 mot" c'est une bonne estimation ?


---------------

n°70655975
ynorsa
Posté le 21-05-2024 à 16:00:01  profilanswer
 

LibreArbitre a écrit :


Alors c'est impressionnant mais en vrai ça génère un résumé d'après les sous-titre hein, ça lit pas la vidéo :o


 
Et sur une vidéo "muette", ça donne quoi ? :o

n°70656584
fazero
Posté le 21-05-2024 à 17:23:12  profilanswer
 

Olivie a écrit :

Bonjour les génies, pour ceux qui utilisent l'API chatGPT pour un bot, comment estimer le cout ?
Par exemple une personne qui pose 2-3 questions simples en lien avec un site, la formule "1 token = 0,75 mot" c'est une bonne estimation ?


C'est une bonne estimation oui

 

Tu as ça si tu veux avoir le nombre exact de tokens :
https://platform.openai.com/tokenizer

 

Attention les tokens en sortie sont 3x plus chers que les tokens en entrée

n°70656630
Olivie
SUUUUUUUUUUUUUU
Posté le 21-05-2024 à 17:30:31  profilanswer
 

fazero a écrit :


C'est une bonne estimation oui
 
Tu as ça si tu veux avoir le nombre exact de tokens :
https://platform.openai.com/tokenizer
 
Attention les tokens en sortie sont 3x plus chers que les tokens en entrée


Merci  :jap:


---------------

n°70660753
LibreArbit​re
RIP mon Orion
Posté le 22-05-2024 à 11:05:41  profilanswer
 

fazero a écrit :

C'est une bonne estimation oui


Non car un token correspond à 4 caractères. En anglais cela correspond à un mot mais pas en français où il faut en moyenne 5 caractères soit 0.8 token par mot.

 

De plus, l'utilisation d'un chat bot sous-entend qu'il s'agit d'un échange en mode conversationnel donc si le contexte initial est de 0 et l'input est de 50 tokens, la seconde question prendra en input :

 

- Le nombre de tokens de la première question (50 tokens)
- La réponse à la seconde question (x tokens)
- Le nombre de tokens de la seconde question (xx tokens)

 

Etc.

 

Pour avoir beaucoup utilisé l'API je peux te garantir qu'en mode conversationnel ce n'est pas du tout intéressant et que ChatGPT+ trouve là son intérêt.

 

Dans mon, cas pour de l'analyse de PDF, la vectorisation des coefficients de similarité consomme l'intégralité de la fenêtre contextuelle (32K, dépend du modèle utilisé) donc laisse moi te dire qu'en mode conversationnel la facturation est exponentielle et on arrive vite à $10 pour 5 questions sur un PDF de 30 pages)...

 

GPT-4o a divisé les tarifs de l'API par deux mais à mon sens cela reste très onéreux en mode conversationnel, et à moins d'avoir un business model adapté il faut garder à l'esprit que cela peut revenir très cher (sauf à interroger le PDF sans tenir compte du contexte pour limiter la casse)...

Message cité 3 fois
Message édité par LibreArbitre le 22-05-2024 à 11:07:08

---------------
Hebergement d'images | Le topic de la VR standalone
n°70661160
chris282
id steam/psn : chris282_fr
Posté le 22-05-2024 à 11:52:09  profilanswer
 

LibreArbitre a écrit :


Non car un token correspond à 4 caractères. En anglais cela correspond à un mot mais pas en français où il faut en moyenne 5 caractères soit 0.8 token par mot.
 
De plus, l'utilisation d'un chat bot sous-entend qu'il s'agit d'un échange en mode conversationnel donc si le contexte initial est de 0 et l'input est de 50 tokens, la seconde question prendra en input :
 
- Le nombre de tokens de la première question (50 tokens)
- La réponse à la seconde question (x tokens)
- Le nombre de tokens de la seconde question (xx tokens)
 
Etc.
 
Pour avoir beaucoup utilisé l'API je peux te garantir qu'en mode conversationnel ce n'est pas du tout intéressant et que ChatGPT+ trouve là son intérêt.
 
Dans mon, cas pour de l'analyse de PDF, la vectorisation des coefficients de similarité consomme l'intégralité de la fenêtre contextuelle (32K, dépend du modèle utilisé) donc laisse moi te dire qu'en mode conversationnel la facturation est exponentielle et on arrive vite à $10 pour 5 questions sur un PDF de 30 pages)...
 
GPT-4o a divisé les tarifs de l'API par deux mais à mon sens cela reste très onéreux en mode conversationnel, et à moins d'avoir un business model adapté il faut garder à l'esprit que cela peut revenir très cher (sauf à interroger le PDF sans tenir compte du contexte pour limiter la casse)...


article : "Le lancement de GPT-4o génère la plus forte augmentation de revenu mobile pour ChatGPT" merci pour les sous sous @ChatGpt :D

n°70663555
Olivie
SUUUUUUUUUUUUUU
Posté le 22-05-2024 à 17:35:37  profilanswer
 

LibreArbitre a écrit :


Non car un token correspond à 4 caractères. En anglais cela correspond à un mot mais pas en français où il faut en moyenne 5 caractères soit 0.8 token par mot.
 
De plus, l'utilisation d'un chat bot sous-entend qu'il s'agit d'un échange en mode conversationnel donc si le contexte initial est de 0 et l'input est de 50 tokens, la seconde question prendra en input :
 
- Le nombre de tokens de la première question (50 tokens)
- La réponse à la seconde question (x tokens)
- Le nombre de tokens de la seconde question (xx tokens)
 
Etc.
 
Pour avoir beaucoup utilisé l'API je peux te garantir qu'en mode conversationnel ce n'est pas du tout intéressant et que ChatGPT+ trouve là son intérêt.
 
Dans mon, cas pour de l'analyse de PDF, la vectorisation des coefficients de similarité consomme l'intégralité de la fenêtre contextuelle (32K, dépend du modèle utilisé) donc laisse moi te dire qu'en mode conversationnel la facturation est exponentielle et on arrive vite à $10 pour 5 questions sur un PDF de 30 pages)...
 
GPT-4o a divisé les tarifs de l'API par deux mais à mon sens cela reste très onéreux en mode conversationnel, et à moins d'avoir un business model adapté il faut garder à l'esprit que cela peut revenir très cher (sauf à interroger le PDF sans tenir compte du contexte pour limiter la casse)...


 
En gros, ca serait pour un site très simple (site de réservation de cours sur le code de la route) et ca serait un bot pour permettre à des visiteurs qui souhaitent s'inscrire d'avoir des réponses très "bêtes". D'un coté, ca permettrait de décharger le boulot de la personne qui répond au téléphone.
En gros, si la personne pose 2 questions du genre "comment je peux m'inscrire au cours" ou "comment se passe l'examen", à la très très grosse louche, on parle de combien de € pour cet échange ?


---------------

n°70663933
sorg
trop sur HFR depuis 2001
Posté le 22-05-2024 à 18:42:34  profilanswer
 

Olivie a écrit :


 
En gros, ca serait pour un site très simple (site de réservation de cours sur le code de la route) et ca serait un bot pour permettre à des visiteurs qui souhaitent s'inscrire d'avoir des réponses très "bêtes". D'un coté, ca permettrait de décharger le boulot de la personne qui répond au téléphone.
En gros, si la personne pose 2 questions du genre "comment je peux m'inscrire au cours" ou "comment se passe l'examen", à la très très grosse louche, on parle de combien de € pour cet échange ?


A titre d'exemple:
J'ai un script qui appelle chatgpt3.5.
Ca lui envoie le texte OCR du contenu d'un PDF à chaque fois que je scanne un document. Potentiellement ce texte OCR peut être long (je coupe au nombre maxi de token admissible par chatgpt3.5).
Le prompt demande à chatgpt d'analyser le document et de me fournir un titre adequat pour nommer le pdf et la date du document.
Ce résultat est formaté sous forme d'un json de quelques lignes.
 
Chaque requête me coute entre 1 et 2 centimes.
 
https://rehost.diberie.com/Picture/Get/f/278140
https://rehost.diberie.com/Picture/Get/f/278141

n°70663958
fazero
Posté le 22-05-2024 à 18:46:45  profilanswer
 

LibreArbitre a écrit :


Non car un token correspond à 4 caractères. En anglais cela correspond à un mot mais pas en français où il faut en moyenne 5 caractères soit 0.8 token par mot.
 
De plus, l'utilisation d'un chat bot sous-entend qu'il s'agit d'un échange en mode conversationnel donc si le contexte initial est de 0 et l'input est de 50 tokens, la seconde question prendra en input :
 
- Le nombre de tokens de la première question (50 tokens)
- La réponse à la seconde question (x tokens)
- Le nombre de tokens de la seconde question (xx tokens)
 
Etc.
 
Pour avoir beaucoup utilisé l'API je peux te garantir qu'en mode conversationnel ce n'est pas du tout intéressant et que ChatGPT+ trouve là son intérêt.
 
Dans mon, cas pour de l'analyse de PDF, la vectorisation des coefficients de similarité consomme l'intégralité de la fenêtre contextuelle (32K, dépend du modèle utilisé) donc laisse moi te dire qu'en mode conversationnel la facturation est exponentielle et on arrive vite à $10 pour 5 questions sur un PDF de 30 pages)...
 
GPT-4o a divisé les tarifs de l'API par deux mais à mon sens cela reste très onéreux en mode conversationnel, et à moins d'avoir un business model adapté il faut garder à l'esprit que cela peut revenir très cher (sauf à interroger le PDF sans tenir compte du contexte pour limiter la casse)...


Euh non pas du tout, le nombre de caractères d'un token est variable.

n°70664011
LibreArbit​re
RIP mon Orion
Posté le 22-05-2024 à 18:54:34  profilanswer
 

Non : https://help.openai.com/en/articles [...] count-them


Message édité par LibreArbitre le 22-05-2024 à 18:54:55

---------------
Hebergement d'images | Le topic de la VR standalone
n°70664024
fazero
Posté le 22-05-2024 à 18:56:52  profilanswer
 

Oui en moyenne, mais un token peut n'est pas fixé à 4 caractères

n°70664885
kaloskagat​os
Posté le 22-05-2024 à 21:29:18  profilanswer
 

Olivie a écrit :

 

En gros, ca serait pour un site très simple (site de réservation de cours sur le code de la route) et ca serait un bot pour permettre à des visiteurs qui souhaitent s'inscrire d'avoir des réponses très "bêtes". D'un coté, ca permettrait de décharger le boulot de la personne qui répond au téléphone.
En gros, si la personne pose 2 questions du genre "comment je peux m'inscrire au cours" ou "comment se passe l'examen", à la très très grosse louche, on parle de combien de € pour cet échange ?

 

Tu peux mettre 5€ sur ton compte API openai et tester dans la sandbox, tu verras le nombre de token et le coût associé quasi en temps réel. Si tu veux utiliser Anthropic Claude y'a 5$ offerts sur l'api.

 


Tu peux aussi limiter la taille de texte en entrée pour les visiteurs de ton site à genre 500 caractères pour éviter qu'ils collent des quantités énormes de texte :D
Tu peux spécifier a l'api le nombre de token max à générer en sortie, et faire un prompt system demandant au llm d'être bref dans sa réponse.

 

Après si ton site a peu de visite ça va vraiment rien te coûter, tu peux même mettre toutes les informations (les réponses aux questions que tu anticipes de répondre) dans ton prompt système sans t'embêter à mettre en place un système de RAG, système qui te permettrait d'économiser des tokens si tu as vraiment une grosse base de connaissance à interroger.


Message édité par kaloskagatos le 22-05-2024 à 21:34:34

---------------
« Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. »
n°70666042
LibreArbit​re
RIP mon Orion
Posté le 23-05-2024 à 08:10:16  profilanswer
 

Faut quand même préciser que ça ne va pas lui coûter grand chose si GPT-3.5 Turbo lui suffit car il ne coûte que $1.5/1M.... S'il a besoin d'un raisonnement plus avancé, GPT-4o lui coûtera 10x plus cher ($15/1M)...


---------------
Hebergement d'images | Le topic de la VR standalone
n°70666117
yohaskan
Posté le 23-05-2024 à 08:38:15  profilanswer
 

Quelqu'un arrive a lancer Copilot online ce matin ?
https://copilot.microsoft.com/?cult [...] country=fr
Microsoft a foutu le bronx et ne semble plus autoriser l'accès hors de Edge

n°70666735
kaloskagat​os
Posté le 23-05-2024 à 10:28:38  profilanswer
 

LibreArbitre a écrit :

Faut quand même préciser que ça ne va pas lui coûter grand chose si GPT-3.5 Turbo lui suffit car il ne coûte que $1.5/1M.... S'il a besoin d'un raisonnement plus avancé, GPT-4o lui coûtera 10x plus cher ($15/1M)...


 
On est d'accord, mais "site de réservation de cours sur le code de la route" je pense que n'importe quel LLM fera l'affaire :D


---------------
« Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. »
n°70667133
yohaskan
Posté le 23-05-2024 à 11:28:20  profilanswer
 

Encore faut t-il se fier à la véracité de leur réponses.
Quel est le % d'erreur de GPT ou d'un LLM entrainé à une tâche éducative spécifique.
Dont la moindre information erroné te coutera 1 point au passage du code Officiel.


Message édité par yohaskan le 23-05-2024 à 11:32:37
n°70667272
kaloskagat​os
Posté le 23-05-2024 à 11:45:32  profilanswer
 

Non mais faut relire le cas d'utilisation, c'est pas dans le but de remplacer le prof d'auto école.


---------------
« Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. »
n°70667449
yohaskan
Posté le 23-05-2024 à 12:12:45  profilanswer
 

Non mais faut lire aussi ma réponse.
Le risque est de donner une information erroné en guise de réponse à des élèves qui sont en phase d'apprentissage
Donc comment peuvent ils mettre en doute l'information erroné de l'IA vu qu'il sont là pour apprendre ?  
Redemander à un instructeur humain derrière ?
 
Pour info sur les % de taux hallucinations dans le cadre de thème juridique :
les taux d’hallucination de GPT 3.5, PaLM 2 et Llama 2 sont respectivement de 69 %, 72% et 88 % en réponse à des requêtes juridiques spécifiques
https://www.actuia.com/actualite/ha [...] juridique/
 
Mais sinon oui si c'est juste une IA standardiste au téléphone, là sera un peu moins grave si elle hallucine sur les horaires d'ouverture le dimanche de l'auto école


Message édité par yohaskan le 23-05-2024 à 12:17:19
n°70667492
kaloskagat​os
Posté le 23-05-2024 à 12:19:59  profilanswer
 

Je crois vraiment que ce n'est pas le propos : le but est de répondre à des questions d'ordre pratique pour s'inscrire à des cours d'auto-école. Il n'est pas question de faire un bot qui répond à des questions sur le code de la route.

 

edit: ok donc maintenant t'as relu et édité ton message donc t'as bien compris :)


Message édité par kaloskagatos le 23-05-2024 à 12:21:19

---------------
« Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. »
n°70667658
LibreArbit​re
RIP mon Orion
Posté le 23-05-2024 à 12:56:03  profilanswer
 

J'avais acheté le LTD de Chatbase et je n'utilise pas du tout mes crédits mensuels pour L'API donc si tu veux tester pas de souci... Ça prend 5 mn à setup...

 

J'ai aussi un abonnement (Pro) à docAnalyzer.ai et je n'utilise pas (encore) mon forfait pour l'API ou l'OCR donc si tu veux tester, c'est également possible (mais avec du GPT-3.5 Turbo car j'ai pas envie de donner accès à ma clé API GPT-4o quand même :o)


Message édité par LibreArbitre le 23-05-2024 à 13:36:59

---------------
Hebergement d'images | Le topic de la VR standalone
n°70685142
rz1
Profil sup​primé
Posté le 26-05-2024 à 09:48:10  profilanswer
 

L'intention est là... peut mieux faire.

 

https://img.super-h.fr/images/2024/05/26/60e601d85f4227b85d98033befebd54f.png

Message cité 1 fois
Message édité par rz1 le 26-05-2024 à 09:51:43

---------------
Message édité par rz1 le <INVALID FIELD TYPE> à <INVALID FIELD TYPE>  -   Message cité <INVALID VALUE> fois
n°70685153
rz1
Profil sup​primé
Posté le 26-05-2024 à 09:49:47  profilanswer
 

[:discord-mlp]  
 
https://img.super-h.fr/images/2024/05/26/e8611847e6b7052a1dba40c20baa762d.png


Message édité par rz1 le 26-05-2024 à 09:50:51

---------------
Message édité par rz1 le <INVALID FIELD TYPE> à <INVALID FIELD TYPE>  -   Message cité <INVALID VALUE> fois
n°70685168
rz1
Profil sup​primé
Posté le 26-05-2024 à 09:52:31  profilanswer
 

Ca reste impressionnant tout de même, ça va trop vite, dans 1 an ca va donner quoi l'IA ???


---------------
Message édité par rz1 le <INVALID FIELD TYPE> à <INVALID FIELD TYPE>  -   Message cité <INVALID VALUE> fois
n°70685187
verdoux
And I'm still waiting
Posté le 26-05-2024 à 09:55:55  profilanswer
 

rz1 a écrit :

Ca reste impressionnant tout de même, ça va trop vite, dans 1 an ca va donner quoi l'IA ???


Y a mieux:
https://deepmind.google/discover/bl [...] -geometry/
 

n°70685991
basketor63
LFI et le PC ne sont pas d'EG
Posté le 26-05-2024 à 12:32:26  profilanswer
 


 
C'est un dessin qui est introuvable sur le net ou bien l'IA a réussit à trouver des réponses existantes sur le net ?

n°70686882
rz1
Profil sup​primé
Posté le 26-05-2024 à 15:11:48  profilanswer
 

basketor63 a écrit :

 

C'est un dessin qui est introuvable sur le net ou bien l'IA a réussit à trouver des réponses existantes sur le net ?

 

C'est GPT 4o qui analyse l'image tout simplement, mais le résultat est médiocre. Idem avec un autre essai.

 

GPT-4o ne va pas aller sur le net pour voir si il y a les réponss toute faite. L'image est passée dans le modele multimodal puis il en ressort un résultat. Pour ce domaine, comparaison d'image, on sent que c'est pas encore trop ca.

 

Si vous voullez essayer un Where's Wally?, j'ai plus de token free pour le moment.


Message édité par rz1 le 26-05-2024 à 15:15:32

---------------
Message édité par rz1 le <INVALID FIELD TYPE> à <INVALID FIELD TYPE>  -   Message cité <INVALID VALUE> fois
n°70688380
teepodavig​non
Posté le 26-05-2024 à 18:32:40  profilanswer
 

rz1 a écrit :

Ca reste impressionnant tout de même, ça va trop vite, dans 1 an ca va donner quoi l'IA ???


bah demande à chatgpt  [:hahanawak]


---------------
Laurent est mon fils.
n°70690570
ese-aSH
Welcome To Avalon
Posté le 27-05-2024 à 07:55:21  profilanswer
 

teepodavignon a écrit :


bah demande à chatgpt  [:hahanawak]


:o
https://rehost.diberie.com/Picture/Get/f/279094


---------------
On a tous un avis, le donne pas.
n°70692446
Usernet
Since 2004
Posté le 27-05-2024 à 12:36:43  profilanswer
 

Hello, savez-vous ce qui me faut pour utiliser copilot dans Excel (online) ?
Copilot est active sur le PC (Win11) et je possèdent une licence Microsoft 365 E3.
 
L’icône copilote n'apparait pas sur le ruban Excel (même pas grisée) en l'ouvrant depuis Sharepoint.

n°70692936
kaloskagat​os
Posté le 27-05-2024 à 13:47:59  profilanswer
 


 
 :D


---------------
« Le hasard, c’est différent de la chance. Parce que la chance, je n'en ai jamais. »
n°70710928
Olivie
SUUUUUUUUUUUUUU
Posté le 29-05-2024 à 21:35:38  profilanswer
 

Yo les pros, si je prends la version ChatGPT plus, je peux lui upload un fichier (doc ou pdf) pour lui demander de me réecrire les textes qu'ils contient ?
Environ 27 pages de textes ou devrais je le diviser en plusieurs pages ?

 

EDIT: oui ca marche :o


Message édité par Olivie le 29-05-2024 à 21:54:32

---------------

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  62  63  64  65  66  67

Aller à :
Ajouter une réponse
 

Sujets relatifs
THE GAME -S01Q86 - MDJ : MIZA, Histoire d'amour et de comptableNombre de réponses par page par défaut
Jeu du Dico : POPOLL Vainqueur de la S3 - RDV sur le topic de la S4Notification des réponses
mails d'avertissements des réponses sur hfr[Questions sans réponses] Timidité, rejet, décès
(voiture) casi achat, besoin de réponses[Le topic de toutes les réponses]
Je voudrais avoir vos réponses pour mes questionsAPL petite question sans réponses
Plus de sujets relatifs à : [Topic unique] IA générative de texte, ChatGPT, Copilot, Gemini & co


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR