Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1504 connectés 

 

Sujet(s) à lire :
    - Who's who@Programmation
 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  26438  26439  26440  ..  27179  27180  27181  27182  27183  27184
Auteur Sujet :

[blabla@olympe] Le topic du modo, dieu de la fibre et du monde

n°2489704
XaTriX
Posté le 15-01-2025 à 17:21:32  profilanswer
 

Reprise du message précédent :
Tiens d'ailleurs, quelle année vous avez eu internet à la zonmai ?
 
97 ici, moteur de recherche altavista :o


---------------
Proxytaf ? non rien
mood
Publicité
Posté le 15-01-2025 à 17:21:32  profilanswer
 

n°2489705
Kenshineuh
Posté le 15-01-2025 à 17:23:37  profilanswer
 

Je sais plus mais de mémoire je l’ai d’abord eu sur la Dreamcast avant le PC, donc je dirais 99.

n°2489706
Dion
Acceuil
Posté le 15-01-2025 à 17:27:37  profilanswer
 

kenshineuh tu le fais exprès... surtout ce topic de boomers, ils vont te raconter leurs éjaculations quand ils ont enfin eu un modem en 14 400 bauds


---------------
It is not called show art
n°2489707
rufo
Pas me confondre avec Lycos!
Posté le 15-01-2025 à 17:27:45  profilanswer
 

SekYo a écrit :

Mais du coup hephaestos, tu penses donc que y a pas de différence fondamentale (je ne parle pas d’âme ou truc surnaturel du genre hein) avec ce que fait un cerveau biologique ? Que si le "substrat" change, au final nos neurones font "juste" que associer le trucs les plus probables suite a nos expériences (vision, conversation etc...) des dix dernières secondes/minutes/années ?


Si j'en crois ce que dis Stanislas Dehaene dans son bouquin "une idée dans la tête", pour l'instant, c'est justement ce qu'on ne sait pas. On sait que plus des infos (signaux électriques) vont transiter par des neurones, plus ça va renforcer la connexion entre eux te qu'a contrario, si pendant un certain temps, rien ou quasi rien transitent entre 2 neurones, la connexion va se défaire.
Ainsi, chez un bébé, c'est plusieurs millions de connexions et déconnexions qui se font et se défont par jour ! Plus on vieillit, moins notre cerveau conserve cette plasticité.
 
Ex concret : plus on apprend tard une langue étrangère (i.e. à partir de l'adolescence, ça commence à faire "tard" ), plus on fera de fautes de grammaires quand on va la parler par rapport à qq'un qui l'aura apprise bébé ou très jeune. Etude faite sur plus de 700 000 personnes d'après le bouquin. ;)


---------------
Astres, outil de help-desk GPL : http://sourceforge.net/projects/astres, ICARE, gestion de conf : http://sourceforge.net/projects/icare, Outil Planeta Calandreta : https://framalibre.org/content/planeta-calandreta
n°2489708
Kenshineuh
Posté le 15-01-2025 à 17:29:40  profilanswer
 

Dion a écrit :

kenshineuh tu le fais exprès... surtout ce topic de boomers, ils vont te raconter leurs éjaculations quand ils ont enfin eu un modem en 14 400 bauds


 
Tu préfères discuter vidéos YouTube ? :o

n°2489709
rufo
Pas me confondre avec Lycos!
Posté le 15-01-2025 à 17:34:00  profilanswer
 

Hermes le Messager a écrit :


 
Ça par contre, je m'en suis drôlement rendu compte avec la musique, même quand on crée "par opposition".


C'est bien pour ça que j'ai distinguer la création d'un oeuvre (musique, tableau, sculpture, livre...) de l'invention d'une théorie en maths, physique... dans le premier cas, on va être très influencé, consciemment ou pas par tout ce qu'on a déjà vu (c'est particulièrement visible dans le monde de la musique avec les plagiats qui des fois n'en sont pas, juste une coïncidence, sachant qu'il y a un nb fini de notes de musiques, donc pas vraiment une infinité de combinaisons et en plus, certaines combinaisons sonnent mieux que d'autres, ont plus de succès...).
 
Alors que pour une théorie en maths, je me dis qu'il doit être possible d'inventer un truc certes pas ex-nihilo, mais assez WTF pour son époque.


---------------
Astres, outil de help-desk GPL : http://sourceforge.net/projects/astres, ICARE, gestion de conf : http://sourceforge.net/projects/icare, Outil Planeta Calandreta : https://framalibre.org/content/planeta-calandreta
n°2489710
rufo
Pas me confondre avec Lycos!
Posté le 15-01-2025 à 17:36:25  profilanswer
 

XaTriX a écrit :

Tiens d'ailleurs, quelle année vous avez eu internet à la zonmai ?
 
97 ici, moteur de recherche altavista :o


98, abo pris chez un petit FAI local, Créaweb :) Modem 33.6 Olitec. On payait à la minute de connexion et quand ma mère décrochait, ça coupait le téléchargement (merci Download Accelerator pour la reprise du download et l'optimisation de débit de téléchargement  :bounce: )
Pareil, moteur de recherche : Altavista.
 

Dion a écrit :

kenshineuh tu le fais exprès... surtout ce topic de boomers, ils vont te raconter leurs éjaculations quand ils ont enfin eu un modem en 14 400 bauds


T'es pas tombé loin  :whistle: Mais je suis pas si vieux que ça pour avoir eu du 14.4 ;)


Message édité par rufo le 15-01-2025 à 17:37:31

---------------
Astres, outil de help-desk GPL : http://sourceforge.net/projects/astres, ICARE, gestion de conf : http://sourceforge.net/projects/icare, Outil Planeta Calandreta : https://framalibre.org/content/planeta-calandreta
n°2489711
el muchach​o
Comfortably Numb
Posté le 15-01-2025 à 17:56:21  profilanswer
 

hephaestos a écrit :


Ça reste de la combinaison d'idées existantes, elles-même issues de nos expériences.  
 
C'est très réducteur de voir les LLMs comme un générateur de banalités, parce qu'ils proposent le mot le plus probable. Cela se passe dans un contexte, le calcul de statistique n'en est pas un parce que les conversations sont toutes uniques. Ce qui distingue les LLMs c'est le haut niveau d'abstraction auquel ils ont accès, pour pouvoir estimer des probabilités dans un espace généralisé comparable à des idées et des concepts. Concrètement, ça veut dire qu'un LLM peut conceptualiser ce qu'est un mathématicien, et ce qui fait qu'une théorie mathématique est intéressante. Partant de là, il peut, comme le font les génies des maths, trouver dans deux concepts apparemment étrangers une utilité qui rend probable leur combinaison. Encore une fois je ne dis pas qu'ils le font, ni qu'ils le feront ; juste que c'est la même créativité qui est à l'œuvre quand on lui demande de jouer le rôle d'un forgeron anglais au moyen-âge, tout comme entre un artiste humain et un medaillé Fields.


 
FWIW, j'ai posé la question à DeepSeek, et voici sa réponse:
 
 
Can you explain me the words induction and transduction in the context of LLMs ?
 
Certainly! In the context of machine learning, including large language models (LLMs), the terms **induction** and **transduction** refer to different approaches to learning and making predictions. Here's how they apply:
 
---
 
### **Induction**
- **Definition**: Induction refers to the process of learning a general model or rule from specific training data. The model is trained to capture patterns or relationships in the data, and once trained, it can generalize to make predictions on **unseen data**.
- **In LLMs**: When an LLM is trained on a large corpus of text, it learns general patterns of language (e.g., grammar, semantics, and context). After training, the model can generate text or answer questions based on its learned knowledge, even for inputs it has never seen before.
- **Key Idea**: The model **generalizes** from the training data to new, unseen examples.
 
---
 
### **Transduction**
- **Definition**: Transduction refers to making predictions for specific instances without explicitly learning a general model. Instead of generalizing, the model uses the training data directly to make predictions for the given test cases.
- **In LLMs**: While LLMs are primarily inductive (they learn general language patterns), some aspects of their behavior can be seen as transductive. For example:
  - In-context learning: When you provide a few examples (few-shot learning) in the prompt, the model uses these specific examples to make predictions for the current task without updating its internal parameters.
  - Fine-tuning on specific tasks: If an LLM is fine-tuned on a small dataset for a specific task, it may rely heavily on the patterns in that dataset rather than generalizing broadly.
- **Key Idea**: The model leverages **specific instances** from the training data to make predictions for the given test cases.
 
---
 
### **Key Differences**

| **Aspect**         | **Induction**                          | **Transduction**                      |
|---------------------|----------------------------------------|---------------------------------------|
| **Goal**            | Learn a general model for unseen data | Make predictions for specific cases  |
| **Training Data**   | Used to generalize                    | Used directly for predictions        |
| **Example in LLMs** | Pre-training on a large corpus        | Few-shot learning with examples      |


---
 
### **Summary**
- **Induction** is about learning a general model that can be applied to new, unseen data.
- **Transduction** is about using specific training examples to make predictions for specific test cases.
 
In practice, LLMs combine both approaches: they are trained inductively on large datasets to learn general language patterns, but they can also exhibit transductive behavior when adapting to specific tasks or contexts through prompts or fine-tuning.
 
Do LLMs make internal concepts when they generalize ?
 
Yes, **large language models (LLMs)** develop **internal representations** or **concepts** as they generalize during training. These representations are not explicitly programmed but emerge from the model's exposure to vast amounts of text data. Here's how this works and what it means:
 
---
 
### **How LLMs Develop Internal Concepts**
1. **Training on Data**:
   - LLMs are trained on massive datasets containing diverse text (e.g., books, articles, websites).
   - During training, the model learns to predict the next word in a sequence, which forces it to capture patterns, relationships, and structures in the data.
 
2. **Emergence of Representations**:
   - As the model processes text, it builds **internal representations** (often called **embeddings** or **latent representations**) of words, phrases, and even higher-level concepts.
   - These representations are encoded in the model's parameters (weights and biases) and are distributed across its neural network layers.
 
3. **Hierarchical Abstraction**:
   - Lower layers of the model tend to capture simpler features like word morphology or syntax.
   - Higher layers capture more abstract and complex concepts, such as context, semantics, and even reasoning patterns.
 
---
 
### **What Are These Internal Concepts?**
- **Word-Level Concepts**: The model learns embeddings for individual words, capturing their meanings, relationships (e.g., synonyms, antonyms), and usage in different contexts.
- **Phrase-Level Concepts**: The model can represent multi-word expressions, idioms, and common phrases.
- **Higher-Level Concepts**: The model may develop representations for abstract ideas, such as "justice," "causality," or "emotion," based on how these concepts are used in text.
- **Contextual Understanding**: The model learns to represent concepts dynamically based on context. For example, the word "bank" might be represented differently in "river bank" vs. "financial bank."
 
---
 
### **Evidence of Internal Concepts**
1. **Probing Studies**:
   - Researchers use techniques like **probing** to analyze whether specific concepts (e.g., parts of speech, sentiment, or factual knowledge) are encoded in the model's internal representations.
   - These studies suggest that LLMs do encode meaningful information about concepts, though the representations are often entangled and distributed.
 
2. **Interpretability Research**:
   - Tools like **attention visualization** and **neuron activation analysis** show that certain neurons or layers in the model activate in response to specific concepts or patterns.
 
3. **Emergent Abilities**:
   - LLMs demonstrate abilities like reasoning, summarization, and analogy-making, which suggest that they have internalized abstract concepts and relationships.
 
---
 
### **Limitations of Internal Concepts**
- **No Explicit Understanding**: While LLMs develop internal representations, these are not the same as human-like understanding. The model doesn't "know" concepts in the way humans do; it simply captures statistical patterns.
- **Brittleness**: The model's representations can fail in edge cases or when faced with ambiguous or adversarial inputs.
- **Opaqueness**: The internal representations are often difficult to interpret, making it hard to fully understand how the model arrives at its predictions.
 
---
 
### **Summary**
LLMs do develop **internal concepts** as they generalize from training data. These concepts are encoded in the model's parameters and allow it to perform tasks like language generation, reasoning, and problem-solving. However, these representations are statistical and lack the depth of human understanding. They emerge from patterns in the data rather than being explicitly designed or grounded in real-world experience.
 
Can a LLM conceptualize a new mathematical object that it could use later to prove a theorem or invent new theorems,  by "new", I mean a mathematical object that doesn't exist in the known corpus of mathematics ?
 
This is a fascinating and complex question! Let’s break it down and explore whether a **large language model (LLM)** could conceptualize a **new mathematical object** that doesn’t exist in the known corpus of mathematics, and whether it could use such an object to prove or invent new theorems.
 
---
 
### **Can an LLM Conceptualize a New Mathematical Object?**
1. **Limitations of LLMs**:
   - LLMs are trained on existing text data, including mathematical literature. They learn patterns, relationships, and structures from this data but do not have **intrinsic creativity** or **independent reasoning**.
   - They cannot "think" or "imagine" in the way humans do. Their outputs are based on statistical correlations in the training data, not on genuine conceptual understanding.
 
2. **Novelty in Outputs**:
   - While LLMs can generate text that *appears* novel, this novelty is constrained by the patterns and combinations present in the training data.
   - For example, an LLM might combine known mathematical concepts in unexpected ways, but it cannot truly invent something entirely new that has no basis in its training data.
 
3. **Mathematical Creativity**:
   - True mathematical creativity involves deep insight, abstraction, and reasoning about structures that may not yet exist. LLMs lack the ability to reason abstractly or to ground their outputs in a formal system of logic or mathematics.
 
---
 
### **Could an LLM Invent a New Mathematical Object?**
- **Unlikely from Scratch**: An LLM cannot invent a truly new mathematical object that has no connection to its training data. It can only remix or reinterpret existing ideas.
- **Potential for Inspiration**: An LLM might generate a description or definition of something that *resembles* a new mathematical object. A human mathematician could then take this output, refine it, and formalize it into a legitimate new concept.
 
---
 
### **Could an LLM Use a New Object to Prove a Theorem or Invent New Theorems?**
1. **Proving Theorems**:
   - LLMs can generate proofs for known theorems by mimicking patterns in the training data. However, they lack the ability to reason formally or verify the correctness of their proofs.
   - If a "new" mathematical object were introduced (even by a human), an LLM might attempt to use it in a proof, but the proof would likely be flawed or nonsensical unless the object aligns with existing mathematical structures.
 
2. **Inventing Theorems**:
   - LLMs can generate statements that *look like* theorems, but these are typically recombinations of existing ideas.
   - Inventing a meaningful new theorem requires deep insight into the implications of a new mathematical object, which LLMs cannot achieve.
 
---
 
### **The Role of Humans in the Process**
While LLMs cannot independently conceptualize or formalize new mathematical objects, they can assist humans in the creative process:
1. **Idea Generation**: An LLM might suggest novel combinations of concepts that inspire a human mathematician to explore new directions.
2. **Exploration of Hypotheses**: An LLM could help explore the implications of a new object or conjecture proposed by a human.
3. **Automation of Routine Tasks**: LLMs can assist with tedious aspects of mathematical work, such as generating examples or checking algebraic manipulations.
 
---
 
### **Example Scenario**
1. A human mathematician defines a new mathematical object (e.g., a new type of algebraic structure).
2. The mathematician asks the LLM to explore properties or potential theorems involving this object.
3. The LLM generates conjectures or proofs based on patterns in its training data.
4. The mathematician evaluates and refines the LLM's output, potentially leading to new insights or discoveries.
 
---
 
### **Conclusion**
LLMs cannot independently conceptualize truly new mathematical objects or invent new theorems. However, they can serve as tools to assist human mathematicians in exploring ideas, generating hypotheses, and automating routine tasks. The creativity and formal reasoning required for groundbreaking mathematical discoveries remain firmly in the domain of human intelligence—at least for now!


Message édité par el muchacho le 15-01-2025 à 18:05:10

---------------
Les aéroports où il fait bon attendre, voila un topic qu'il est bien
n°2489712
masklinn
í dag viðrar vel til loftárása
Posté le 15-01-2025 à 18:02:38  profilanswer
 

Dion a écrit :

kenshineuh tu le fais exprès... surtout ce topic de boomers, ils vont te raconter leurs éjaculations quand ils ont enfin eu un modem en 14 400 bauds


Ici c’est la fransse monsieur, on a commencé sur le minitel [:gerrar]


---------------
I mean, true, a cancer will probably destroy its host organism. But what about the cells whose mutations allow them to think outside the box by throwing away the limits imposed by overbearing genetic regulations? Isn't that a good thing?
n°2489713
hephaestos
Sanctis Recorda, Sanctis deus.
Posté le 15-01-2025 à 18:07:35  profilanswer
 

Pas mal, à ceci près qu'il mentionne à maintes reprises la vraie pensée ou la vraie imagination, concepts sans substance.

 

Sur le fond et sur la conclusion je suis d'accord.

mood
Publicité
Posté le 15-01-2025 à 18:07:35  profilanswer
 

n°2489714
ratibus
Posté le 15-01-2025 à 18:19:02  profilanswer
 

masklinn a écrit :


Ici c’est la fransse monsieur, on a commencé sur le minitel [:gerrar]


J'ai même gagné un PC grâce à un jeu sur Minitel  :sol:

n°2489715
Jubijub
Parce que je le VD bien
Posté le 15-01-2025 à 18:37:42  profilanswer
 

masklinn a écrit :


Ici c’est la fransse monsieur, on a commencé sur le minitel [:gerrar]


 
mon pseudo vient de l'ère du minitel (j'avais genre 9-10 ans :P )
le porn sur minitel c'était pas ouf :o


---------------
Jubi Photos : Flickr - 500px
n°2489716
el_barbone
too old for this shit ...
Posté le 15-01-2025 à 18:48:18  profilanswer
 

XaTriX a écrit :

Tiens d'ailleurs, quelle année vous avez eu internet à la zonmai ?
 
97 ici, moteur de recherche altavista :o


1995 rtc
Fin 1998 cable.
 


---------------
En théorie, la théorie et la pratique sont identiques, en pratique, non.
n°2489717
el muchach​o
Comfortably Numb
Posté le 15-01-2025 à 19:03:28  profilanswer
 

XaTriX a écrit :

Tiens d'ailleurs, quelle année vous avez eu internet à la zonmai ?

 

97 ici, moteur de recherche altavista :o


J'ai d'abord eu l'internet à l'université, avant l'invention du web, donc fin 1991 ou 1992. Mes outils favoris, c'était Gopher, IRC, telnet et ftp. Je me souviens que j'avait trouvé un doc qui expliquait comment fabriquer des bombes. :p
Puis lors d'un stage dans un labo, mon prof de stage me montre NCSA Mosaic, et là, un nouveau monde s'ouvre à moi.  :love:
A la maison, je n'ai plus le souvenir de quand j'ai eu l'internet. Sûrement quand j'ai eu mon premier taf, vers 1997.
RTC en 9600 bauds puis 56k chez Free, puis ADSL.


Message édité par el muchacho le 15-01-2025 à 19:14:45

---------------
Les aéroports où il fait bon attendre, voila un topic qu'il est bien
n°2489718
nucl3arfl0
Better Call Saul
Posté le 15-01-2025 à 19:07:25  profilanswer
 

Très tôt, vers 96 je crois, avec Wanadoo.
Ensuite j'ai eu la chance de bascule sur le câble aux alentours de 99/2000 (256kbs/384kbps) puis après aDSL puis dégroupage jusqu'à ce que je déménage de chez mes parents, puis aDSL, fibre, à nouveau aDSL, puis enfin fibre.

n°2489719
Hermes le ​Messager
Breton Quiétiste
Posté le 15-01-2025 à 20:11:40  profilanswer
 

masklinn a écrit :


Ici c’est la fransse monsieur, on a commencé sur le minitel [:gerrar]


 
lol, moi oui effectivement (malheureusement). :D ste pompe à fric. :D
 
Et le pay as you go pour tout (premier téléphone portable que j’ai eu… je me suis bien fait traire comme une grosse vache :D )
 
https://coimages.sciencemuseumgroup.org.uk/53/17/medium_2008_5016_0003__0003_.jpg


---------------
Expert en expertises
n°2489720
Dion
Acceuil
Posté le 15-01-2025 à 20:18:35  profilanswer
 

Kenshineuh a écrit :


Tu préfères discuter vidéos YouTube ? :o


Si le choix doit se faire entre les orgasmes adolescents de papy harko, les dramas d'influenceurs bagnoles et les excellents contenus de micode, je n'ai aucune hésitation :sol:  
 

masklinn a écrit :


Ici c’est la fransse monsieur, on a commencé sur le minitel [:gerrar]


J'ai pas parlé d'upgrade au hasard  [:cosmoschtroumpf]


---------------
It is not called show art
n°2489721
Dion
Acceuil
Posté le 15-01-2025 à 20:33:34  profilanswer
 

Citation :

Nonprofit Founded by Stacey Abrams Admits Secretly Aiding Her 2018 Campaign
The New Georgia Project, whose leaders also included Raphael Warnock, now a senator, admitted violating campaign finance laws. It agreed to a $300,000 penalty.


 

Citation :

Musk Said to Have Intervened to Help Free Italian Jailed in Iran
The Italian journalist was released soon after Elon Musk met with an Iranian ambassador, officials in Iran said. So was an Iranian detained in Italy who was wanted by the U.S.


 
 [:ploumm:3]


---------------
It is not called show art
n°2489722
flo850
moi je
Posté le 15-01-2025 à 20:38:12  profilanswer
 

On est rentré, l'écho n'est pas concluante (ni en bien ni en mal) , le dossier de Raphaël va repasser en commission d'expert inter service d'ici la fin du mois pour voir la suite des évènements


---------------

n°2489723
Dion
Acceuil
Posté le 15-01-2025 à 20:44:16  profilanswer
 

Ça lui dirait d’arrêter de dépenser mes impôts ?  :heink:


---------------
It is not called show art
n°2489724
hephaestos
Sanctis Recorda, Sanctis deus.
Posté le 15-01-2025 à 20:46:24  profilanswer
 

[:poogz:5]

n°2489725
masklinn
í dag viðrar vel til loftárása
Posté le 15-01-2025 à 21:17:46  profilanswer
 

Jubijub a écrit :


 
mon pseudo vient de l'ère du minitel (j'avais genre 9-10 ans :P )
le porn sur minitel c'était pas ouf :o


C’est sur qu’il valait mieux pas être aphantasique.  

flo850 a écrit :

On est rentré, l'écho n'est pas concluante (ni en bien ni en mal) , le dossier de Raphaël va repasser en commission d'expert inter service d'ici la fin du mois pour voir la suite des évènements


:/

Dion a écrit :

Ça lui dirait d’arrêter de dépenser mes impôts ?  :heink:


 [:implosion du tibia]


Message édité par masklinn le 15-01-2025 à 21:17:57

---------------
I mean, true, a cancer will probably destroy its host organism. But what about the cells whose mutations allow them to think outside the box by throwing away the limits imposed by overbearing genetic regulations? Isn't that a good thing?
n°2489726
el_barbone
too old for this shit ...
Posté le 15-01-2025 à 21:35:29  profilanswer
 

flo850 a écrit :

On est rentré, l'écho n'est pas concluante (ni en bien ni en mal) , le dossier de Raphaël va repasser en commission d'expert inter service d'ici la fin du mois pour voir la suite des évènements


:/


---------------
En théorie, la théorie et la pratique sont identiques, en pratique, non.
n°2489727
SekYo
Posté le 15-01-2025 à 21:36:22  profilanswer
 

Dion a écrit :

Ça lui dirait d’arrêter de dépenser mes impôts ?  :heink:


LooKooM sort de ce corps :o

n°2489743
Kenshineuh
Posté le 16-01-2025 à 00:08:00  profilanswer
 

C'est le multi de Flaie ça ou quoi.

n°2489744
XaTriX
Posté le 16-01-2025 à 00:13:15  profilanswer
 

C'est Jovalise


---------------
Proxytaf ? non rien
n°2489745
XaTriX
Posté le 16-01-2025 à 00:13:26  profilanswer
 

n00b


---------------
Proxytaf ? non rien
n°2489746
Kenshineuh
Posté le 16-01-2025 à 00:14:35  profilanswer
 

Merci. Heureusement que tu es là pour nous éclairer.

n°2489747
XaTriX
Posté le 16-01-2025 à 00:16:41  profilanswer
 

Avec Plaisir :jap:
 
XaT


---------------
Proxytaf ? non rien
n°2489749
___alt
Posté le 16-01-2025 à 00:50:08  profilanswer
 

De rien :jap:
 
AlT


---------------
TRIPS RIGHT BUNCH F SHUTTLE TOM AND JERRY RIGHT YELLOW
n°2489750
Flaie
Posté le 16-01-2025 à 05:55:57  profilanswer
 

Kenshineuh a écrit :

Merci. Heureusement que tu es là pour nous éclairer.


Je n'ai jamais eu de multi.
 
Francisco.

Message cité 1 fois
Message édité par Flaie le 16-01-2025 à 05:56:11
n°2489751
el muchach​o
Comfortably Numb
Posté le 16-01-2025 à 05:59:04  profilanswer
 

Dion a écrit :

Citation :

Nonprofit Founded by Stacey Abrams Admits Secretly Aiding Her 2018 Campaign
The New Georgia Project, whose leaders also included Raphael Warnock, now a senator, admitted violating campaign finance laws. It agreed to a $300,000 penalty.


 

Citation :

Musk Said to Have Intervened to Help Free Italian Jailed in Iran
The Italian journalist was released soon after Elon Musk met with an Iranian ambassador, officials in Iran said. So was an Iranian detained in Italy who was wanted by the U.S.


 
 [:ploumm:3]


Elon est le meilleur en tout, tu peux pas test.
Il a probablement libéré l'italier tout en jouant à Diablo ou à Path of Exile


---------------
Les aéroports où il fait bon attendre, voila un topic qu'il est bien
n°2489752
el muchach​o
Comfortably Numb
Posté le 16-01-2025 à 06:01:20  profilanswer
 

Entre nous, c'est pathétique que des journalistes professionnels prennent ce genre de bruit de couloirs pour des informations dignes d'être relayées.


---------------
Les aéroports où il fait bon attendre, voila un topic qu'il est bien
n°2489753
Flaie
Posté le 16-01-2025 à 06:01:32  profilanswer
 

Merci Elon :jap:

n°2489754
Flaie
Posté le 16-01-2025 à 06:02:01  profilanswer
 

el muchacho a écrit :

Entre nous, c'est pathétique que des journalistes professionnels prennent ce genre de bruit de couloirs pour des informations dignes d'être relayées.


Vivement l'article de Mediapart

n°2489755
Elmoricq
Posté le 16-01-2025 à 07:35:58  profilanswer
 

flo850 a écrit :

On est rentré, l'écho n'est pas concluante (ni en bien ni en mal) , le dossier de Raphaël va repasser en commission d'expert inter service d'ici la fin du mois pour voir la suite des évènements


[:zedlefou:3]


Message édité par Elmoricq le 16-01-2025 à 07:36:11
n°2489756
rufo
Pas me confondre avec Lycos!
Posté le 16-01-2025 à 07:40:25  profilanswer
 

XaTriX a écrit :

C'est Jovalise


Non, c'est pas lui. Il poste sur pleins d'autres topics de prog pour fair sa pub pour un site web. Et il s'exprime mieux que Jovalise car on comprend ses msgs de pub :o
 

flo850 a écrit :

On est rentré, l'écho n'est pas concluante (ni en bien ni en mal) , le dossier de Raphaël va repasser en commission d'expert inter service d'ici la fin du mois pour voir la suite des évènements


Bon courage à ton fils et toute la famille :hello:


Message édité par rufo le 16-01-2025 à 07:41:35

---------------
Astres, outil de help-desk GPL : http://sourceforge.net/projects/astres, ICARE, gestion de conf : http://sourceforge.net/projects/icare, Outil Planeta Calandreta : https://framalibre.org/content/planeta-calandreta
n°2489757
mechkurt
Posté le 16-01-2025 à 07:53:02  profilanswer
 

franciscojaimes a écrit :

Ce topic est destiné aux habitués de la section Programmation. Merci de ne pas l'utiliser pour flooder ou pour discuter de sujets hors de propos. Si vous êtes nouveau, prenez le temps de comprendre l'ambiance avant de poster. Le but est de garder une bonne ambiance et de discuter principalement de programmation et d'informatique.


Dans celui-ci au moins il n'a pas mis son lien pour g?dg?t s?lv?t??n... :o  
J'aime bien celui-ci, ou on voit vraiment que c'est un bot à base d'IA qui répond : https://forum.hardware.fr/hfr/Progr [...] m#t2489730


---------------
D3
n°2489758
FlorentG
Posté le 16-01-2025 à 08:02:07  profilanswer
 

XaTriX a écrit :

Tiens d'ailleurs, quelle année vous avez eu internet à la zonmai ?
 
97 ici, moteur de recherche altavista :o


97 aussi ici si mes souvenirs sont bons :
 - modem US Robotics 56K
 - Wanadoo (j'ai gardé la boîte avec le CD d'installation par nostalgie), puis LibertySurf, puis à nouveau Wanadoo quand c'est passé à l'ADSL
 - j'utilisais surtout AltaVista, Yahoo! et un peu voila.fr quand il est sorti en 98

n°2489759
Jubijub
Parce que je le VD bien
Posté le 16-01-2025 à 08:35:39  profilanswer
 

XaTriX a écrit :

Tiens d'ailleurs, quelle année vous avez eu internet à la zonmai ?
 
97 ici, moteur de recherche altavista :o


96, modem Olitec 28k, avec Infonie la première fois je crois


---------------
Jubi Photos : Flickr - 500px
n°2489760
antp
Champion des excuses bidons
Posté le 16-01-2025 à 09:09:36  profilanswer
 

Flaie a écrit :


Bonne année R3g, on ne t'as pas vu faire l'advent of code cette année [:dawa]

 

Au fait, voici le calendrier des anniversaires du topic des gens qui l'ont renseigné (IA générative codée en ADA), vous ne pourrez pas dire que vous ne saviez pas pour meckhurt [:bonnie]

 


+------------------+-----------------+-----------------+-----------------------+
| Janvier          | Février         | Mars            | Avril                 |
+------------------+-----------------+-----------------+-----------------------+
| 01 Sligor        | 12 fiscalisator | 04 skeye        | 03 hephaestos         |
| 23 meckhurt      | 16 boblenain    | 07 koskoz       | 12 Jubijub            |
|                  |                 | 15 Flaie        | 18 Dion               |
|                  |                 | 28 el muchacho  | 29 gatsu35            |
|                  |                 |                 | 29 Hermes le Messager |
+------------------+-----------------+-----------------+-----------------------+
| Mai              | Juin            | Juillet         | Août                  |
+------------------+-----------------+-----------------+-----------------------+
| 11 el_barbone    |                 |                 | 11 antp               |
| 17 ixemul        |                 |                 |                       |
| 24 Blackyell     |                 |                 |                       |
+------------------+-----------------+-----------------+-----------------------+
| Septembre        | Octobre         | Novembre        | Décembre              |
+------------------+-----------------+-----------------+-----------------------+
| 27 theShOcKwAvE  |                 | 02 gilou        | 03 R3g                |
|                  |                 | 09 Shinuza      | 08 lorill             |
|                  |                 | 10 ratibus      | 19 gfive              |
|                  |                 | 13 Elmoricq     | 27 FlorentG           |
|                  |                 | 18 masklinn     |                       |
|                  |                 | 20 Plam         |                       |
|                  |                 | 21 nucl3arfl0   |                       |
|                  |                 | 22 Harkonnen    |                       |
|                  |                 | 23 Schimz       |                       |
|                  |                 | 26 rufo         |                       |
|                  |                 | 28 flo850       |                       |
+------------------+-----------------+-----------------+-----------------------+

 

Grosse présence en Novembre.

 

Le jour est pas bon pour moi :o
(oui j'ai quelques pages de retard)
L'IA est pas encore au point, ça reste de l'à peu près :D


Message édité par antp le 16-01-2025 à 09:10:10

---------------
mes programmes ·· les voitures dans les films ·· apprenez à écrire
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  26438  26439  26440  ..  27179  27180  27181  27182  27183  27184

Aller à :
Ajouter une réponse
 

Sujets relatifs
Plus de sujets relatifs à : [blabla@olympe] Le topic du modo, dieu de la fibre et du monde


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)