Icone social AHP

Grands modèles de langue : résonance ou raisonnement ?

Mercredi 6 mai 2026 - 09:00 - 17:30
CHANGEMENT de lieu : Campus Lettres & Sciences Humaines (CLSH) - Bd Albert 1er - Salle A033 - uniquement en présence
Argumentaire: 

Les grands modèles de langue (LLM) renouvellent en profondeur la question du raisonnement artificiel. En trois ans, on a pu en effet assister à une progression fulgurante de la qualité des productions des LLM qui, pour certains, peuvent accompagner leurs réponses de justifications, d'argumentations étayées, voire de preuves formelles. 

Ce workshop propose d’examiner, au-delà des performances techniques, les enjeux conceptuels et philosophiques soulevés par ces systèmes. Ces raisonnements sont-ils véritablement nouveaux et produits par des machines, ou ne sont-ils que la résonance de raisonnements humains mémorisés dans leur base d'apprentissage ? Que signifie « raisonner » pour un modèle statistique ? Peut-on parler de compréhension, d’inférence ou d’intentionnalité sans sujet pensant ?

Nous interrogerons les continuités et ruptures entre raisonnement humain et calcul algorithmique, ainsi que les implications épistémologiques de l’usage croissant des LLM dans la production de connaissances.

Le workshop se veut un espace de dialogue interdisciplinaire entre informatique, philosophie et sciences cognitives.

Participants: 
  • Clémentine Bleuze (Loria, Université de Lorraine, Nancy)
  • Denis Bonnay (IRePh, Université Paris Nanterre)
  • Christophe Cerisara (Loria, CNRS, Nancy)
  • Martin Schüle (ZHAW - Université des Sciences Appliquées de Zurich)
Programme: 

09:00 Introduction (David Langlois, Manuel Rebuschi, Mathieu d’Aquin)
09:30 Clémentine Bleuze: Discours scientifique sur le "raisonnement" des LLM : impacts sur la recherche et les représentations collectives
10:15 Martin Schüle: Sur la représentation de la sémantique dans les LLM 
11:00 Pause
11:15 Table ronde 1 
12:30 pause déjeuner
14:00 Christophe Cerisara: Raisonnement, mémorisation et généralisation dans les LLM
14:45 Denis Bonnay: Thinking whether thinking models think (À quoi les modèles de raisonnement pensent-ils ?)
15:30 pause
15:45 Table ronde 2 et conclusions
17:00 Démos et posters de doctorants 
17:30 fin

NB. L'ordre des interventions est susceptible d'être modifié

    Résumés: 
    • Clémentine Bleuze 
    Discours scientifique sur le "raisonnement" des LLM : impacts sur la recherche et les représentations collectives
    De quoi parlent les chercheurs et chercheuses en Traitement Automatique des Langues (TAL) lorsqu'ils et elles parlent de "raisonnement" ? En nous appuyant sur un corpus de publications traitant plus particulièrement des grands modèles de langue (LLM), nous verrons que ce terme peut évoquer à la fois un certain type de tâches à résoudre, des capacités de ces modèles, leurs productions, ou encore des stratégies de prompting. Dans un second temps, nous exploiterons des indices lexico-syntaxiques de ce même corpus pour rendre compte de l'emploi de concepts liés au raisonnement (tels que la "compréhension", le "jugement", etc.). Ceci nous amènera finalement à questionner le caractère anthropomorphisant du vocabulaire employé actuellement en TAL, vis-à-vis de modèles probabilistes dépourvus de sentience. Comment trancher entre usages métaphoriques bel et bien ancrés dans le langage technique, et expressions trompeuses pour décrire la réalité des LLM ?
     
    • Denis Bonnay 
    Thinking whether thinking models think (À quoi les modèles de raisonnement pensent-ils ?)
    Résumé: L'arrivée des modèles de raisonnement a suscité de nombreuses interrogations s'agissant aussi bien des performances qui sont les leurs que de savoir ce que font réellement ces modèles. Dans cette intervention, je voudrais m'intéresser aux conditions auxquelles il est pertinent de dire qu'ils "réfléchissent". Je suggère que (1) la question gagne à être abordée dans une perspective fonctionnaliste,  que (2) une telle perspective invite à relativiser l'importance de certains critères souvent tenus pour acquis dans les discussions actuelles tels que la fidélité des traces de raisonnement, et enfin que (3) sur cette base, pourrions avoir davantage de raisons de dire que ces systèmes "réfléchissent" qu’on ne le suppose généralement.
     
    • Christophe Cerisara
    Raisonnement, mémorisation et généralisation dans les LLM
    Les LLM ne raisonnent pas comme les humains. Le terme "raisonnement", tel que couramment appliqué aux LLM, recouvre différentes notions: on peut distinguer les Chain of Thoughts (CoT) issues du pretraining, les CoT apprises de manières supervisées, les CoT apprises par renforcement, mais aussi la décomposition d'une tâche complexe en séquence de tâches plus simples, le raisonnement spatial, temporel, compositionnel, etc. Je présenterai plus particulièrement des travaux de l'état de l'art concernant la non-interprétabilité de la CoT, son rôle en tant qu'artefact technique pour augmenter les resources de calcul disponibles au LLM pour construire sa réponse, la source possible dans le corpus d'apprentissage de ces capacités de raisonnement, et les méthodes pour obtenir de meilleures CoT.
     
    • Martin Schüle
    Sur la représentation de la sémantique dans les LLM
    Les grands modèles de langage peuvent-ils « comprendre » ? Si la compréhension implique une certaine saisie du sens, il nous faut clarifier ce que le « sens » signifie pour un LLM. J’examine comment le sens peut être représenté dans un LLM et je situe la discussion philosophique autour du concept de sens dans le contexte des débuts de la philosophie analytique, telle qu’elle a été développée par Frege, Russell, Quine et d’autres.

     

    Manifestation organisée par :

    • Groupe LLM & Raisonnement (AHP-Loria)

    coordonnée par :

    • Mathieu d'Aquin (Loria)
    • David Langlois (Loria)
    • Manuel Rebuschi (AHP-PReST)

    Avec le soutien de :

    • AHP-PReST
    • Insight
    • Loria
    • Pôle scientifique AM2I (Université de Lorraine)
    Inscription: 

    Le workshop se déroulera uniquement en présence.
    Entrée libre, inscription obligatoire avant le 20 avril.
    Formulaire d'inscription ici