Icone social AHP

Colloque Cathy Dufour 2018 : Intelligences artificielles

Jeudi 15 novembre 2018 - 14:00 - Vendredi 16 novembre 2018 - 12:00
Vandoeuvre-lès-Nancy, Faculté des Sciences et Technologies, Amphi 05
Programme: 

 

Jeudi 15 novembre

14h – 14h 35    Nazim Fates (Inria Nancy)
Intelligence artificielle : vers l'« ordination universelle » ?

14h 40 – 15h 15    Maxime Amblard (Université de Lorraine)
Calculer sur la langue mais qu'y comprendre ?

15h 15 – 15h 45    Discussion

16h 15 – 16h 55    Manuel Rebuschi & Marion Renauld (Université de Lorraine)
Interagir avec une machine ou faire-semblant ?

16h 55 – 17h 30    Marianne Clausel (Université de Lorraine)
Modélisation probabiliste et analyse de données textuelles : les approches de type topic modeling

17h 35 – 18h 10    Alain Dutech (Inria Nancy)
"Deep Reinforcement Learning" : des fois ça marche, souvent ça marche pas !

18h 10 – …    Discussion

 

Vendredi 16 novembre

9h 15– 9h 50    Irène Marcovici (Université de Lorraine)
Automates cellulaires et phénomènes d'auto-organisation : le rôle de l’aléa

9h 55 - 10h 30    Thomas Boraud (Université de Bordeaux)
Une histoire naturelle des aptitudes

11h – 11h 35    Frédéric Alexandre (Inria Bordeaux)
L'Intelligence Artificielle apprend-elle de ses erreurs ?

11h 35 – …    Discussion

Résumés: 

 

Nazim Fates (Inria Nancy)
Intelligence artificielle : vers « l’ordination universelle » ?

Depuis son apparition en 1956, l'expression d'« intelligence artificielle » a connu une fortune variable. Elle fut d'abord un cri de ralliement pour des enthousiastes qui cherchaient à résoudre des problèmes réputés difficiles par des méthodes algorithmiques nouvelles ; puis, elle devint rapidement une source de déceptions suite aux nombreuses promesses non tenues. L'expression tombe alors en désuétude et finit même par disparaître du vocabulaire scientifique « sérieux ». Suite à des succès récents, elle inonde désormais le discours médiatique, politique, scientifique et industriel. Pourtant, accoler « intelligence » et « artificielle » dans une même locution ne va pas de soi et crée sans cesse confusion et malentendus. Faut-il continuer à utiliser cette expression ? Sinon, par quoi la remplacer ?

Faute de réponse déjà prête à l'emploi, je souhaite mettre à l'épreuve l'expression « d'ordination universelle » comme un possible substitut. J'y vois en effet trois résonances possibles : un écho à « ordinateur », l'évocation du projet de mise en ordre totale du monde, et, enfin, par résonance avec l'étymologie théologique du terme, une sorte de consécration des choses sous l'égide de la technique.

Maxime Amblard (Université de Lorraine)
Calculer sur la langue mais qu'y comprendre ?

Les avancées techniques en intelligence artificielle ont révolutionné les approches calculatoires simulant les aptitudes humaines, notamment le traitement de l’image. L'application de ces méthodes à d’autres domaines ouvre des perspectives et fait apparaître de nouvelles modes scientifiques, en particulier en ce qui concerne la langue naturelle. Si la révolution des réseaux de neurones y prend une place importante, le traitement de la langue semble résister car la nature même de l’objet n’est pas adaptée aux architectures techniques.

Les outils du traitement de la langue s’intéressent à différents niveaux de la linguistique. De la phonologie à la syntaxe, des outils sont opérationnels, mais la problématique se complexifie lorsqu’on s’intéresse au sens des énoncés, soit la sémantique. La sémantique informatique applique des calculs pour produire des représentations abstraites du sens des énoncés. Elle hérite de deux traditions, l’une symbolique issue des travaux de Richard Montague, et l’autre numérique dans la lignée de Zellig Harris.

Dans cet exposé, nous situerons la question des calculs sur la langue en nous focalisant sur le niveau sémantique. Après avoir positionné relativement les approches symboliques et numériques, nous discuterons des limites de leurs applications, en particulier sur la difficulté à couvrir largement et en même temps les phénomènes linguistiques en adéquation avec leurs usages, et à rendre compte des problèmes de compositionnalité.

Manuel Rebuschi & Marion Renauld (Université de Lorraine)
Interagir avec une machine ou faire-semblant ?

L’interaction humain-robot relève en partie de la simulation, de la part du robot mais également de celle de l’agent humain. Le jeu de faire-semblant à l’œuvre quand je fais comme si le robot était un être sensible doté d’une intériorité évoque une célèbre analyse des fictions par K. Walton. L’interaction humain-robot est-elle fictionnelle ? Se sépare-t-elle radicalement des interactions jugées plus sérieuses, d’humain à humain ? On se propose d’explorer cette question en distinguant finalement différents types de faire-semblants, selon que la finalité du jeu de l’interaction lui est interne ou le transcende.

Marianne Clausel (Université de Lorraine)
L'intelligence artificielle au service de l'analyse de données textuelles.
Un exemple d'approche basée sur la modélisation probabiliste

Les données textuelles sont omniprésentes dans tous les domaines : sites web, analyse de documents en tout genre : brevets, cv.... et un grand nombre de questions émergent autour du développement d'outils pertinents pour l'analyse de contenu que ce soit pour comparer le positionnement de deux journaux ou pour faire de l'analyse de sentiments

Nous présentons une manière de résumer l'information présente dans de grands corpus de documents qui utilise des outils probabilistes et qui explique la génération du contenu via les thèmes sous jacents de la collection de documents. Nous montrerons quelques exemples d'applications : analyse de dépêches ou de contenus de tweets de santé

Alain Dutech (Inria Nancy)
"Deep Reinforcement Learning" : des fois ça marche, souvent ça marche pas !

AlphaGO, le logiciel qui a gagné au Go contre un grand maître Coréen en mars 2016, n'est que la partie émergée d'un courant de l'Intelligence artificielle que l'on appelle le «Deep Reinforcement Learning». Cette thématique a le vent en poupe et attise tous les phantasmes. Au cours de cet exposé, nous décortiquerons les principes sous-jacents de cette discipline (Processus de Décision Markovien, Régression par Réseau de Neurones Artificiels) pour mieux en comprendre les possibilités, et surtout, les limites. Et nous verrons aussi que nous manquons cruellement d'outils théorique pour comprendre pourquoi parfois les algorithmes donnent des résultats prodigieux et pourquoi, dans la même situation, les résultats peuvent être catastrophiques.

Irène Marcovici (Université de Lorraine)
Automates cellulaires et phénomènes d'auto-organisation : le rôle de l’aléa

Les automates cellulaires sont des systèmes dynamiques pour lesquels le temps et l'espace sont discrets. Ils permettent de modéliser l'évolution d'un ensemble de composants interagissant entre eux de manière locale : au cours du temps, chacun actualise son état en fonction de ce qu'il perçoit de son voisinage.

En étudiant certains automates cellulaires, on peut observer des phénomènes d'auto-organisation : à partir d'un état initial désordonné, les mises à jour successives des cellules par la règle locale conduisent à l'apparition d'une structure macroscopique.

A l'inverse, si l'on souhaite parvenir à un certain comportement global, on peut chercher à concevoir une règle locale permettant de l’atteindre de manière décentralisée. J'exposerai différents problèmes de ce type (obtention de consensus, synchronisation, correction d’erreurs...), en montrant que dans certains cas, l'introduction d'aléa permet de simplifier les solutions, voire d'obtenir des solutions impossibles en mode purement déterministe.

La présentation sera inspirée de travaux communs avec Nazim Fatès. Notre motivation générale est d'essayer d'identifier des ingrédients "minimaux" permettant d'aboutir à une certaine forme d’intelligence collective. Alors que les méthodes d’apprentissage développent des algorithmes de plus en plus sophistiqués permettant de traiter de grandes quantités de données, nous faisons donc un pas de côté pour aborder la notion d’intelligence artificielle d’une manière différente et complémentaire.

Thomas Boraud (Université de Bordeaux)
Une histoire naturelle des aptitudes

La théorie du cerveau triunique telle qu’introduite par Paul MacLean dans les années 1960 est encore très présente dans le discours scientifique et médiatique.  Cette théorie repose sur l’idée que le cerveau humain se serait développé en couches successives. D’abord le cerveau reptilien (maintien des fonctions vitales, automatismes), puis le cerveau limbique (émotions) et enfin le néocortex (raisonnement et anticipation), chaque couche supplémentaire venant inhiber au besoin les autres structures. Si la théorie du cerveau triunique est aujourd’hui largement réfutée, elle continue tout de même à influencer les sciences cognitives. Les théories explicatives proposées pour les processus de prise de décision, repose sur une compétition entre une structure raisonnée mais plus lente (généralement identifiée au cortex) et une structure automatique et peu flexible (fonction attribuée aux structures sous-corticales). Nous proposons au contraire que la prise de décision et son automatisation reposent sur un apprentissage cortical qui s'effectue sous la tutelle des structures sous-corticales. En nous appuyant sur des exemples tirés de la littérature et de nos propres travaux, nous montrons que le développement des automatismes n'est pas un archaïsme mais au contraire un avantage évolutif lié au développement d'un pallium dorsal (la structure que nous appelons le cortex chez les mammifères) spécialisé qui a évolué en parallèle dans différentes lignées de vertébrés. Nous appuyons notre démonstration sur un modèle computationnel minimal grâce auquel cette hypothèse a pu être explicitement testée chez le primate. Cette approche permet entre autres de résoudre un certain nombre de paradoxes et propose de nouvelles pistes physiopathologiques pour les troubles de la décision.

Frédéric Alexandre (Inria Bordeaux)
L'Intelligence Artificielle apprend-elle de ses erreurs ?

Dans le passé, l'Intelligence Artificielle (IA) a déjà souffert d'effets d'annonce mal dimensionnés et certaines déclarations présomptueuses ont mis à mal sa crédibilité. Aujourd'hui, tous ces déboires semblent oubliés et on lave encore plus blanc pour nous annoncer l'IA de demain. Le but de cet exposé sera d'abord de proposer un regard plus humble sur l'IA d'aujourd'hui : Il y a bien des progrès récents qu'il faut souligner mais il semble aussi tout à fait normal de mentionner certains domaines où il y a encore des questions difficiles pour la recherche. Enfin, et peut-être surtout, je vais exhumer certains sujets, relatifs à la représentation des connaissances, au raisonnement ou encore à l'intelligence incarnée qui me semblent majeurs pour prétendre faire de l'IA et qui sont oubliés voire méprisés aujourd'hui alors qu'ils étaient bien mieux considérés il y a 30 ans. On pourrait conclure de ça que si l'IA progresse sur certains domaines, elle régresse sur d'autres, mais en fait, j'essaierai de montrer que c'est bien pire que ça... L'IA d'aujourd'hui vise avant tout l'efficacité, au détriment de certains aspects cognitifs et même éthiques, constitutifs de ses sujets et c'est peut-être ça, sa plus grande erreur.

 

 

Le colloque Cathy Dufour 2018 est soutenu par les Archives Henri Poincaré – Philosophie et recherches sur les sciences et les technologies (UMR 7117), le Laboratoire de physique et chimie théorique (UMR 7019), l’Institut Élie Cartan de Lorraine (UMR 7502), l’IREM de Lorraine, l’École doctorale EMMA, l’École doctorale IAEM, l’ESPE de Lorraine, l’UFR SHS-Nancy, le Département de physique de l’Université de Lorraine, le Département de mathématiques de l’Université de Lorraine et la Société française de physique