Icone social AHP

Les instruments scientifiques comme porteurs « de savoir » mathématique ? Transformations et défis du XXe siècle.

Vendredi 6 avril 2018 - 14:00 - 18:00
Paris, Institut Henri Poincaré
Argumentaire: 

Cette séance poursuit la réflexion sur les instruments scientifiques et leurs relations avec les mathématiques, 19e – début 20e siècle (cf. séance 9 juin 2017). Nous nous interrogeons sur les nouvelles pratiques de l’histoire afin de mettre en évidence les « relations mutuelles et réciproques » entre l’instrument conçu comme objet et donc porteur des pratiques et l’objet porteur d’un savoir. Selon nous, l’articulation de ces questions est essentielle dans l’étude des instruments et, en particulier, des instruments mathématiques : la considération des relations mutuelles entre objet et lieu, objet et acteurs impliqués, objet et son usage, nous permet de mieux préciser l’importance des actions matérielles et des gestes d’une part, des négociations de sens entre spécialistes de l’autre.

La séance se concentre sur les évolutions d'après la deuxième Guerre Mondiale, quand un ensemble de pratiques du début du XXe siècle, comme les bureaux de calcul, les machines analogiques ou encore les pratiques de mesure, se transforment avec l'avènement de la machine généraliste qu'est l'ordinateur digital. Cette transformation ne se fait pas soudainement, mais se situe dans une pluralité de traditions qui lentement s'intègrent dans une nouvelle pratique, qui va de pair avec des discussions et interrogations sur le statut des objets et sur les méthodes du savoir mathématique ainsi développé.

Programme: 

14h00-14h15 Introduction

14h15-15h15 Pierre Mounier-Kuhn (EHESS) : Offre et demande de calcul (après la 2e GM)

15h15-16h15 Arianna Borelli (Technische Universität Berlin) : The Monte Carlo Method in Early Particle Physics

16h15-16h30 Pause

16h30-17h30 Loic Petitgirard (CNAM) : Entre mathématiques et instrumentation : les « instruments à transformée de Fourier»

17h30-18h00 Discussion générale

Résumés: 

Pierre Mounier-Kuhn (EHESS): Offre et demande de calcul

Dans cet exposé, j’appliquerai à nos questions d’histoire des sciences une grille d’analyse importée de l’histoire économique. Partant du constat que la France est le seul pays industrialisé où la recherche publique ne construit aucun ordinateur à l’époque « pionnière », avant 1960, je l’explique par la faiblesse initiale de la demande de calcul, autant que par la rareté des compétences en « calcul mécanique », comme on disait alors.

Dans l’entre-deux-guerres comme dans la période de reconstruction, on constate que les laboratoires français, comparés à leurs équivalents des pays les plus développés, sont faiblement équipés en matériels de calcul. Les universitaires, en particulier les mathématiciens, ne sont donc pas habitués à faire appel à des équipements lourds pour le travail arithmétique. De plus, ils n’ont pas en général le réflexe de construire eux-mêmes des machines dans leurs laboratoires.

Peut-on parler d’un sous-équipement ? Oui, dans la mesure où l’appauvrissement dramatique de la recherche française au cours des années vingt a empêché les laboratoires de s’équiper. Non, car on constate ensuite que la recherche française semble avoir peu besoin de calcul : si l’équipement est faible, c’est parce qu’il correspond à un faible niveau de la demande, dans presque toutes les disciplines. Cela nous paraît confirmé, après la guerre, par l’importation de matériel scientifique allemand, qui révèle des exigences limitées en machines à calculer. Au sein même du milieu mathématicien, la domination des Mathématiques pures (qui est un phénomène historiquement daté, et non une constante “culturelle”) contribue à accentuer ces particularités de la science française, en maintenant à un niveau subalterne les disciplines liées au calcul et en favorisant une pratique “artisanale” de la recherche.

Le contexte change au cours des années cinquante. Premièrement, une nouvelle génération de physiciens, frottée aux théories récentes et aux approches américaines, importe de nouvelles pratiques scientifiques dans les laboratoires. Deuxièmement, l’art de l’ingénieur se transforme et fait de plus en plus appel à la modélisation mathématique. Troisièmement, le développement industriel et la guerre froide entraînent la mise en œuvre de grands programmes technologiques ; ceux-ci exigent d’immenses efforts en mathématiques appliquées, assortis de calculs inabordables avec les moyens traditionnels. Les possibilités d’équipement changent au même moment, du fait de l’apparition de calculateurs électroniques commerciaux. Dès le début des années 1960, la recherche publique française dispose de quelques-uns des plus grands centres de calcul européens.

Arianna Borelli (Technische Universität Berlin) : The Monte Carlo in Early Particle Physics

The development of computing machines in the 20th century was profoundly shaped by U.S. American military research during the World War 2. After the war, computers came to be employed in various areas of science and technology, leading to a series of more or less radical and rapid transformations. Despite the clarity of this general picture, no common historical pattern for these developments has emerged so far, and I would like to suggest that the most productive way to historically investigate this constellation may be to try and reconstruct the situated diversity of the landscape by focusing on specific computational practices, their employment and their epistemic implications in different disciplinary fields.

From this perspective, in my contribution I will offer a case study focusing on the Monte Carlo method and its introduction into early particle physics between the late 1950s and the early 1960s. I believe this example can illustrate how, under particular historical-epistemological circumstances, a kind of symbiosis could emerge between a mathematical method and the computing machines it was implemented in. In the specific context of high energy physics around 1960, Monte Carlo computations could on the one side lead to the creation of new physical-mathematical practices and notions, while on the other eventually transform the machine performing the computation into a very special tool that would come to be seen as "simulating experiments". Although in the classical treatment by Peter Galison (1997) the Monte Carlo method has been presented as generating a sort of "artificial reality" right from the beginning in the various areas in which it was deployed, I will argue that, when looking more closely at the developments in high energy physics, a different, more nuanced picture appears. In particle physics, the transformation of numerical techniques of Monte Carlo integration into a perceived "simulation" of particle events was closely linked to the developments in the field around 1960, and the simple fact that a computer was used to implement the Monte Carlo method did not in itself imply that the computation would be seen as presenting some fundamental analogy to a physical process.

Loïc Petitgirard (CNAM): Entre mathématiques et instrumentation : les « instruments à transformée de Fourier»

L’émergence et l’évolution de l’analyse des signaux a été poussée à la fois par le développement et l’extension des outils mathématiques de Fourier (la TF en premier lieu), et par de permanents aller-retours avec des problèmes du concret (analyse de signaux expérimentaux, instrumentation physique en spectroscopie, en optique...filtrages électroniques et systèmes de télécommunications, etc.). Dans cet exposé, on prendra le sujet du « traitement du signal » (signal processing) comme fil rouge pour montrer la co-construction et la co-évolution des théories mathématiques et des instruments conçus pour ces traitements. On choisit donc de re-positionner le « signal » entre le formel et le réel, sur le long 20e siècle ce qui permet de se focaliser sur quelques exemples d’ « instruments à transformée de Fourier » emblématiques et illustrant une co-évolution entre le formel/mathématique et le réel/technique : les développements de la spectroscopie (analyse spectrale jusqu’aux développements de la spectro infra-rouge) ; la cristallographie par rayons X ; et on indiquera quelques jalons d’une histoire des méthodes numériques de calcul de TF, permis par l'ordinateur, qui ont contribué à l’avènement et à la généralisation du « traitement numérique du signal ».

Manifestation organisée par Maarten Bullynck (Université Vincennes St Denis - Paris 8), Martina Schiavon Archives Henri Poincaré UMR 7117 CNRS, Université de Lorraine) et Loïc Petitgirard (CNAM – Laboratoire HT2S)