Résumés des interventions

Isabelle Drouet :
 
Les données massives servent-elles à expliquer ?
 
La présentation du colloque Explicascience suggère que caractériser les sciences contemporaines par l’importance accordée aux données massives est pertinent pour déterminer ce qu’est une bonne explication scientifique aujourd’hui. Autrement dit, il serait important de prendre en compte la place des données massives au moment de définir les bonnes explications scientifiques. Cette idée est immédiatement justifiée si les données massives servent à expliquer. Or, il ne me semble pas évident que ce soit le cas. Mon exposé vise donc à évaluer l’affirmation selon laquelle les données massives seraient utilisées par les scientifiques à des fins d’explication. Plus précisément, il s’agit d’un exposé de philosophie générale des sciences qui aborde le rapport entre explication et données massives depuis chacun de ces deux termes. D’une part je chercherai à déterminer quel rôle les données massives peuvent prendre dans les explications scientifiques telles que la philosophie des sciences les conçoit classiquement. D’autre part, j’identifierai des tâches épistémiques dont les données massives autorisent ou facilitent l’accomplissement.
 
 
Antonine Nicoglou
Mettre les animaux en boîte nous permettrait-il de mieux les expliquer
 
Cette formule, un peu provocatrice, souligne le double enjeu - épistémologique et méthodologique – soulevé par les modèles animaux en expérimentation biologique et médicale. Depuis plus d’un siècle, on expérimente sur les animaux, à la fois pour mieux comprendre leur fonctionnement physiologique ainsi que celui de l’homme et pour parvenir à mettre en place des modèles thérapeutiques efficaces. Les animaux permettent d’expliquer notre fonctionnement et d’expliquer la pathologie humaine en servant de modèles. Une telle expérimentation a impliqué, tout d’abord, d’avoir des animaux en cage (on pense notamment aux expériences de Claude Bernard, Louis Pasteur au XIXème siècle) et, progressivement, de développer des « modèles animaux » (notamment avec le séquençage génétique à la fin du XXème siècle de plusieurs espèces animales). Ces modèles animaux ont notamment permis de limiter la variabilité interindividuelle, laquelle semble être un obstacle à la généralisation des observations faites sur quelques individus à toute l’espèce. C’est aussi un moyen de neutraliser la variation, laquelle apparaît comme une source de nuisance. Au milieu du XXème siècle, avant l’avènement des modèles animaux, quelques chercheurs ont cherché non pas à supprimer la variation mais à la contrôler en réalisant des chambres isolées ou "machines fermées à animaux" (zootrons) dans lesquels ils plaçaient des animaux en contrôlant informatiquement toutes leurs données (physiologiques et environnementales) en vue de mieux expliquer certaines de leurs caractéristiques. Pourquoi ces machines ont-elles disparu ? Et ont-elles vraiment disparu ? Quelles étaient leurs limites et leurs avantages par rapport aux modèles animaux actuels ? Que pourrions-nous faire aujourd’hui avec de telles machines ? Telles sont les quelques questions que j’aborderai dans cette présentation.
 
 
Catherine Belzung
La dépression, entre explications basées sur des données de masse et explications basées sur des hypothèses

La dépression majeure est une pathologie très fréquente, caractérisée par une grande hétérogénéité du tableau clinique, une grande résistance aux traitements et une absence de biomarqueurs. De très nombreux travaux essaient d’en décrire l’étiologie, certains étant basés sur des données de masse comme les études GWAS, et d’autres étant basés sur des hypothèses pathophysiologiques impliquant différents niveaux d’analyse, allant du niveau cellulaire au niveau cognitif. Cette conférence tentera de comparer les données issues de ces deux types d’approches, afin d’en identifier les avantages et les inconvénients. 

 

Etienne Billette de Villemeur

Explanations and Observational Equivalence: Some questions around a simple economic model

Assume a “perfect explanation” in that there is a causal model that associates to each set of parameters a unique consequence. Suppose furthermore that the explanation is precise and with no ambiguity in that different parameters always yield different outcomes - and different outcomes are associated with different parameters. Should one be satisfied? 
We show by the means of a simple example that the existence of such an explanation does not prevent for an alternative “perfect explanation” to exists. In fact there may exist a different model which explains the same phenomena as perfectly. In other words, there may exist observationally equivalent explanations. This does not follows from data being scarce or observations being imperfects however. 
Explanations with an identical (and in our case perfect) predictive power cannot be distinguished on the basis of the sole observations they explain. This indistinguishabilty raise questions however on the status to be given to their (a priori different) implications. In any case, no matter the amount of data, observations may not allow to establish more than a partial ranking of concurrent explanations.

 

Maël Lemoine

Problems in the explanation of aging

Aging is generally explained alternatively by evolution (why are senescent species aging rather than not?) or by molecular and cellular biology (how are organisms aging?). The two approaches have always bumped into one problem, that of quantifying the speed of the process of aging – measuring aging.
-omics biology have given rise to a flurry of complex “signatures” of aging – or clocks, of which the so-called Horvath’s clock is the most famous. While they have unheard of precision, what they can reflect is, actually, chronological aging – the amount of time passed since birth – rather than biological aging – how fast a given organism is declining. More generally, it has sometimes been objected that this enterprise is flawed from the beginning, as big data biology (here under the form of methylation clock) provides the opportunity to predict (or reflect) whatever process we want to predict (or reflect).
Is the measurement of aging a petition principii? If such a measure is used in the explanation of aging, does it render the explanation circular?

 

Juan Diego Soler

Machine vision and the star formation ecosystem

The stars are the most prominent objects of astronomical research, but the birth of stars is still not fully understood. We know that stars form from the dilute mixture of charged particles, atoms, molecules, and dust grains that we call the interstellar medium (ISM). But the details of the process that leads the ISM to accumulate in dense clouds that gravitationally collapse and eventually form stars are still largely unknown, despite their critical importance to many areas of astrophysics: from galaxy evolution to the formation of planetary systems. One of the main challenges in modern astrophysics is condensing the growing amount of ISM observations and numerical observations into a
predictive model of star formation. I will review how the methods used for automatic inspection and analysis of images, generically called machine vision, provide significant insight into the complex network of interactions that lead to the formation of new stars by embracing the immense richness in the data.

Personnes connectées : 2 Vie privée
Chargement...