Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

11/01/2012

Le paradigme bayésien, c'est Bob Morane

Chaque époque propose son nouveau paradigme : le monothéisme d'Akhenaton, les républiques en Europe au 19e siècle, le vote des femmes au 20e, le planning familial après 68, les paradigmes, grands ou petits, cristallisent une tendance autour d'une idée nouvelle. Cette notion de paradigme s'est tellement banalisée à une époque où ce qui était vrai hier ne le sera plus demain, que tout devient paradigme : les pantalons patte d'eph', le mariage des medias et du pouvoir, les lunettes de soleil à grands carreaux et l'endettement des états.

Il en est un qui fait son chemin tranquillement, venu du domaine scientifique, il semble avoir plus d'avenir immédiat que la théorie du Chaos ou celle des super-cordes, c'est le paradigme bayésien. Comme aurait dit Sophie Daumier, pourtant, il en a mis du temps à percer notre Thomas Bayes. Né vers 1701, il s'est surtout rendu célèbre pour son théorème concernant les probabilités. Nous avons l'habitude de penser en termes de probabilités quand nous tirons les dès : chacun sait que l'on a une chance sur six de tirer un six. Plus généralement, quand on connaît le système qui génère un nombre aléatoire, on saura évaluer sa probabilité.

Mais dans la vie de tous les jours, on ne connaît jamais les règles qui génèrent les observations, et les informations que nous détenons sur tel ou tel processus sont généralement parcellaires : nous constatons les résultats, et encore, quelques-uns seulement, et nous n'avons pas accès à la théorie. Le paradigme bayésien consiste donc à faire le contraire des probabilités classiques : à partir des résultats, tentons de reconstituer un modèle de ce que doit être la réalité, qui soit compatible avec les résultats observés, et qui nous permettra ainsi des prédictions.

Le principe semble simple, presque évident : pourquoi ne l'avons-nous jamais appliqué jusqu'à maintenant ? Tout simplement parce que, si le système auquel on s'intéresse est suffisamment vaste et/ou complexe, il faut un "grand" nombre d'observations pour générer un modèle digne de ce nom. Grand peut signifier de mille à un million ; il faut donc des moyens de mesure considérables, et donc coûteux. Mais ce n'est pas tout : à partir d'un million de mesures, on peut générer des milliers de modèles, qui, chacun, devront être testés pour identifier le meilleur d'entre eux : il faut donc des capacités de calcul monstrueuses.

C'est là qu'entre en scène l'informatique moderne : nos moyens de calcul massivement parallèles désormais accessibles à tous les chercheurs sérieux offrent un moyen implacable de création desdits modèles, et nous allons donc en retrouver partout.

Et pourquoi une méthode aussi alambiquée ? N'est-il pas plus simple d'accoucher d'une belle équation bien limpide genre E=mc², à l'ancienne ? C'est quand même plus efficace, non ?

Certes. Mais rappelons d'abord que celle-ci a nécessité l'intervention d'un authentique génie, d'un calibre que nous n'avons pas reproduit depuis. La résolution de nombreux problèmes modernes se heurte à des équations trop nombreuses, à l'irrésolution d'équations différentielles, au manque d'avancement des mathématiques ou pire, à notre faiblesse intellectuelle.

Face à toutes ces difficultés, il est bien plus facile et efficace d'enregistrer une palanquée de données, de les transformer en modèle mathématique, et d'exploiter celui-ci. Facile, pas cher, ça peut rapporter gros. Les modèles s'appliquent à tout, au point qu'un chercheur a défini l'Univers comme le plus petit modèle capable de simuler le comportement de... l'Univers.

Les systèmes complexes autour de nous sont légion : rien qu'en SVT il n'y a que ça, dans le comportement d'un groupe humain aussi, dans le codage des pixels je n'en parle même pas... Partout.

Ces modèles ont juste un petit problème : constitués d'un ensemble énorme d'équations que l'utilisateur n'a guère envie de regarder en détail, ils interdisent l'accès à une unique équation simple, exacte et descriptive du phénomène telle que mentionné plus haut, si tant est qu'elle existât : si les Babyloniens avaient eu des ordinateurs, ils auraient découvert la gravitation universelle, mais sans jamais connaître l'équation de Newton. Or c'est bien la maîtrise de ces équations qui a généré l'essentiel de nos avancées scientifiques depuis 400 ans. Nous continuons d'avancer, mais dans un flou croissant.

Et voilà que cette mode attaque l'homme : on ne compte déjà plus les papiers scientifiques qui cherchent à mettre en évidence les capacités bayésiennes du cortex humain, fournissant ainsi une explication à certaines capacités étonnantes de celui-ci, particulièrement dans le domaine des probabilités. O tempora, o mores, ce sont maintenant des matheux graves qui s'occupent de psychologie.

Comme on dit traditionnellement, il est un peu tôt pour dire ce qu'il en sortira, mais je suis assez confiant. Attendez-vous à retrouver des "optimisations bayésiennes" avec chaînes de Markov et recuit simulé dans votre appreil photo, votre réseau de distribution ErdF, votre sondage ifop et votre bombe de rasage. Le paradigme bayésien, le nouveau Bob Morane.

Bob Morane, contre tout chacal, l'aventurier contre tout guerrier.

12:51 Publié dans Futur, Science, Société | Lien permanent | Commentaires (0) | |  del.icio.us | | Digg! Digg |  Facebook |

Les commentaires sont fermés.