Date/heure
28 mars 2017
16:30 - 17:30
Catégorie d'évènement Colloquium
Résumé
Olivier Rioul
Nous fêtions en 2016 le centenaire de la naissance de Claude Shannon, un mathématicien et ingénieur américain considéré comme le “père de l’Âge de l’information”. Son nom ne vous dit peut-être pas grand chose : Hollywood a glorifié d’autres héros scientifiques comme Alan Turing ou John Nash. Shannon, lui, a eu une vie rangée, modeste… et surtout ludique : adepte du monocycle et du jonglage, il s’est amusé à construire des machines plus ou moins loufoques. Dans le même temps, il a fait des avancées théoriques décisives dans des domaines aussi divers que les circuits logiques, la cryptographie, l’intelligence artificielle, l’investissement boursier, le wearable computing… et surtout, la théorie de l’information. Son article fondateur de 1948 rassemble tellement d’avancées fondamentales et de coups de génie que Shannon est aujourd’hui le héros de milliers de chercheurs, loué presque comme une divinité. On peut dire, sans exagérer, que c’est le mathématicien dont les théorèmes ont rendu possible le monde du numérique que nous connaissons aujourd’hui.
Dans cet exposé on décrit ses contributions les plus marquantes : le paradigme de Shannon; les modèles probabilistes des données; l’unité logarithmique d’information; les limites de performances; l’entropie, l’entropie relative et la définition mathématique de l’information; la technique du codage aléatoire; la formule de capacité. On va jusqu’à présenter les idées des démonstrations des premier et second théorèmes de Shannon avec des moyens élémentaires. Si le temps le permet, on abordera une preuve récente de l’inégalité de la puissance entropique dont Shannon a eu l’intuition géniale.
Biographie de l’orateur :
Olivier Rioul (PhD, HDR) est ingénieur général du Corps des Mines, professeur à Télécom ParisTech et à l’Ecole Polytechnique. Ses activités de recherche en mathématiques appliquées sont consacrées à diverses applications parfois non conventionnelles de la théorie de l’information, comme les inégalités en statistiques, la sécurité physique des systèmes embarqués et la psychologie expérimentale dans les interactions homme-machine. Il enseigne la théorie de l’information dans plusieurs grandes écoles depuis vingt ans et a publié un livre qui est devenu une référence française du domaine et sera bientôt réédité.
Voir aussi les sites http://centenaire-shannon.cnrs.fr et http://shannon100.com.