FR  |  EN  
  ENS sur facebook ENS sur twitter ENS sur youtube ENS sur google+
École normale supérieure
Lien vers la page d'accueil de l'ENS Lien vers l'article de l'ENS
> ACTUALITÉS > Agenda > Les mathématiques de l’information
Précédent Suivant

Les mathématiques de l’information

Jeudi 11 mai 2017, 14h-17h, Amphi Rataud, 45 rue d’Ulm 75005

Journée de conférences organisée par le département de mathématiques.

Le Département de mathématiques et applications (DMA) de l’ENS organise le 11 mai 2017, une journée de conférences à l’intention des professeurs de mathématiques des classes préparatoires.

Inscription en ligne

Claude Shannon, père fondateur de la théorie de l’information, aurait eu 100 ans en 2016. L’impact de cette théorie sur notre société est immense. Cette journée sera l’occasion de revisiter les mathématiques de ce chercheur visionnaire, en exposant les trois étapes fondamentales de la théorie de la communication qu’il a élaborée : l’échantillonnage, la compression et les codes correcteurs. 

9h-10h30 : Agnès Desolneux (CNRS, ENS Cachan) : Le théorème d’échantillonnage.
Le théorème d’échantillonnage est un résultat fondamental qui permet de dire à quelle condition une fonction peut être retrouvée à partir de ses échantillons pris suivant une grille régulière. Je parlerai de l’énoncé précis de ce théorème, de sa démonstration ainsi que de ses nombreuses applications en traitement du signal ou de l’image.


11h-12h30  : Gabriel Peyré (CNRS, ENS) : Claude Shannon et la compression des données.
L’immense majorité des données (texte, son, image, vidéo, etc.) sont stockées et manipulées sous forme numérique, c’est-à-dire à l’aide de nombres entiers qui sont convertis en une succession de bits (des 0 et des 1). La conversion depuis le monde analogique continu vers ces représentations numériques discrètes est décrite par la théorie élaborée par Claude Shannon (30 avril 1916 - 24 février 2001), le père fondateur de la théorie de l’information. L’impact de cette théorie sur notre société est absolument colossal. Sur le plan théorique, Shannon a montré que si l’on modélise le message à coder comme étant généré par une sources aléatoire, alors le nombre de bits par symbole minimum pour coder ce message est égal à l’entropie de la source. J’expliquerais la signification et les implications pratiques de ce théorème, et je le démontrerais. J’expliquerais aussi comment on peut calculer efficacement des codes atteignant la borne minimum de l’entropie à l’aide des arbres de Huffman. Un texte grand public (sans les preuves mathématiques) est disponible sur le site "Images des mathématiques" et les programmes informatiques correspondants sont disponibles en ligne.
 

14h30-16h : Alain Chenciner (IMCCE (Observatoire de Paris) et Paris 7) : La naissance de la théorie de l’information ou la force d’une idée simple.
De nombreuses fautes de frappe n’empêchent pas de reconnaı̂tre sans ambiguı̈té un texte pourvu que la forme altérée ressemble plus au texte initial qu’à tout autre texte admissible. Jointe à une utilisation systématique de la loi des grands nombres qui implique la propriété d’équipartition asymptotique (AEP), cette simple remarque est à la base de la découverte par Claude Shannon de la limite H < C aux performances de tout code correcteur permettant une transmission fiable d’information par un canal “bruité” (i.e. faisant des erreurs) ainsi que de l’existence d’un code permettant d’approcher arbitrairement près de cette limite qui, restée longtemps virtuelle, est pratiquement atteinte aujourd’hui par les turbocodes. Toutes deux de nature probabiliste, l’entropie H d’une source de messages et la capacité C d’un canal de transmission sont définies par Shannon dans l’article qu’il publie en 1948 dans la revue des “Bell labs”, l’année même où, dans les mêmes Bell labs, JohnBardeen, Walter Brattain et William Shockley font la première démonstration du fonctionnement d’un transistor. Ainsi, des deux découvertes simultanées dont est né le monde d’information dans lequel nous vivons, l’une est de pure mathématique et même de la pire espèce, un théorème d’existence !

Contacts & Plans  |   L'ENS recrute  |   Marchés publics  |   Annuaire  |   Intranet-ENT  |   Mentions légales  |   Plan du site  |   ENS sur facebook ENS sur twitter ENS sur youtube ENS sur google+