Physique de l'information

Ref: 3PN1550

Description

Le comportement des systèmes physiques est souvent un mélange entre un comportement déterministe pouvant être décrit par des équations qui permettent de prédire le futur du système en question, et un comportement aléatoire imprévisible. L’analyse et la modélisation des signaux aléatoires issus de ces systèmes permet de définir et mesurer des invariants physiques. La théorie de l’information permet de quantifier la nature aléatoire d’un système physique et d’en prédire un comportement statistique, bien que le comportement exact ne puisse pas être prédit. En utilisation ces notions, il est alors possible d’optimiser un tel système afin d’avoir les meilleures performances possibles. Un exemple est les systèmes de transmission numériques actuellement très utilisés dans le monde des télécommunications.
Par ailleurs, de nouveaux paradigmes basés sur les propriétés physiques de systèmes quantiques multipartites permettent d’étendre les notions de théorie de l’information classique et d’envisager ainsi le développement de nouveaux algorithmes de factorisation ou d’optimisation ne présentant pas d’équivalent classique.

Période(s) du cours

SD9

Prérequis

  • Cours de Probabilités de 1A (CIP 1SL1000)
  • Cours de Traitement du Signal de 1A (1CC4000)
Il est conseillé d'avoir également suivi
  • Cours de Statistique et apprentissage de 1A (1CC5000)
  • Cours Système d'information et Programmation de 1A (1CC1000).

Syllabus

  1. Processus stochastique (6h de cours)
    1.1 Introduction (signaux aléatoires, loi temporelle, moments, stationnarité, ergodicité)
    1.2 Densité spectrale de puissance (théorème de Bochner, de Wiener-Khinchin, densité spectrale, densité spectrale de puissance)
    1.3
    Notion d'estimation (objectifs de l'estimation, modélisation, point de vue bayésien / non bayésien, régression, estimation linéaire en moyenne quadratique)
    1.4
    Analyse spectrale (échantillonnage, quantification, effet de fenêtrage, estimateur biaisé/non biaisé de la fonction d'autocorrélation, périodogramme et ses dérivés)
    1.5 Devoir à la maison (contrôle continu): TP d'analyse spectrale non paramétrique.
  2. Théorie de l'information (6h de cours)
    2.1 Introduction (communication numérique, les différents éléments d'une chaîne de communication numérique)
    2.2 Quantité d'information et entropie d'une source discrète sans mémoire (entropie, entropie conditionnelle, information mutuelle, capacité d'un canal discret)
    2.3 Entropie d'une source continue (extension de la notion d'entropie aux sources continues, théorème de Shannon, capacité d'un canal discret)
    2.4 Exemple de canal de transmission continu: la chaîne de transmission idéale (définition, calcul de taux d'erreurs et performance de la chaîne de transmission idéale)
    2.5 Devoir à la maison
    (contrôle continu) : simulation d’une situation de transmission et évaluation du taux d’erreur en fonction du bruit, estimation de l’entropie.
  3. Notion d'information quantique (3h de cours)
    3.1 Introduction (états quantique, mesure et observables, opérateur de densité, produit tensoriel d’espace)
    3.2 Information quantique (notion de qubits et implémentation physique. Système multi-qubits. Intrication quantique, entropie de Neumann et Décohérence quantique. Théorème de non-clonage. Téléportation quantique)
    3.3 Calcul quantique : introduction aux circuits de base (porte CNOT, phase, Hadamard). Illustration. Ouverture aux applications aux algorithmes quantiques.
    3.4 Devoir à la maison (contrôle continu) : Exercices d’information quantique

Composition du cours

16,5h de cours magistraux + 9h de devoirs à la maison contrôle continu + QCM.

Ressources

Equipe enseignante: Damien Rontani, Jean-Louis Gutzwiller et Michel Barret
Ressource informatique: Une partie des travaux dirigés se fera avec un ordinateur (utilisation de Matlab ou de Python).

Résultats de l'apprentissage couverts par le cours

À l’issue de ce cours, les élèves devront être en mesure de proposer et d’évaluer la qualité d’estimateurs de densités spectrales de puissance de signaux aléatoires, de mettre en relation ces estimateurs avec les notions d’entropie et d’en déduire les performances possibles d’un système de transmission numérique.

Support de cours, bibliographie

M. Barret, Traitement statistique du signal, Eyrolles, 2009.