Examen de filtrage adaptatif

Examen de filtrage adaptatif

J.-F. BERCHER

 

Tous documents autorisés,
Durée : deux heures.

Les réponses aux questions seront concises, mais précises. Les justifications sont aussi importantes que le résultat brut. Le correcteur appréciera la clarté de la rédaction et de la présentation. Les résultats utiles sont donnés dans le texte (montrez que...) ou dans les questions suivantes... En cas de difficulté sur une question, vous pouvez admettre le résultat, le signaler, et poursuivre.

Il est conseillé de lire attentivement l'énoncé.

Questions de cours

Donnez les équations des filtres de Wiener correspondant aux trois systèmes suivants. Pour chacun d'eux, vous préciserez quel signal est la séquence désirée, quelle est l'erreur d'estimation, et si une séquence d'apprentissage est nécessaire. Expliquez brièvement à quoi peuvent servir ces trois dispositifs.

fig99.gif

Exercice : Algorithme LMS normalisé

Dans la forme standard du LMS, la correction mu(n) e(n) appliquée au vecteur [^(w)](n) à l'itération (n+1), est directement proportionnelle à l'entrée u(n). Ainsi, lorsque u(n) est grand, l'algorithme LMS comporte une amplification du bruit e(n). Pour éviter cette difficulté, on peut utiliser l'algorithme LMS normalisé, dans lequel la correction appliquée au vecteur [^(w)](n) à l'itération (n+1), est ``normalisée'' par la norme de u(n) à l'itération n. On s'intéresse dans ce qui suit à la justification de cet algorithme.

  1. Donnez l'expression de l'algorithme LMS habituel. On appelle ``erreur a priori'' l'erreur d'estimation e(n), dont vous préciserez l'expression.

  2. On note e(n) l'erreur a posteriori, obtenue après avoir pris en compte la mesure à l'instant n, u(n) :
    e(n) = d(n) - ^
    w
     
    (n+1)t u(n).
    Donnez l'expression de e(n) en fonction de e(n), u(n) et de d[^(w)](n+1) = [^(w)](n+1) - [^(w)](n).

  3. Il est raisonnable d'imposer que l'erreur a posteriori soit nulle : e(n) = 0, la nouvelle mesure ayant été prise en compte dans [^(w)](n+1).

    1. Montrez que ceci conduit alors à
      d ^
      w
       
      (n+1)t u(n) = e(n).
    2. Déduisez de la relation précédente que de manière équivalente,
      ^
      w
       
      (n+1)t u(n) = d(n).

  4. Afin de minimiser les variations [^(w)] d'itération en itération, on choisit de rechercher le vecteur [^(w)](n+1) qui minimise l'écart quadratique à [^(w(n))], tout en imposant la contrainte [^(w)](n+1)t u(n) = d(n). On recherche donc [^(w)](n+1) tel que
    ^
    w
     
    (n+1) / ì
    ï
    ï
    í
    ï
    ï
    î

    min
    [^( w)](n+1) 
    ||d ^
    w
     
    (n+1)||2 =
    min
    [^( w)](n+1) 
    [ ^
    w
     
    (n+1) - ^
    w
     
    (n)]t [ ^
    w
     
    (n+1) - ^
    w
     
    (n)]
    sous la contrainte ^
    w
     
    (n+1)t u(n) = d(n).
    On utilise pour cela la technique des multiplicateurs de Lagrange.

                                


    Rappel - Soit le problème de minimisation suivant :

    x/ ì
    ï
    ï
    í
    ï
    ï
    î

    min
    x 
    F(x)
    sous la contrainte G(x) = c,
    La solution de ce problème de minimisation sous contraine est fournie par les extrema en x et en l du lagrangien
    J(x,l) = F(x) - l(G(x) - c),
    l est un multiplicateur de Lagrange. La technique des multiplicateurs de Lagrange consiste donc (i) à rechercher une solution x (fonction de l) minimisant le lagrangien, i.e. annulant sa dérivée en x, (ii) puis à rechercher la valeur du paramètre de Lagrange en maximisant le lagrangien (en l), ou de manière équivalente, en recherchant la valeur de l qui permet de satisfaire la contrainte G(x) = c.

                                


    1. Donnez l'expression du lagrangien associé au problème de minimisation sur [^(w)](n+1).

    2. Donnez l'expression de la solution [^(w)](n+1) en fonction de [^(w)](n), u(n) et l.

                                  


      Rappel - On rappelle que [(d(x- x0)t Q(x- x0))/( dx)] = 2 Q(x- x0) si Q est une matrice symétrique, et que [(dxt a)/( dx)] = a.

                                  


    3. Montrez que la valeur du paramètre de Lagrange permettant de vérifier la contrainte est
      l = 2
      ||u(n)||2
      e(n).

    4. Finalement, déduisez en que
      ^
      w
       
      (n+1) - ^
      w
       
      (n) = 1
      ||u(n)||2
      u(n) e(n).

      De manière à contrôler l'écart [^(w)](n+1) - [^(w)](n) sans modifier la direction de descente, on introduit un scalaire [(m)\tilde], tel que

      ^
      w
       
      (n+1) - ^
      w
       
      (n) =
      ~
      m
       

      ||u(n)||2
      u(n) e(n).

    5. À partir de la relation précédente, donnez l'algorithme LMS normalisé (question ultra-simple), et comparez le à l'algorithme LMS standard.

    6. Quels problèmes numériques peuvent apparaître si l'entrée u(n) devient trop faible ou disparait pendant plus de p (longueur de w) échantillons consécutifs ?

  5. En utilisant l'hypothèse d'indépendance entre u(n) et e(n) (fausse), montrez que cet algorithme est convergent en moyenne quadratique si
    0 < ~
    m
     
    < 2.
    Vous pourrez utiliser l'approximation suivante : E{ [(u(n)u(n)t)/( ||u(n)||2)] } @ [(E{ u(n)u(n)t })/( E{ ||u(n)||2 })], ainsi que le fait que la valeur propre maximale d'une matrice de corrélation Ruu est toujours supérieure ou égale à Ruu(0) = E{ ||u(n)||2 }.

  6. L'algorithme LMS est obtenu comme une version stochastique de l'algorithme du gradient déterministe. L'algorithme LMS normalisé peut être vu comme une approximation de l'algorithme du gradient dans lequel on a tenu compte du fait que le pas peut-être variable. L'algorithme du gradient déterministe s'écrit
    w(n+1) = w(n) - 1
    2
    m(n) Ñ(n),
    avec
    Ñ(n) = 2[Ruuw(n) - Rdu],
    Ruu et Rdu respectivement la matrice de corrélation de u(n) et le vecteur d'intercorrélation entre d(n) et u(n).

    1. À l'instant (n+1), l'erreur quadratique s'écrit
      J(n+1) = E{ ||d(n+1) - w(n+1)tu(n+1)||2 }.
      Déterminez la valeur m0(n) du pas d'adaptation qui minimise J(n+1), en fonction de Ruu et Ñ(n) (vous pourrez éventuellement remplacer Rdu par son expression en fonction de Ruu et Ñ(n), et vous tâcherez de faire apparaître et d'exploiter la différence w(n+1) - w(n)).

    2. En utilisant les estimées instantanées de Ruu et Ñ(n), déterminez l'estimée instantanée de m0(n) correspondante. Enfin, donnez l'expression de l'algorithme du gradient stochastique obtenu.