Approximation d'une fonction par une série de fonction et orthogonalité des dites fonctions

Autrement dis "pourquoi une série de fourrier"?

Le problème exposé dans ce sujet a été résolu.

Salut tout le monde,

Étant temporairement titulaire d’une U.E., je dois présenter à mes étudiants (qui sont loin d’être des matheux!) les séries de Fourier.

Vu qu’il est attendu de moi que je m’intéresse plus particulièrement à l’approximation de fonctions périodiques par des séries de Fourier, une manière de faire (que j’ai empruntée ici) qui vaut ce qu’elle vaut, c’est de dire qu’on cherche à approximer une fonction f(x)f(x) par une fonction gN(x)g_N(x), consistant en une somme de NN fonctions {ϕi(x)}\{\phi_i(x)\} multipliée par des coefficients {ai}\{a_i\}:

f(x)gN(x)=0Naiϕi(x).f(x) \approx g_N(x) = \sum_0^N a_i\,\phi_i(x).

Les fonctions {ϕi(x)}\{\phi_i(x)\} étant choisies par avance, on cherche juste à trouver les coefficients tel qu’on minimise la différence entre f(x)f(x) et gN(x)g_N(x) sur un certain intervalle [a,b][a,b]. Autrement dit, le problème est:

min{ai}{f(x)gN(x)}=min{ai}{[ab(f(x)gN(x))2]12}.\min_{\{a_i\}}\left\{||f(x)-g_N(x)||\right\} = \min_{\{a_i\}}\left\{\left[\int_a^b (f(x)-g_N(x))^2\right]^{\frac{1}{2}}\right\}.

Et là, les différentes sources que j’ai trouvée précisent que les {ϕi(x)}\{\phi_i(x)\} sont orthogonales, et qu’il en existe quelques exemples, comme les séries de Fourier, les polynomes de Legendre, etc.

Évidemment, dans d’autres sources, on ne s’embarrasse pas de ça et on présentent les séries de Fourier en rappelant simplement qu’un espace vectoriel a certaines propriétés, qui sont aussi bien valables pour des vecteur que pour des fonctions. Sauf que mes étudiants n’ont jamais vu les espaces vectoriels ! Il s’agira en fait de leur première rencontre avec des fonctions orthogonales :pirate:

Dans les deux cas, l’orthogonalité des fonctions {ϕi(x)}\{\phi_i(x)\} est prise pour acquise et son intérêt n’est jamais réellement justifié (c’est cool, mais est ce que c’est vraiment un avantage pour l’approximation des fonctions?1). J’aimerai donc savoir si vous aviez des idées d’arguments à exposer, sachant que les étudiants ne manqueront pas de faire la comparaison avec les séries de Taylor, qu’ils connaissent bien.

D’avance merci :)

EDIT: dit autrement: est ce que ça poserai problème si les fonction ϕi(x)\phi_i(x) n’étaient pas orthogonales?


  1. Je sais très bien que c’est utile dans d’autres contextes, comme la physique quantique, mais ils n’en ont pas encore entendu parler à ce stade de leur formation.
+1 -0

Salut,

EDIT: je suis pas bien réveillé moi. Regarde la façon de calculer les coefficients de Fourier. Elle exploite le fait que les fonctions de base sont orthogonales pour rendre le calcul très simple : juste des produits scalaires sur les fonctions de base. Ça marcherait pas avec des fonctions de base pas orthogonales (comme avec deux vecteurs pas orthogonaux comme base du plan).

C’est pareil avec Legendre, Chebyshev et compagnie.

EDIT 2 : Il existe bien sûr des décompositions qui n’utilisent pas des fonctions de base orthogonales, mais on peut voir que par exemple dans ce cas, on se ramène quand même à une décomposition orthogonale en coulisse via une diagonalisation de matrice.

+2 -0

Une série de Taylor n’est pas une décomposition dans le sens où tu l’as défini comme un problème de minimisation. C’est en revanche une décomposition (pour les fonctions analytiques) dans le sens plus général d’écrire une fonction comme une somme ou une série de fonctions de base avec des coefficients scalaires.

Et effectivement, je ne crois pas qu’il existe de produit interne tel que les différents termes d’une série de Taylor soient orthogonaux entre eux, et en tout cas on les manipule jamais à coup de produit scalaires.

Salut,

Je reprends l’idée évoquée par adri1, mais en illustrant. Je ne suis pas très rigoureux dans la suite, donc prend ça avec des pincettes, notamment pour la dimension infinie et les erreurs de calcul.


Les bases orthonormales sont spéciales vis-à-vis de la projection orthogonale : on fait les produits scalaires séparément sur chaque vecteur de la base pour projeter orthogonalement et pouf ce sont les coordonnées dans la base. Si tu prends un vecteur vv dans une base orthonormale (e1,e2)(e_1, e_2), il s’exprime comme ça :

v=<ve1>e1+<ae2>e2v = \left< v| e_1\right> e_1 + \left< a| e_2\right> e_2

Quand la base est seulement orthogonale, les coordonnées restent découplées : t’as des mises à l’échelle à prendre en compte, mais elle se fait avec la norme du vecteur de base en question et c’est tout. Ça revient à normaliser la base d’ailleurs (les coeff de Fourier ont cette tête-là).

v=<ve1>e12e1+<ve2>e22e2v = \frac{\left< v| e_1\right>}{||e_1||^2} e_1 + \frac{\left< v| e_2\right>}{||e_2||^2} e_2

Quand ta base est quelconque, le projeté orthogonal sur une direction n’est plus relié aussi facilement aux coordonnées. En faisant des calculs vite fait (et sans certitude), tu te retrouves avec quelque chose du genre :

v=k1e1+k2e2v = k_1 e_1 + k_2 e_2

avec k1k_1 et k2k_2 solutions du système :

<ve1>=k1<e1e1>+k2<e1e2><ve2>=k1<e1e2>+k2<e2e2>\begin{array}{l l l} \left<v|e_1\right> & = & k_1 \left< e_1 | e_1 \right> + k_2 \left<e_1| e_2\right>\\ \left<v|e_2\right> & = & k_1 \left<e_1 | e_2\right> + k_2 \left< e_2 | e_2 \right> \end{array}

La matrice de ce système est une matrice de Gram. Ça se résout, mais c’est moche. Il y a un terme de couplage <e1e2>\left<e_1|e_2\right> qui intervient. Et si on veut s’en débarasser, ça revient à orthogonaliser et peut se faire de manière systématique dans les cas pratiques).

Bref, t’as fondamentalement envie de faire un projeté orthogonal, parce que c’est ce projeté qui minimise effectivement la distance. Mais t’as aussi envie d’avoir les coordonnées dans ta base pour avoir ta décomposition. C’est beaucoup plus pratique d’avoir l’orthogonalité, sauf si tu aimes faire des choses compliquées pour le plaisir. Et en plus, tu peux en général orthonormaliser ta base à l’avance !


C’est un autre sujet, les séries de Taylor sont locales (les coefficients s’expriment en fonction d’un point particulier), alors que les autres décompositions se font "partout à la fois" (les coefficients s’expriment en fonction de la fonction à approximer dans son ensemble). Ce n’est pas vraiment le même genre de point de vue.


Sauf que mes étudiants n’ont jamais vu les espaces vectoriels !

Bon courage ! Ça me paraît compliqué de faire autre chose que présenter ça comme un outil magique si les étudiants n’ont de culture sur le sujet. :/

Bon courage ! Ça me paraît compliqué de faire autre chose que présenter ça comme un outil magique si les étudiants n’ont de culture sur le sujet. :/

Aabu

Selon la formation desdits étudiants, le présenter comme un outil magique (ou plus exactement : « Voici comment vous pouvez utiliser l’outil, la démonstration de pourquoi ça marche est ici pour qui ça intéresse ») peut très bien être une solution acceptable.

Par exemple, j’ai étudié les séries de Fourier pendant mon DUT GEII, et je ne crois pas avoir jamais croisé la notion de « fonction orthogonale » (je serais incapable de te dire si les espaces vectoriels sont arrivés avant ou après dans le programme, par contre). C’est typiquement le genre de formation où le besoin c’est de savoir utiliser l’outil et de le faire correctement, le « pourquoi ça marche » n’est qu’un bonus. Alors oui, ça fait hurler certains mathématiciens et profs de maths, mais en pratique c’est plus efficace que les cours de l’autre prof de maths, à la fin desquels tu savais recracher une démonstration apprise par cœur sans savoir utiliser l’outil.

Salut,

Pour compléter la réponse de @Spacefox, je suis dans un cas un peu similaire: les étudiants vont voir les séries de Fourier avec moi (et en physique) pour le coté "utilitaire" de la chose, avant d’entendre parler "d’espace vectoriel" dans la seconde partie de cette année en … Chimie Quantique (d’ailleurs, c’est marrant que tu aie choisi la notation en braket pour le produit scalaire ^^ ). En effet, le cours de chimie quantique commence par quelques rappels d’algèbre linéaire, dans lequel on fait sentir (même si pas rigoureusement) la notion d’espace vectoriel.

Du coup, j’ai profité de mon dimanche pour faire mes slides sur cette partie, et je me rend compte que j’ai adopté une approche similaire à celle que tu proposes, @Aabu: je commence par faire ce que tu présente avec des vecteurs et un ou l’autre schéma, puis j’introduis la notion de produit scalaire pour les fonctions et la notation braket (d’une pierre deux coup, puisqu’il l’utiliseront plus tard en quantique), puis je présente les séries et coefficients de Fourier en faisant le parallèle avec les vecteurs.

En tout cas, je te remercie pour ton post, @Aabu, je pourrais ainsi vérifier ce que j’ai raconté :)

+2 -0

Peut-être qu’une analogie (mathématiquement correcte) utile est entre la covariance de deux variables aléatoires et la transformée de Fourier.

Essentiellement on parle de la même chose : le coefficient de Fourier d’une fréquence θ\theta choisie pour une fonction c’est la covariance de cette fonction avec exp(iθ)\exp(i \theta).

Dans l’autre sens : la covariance de deux variables aléatoires c’est bien un produit scalaire

Connectez-vous pour pouvoir poster un message.
Connexion

Pas encore membre ?

Créez un compte en une minute pour profiter pleinement de toutes les fonctionnalités de Zeste de Savoir. Ici, tout est gratuit et sans publicité.
Créer un compte