Fonctions d'une variable complexe
 

Sommaire

Retour page maths


Continuité, dérivabilité et holomorphie

On note $\ f(z,\overline{z})=u(x,y)+iv(x,y),\ $ une fonction des variables complexes z=x+iy et $\overline{z}=x-iy$. A noter que u (resp. v) est la partie réelle (resp. imaginaire) de f. Une fonction f est une application qui en tout point $(x,y)\in{\mathbb R}^2$ prend une valeur et une seule. Retour sommaire Retour page Maths

Théorème de Cauchy-Riemann

Si u(x,y) et v(x,y) sont différentiables en (x,y) au point (x0,y0) et si les conditions de Cauchy-Riemann
\begin{displaymath}\frac{\partial u}{\partial x}=\frac{\partial v}{\partial y}\... ...ad\frac{\partial u}{\partial y}=-\frac{\partial v}{\partial x}\end{displaymath} (1)
sont satisfaites en (x0,y0) alors f est ${\mathbb C}$-dérivable en z0 et $\displaystyle f'=\frac{\partial u}{\partial x}+i\frac{\partial v}{\partial x}$.

 Remarques :

Sténographie : on définit la différentielle complexe par

\begin{displaymath}df=\frac{\partial f}{\partial z}dz+\frac{\partial f}{\partial \overline{z}}d\overline{z},\end{displaymath}

et par identification on obtient

\begin{displaymath}\frac{\partial f}{\partial z}=\frac 12\left(\frac{\partial f... ...\partial f}{\partial x}+i\frac{\partial f}{\partial y}\right).\end{displaymath}

Les conditions (nécessaires) de Cauchy-Riemann s'écrivent alors

\begin{displaymath}\mbox{dans le cas holomorphe}\quad\frac{\partial f}{\partial... ...ns le cas anti-holomorphe}\quad\frac{\partial f}{\partial z}=0.\end{displaymath}
Retour sommaire Retour page Maths


Exemples de fonctions holomorphes

Exemples élémentaires :

\begin{displaymath}\left\{\begin{array}{lll}f(z)=(z-z_0)^n,\quad n\in{\mathbb... ...d & \displaystyle f'=\frac{-n}{(z-z_0)^{n+1}}\end{array}\right.\end{displaymath}

Si f et g sont holomorphes dans un ouvert U alors

\begin{displaymath}\lambda f+\mu g,\qquad\qquad f\cdot g,\qquad\qquad f/g \qua... ...\neq 0\ \ \mbox{pour}\ \ z\in\ \mbox{U},\qquad\qquad f\circ g,\end{displaymath}

sont holomorphes dans U, avec les formules de dérivation évidentes.

Retour sommaire Retour page Maths


Intégrale de Cauchy

On définit un chemin d'intégration $\gamma$ par la paramétrisation $x(t),\, y(t)$ sous l'hypothèse que x(t) et y(t) soient continues et à dérivées premières continues pour $\, t\in[a,b]\,$. Alors pour $z(t)\in\gamma$ on a

\begin{displaymath}z(t)=x(t)+iy(t),\qquad\qquad dz=(\dot{x}(t)+i\dot{y}(t))dt.\end{displaymath}

Soit f(z)=u(x,y)+iv(x,y) une fonction ${\mathbb C}$-continue pour $\, z\in\,\gamma$; on définit son intégrale de Cauchy le long du chemin $\gamma$ par

\begin{displaymath}\int_{\gamma}\, f(z)\, dz=\int_a^b[u(x(t),y(t))+iv(x(t),y(t))](\dot{x}(t)+i\dot{y}(t))dt.\end{displaymath}

Avec les hypothèses faites, cette intégrale de Riemann en variable t existe.

Ses propriétés les plus importantes sont :

Inégalité fondamentale :

Soit un chemin $\gamma$ de longueur $l(\gamma)$ et soit $\displaystyle \mbox{Maj}_{z\in\gamma}\vert f(z)\vert$ un majorant uniforme de |f(z)|, c'est-à-dire qui ne dépend pas du point z choisi sur $\gamma$. Alors on a

\begin{displaymath}\displaystyle \left\vert\int_{\gamma}\, f(z)\, dz\right\ver... ...\qquad\qquad l(\gamma)=\int_a^b\,\sqrt{\dot{x}^2+\dot{y}^2}dt.\end{displaymath}
Retour sommaire Retour page Maths



Théorème de Cauchy
Ce théorème fondamental s'énonce : soit f(z) holomorphe dans un ouvert simplement connexe U et soit $\gamma\in$ U un circuit de Jordan, alors on a

\begin{displaymath}\int_{\gamma}\, f(z)\, dz=0.\end{displaymath}

Remarques : Retour sommaire Retour page Maths

Notion de primitive

Soit f(z) holomorphe dans un ouvert U. On considère 2 chemins $\gamma_1$ et $\gamma_2$ strictement contenus dans U, avec la même origine A et la même extrêmité B et orientés de A vers B. Le théorème de Cauchy implique

\begin{displaymath}\int_{\gamma^+_1}\, f(z)\, dz=\int_{\gamma^+_2}\, f(z)\, dz.\end{displaymath}

On peut, pour tout z et z0 dans U définir la primitive

\begin{displaymath}F(z)=\int_{z_0}^z\, f(u)\, du.\end{displaymath}

D'après ce qui précède elle est indépendante du chemin (strictement contenu dans U) qui joint z et z0. Elle est holomorphe pour $z\in$ U et sa dérivée est F'(z)=f(z).

Retour sommaire Retour page Maths


Relations intégrales de Cauchy

Soit f(z) holomorphe dans l'ouvert U contenant $\gamma^+$. Pour tout z dans un ouvert D intérieur à $\gamma^+$ toutes les dérivées f(n)(z) sont holomorphes dans D$\,\subset\,$ U et on a les relations intégrales de Cauchy

\begin{displaymath}\displaystyle f^{(n)}(z)=\frac{n!}{2\pi i}\int_{\gamma^+}\,\frac{f(u)}{(u-z)^{n+1}}\, du,\quad z\in\mbox{D}.\end{displaymath}

Remarques : Retour sommaire Retour page Maths

Théorèmes de Morera et Liouville

Théorème de Morera : soit f continue dans un ouvert simplement connexe U; si pour tout circuit $\gamma\in$ U on a $\displaystyle\int_{\gamma}\, f(z)\, dz=0$ alors f est holomorphe dans U.

Théorème de Liouville : si f est holomorphe-entière et bornée à distance finie et à l'infini, alors c'est une constante.

Remarques :

Retour sommaire Retour page Maths

Théorème de Weierstrass

Soit la série $\displaystyle\sum_{n\geq 0}f_n(z)$ dont la somme sera notée S(z). Sous les hypothèses : on a le théorème de Weierstrass: Retour sommaire Retour page Maths

Séries entières

Soit la série entière $\displaystyle\sum_{n\geq 0}a_n(z-z_0)^n$, de rayon de convergence R (cf les notes de cours sur les séries pour les définitions).

Théorème : la somme S(z) d'une série entière est holomorphe si |z-z0|<RR est le rayon de convergence de la série entière et ses dérivées successives s'obtiennent en dérivant terme à terme.
 

Analyticité : on dit que f(z) est analytique en z0 si on peut la développer en série entière dans un voisinage fini de z0. Le théorème précédent montre que l'analyticité en z0 entraîne l'holomorphie en z0.

Retour sommaire Retour page Maths


Série de Taylor

Toute fonction f(z) holomorphe dans un ouvert U est développable en série de Taylor (c'est une série entière...), d'une façon unique, en tout point $z_0\in$ U avec :

\begin{displaymath}\displaystyle f(z)=\sum_{n\geq 0}\frac{f^{(n)}(z_0)}{n!}(z-z_0)^n.\end{displaymath}

Il en résulte que l'holomorphie en un point implique l'analyticité en ce point. En combinant ce résultat avec celui de la section 10 on en conclut à l'équivalence des notions d'holomorphie et d'analyticité.
 
 

Exemple : la fonction $(1-z)^{-\alpha}$ est analytique dans $D=\{z,\ \vert z\vert<1\}$. Elle est donc développable en série de Taylor autour de tout point $z_0\in D$. En particulier autour de z0=0 on a la série binômiale généralisée

\begin{displaymath}\displaystyle (1-z)^{-\alpha}=\sum_{n\geq 0}\frac{(\alpha)_n}{n!}\, z^n,\qquad \vert z\vert<1,\end{displaymath}

avec la définition

\begin{displaymath}(\alpha)_0=1,\qquad(\alpha)_n=\alpha(\alpha+1)\cdots(\alpha+n-1),\quad n\geq 1.\end{displaymath}

Pour $\ \alpha=-p\ $ avec $\ p\in{\mathbb N}\ $ on retrouve la formule du binôme.

Retour sommaire Retour page Maths



Série de Laurent Soit f(z) analytique dans la couronne ouverte 0<|z-z0|<R, alors elle est développable, de façon unique, en série de Laurent

\begin{displaymath}\displaystyle f(z)=\sum_{n=-\infty}^{+\infty}\, a_n\,(z-z_0)... ...mma^+}\,\frac{f(u)}{(u-z_0)^{n+1}}\, du,\quad n\in{\mathbb Z}.\end{displaymath}



Attention : le circuit de Jordan $\gamma^+$ doit être pris à l'intérieur de la région d'analyticité de f, c'est-à-dire la couronne ouverte 0<|z-z0|<R.

Le résidu de f en z0 est défini par

\begin{displaymath}\displaystyle \mbox{res}(f,z_0)\equiv a_{-1}=\frac 1{2i\pi}\int_{\gamma^+}\,f(u)\, du.\end{displaymath}



Retour sommaire Retour page Maths


On peut avoir : Exemple : z=0 est un point singulier essentiel pour $\displaystyle f(z)=e^{1/z}$ et dans la couronne ouverte |z|>0 on a la série de Laurent $\displaystyle\sum_{n\geq 0} \frac 1{n!}(\frac 1z)^n$.

Remarque : Attention aux singularités apparentes, qui sont des points d'analyticité... Par exemple le point z=0 pour la fonction $\displaystyle \frac{1-\cos z}{z^2}$.

Retour sommaire Retour page Maths

En un pôle simple on a

\begin{displaymath}\displaystyle\mbox{res}(f,z_0)=\lim_{z\to z_0}\, (z-z_0)f(z).\end{displaymath}

Parfois il est plus commode d'écrire

\begin{displaymath}\displaystyle f(z)=\frac{P(z)}{Q(z)},\quad\mbox{avec}\quad P(z_0)\neq 0,\quad Q(z_0)=0,\quad Q'(z_0)\neq 0.\end{displaymath}

Ces conditions assurent que z0 est un pôle simple. Alors le résidu est donné par

\begin{displaymath}\displaystyle \mbox{res}(f,z_0)=\frac{P(z_0)}{Q'(z_0)}.\end{displaymath}

Pour un pôle d'ordre $p\geq 2$ on a

\begin{displaymath}\displaystyle \mbox{res}(f,z_0)=\lim_{z\to z_0}\left\{\frac ... ...\frac{d^{p-1}}{dz^{p-1}}\left[(z-z_0)^p\, f(z)\right]\right\}.\end{displaymath}

Remarque : Pour calculer un résidu il est toujours possible de revenir à la définition (calculer le coefficient a-1 de sa série de Laurent). En un point singulier essentiel c'est la seule méthode possible.

Retour sommaire Retour page Maths


Théorème des résidus

Soit f(z) analytique à l'intérieur d'un circuit de Jordan $\gamma^+$, sauf en un nombre fini de singularités isolées $\{z_k,\ k=1,\ldots,n\}$. Alors on a

\begin{displaymath}\int_{\gamma^+}\, f(z)\, dz=2i\pi\sum_{k=1}^n\mbox{res}(f,z_k).\end{displaymath}

Remarques importantes :


Lemme utile :

Soit $\gamma_{\epsilon}(z_0)$ l'arc de cercle d'angle au sommet $\theta_0$ défini par $z-z_0=\epsilon e^{i\theta}$ avec $\theta\in[0,\theta_0]$. Alors si z0 est un pôle simple de f(z) on a la relation

\begin{displaymath}\displaystyle\lim_{\epsilon\to 0}\int_{\gamma_{\epsilon}(z_0)}\, f(z)\, dz=i\theta_0\,\mbox{res}(f,z_0).\end{displaymath}


Retour sommaire Retour page Maths

Application au calcul de certaines séries

On se propose de calculer les séries

\begin{displaymath}\displaystyle \sum_{n\in{\mathbb Z}}\, R(n),\qquad\qquad \sum_{n\in{\mathbb Z}}\,(-1)^n R(n),\end{displaymath}

R(z) est une fraction rationnelle telle que si $\vert z\vert\to\infty$ son module soit $\displaystyle {\cal O}(\frac 1{\vert z\vert^2})$.A chacune des séries on associe les fonctions auxiliaires

\begin{displaymath}\displaystyle \sum_{n\in{\mathbb Z}}\, R(n)\quad \Rightarrow... ...Z}}\,(-1)^n R(n)\quad \Rightarrow\quad R(z)\frac 1{\sin\pi z}.\end{displaymath}

On a les théorèmes :

\begin{displaymath}\displaystyle\sum\mbox{res}\left(R(z)\frac{\cos\pi z}{\sin\p... ...quad\qquad\sum\mbox{res}\left(R(z)\frac 1{\sin\pi z}\right)=0,\end{displaymath}

où la somme porte sur toutes les singularités.
 
 

Exemples : la somme $\displaystyle S=\sum_{n\geq 1}\frac 1{n^2}$ se calcule avec la fonction auxiliaire $\displaystyle \frac 1{z^2}\frac{\cos\pi z}{\sin\pi z}$. Il faut faire attention que les points $z=k\in{\mathbb Z}^*$ sont des pôles simples alors que z=0 est un pôle triple. On obtient $S=\pi^2/6$.

 La fonction auxiliaire $\displaystyle f(z)=\frac 1{(z+ia)^2}\frac{\cos\pi z}{\sin\pi z}$ donne les séries

\begin{displaymath}\displaystyle \sum_{n\in{\mathbb Z}}\frac 1{(n+ia)^2}=-\fra... ...c 1{a^2}-\frac{\pi^2}{{\rm sh}^2\,\pi a}\right),\quad a\neq 0.\end{displaymath}


Retour sommaire Retour page Maths

Equations différentielles linéaires du second ordre


On les écrira sous la forme

y''(z)+p(z)y'(z)+q(z)y(z)=0. (2)
Le changement de fonction

\begin{displaymath}\displaystyle y(z)=u(z)\exp\left(-\frac 12\int^z\,p(t)\,dt\right),\end{displaymath}

permet de ramener l'équation de départ à la forme canonique :

\begin{displaymath}\displaystyle u''(z)+Ju(z)=0,\quad\mbox{avec}\quad J=q-\frac 12p'-\frac 14p^2.\end{displaymath}

Le point z0 est un point ordinaire de l'équation différentielle (2) si p et q sont analytiques en z0. En un point ordinaire on a le théorème d'existence et d'unicité :
 
Le point z0 est un point singulier régulier de l'équation différentielle (2) si, en écrivant

\begin{displaymath}\displaystyle p(z)=\frac{\tilde{p}(z)}{z-z_0},\qquad q(z)=\frac{\tilde{q}(z)}{(z-z_0)^2},\end{displaymath}

les fonctions $\tilde{p}(z)$ et $\tilde{q}(z)$ sont analytiques en z0.

En ces points on peut chercher une solution sous la forme d'une série de Frobenius

\begin{displaymath}\displaystyle y(z)=\sum_{n\geq 0}c_n(z-z_0)^{n+\nu},\qquad c_0\neq 0.\end{displaymath}

Les valeurs possibles pour $\nu$ sont les solutions de l'équation indicielle
\begin{displaymath}\nu^2+(\tilde{p}(z_0)-1)\nu+\tilde{q}(z_0)=0.\end{displaymath} (3)

On peut montrer que pour un point singulier régulier la série entière $\displaystyle \frac{y(z)}{(z-z_0)^{\nu}}$ a toujours un rayon de convergence fini. Cependant, si la différence des racines de l'équation (3) est un entier relatif il est possible que la méthode ne donne pas 2 solutions linéairement indépendantes...
 
 

Exemple 1 : les fonctions de Bessel

Ce sont les solutions de l'équation

\begin{displaymath}z^2y''+zy'+(z^2-p^2)y=0,\qquad p\in{\mathbb C}\end{displaymath}

Le point singulier z0=0 est régulier (ici $\tilde{p}=1$ et $\tilde{q}=z^2-p^2$) et l'équation indicielle a pour solutions $\nu=\pm p$. Pour $p\in{\mathbb C}$ on obtient 2 solutions linéairement indépendantes avec le comportement

\begin{displaymath}J_{p}(z)\sim z^{p},\qquad\qquad J_{-p}(z)\sim z^{-p},\qquad\mbox{pour}\quad z\to 0.\end{displaymath}

La différence des indices est 2p, cependant si p est demi-entier on peut montrer que la méthode de Frobenius donne 2 solutions linéairement indépendantes, alors que si p est un entier on a la relation J-p(z)=(-1)pJp(z) qui montre que J-p et Jp ne sont pas linéairement indépendantes. En fait la solution linéairement indépendante de Jp pour p entier positif a un point de branchement de type $\mbox{Log}\, z$ en z=0 qui ne peut être obtenu par une série de Frobenius!
 
 

Exemple 2 : la fonction hypergéométrique confluente

Soit l'équation différentielle

zy''+(c-z)y'-ay=0. (4)
L'équation indicielle a pour racines $\,\nu=0\,$ et $\,\nu=1-c$. Dans ce qui suit on considère $\, c\in{\mathbb C}\backslash{\mathbb Z}$. La série de Frobenius correspondant à $\nu=0$ donne la fonction hypergéométrique confluente $\ \Phi(a,c;z)\ $ définie par
\begin{displaymath}\displaystyle \Phi(a,c;z)\equiv\sum_{n\geq 0}\frac{(a)_n}{n!\,(c)_n}z^n,\qquad R=\infty,\end{displaymath} (5)
qui est analytique-entière.

La série de Frobenius correspondant à $\nu=1-c$ est alors
\begin{displaymath}z^{1-c}\Phi(a-c+1,2-c;z).\end{displaymath} (6)
A noter que ces deux solutions ne sont distinctes et bien définies que pour $\ c\in{\mathbb C}\backslash{\mathbb Z}\ $.
 
 

Ce sont tous les points singuliers qui ne sont pas réguliers...

Exemple : le point $z=\infty$ pour l'équation de Bessel. Si l'on pose u=1/z l'équation différentielle devient

\begin{displaymath}\displaystyle u^2\frac{d^2y}{du^2}-\left(\frac 2u+u\right)\frac{dy}{du}+\left(\frac 1{u^2}-p^2\right)y=0,\end{displaymath}

et u=0, donc $z=\infty$ est un point singulier irrégulier.

On peut vérifier que l'équation différentielle satisfaite par l'hypergéométrique confluente a aussi $z=\infty$ comme point singulier irrégulier.

Le point à l'infini n'est pas toujours un point singulier irrégulier comme le montre l'exemple

z(1-z)y''+(c-(a+b+1)z)y'-aby=0,

pour lequel les points $z=0,\,1,\,\infty$ sont des points singuliers réguliers.
 
 
 
On définit le Wronskien de deux fonctions par

W[y1,y2]=y1y2'-y1'y2.

Ses propriétés les plus utiles sont :

Exemple : pour les solutions de l'équation différentielle (4) le Wronskien est $W(z)=W_0 e^z\,z^{-c}$, et un calcul au voisinage de z=0 donne $\ W_0=1-c$, confirmant l'indépendance linéaire des solutions (5) et (6).
 


Retour sommaire Retour page Maths