CATEGORII DOCUMENTE |
Bulgara | Ceha slovaca | Croata | Engleza | Estona | Finlandeza | Franceza |
Germana | Italiana | Letona | Lituaniana | Maghiara | Olandeza | Poloneza |
Sarba | Slovena | Spaniola | Suedeza | Turca | Ucraineana |
DOCUMENTE SIMILARE |
|
THEORIE DE LA DIMENSION
1)
SYSTEMES LIBRES, GENERATEURS, BASES.
Rappelons
les définitions déjà posées dans le chapitre précédent. Un
systÈme S=(e1, e2,…, en) de n
vecteurs du K espace E est dit générateur de E
si et seulement si tout vecteur v de
E peut s’écrire comme combinaison linéaire des vecteurs de S. Si de plus la
décomposition de chacun des vecteurs de E est unique, on dit que S est une base
du K-espace E.
On peut présenter différemment ces notions en associant à S
l’application K-linéaire f du
K espace standard Kn vers E définie par : xIKn f(x)=.
Notons les traductions évidentes :
S générateur de E
f est surjective.
S base de E
f est bijective.
L’injectivité de f n’a pour l’instant
pas fait l’objet d’une définition particuliÈre. Nous allons combler ce
vide en appelant systÈme libre tout systÈme S pour lequel f satisfait à l’injectivité, ou
encore, puisque f est une application
K-linéaire, tout systÈme S
pour lequel Ker(f) est réduit au zéro
de Kn.
Ceci se résume donc à :
S=(e1, e2,…, en) Libre le seul jeu x=(x1,…, xn) de coefficients de K tel que est celui oÙ chacun des coefficients xk est nul.
Cette définition permet de distinguer clairement les deux caractÈres
essentiels d’une base.
De mÊme que f bijective f surjective et f injective , on pourra énoncer :
S est une base du K-espace E S est générateur du K-espace E et S est K-libre.
Compléments et remarques sur la définition.
_ Lorsqu’il peut y avoir ambiguÃté au sujet du corps sur lequel est
construit l’espace vectoriel on précisera systÈme K-libre.
Ainsi le systÈme S=(1, i) de
complexes est R-libre mais n’est pas C-libre. En effet la combinaison linéaire x.1+y.i=0 entraine la nullité des
deux coefficients x et y lorsque ceux-ci sont supposés réels
mais peut Être réalisée avec un jeu de complexes non nuls (ex : x=i ; y=-1)
Remarquons que tout systÈme C-libre
sera nécessairement R-libre.
_ Au lieu de libre on adopte aussi le terme de systÈme linéairement
indépendant.
_ Un systÈme non libre sera dit lié ou linéairement dépendant.
_ Un systÈme contenant le vecteur nul est toujours lié.
_ Un sous-systÈme d’un systÈme libre est nécessairement libre,
une extension d’un systÈme lié est toujours lié.
Formulations
particuliÈres : On tire immédiatement des définitions les
énoncés équivalents qui suivent :
a) Un systÈme S=(e1)
réduit à un seul vecteur est libre si et seulement si e1¹0E.
b) Un systÈme S=(e1,
e2) est libre aucun des deux vecteurs de S
n’est multiple de l’autre.
c) Si n ³3 un systÈme S=(e1, e2,…, en)
est libre
aucun des vecteurs de S ne peut s’écrire comme combinaison linéaire des autres
vecteurs de ce systÈme.
Les deux premiÈres affirmations sont pratiquement évidentes à
justifier.
Pour la troisiÈme, de portée plus générale, procédons par contraposée.
_ Si S est lié, il existe un élément x
non nul de Kn tel que x1e1+……+xnen=0E.
Soit alors i un indice de tel que xi ¹0 (Il en existe car x n’est pas, par hypothÈse, le jeu de coefficients
identiquement nul.)
On pourra donc écrire . Le vecteur ei est donc combinaison des
autres vecteurs de S.
_ Si un des vecteurs de S, soit par exemple ei
,peut s’obtenir comme combinaison linéaire des autres vecteurs de S : . On en déduit immédiatement par différence
avec yk=xk pour
tout indice k distinct de i et yi=-1.
Le systÈme S est donc lié.
Sous cet angle, un systÈme lié d’au moins 2 vecteurs apparait donc comme
un systÈme au sein duquel résident des éléments ‘inutiles’ pour la tache de représentation en combinaisons
linéaires. En effet un vecteur combinaison linéaire des autres vecteurs du
systÈme sera superflu car tout multiple de celui ci pourra se décomposer
aussi comme combinaison linéaire de ces mÊmes vecteurs restants. (La
charge du multiple en question est répartie sur les autres).
On peut donc envisager des ‘compressions de personnel’ dans un systÈme
lié en vue d’éliminer des éléments ‘parasites’ et d’obtenir un systÈme
minimal, libre, oÙ chacun des vecteurs sera essentiel au sein de cette
équipe S. Plus précisément :
Ce principe de compressions successives
est une des méthodes essentielles pour construire une base d’un K-espace E non réduit à
pour lequel on connait un systÈme S=(e1,e2,…,en) générateur.
_ Si S est libre il constitue bien d’aprÈs ce qui précÈde une
base de E (générateur et libre ).
_ Si S n’est pas libre, on enclenche le processus de compression que l’on poursuit
jusqu’à obtenir un sous-systÈme S’ dans lequel aucun des vecteurs
n’est combinaison des autres éléments de S’ ou bien est réduit à un seul
vecteur non nul.
S’ est donc libre et toujours générateur de E donc constitue une base de cet
espace, construite en quelque sorte comme un systÈme générateur minimal
obtenu en raffinant un systÈme générateur donné.
Il existe une autre façon tout aussi fondamentale de construire des bases d’un
espace.(¹)
Son application repose sur la remarque suivante :
Si S=(e1 ,e2,…, en) est libre et si un vecteur en+1 n’est pas combinaison linéaire des
vecteurs de S, alors l’extension S’ du systÈme S obtenue en rajoutant le
vecteur en+1
est encore libre.
La preuve est simple : Supposons . On ne peut avoir xn+1 ¹0, sinon on en déduirait
immédiatement que en+1
est combinaison des vecteurs de S, ce qui est contraire à
l’hypothÈse. D’oÙ nécessairement xn+1=0.
Il reste donc d’oÙ l’on
déduit la nullité de tous les xk
pour kI puisque S est un systÈme supposé libre. L’extension S’
est donc encore libre.
On peut là aussi donner une image ‘économique’ de ce principe, en
considérant des ‘embauches’ répétées
jusqu’à réalisation du projet d’entreprise.
Ici le but à atteindre est la création d’une équipe S permettant de
reconstituer tout vecteur de E comme combinaisons linéaires des éléments de S,
et ceci de maniÈre unique.
On commence par choisir arbitrairement un vecteur e1 non nul dans E.
_ Si tout vecteur de E est multiple de e1,
le systÈme S=(e1)
est alors générateur de E et libre puisque e1¹0E donc constitue une
base de E.
_ Sinon il existe au moins un vecteur de E non multiple de e1.
Soit e2 un de ces éléments
et S’=(e1,e2). L’étude précédente
montre que S’ est encore libre.
_ Si S’ est générateur de E, il constitue bien une base de cet espace. Sinon il
existe des vecteurs non combinaisons linéaires de S’. On en ‘recrute’ un, soit e3 , ce qui nous donne un
systÈme S’’=(e1, e2 , e3) toujours libre et couvrant un peu plus de vecteurs
par combinaisons linéaires que les systÈmes précédents.
Une différence essentielle avec la méthode descendante des compressions
successives est que l’on n’est pas sÛr ici d’arriver à terme fini
sur un systÈme effectivement générateur de E.
Ainsi dans le cas du K-espace des polynômes quelconques
à coefficients dans K il est clair
que le systÈme Sn=(1,X,…,Xn) est libre quelque soit
l’entier n mais n’est jamais
générateur de l’espace total puisque ses combinaisons linéaires sont des
polynômes de degré au plus n.
En résumé nous disposons de deux méthodes générales, l’une ‘descendante’,
l’autre ‘ascendente’, pour construire des bases d’un K-espace E mais avec les limitations suivantes :
_ Pour démarrer la premiÈre il faut disposer d’un systÈme S=(e1,
e2,…,en) générateur.de E.
_ On n’est pas sÛr que la deuxiÈme aboutisse au bout d’un nombre
fini d’étapes.
A la question de ‘comment construire des bases’ s’ajoute aussi une
interrogation naturelle :
‘toutes les bases que l’on va ainsi construire au sein d’un mÊme espace E
auront elles toujours le mÊme nombre de vecteurs ?’
La recherche démarrée ici va s’éclaircir trÈs nettement dans le
paragraphe suivant à la lumiÈre d’un théorÈme essentiel
aux nombreuses retombées que nous appellerons le théorÈme fondamental de
la dimension.
2)
ESPACES DE DIMENSION FINIE.
A)
ThéorÈme fondamental
Pour tout entier n non nul, n+1 vecteurs d’un K-espace E tous combinaisons linéaires d’un mÊme systÈme S de n vecteurs de E sont toujours en situation de dépendance linéaire.
Nous allons procéder par récurrence sur l’entier n.
1) Pour n=1. Soit S=(e1) un systÈme réduit
à un seul vecteur de E et S’=(u1,
u2) formé de deux vecteurs
multiples de e1, c’est
à dire du type u1=ae1 ; u2=be1.
On en déduit immédiatement la relation bu1-au2=0E qui assure
le caractÈre lié du systÈme S’ lorsque le couple (a, b)
n’est pas identiquement nul.
Si (a, b)=(0,0). Il est encore plus évident que S’ est lié puisqu’il
contient le vecteur nul.
2) Pour n=2. Notons 3 combinaisons de S.
_ Supposons y¹0. On peut alors écrire puis en déduire, en
substituant dans les deux premiÈres égalités, le systÈme :
Remarquons alors que les vecteurs forment un
systÈme lié d’aprÈs l’étude précédente car ils sont tous deux
multiples de e1. Il existe
donc une combinaison linéaire de ces vecteurs utilisant un couple de
coefficients (a b) non identiquement nul et
conduisant au vecteur nul de E.
AprÈs regroupement des termes cela peut s’écrire :
Ceci montre clairement que le systÈme S’ est lié puisque (a b ¹(0,0).
_ Si y=0. Il est clair que la notion
de liberté ne dépend pas de l’ordre des vecteurs d’un systÈme. On pourra
donc si b¹0 échanger u1 et u3 ce
qui nous ramÈne à la situation précédente avec encore la
conclusion S’ lié. De mÊme si b=0
mais d¹0 on échangera u2 et u3.
Reste le pire des cas oÙ y=b=d=0.
Mais dans cet état les trois vecteurs de S’ sont multiples du seul vecteur e1. S’ est alors lié puisque
extension du systÈme (u1,
u2) lui mÊme lié
d’aprÈs l’étude faite pour n=1.
3) Plus généralement, supposons la propriété établie pour un certain entier n ³2.
Le passage au rang suivant n+1 va
s’effectuer suivant le mÊme principe que le passage de 1 à 2
examiné ci dessus. La seule difficulté réside dans l’écriture à double
indice, nécessaire ici pour représenter une configuration générale.
On posera donc S=(e1, e2,…., en, en+1) et S’=(u1,
u2,….., un+1, un+2) avec pour
tout indice i de :
_ Si le ‘dernier’ coefficient y=a(n+2,n+1) du ‘dernier’ vecteur un+2 est non nul on pourra écrire
, puis en substituant cette expression dans les n+1 premiÈres égalités, en
déduire le systÈme formé par les égalités du type :
, pour i variant de 1 à n+1.
Les n+1 vecteurs vi= sont alors tous combinaisons linéaires du mÊme
systÈme Sr formé
par les n premiers vecteurs ej ; jI.
D’aprÈs l’hypothÈse de récurrence à l’ordre n ils forment donc un systÈme lié
et on pourra trouver un (n+1)-uplet
non identiquement nul, soit (x1,…..,
xn+1) tel que x1v1+…..+xn+1vn+1=0E.
En développant puis en regroupant les multiples de un+2 on obtient la relation :
qui assure la
dépendance linéaire de S’ puisque un au moins des n+1 premiers coefficients est non nul.
_ Si y=a(n+2, n+1)=0 mais
qu’un au moins des coefficients de la ‘derniÈre colonne’ est non nul,
par exemple si a(k,n+1)
est différent de zéro, on échangera uk
et un+2 ce qui
nous ramÈnera à la situation précédente et donc encore à
la dépendance linéaire de S’.
Enfin, si tous les coefficients de la derniÈre colonne sont nuls, les
vecteurs de S’ sont tous combinaisons linéaires du systÈme réduit formé
des n premiers vecteurs Sr=(e1,…., en).
D’aprÈs l’hypothÈse de récurrence au rang n S’ est donc encore lié en
tant qu’extension d’un systÈme de n+1
vecteurs tous combinaisons linéaires du systÈme de n vecteurs Sr.
B) Applications.
Une
premiÈre conséquence importante est qu’au sein d’un espace E possédant
un systÈme générateur fini S de n
vecteurs, la méthode de recherche d’une base par extensions successives d’un
systÈme libre initial conduira toujours à une solution effective.
En effet on sait
maintenant que n est un plafond pour
le nombre de vecteurs d’un systÈme libre de E, ceci d’aprÈs le
théorÈme fondamental. (n+1
vecteurs tous combinaisons linéaires du mÊme systÈme S à n vecteurs forment un systÈme
lié.).
On ne pourra donc étendre indéfiniment un systÈme en gardant son
caractÈre libre. Au bout d’un nombre fini d’étapes dans la méthode de
recherche ‘ascendante’ on mettra en évidence un systÈme libre maximal,
donc nécessairement générateur de l’espace total E.
Dans
la foulée considérons deux bases du mÊme espace E, l’une notée B formée de n vecteurs, l’autre désignée par B’ de cardinal p.
B étant génératrice et B’ libre, le théorÈme fondamental
implique p £ n.
En inversant les rôles, chaque base étant à la fois libre et
génératrice, on en déduit n £p. Ainsi au sein d’un mÊme espace toutes les bases ont
nécessairement le mÊme nombre d’éléments.
Ceci nous permet de poser les définitions suivantes :
_ On dira qu’un espace est de dimension
finie si et seulement si il possÈde un systÈme générateur
fini.
_ Si E est un espace de dimension finie non réduit au seul vecteur nul, E
possÈde des bases et toutes ces bases ont nécessairement le mÊme
nombre d’éléments que nous appellerons la dimension du K-espace E et qui sera noté dimK(E).
Remarque : L’espace trivial est bien de dimension
finie car le systÈme S réduit à 0E est générateur,
mais ne possÈde pas de base puisque S n’est pas libre.
Par convention nous poserons dimK=0. (Ne pas chercher
dans E des bases à 0 éléments ! Il s’agit simplement d’un artifice
qui évitera de considérer des cas particuliers dans les résultats essentiels de
la théorie de la dimension énoncés ci-aprÈs.)
_ Enfin nous dirons aussi qu’un espace est de dimension infinie s’il n’est pas
de dimension finie.
Si E est un espace de dimension
non nulle n.
_ Tout systÈme générateur de E de cardinal n est une base de E.
_ Tout systÈme libre de E de cardinal n est une base de E.
En effet, soit pour commencer un systÈme S engendrant E formé de n vecteurs.
_ Si S est réduit à un seul vecteur, celui ci ne peut Être nul,
sinon l’espace engendré E serait réduit à ce qui est
contraire à l’hypothÈse n¹0.
_ Si n >1 et si S n’était pas libre, on
pourrait alors compresser S à un systÈme de n-1 vecteurs engendrant encore E. Or ceci est en contradiction avec
le théorÈme fondamental car E est de dimension n donc possÈde des systÈmes libres de n vecteurs .
S générateur de E est donc aussi libre et constitue bien ainsi une base de E.
Considérons maintenant un systÈme libre L de cardinal n.
Si L n’engendrait pas E, on pourrait alors l’étendre en un systÈme libre
L’ de n+1 vecteurs, en rajoutant un
élément de E non combinaison linéaire de L.
Ceci est directement en contradiction avec le théorÈme fondamental, le
cardinal d’un systÈme générateur de E étant un plafond pour le nombre de
vecteurs d’un systÈme libre de E. ( On aurait n+1£n). L est donc libre et générateur de E.
On a en fait repris l’idée essentielle des méthodes ascendantes et descendantes
dans lesquelles une base apparait soit comme un systÈme libre maximal,
soit comme un systÈme générateur minimal. Résumons l’étude par les
équivalences suivantes :
Si card(S)=dimK(E) S base de E
S libre dans E
S générateur de E.
Si E est de dimension finie n, tout sous-espace A de E est
nécessairement de dimension finie p
inférieur ou égal à n. De plus
si p=n ce sous-espace A coÃncide avec l’espace
total E.
_ Si A=, le résultat est évident et tient à la convention
adoptée plus haut.
_ Si A¹
enclenchons la méthode ascendante de recherche d’une base de A par extensions
successives d’un systÈme libre initial L. (Par exemple en partant de L= avec v quelconque non nul dans A).
E étant de dimension finie n, le cardinal
d’un systÈme libre de vecteurs de E (et donc aussi d’un systÈme
de vecteurs du sous-espace A) sera majoré par n. Au bout d’un nombre fini d’étapes on est alors sÛr
d’atteindre un systÈme libre maximal B dans A soit une base de A formé d’un
nombre p de vecteurs avec p£n . A est bien de dimension finie p.
Enfin, si p=n, la base B de A construite ci dessus apparait comme
un systÈme libre maximal de E, donc une base de cet espace total. E est
alors formé par l’ensemble des combinaisons linéaires d’un systÈme de
vecteurs de A et est donc inclus dans A vu la stabilité d’un sous-espace pour
les combinaisons linéaires. On a bien établi E=A.
Si
A et B sont deux sous-espaces de dimension finie d’un mÊme K-espace E, alors A B et A+B sont aussi de dimension
finie et satisfont à l’équation aux dimensions suivante :
dimK(A+B)=dimK(A)+dimK(B)-dimK(A B)
En particulier, si la somme est
directe : dimK(AÅB)=dimK(A)+dimK(B)
_ Remarquons d’abord que si un des sous espaces A ou B est réduit à ,
le résultat sera évident vu la convention dimK=0.
_Examinons ensuite le cas le cas d’une somme directe. Par hypothÈse on
peut construire une base B=(e1,…., en)
de A et une base B’=(u1,…, up)
de B.
Or par définition tout vecteur v de
A+B peut s’écrire comme somme d’un vecteur de A avec un vecteur de B donc peut
se décomposer, en utilisant le caractÈre générateur de B et B’, sous la forme : v=x1e1+….+xnen+y1u1+….+ypup .
Le systÈme B’’ obtenu en juxtaposant B et B’
apparait donc comme engendrant le sous-espace somme A+B. Montrons que B’’ est libre.
Considérons pour cela un jeu de coefficients de K, soit : (x1,….,xn, y1,…., yp), tel que x1e1+….+xnen+y1u1+….+ypup = 0E. La somme étant supposée
directe, chacune des deux composantes sur A et B est nulle , c’est à
dire x1e1+….+xnen= y1u1+….+ypup = 0E
On termine en utilisant le caractÈre libre de B et B’. Nécessairement, chacun des coefficients
xi et yj
apparaissant dans les deux combinaisons nulles suivantes est nécessairement
égal à 0.
On a donc bien mis en évidence un systÈme générateur et libre de A+B
donc une base B’’ de cardinal n+p=dimK(A)+dimK(B).
Retenons au passage le principe de construction par ‘juxtaposition’ d’une base
de A avec une base de B.
_ Abordons pour finir le cas général oÙ A B¹ et choisissons
comme point de départ une base B=(e1,…., er)
de cette intersection.
_ Si A B=A
ou A B=B, le résultat cherché est
encore évident car l’un des deux sous-espaces sera inclus dans l’autre, et la
somme ne sera autre que le ‘plus grand’ des deux.
_ Sinon, on pourra en utilisant la méthode ascendante, compléter d’une part B en une base B de A en rajoutant judicieusement des
vecteurs u1,…,up , d’autre part prolonger
ce mÊme systÈme B en une base B de B en rajoutant v1,….,vq
.
Tout vecteur a de A peut alors s’écrire
comme combinaison linéaire du type :
a=x1e1+…+xrer+y1u1+….+ypup
De mÊme tout vecteur b de B
peut s’obtenir sous la forme :
On en déduit que tout vecteur de la somme A+B pourra se décomposer suivant le
format :
Le systÈme B’=(e1,….,er,,u1,…,up,v1,….,vq) apparait donc comme
générateur de A+B.
Montrons qu’il est libre et considérons pour cela une combinaison du
type :
x1e1+…+xrer+y1u1+….+ypup
+z1v1+….+zqvq=0E.
On en déduit immédiatement l’égalité :
x1e1+…+xrer+y1u1+….+ypup=-( z1v1+….+zqvq) dans laquelle le premier membre est un
vecteur de A et le second un élément de B.
Il s’agit donc d’un vecteur de l’intersection que l’on va pouvoir décomposer
dans la base B , d’oÙ une nouvelle
égalité du type :
x1e1+…+xrer+y1u1+….+ypup=-( z1v1+….+zqvq)=t1e1+….+trer
Or B étant une base on aura nécessairement,
vu l’unicité de la décomposition, les égalités
x1=t1 ;….. ; xr=tr ;
y1=0 ;…. ; yp=0.
De mÊme B étant une base on en conclÛt t1=0 ;…. ; tr=0 ; z1=0 ; …. ; zq=0.
Tous les coefficients de la combinaison étudiée sont donc nécessairement nuls. B’ est bien une base de la somme A+B dont
la dimension est r+p+q=(r+p)+(r+q)-r c’est à
dire effectivement dimK(A)+dimK(B)-dimK(A B)
C) Quelques Résultats classiques.
1) Dimension des espaces standards.
Pour les
espaces vectoriels classiques, la mise en évidence de bases simples dites
naturelles ou canoniques donne directement la dimension.
_ Ainsi K est un K espace de dimension 1, en considérant la base évidente réduite
à 1K.
_ L’espace produit Kn est de dimension n sur K, en considérant la base élémentaire
formée des n-uplets ek dont toutes les
composantes sont nulles sauf celle d'ordre k
égale à 1K.
e1=(1K, 0K,….,0K) ; e2=(0K,
1K, 0K,…, 0K) ; …… ; en=(0K,….. , 0K, 1K).
_ L’espace Kn[X] est de dimension n+1 sur K, en remarquant que le systÈme de fonctions monômes Sn=(1, X, X²,…., Xn) est bien libre et
générateur de cet espace.
_ L’espace K[X] n’est pas de dimension finie
sur K puisque le systÈme Sn défini ci dessus est libre
quel que soit l’entier n.
2) C
espaces et R
espaces.
Soit E est un C-espace de dimension finie n, et B=(e1,e2,….,en) une base de E.
Pour tout vecteur v de E il va
exister un unique jeu de complexes (z1,…..,
zn) tel que v se décompose v=z1e1+……+znen. En écrivant
les zk sous forme
algébrique zk=xk+iyk
, cette égalité se traduit vu les axiomes d’un C-espace : v=x1e1+….+xnen+y1(ie1)+…..+yn(ien).
Le systÈme S=(e1, e2,….,en, ie1,
ie2,…., ien) apparait alors comme un
systÈme générateur du R espace E. Il est facile de
prouver que ce systÈme est libre. En effet une combinaison linéaire
à coefficients réels du type x1e1+….+xnen+y1(ie1)+…..+yn(ien)=0E se
condense avec les notations précédentes en la combinaison à coefficients
complexes z1e1+……+znen=0E et entraine donc la
nullité de chacun des complexes zk=xk+iyk
par suite du caractÈre C-libre de B et par suite la nullité de tous les
couples de réels (xk, yk).
S est donc une R-base de E et on peut donc écrire
que dimR(E)=2n=2dimC (E)
La dimension de E en tant que R-espace est le double de sa
dimension sur C.
3) Dimension d’un espace produit.
Soit B =(e1,….,en)
une base d’un K-espace E et B’=(u1,…,up)
une base du K-espace F.
Si on munit le produit cartésien P=E F des lois classiques :
(x,y)+(x’,y’)=(x+x’,y+y’) et a.(x,y)=(ax ay) pour a scalaire, il est clair que l’on
construit un K-espace vectoriel et que le
systÈme de n+p couples (e1, 0F),…..,( en, 0F), (0E, u1),…..,(0E, up) en est une base. Il suffit d’écrire (x,y)=(x,0F)+(0E,y) puis de décomposer les vecteurs x et y
dans les bases respectives B et B’. On aura donc dimK(E F)=dimK(E)+dimK(F).
La formule se généralise sans problÈme à un produit d’un nombre
fini de K-espaces :
dimK(E1 E2 En)=dimK(E1)+dimK(E2)+…..+dimK(En)
3) DIMENSION ET MORPHISMES D’ESPACES.
Dans ce paragraphe E et F désignent deux espaces vectoriels
sur le mÊme corps K, reliés par une application K-linéaire f de E vers F. On se propose d’étudier comment le morphisme f agit sur les caractÈres liés
à la notion de dimension.
Commençons par établir les résultats élémentaires suivants :
Soit S=(e1, e2,…., en) un systÈme fini de vecteurs de E et f(S)=(f(e1),….., f(en))
le systÈme dit image de S par f
, formé par les images successives des éléments de S.
1) Si S est générateur de E, alors le
systÈme f(S) est générateur de f(E).
2) Si S
est libre, alors f(S) est libre si et seulement si VecK(S)
Ker(f)=.
_ Pour la premiÈre propriété remarquons que par définition mÊme,
tout vecteur w de f(E) est du type w= f(v) avec v élément de E.
S engendrant E, on pourra écrire v
comme combinaison linéaire des vecteurs de S : v=x1e1+….+xnen . Enfin, par K-linéarité de f, on obtient : w=x1f(e1)+…..+xnf(en) .
Le systÈme f(S) est donc bien générateur de f(E).
_ Pour la deuxiÈme affirmation supposons S libre et examinons une
combinaison linéaire du systÈme f(S)
donnant le vecteur nul : x1f(e1)+…..+xnf(en)=0F.
Toujours par K-linéarité de f on en déduit f(x1e1+….+xnen)=0F
, exprimant l’appartenance au noyau de f
du vecteur v= x1e1+….+xnen .
Or v appartient au sous-espace
vectoriel engendré par S, noté classiquement VecK(S).
a Si ce sous espace n’interfÈre
avec le noyau que par le vecteur nul, on aura donc nécessairement v=0E, et par suite chacun des
coefficients xk nul vu que
S est supposé libre.
a Par contre si il existe un
vecteur non nul appartenant à la fois à VecK(S) et
à Ker(f), on pourra l’écrire v=x1e1+….+xnen
avec la relation x1f(e1)+…..+xnf(en)=0F.
Or au moins un des coefficients xk
est non nul puisque v¹0E. On a donc ici une
relation de dépendance linéaire entre les vecteurs de f(S). Par contraposée on en déduit que si S est libre, alors VecK(S) Ker(f)=.
Ces deux principes de base établis examinons les premiÈres conséquences
suivantes :
L’image par f d’un sous-espace A de dimension finie n est un sous-espace de dimension finie tel que dimK( f(A)) £
dimK(A).
Il suffit d’appliquer la premiÈre propriété à la restriction de f au sous-espace A.
Si S est une base du K-espace A formée de n vecteurs, le systÈme f(S) sera un systÈme de n vecteurs générateur de l’espace image f(A). Par suite f(A) est bien de dimension finie p£n
Si f est injective, l’image d’un systÈme libre par f est toujours un systÈme libre.
En effet Ker(f) étant réduit à ,
la deuxiÈme propriété nous donne directement le résultat.
Si A est un sous-espace de
dimension finie, dimKf(A)=dimK(A)-dimK(A Ker(f))
a Si A Ker(f)= il suffit d’appliquer les deux résultats
précédents. En effet l’image par f
d’une base de A sera à la fois libre et génératrice de f(A) donc une base de cet espace image
constituée d’un nombre de vecteurs égal à la dimension de A.
Dans ce cas f ‘conserve la dimension’.
a Si dimK(A Ker(f))=p avec p³1. (Cette dimension est bien finie
puisque la trace de A sur le noyau de f
est un sous-espace de A de dimension finie.)
Partons alors d’une base S=(e1,
e2,…., ep) de cette intersection et
étendons la en une base B =(e1, e2,….,
en) de A. On sait que f(B) est un systÈme générateur de f(A).
Cependant, dans ce systÈme, les images f(ek) des p premiers
vecteurs sont nulles puisqu’il s’agit d’images par f de vecteurs du noyau de f.
On peut donc compresser ce systÈme générateur en éliminant ces images
inutiles.
_ Si p=n on a alors A Ker(f)=A donc AÌKer(f)
et f(A)=.
_ Si p<n le systÈme réduit apparait comme l’image d’un systÈme S’=(ep+1,…., en) tel que VecK(S’) Ker(f)=. En effet la juxtaposition de S et S’ étant une
base de A on a vu un peu plus haut que VecK(S)ÅVecK(S’)=A.
Le deuxiÈme principe nous assure alors que f(S’) est libre. On a donc
construit une base de f(A) formée de n-p vecteurs.
Dans les deux cas on a bien dimKf(A)=n-p=dimK(A)-dimK(A Ker(f)).
Cette relation précise le rôle important du noyau pour la connaissance d’un
morphisme f.
Si E est de dimension finie,
alors dimK( f(E))=dimK(E) –dimK(Ker(f))
Il suffit
d’appliquer le résultat précédent à A=E.
Ce théorÈme est souvent connu comme le ‘ théorÈme du rang’ car il permet de préciser ce que l’on appelle
le rang d’une application linéaire,
c’est à dire la dimension de l’espace image :.Im(f)=
f(E).
Si E est de dimension finie et si
f est bijective, alors dimK(F)=dimK(E)
C’est un cas particulier du résultat précédent avec A=E puisque f(E)=F et Ker(f)=
Deux espaces de dimension finie isomorphes sont donc nécessairement de mÊme
dimension.
Un espace de dimension finie ne peut Être isomorphe à un espace de
dimension infinie.
Si E et F sont deux K
espaces de mÊme dimension finie, alors pour tout application linéaire f de E vers F : f bijective
f injective
f surjective .
_ On sait que f est injective si et
seulement si Ker(f) est réduit
à . Ceci équivaut d’aprÈs le théorÈme du
rang à : dimK( f(E))=dimK(E), donc d’aprÈs
l’hypothÈse, à l’égalité
dimK( f(E))=dimK(F),
ou encore à f(E)=F puisque f(E) est un sous-espace de
F.
Ainsi l’injectivité de f équivaut
à sa surjectivité et par suite à sa bijectivité.
En particulier, pour montrer qu’un
endomorphisme f d’un K-espace
E de dimension finie est bijectif il suffira d’établir un seul des deux
caractÈres fondant cette notion, l’injectivité ou la surjectivité.
De mÊme pour vérifier que l’endomorphisme g est réciproque de f, il
suffira de s’assurer qu’une au moins des deux égalités gf=IE ou fg=IE est
réalisée.
En effet de la premiÈre on déduit directement l’injectivité de f ainsi que la surjectivité de g. L’étude ci dessus assure alors la
bijectivité de g et f et la relation g=f –1.
Raisonnement identique à partir de la deuxiÈme égalité en
échangeant les rôles des deux applications.
Deux K-espaces
de mÊme dimension finie sont nécessairement isomorphes.
Pour l’établir
il suffit de remarquer que tout K-espace de dimension finie n est isomorphe à l’espace
standard Kn par l’intermédiaire de
l’application j
définie aprÈs le choix d’une base B=(e1,e2,….,en).de
E comme :
v=x1e1+….+xnen
, j(v)=(x1,…….,
xn).
Il ne s’agit pas vraiment ici d’une application des deux principes en question
mais simplement une autre formulation de la notion de base, déjà évoquée
dans le premier paragraphe.
4) RANG D’UN SYSTEME.
On a défini précédemment le rang d’une application linéaire
comme la dimension de son espace image.
Plus généralement nous appellerons rang
d’un systÈme S de vecteurs du
K-espace E la dimension du K-espace engendré par S.a rang(S)=dimK(VecK(S))
Le lien entre les deux notions est précisé par la propriété évidente qui
suit :
Si fILK(E,F) et si S=(e1,e2,….,en) est une base de E, alors rang(f)=rang(f(e1),f(e2),….,f(en))
.
En effet on sait que si S est générateur de E, f(S) engendre f(E)=Im(f).
Détermination pratique du rang.
On peut toujours bien sÛr appliquer la méthode consistant à
compresser progressivement le systÈme générateur initial S
jusqu’à obtention d’une base. Cependant la détermination effective de
relations de dépendance linéaire n’est pas toujours évidente si le nombre de
vecteurs de S est élevé.
On lui préfÈre souvent une méthode plus algorithmique décrite
ci-aprÈs, reposant sur un principe dit du ‘pivot de Gauss’, assez
universelle puisqu’on la retrouvera dans la résolution des systÈmes
linéaires et le calcul des déterminants, avec l’avantage considérable de
pouvoir se transcrire aisément dans les langages de programmation usuels.
Description de la méthode.
A) Notation matricielle.
La mise en place nécessite la connaissance des composantes des vecteurs de S
dans une base du K-espace d’étude E.
Nous désignerons par B=(e1, e2,….,
en) une telle base et
noterons S=(u1,….., up) avec pour tout k élément de : =
La notation a double indice est ici inévitable. Notons qu’elle fait apparaitre
une application x définie sur le
produit cartésien à valeurs dans K
avec pour la composante suivant ei dans la base B du vecteur uk.
Cette application sera souvent résumée à l’aide d’un tableau à
double entrée constitué de n lignes
et p colonnes et dont l’élément
générique situé à la croisée de la ligne i et de la colonne k sera
précisément . Ce tableau sera appelé matrice des composantes des vecteurs
du systÈme S dans la base B (ou plus simplement matrice de S
dans B ).
Sa colonne d’ordre k notée Ck représente dans l’ordre les
composantes de uk dans la
base B .
Mat(S,B )=A=
B) Rang d’un systÈme
‘triangulaire inférieur’.
On appelle ainsi, de maniÈre imagée, un systÈme S de r vecteurs dont la matrice
représentative dans B ne contient que des zéros dans le triangle correspondant aux couples
(i,
k) d’indices tels que i < k. Ces vecteurs se décomposent donc suivant le schéma :
Il s’agit en fait plutôt d’un dessin en trapÈze, le vrai triangle
n’apparaissant que si r=n.
L’intérÊt de cette structure réside dans la propriété qui suit :
Si aucun des coefficients diagonaux x(i,i) n’est nul, alors le rang du
systÈme est égal à r.
La preuve est facile. Considérons une relation de dépendance a1u1+…..+arur=0E.
Chacune des composantes dans la base B
de la combinaison linéaire précédente doit donc s’annuler.
_ Ainsi, en projetant sur e1.,
on obtient a1x(1,1)=0 d’oÙ l’on tire a1=0 puisque x(1,1)
¹0.
_ Ensuite, en projetant sur e2
on aura a1x(2,1)+a2x(2,2)=0.
Mais a1=0 et x(2,2)
n’est pas nul, on en déduit donc a2=0.
_ Il est facile de poursuivre ce procédé en cascade et de montrer que de proche
en proche tous les coefficients ak
vont s’annuler successivement jusqu’à ar. Le systÈme étudié est donc bien libre, son
rang est égal à son cardinal r..
C) Manipulations conservant le rang
d’un systÈme.
La partie active de la méthode va consister à l’aide de
transformations élémentaires, à remplacer le systÈme initial S en
un systÈme triangulaire du type précédent, sans modifier l’espace
vectoriel engendré.
Pour cet objectif trois types de manipulations fondamentales suffisent, que
l’on va codifier de la façon suivante :
a) Echange des
vecteurs uk et uj.
b) Remplacement du
vecteur uk par le multiple
auk avec a non nul.
c) . Remplacement du
vecteur uk par la
différence uk-uj avec k
¹j .
Justifications :
_ La somme des vecteurs étant commutative, la modification de l’ordre des
vecteurs d’un systÈme S ne perturbe aucunement l’espace vectoriel
engendré par celui-ci. La premiÈre transformation est donc tout à
fait licite.
_ Si le scalaire a est non nul, les
droites vectorielles engendrées par uk
et auk sont identiques et
ces deux vecteurs ont donc des rôles interchangeables pour ce qui concerne les
combinaisons linéaires. Ceci justifie l’emploi de la manipulation b).
_ Enfin remarquons que le sous-espace engendré par le couple (uk,uj) est identique à celui engendré par (uk-uj,,uj).
Il suffit de remarquer que uk=(uk-uj)+uj.
On pourra donc aussi utiliser des manipulations du type c).
Ces justifications précisées, le déroulement des opérations est relativement
simple :
_ En modifiant au besoin l’ordre, on se place sous l’hypothÈse oÙ
la premiÈre composante
a=x(1,1) du premier
vecteur u1 est non
nulle.(Si toutes les composantes sur e1
sont nulles, on travaillera sur la base restreinte B –,
suffisante pour représenter les vecteurs de S)
_ On remplace ensuite pour chaque k >1 chacun des vecteurs uk
par .
Ceci ne modifie rien si x(1,k) est nul, et correspond dans le
cas contraire à l’enchainement des trois opérations permises :
Cette séquence a pour effet de mettre à zéro toutes les composantes
suivant e1 des vecteurs uk d’indice k
strictement supérieur à 1. Notons S1 le sous systÈme
formé par ces r-1 vecteurs ainsi
modifiés.
_ On recommence avec S1 la démarche précédente avec cette fois ci
l’objectif d’annuler les composantes sur e2 (sauf une !).
_ On poursuit le procédé jusqu’à obtention de la forme triangulaire
recherchée.
Si au cours de ces opérations le vecteur nul apparait, il sera bien entendu
exclu du systÈme en évolution car il n’a aucune influence sur le rang.
Insistons sur la forme dépouillée de la méthode : on n’utilise que les
composantes des vecteurs de S dans la base B . On travaille en fait dans l’espace
standard Kn, isomorphe à E par
l’intermédiaire de la base B suivant : v=x1e1+…+xnen
a(x1,…, xn).
Le rang de S est donc aussi celui du systÈme S’ des vecteurs colonnes de
la matrice représentant S dans B , rang que l’on appellera donc
aussi rang de la matrice A= Mat(S,B )
L’intervention de cette matrice a un autre intérÊt pratique non
négligeable. On va montrer en effet que le rang de A, c’est à dire du
systÈme des vecteurs colonnes coÃncide en fait aussi avec le rang
du systÈme des vecteurs lignes de cette matrice, considérés comme
vecteurs de l’espace standard Kp.
Cette symétrie n’était pas du tout imaginable à priori, en restant
prisonnier de l’espace initial E oÙ sont choisis les vecteurs de S. La
détermination pratique du rang pourra donc Être enrichie de manipulations
du type pivot de Gauss sur les lignes de la matrice et conduire plus rapidement
au résultat.
Reste donc à justifier cette égalité des rangs des systÈmes
lignes et colonnes d’une mÊme matrice rectangulaire. C’est encore une
conséquence simple du théorÈme fondamental de la dimension, avec pour seule
difficulté une notation indicielle un peu lourde et obscure.
Aussi pour montrer comment intervient le principe essentiel et alléger
l’écriture nous allons d’abord considérer le cas particulier oÙ le rang
du systÈme des vecteurs colonnes est égal à 3 et oÙ les
trois premiÈres colonnes forment effectivement un systÈme libre.
On aura ainsi pour tout k supérieur
ou égal à 3 : Ck=akC1+bkC2+gkC3.
Examinons alors une ligne quelconque de A, soit Li.
Ses trois premiers termes sont les coefficients respectifs des colonnes
respectives C1, C2, C3, et le coefficient
d’ordre k ³4 s’écrit .
Considérons alors les trois lignes l1, l2, l3
définies comme suit :
l1=(1, 0, 0, a ak ap)
l2=(0, 1, 0, b bk bp)
l3=(0, 0, 1, g gk , gp)
Il est clair que Li=x(i,1)l1+x(i,2)l2+x(i,3)l3. L’espace des vecteurs lignes
possÈde donc un systÈme générateur formé de 3 vecteurs et par
suite sera de dimension inférieure ou égal à 3.
On généralise sans peine ce raisonnement si le rang du systÈme des
vecteurs colonnes est quelconque. On établit donc ainsi que : rang(L1,….,Ln)
£ rang(C1,…….,Cp).
Une démarche symétrique peut s’effectuer en échangeant dans la précédente les
rôles joués par les lignes et les colonnes.
On en déduit l’inégalité inverse et par suite l’égalité des deux rangs.
Soit
E un R-espace vectoriel, et deux vecteurs de E et
S le systÈme défini par les trois vecteurs .
Montrer que S est lié et donner une relation de dépendance linéaire précise
entre ses vecteurs.
Dans
le R-espace des fonctions de R dans R on considÈre f1,
f2, f3 définies par
les formules :
f1(x)=sin(x+1) ; f2(x)=sin(x-1) ; f3(x)=sin(x+2).
a) Le systÈme S formé par ces trois fonctions est-il libre ?
b) Déterminer une base de E=VecR(S).
c) Déterminer les composantes de la fonction x asin(x)
dans la base précédente.
Soit
S=(e1, e2,…., en) un systÈme libre d’un C espace E.
Le systÈme S’=(e1+e2, e2+e3,…..,
en-1+en, en+e1)
est-il également libre ?
Dans
R on considÈre l’ensemble E des
quadruplets (x, y, z, t) tels
que :
2x+y+t=0 et x+y-z+3t=0
Montrer que E est un sous-espace et déterminer en une base.
Soit S le R-espace des suites à valeurs réelles. On note E l’ensemble des éléments de S tels que les termes de rang pair soient en progression arithmétique ainsi que les termes de rang impair. Montrer que E est un sous-espace de S de dimension finie.
Dans
R on considÈre le sous-ensemble E
des triplets du type (x+y-3z, x+2y-t,
t+x-z) , les coefficients x,
y, z, t pouvant prendre toute valeur réelle.
Montrer que E est un sous-espace de dimension finie et déterminer en une base.
Dans
le R-espace des fonctions de R dans R montrer que le systÈme de n vecteurs définis par les formules : sin(x), sin(2x), …., sin(nx) ,
est libre quel que soit l’entier n
non nul.
(On pourra procéder par récurrence et mettre à profit l’outil de la
dérivation.)
Ceci prouvé, la fonction appartient-elle au
sous-espace engendré par le systÈme défini ci dessus ?
Soit
E un R-espace de dimension 4 décomposé
sous la forme E=VecR(a,b)ÅVecR(c,d).
Peut on en déduire E=VecR(a+c)ÅVecR(b,
d, c-a) ?
Que se passe t-il si on supprime l’hypothÈse sur la dimension de
E ?
Dans
le R-espace des fonctions de R dans R on considÈre pour tout entier non nul k le vecteur fk défini par la formule fk(x)=ln(x²+k).
Le systÈme Sn=(f1, f2,…, fn)
est il libre pour tout n entier non
nul ?
Dans R on considÈre le systÈme S
formé des 4 vecteurs :
e1=(2, 0, 1) ; e2=(-1, 1, 1) ; e3=(3, 1, 3) ; e4=(3, -1, 0). Déterminer le
rang de S, donner une base de R3 qui soit extension d’une base du
sous-espace engendré par S.
Montrer que tout systÈme S=(P1, P2,…., Pn) de polynômes non nuls à coefficients dans K dont les degrés sont tous distincts deux à deux est nécessairement libre.
On considÈre l’ensemble
noté M3(R) des matrices carrés à
coefficients réels d’ordre 3
(3 lignes et 3 colonnes) muni des lois usuelles suivantes :
_ Somme ‘+’ des matrices, définie en additionnant terme à terme les
éléments correspondants de chacun des tableaux.
_ Produit ‘.’ d’une matrice par un réel a, obtenu en multipliant chacun des
éléments du tableau par le scalaire a.
1) Montrer que (M3(R) , +, . ) est un R-espace vectoriel de dimension finie.
2) On note E l’ensemble des carrés magiques d’ordre 3, c’est à dire des
éléments de M3(R) pour lesquels les sommes des 3
colonnes, des 3 lignes et des deux diagonales sont toutes égales entre elles.
Déterminer une base de E.
Soit E un R espace de dimension infinie, F et P deux sous-espaces de E tels que E=FÅP avec dimR(P)=2. Montrer que tout autre sous-espace G supplémentaire de F dans E c’est à dire tel que E=FÅG est nécessairement de dimension 2.
Dans R [X] quel est le rang du systÈme
constitué par les 5 polynômes :
P1=1+2X-X²+X3 ; P2= 2+7X+2X3 ;
P3=5+X-11X²+5X3 ; P4=-1+X+3X²-X3 ;
P5=-5-4X+9X²-5X3
Soit f un endomorphisme d’un K-espace
E. Etablir l’équivalence suivante :
x IE le systÈme (x, f(x)) est lié f
est une homothétie vectorielle.
f désigne un endomorphisme d’un K-espace vectoriel E.
a) On suppose qu’il existe un entier k non nul tel que f k=0
et f k-1 ¹0.
Montrer qu’il existe un vecteur a de
E tel que le systÈme (a, f(a),f
2(a),…,f k-1(a))
soit libre.
b) On suppose E de dimension finie n.
Montrer que si l’endomorphisme f est
nilpotent, c’est à dire si une puissance de f s’annule, alors nécessairement f n=0.
Soient E et F deux K-espaces vectoriels et f un élément de LK(E,F).
a) Montrer que f est de rang 1 si et
seulement si il existe un vecteur b
non nul de F et une application K linéaire non nulle u de E vers K tels que pour tout x de E on ait f(x)=u(x).b
b) Si E=F en déduire une condition nécessaire et suffisante pour qu’un
endomorphisme de rang 1 soit un projecteur.
c) Plus généralement, soit r le rang
de l’application K-linéaire f de E vers F. Montrer que f
peut se décomposer en une somme de r
applications linéaires de rang 1.
E, F, G désignent trois K espaces de dimension finie. f ILK(E, F) et gILK(F, G).
1) Montrer que Im(gf)=g(Im(f)).
2) Montrer que rang(gf)£ min( rang(f), rang(g) ) . (le plus petit des deux rangs).
3) Etablir l’équivalence : rang(gf)=rang(f)
Im(f) Ker(g)=
4) Etablir l’équivalence : rang(gf)=rang(g) F=Im(f)+Ker(g).
E, F, G trois K-espaces vectoriels de dimension finie. f ILK(E, F) et gILK(F, G).
1) Montrer que Ker(f)ÌKer(gf)
2) Montrer que Ker(gf)=f –1(Ker(g))
3) Montrer que dimK(Ker(gf) £ dimK(Ker(f))+dimK(Ker(g)
4) Etablir l’équivalence dimK(Ker(gf)=dimK(Ker(f))+dimK(Ker(g)) Ker(g) Ì
Im(f)
5) Montrer que rang( gf) ³ rang(f)+rang(g)-dimK(F).
E un K-espace vectoriel de dimension n et f un endomorphisme
de E.
On suppose qu’il existe un entier k
tel que Ker(f k)=Ker(f k+1)
Montrer que Ker(f k+1)=Ker(f k+2) et que E=Ker(f k)ÅIm(f k)
SOLUTIONS.
Les
trois vecteurs en question étant combinaisons linéaires d’un mÊme
systÈme de deux vecteurs, le théorÈme fondamental assure leur
dépendance linéaire.
Pour une solution effective remplaçons suivant le schéma principal de la
démonstration, par =dans les deux premiÈres égalités. On obtient
aprÈs simplifications :
On obtient donc la relation de dépendance :
a)
D’aprÈs les formules trigonométriques d’addition on remarque que pour
tout x réel :
f1(x)=cos1sinx+sin1cosx ; f2(x)=cos1sinx-sin1cosx ; f3(x)=cos2sinx+sin2cosx
Si on note u la fonction classique
sinus de R dans R et v la fonction
cosinus, ce qui précÈde peut se résumer par les égalités
vectorielles :
f1=(cos1)u+(sin1)v ; f2=(cos1)u-(sin1)v ; f3=(cos2)u+(sin2)v.
On est donc en présence d’un systÈme de 3 vecteurs tous combinaisons
linéaires du mÊme systÈme (u,
v) de deux vecteurs, donc formant
nécessairement un systÈme lié d’aprÈs le théorÈme
fondamental de la dimension.
b) Pour une relation effective on peut tirer des deux premiÈres égalités
une expression de (u, v) en fonction
de (f1, f2) que l’on reporte dans la
derniÈre équation.
;
Soit, aprÈs simplifications :
VecR(S) est donc engendré par le systÈme réduit (f1, f2). Il est facile de vérifier que celui-ci est libre
car d’ une relation du type af bf =0 on déduit a=0 en écrivant l’égalité
fonctionnelle au point x=1 et b=0 en considérant l’image de –1.
c) Les composantes de u=sin dans la
base (f1, f2) apparaissent dans les
calculs précédents..
Considérons
une relation de dépendance du type :
E
Par regroupement des termes et puisque par hypothÈse le systÈme
initial S est libre, on en déduit que nécessairement :
Laissons de côté la premiÈre relation, particuliÈre vu le ‘retour
de en à e1.’
On voit alors facilement que, de proche en proche, pour tout k élément de . Ainsi . En reportant cette expression dans la premiÈre
égalité non encore exploitée on obtient
La discussion est claire :
_ Si n est impair, nécessairement a doit Être nul et par suite tous
les autres coefficients considérés. Le systÈme S’ sera libre.
_ Si n est pair a peut Être quelconque et il
existera donc des relations de dépendance non triviales entre les vecteurs de
S’. Par exemple pour a =1 :
(e1+e2)-(e2+e3)+…+(-1)k+1(ek+ek+1)+….+
(en-1+en)-(en+e1)=0E. S’ est lié.
Résolvons
par substitution élémentaire le systÈme traduisant l’appartenance d’un
quadruplet à E :
E apparait donc comme l’ensemble des vecteurs de R du type v=(x, y, -5x-2y, -2x-y)
avec pour (x, y) un couple quelconque de réels. En décomposant pour séparer le
rôle des deux paramÈtres on obtient E=
Ainsi E est le sous espace de R engendré par le systÈme(u,
v) de deux quadruplets
u=(1, 0, -5, -2) ; v=(0, 1, -2, -1). Reste à
remarquer que ce systÈme est libre.
En effet u ne peut Être
multiple de v car sa premiÈre
composante est 1 alors que celle de v
est nulle, de mÊme l’examen des deuxiÈmes composantes montre que v ne peut Être multiple de u.
E est un plan vectoriel de base (u, v).
Soit
x un vecteur de E. Par
hypothÈse ses termes de rang pair sont en progression arithmétique donc
régis par une formule élémentaire du type x2n=x0+nr.
De mÊme si r’ désigne la raison
de la progression arithmétique des termes d’indice impair on peut écrire x2n+1=x1+nr’ pour tout entier n.
Considérons alors les quatre suites a,b,c,d
définies par les formules suivantes :
n IN
Il est clair que x se décompose sous
la forme x=x0a+rb+x1c+r’d.
Le systÈme B =(a, b, c, d) engendre donc le R espace E.
De plus il s’agit d’un systÈme libre car de x=aa+ bb+a’c+b’d=0S on déduit d’abord a=0 en écrivant x(0)=0, puis a’=0 à partir de x(1)=0 et enfin b b’=0 comme conséquence de x(2)=x(3)=0.
On a donc bien mis en évidence une base finie B de E et on peut conclure : dimR(E)=4.
En
séparant les rôles de chacun des paramÈtres on obtient la décomposition
naturelle :
(x+y-3z, x+2y-t, t+x-z)=x(1, 1, 1)+y(1, 2, 0)+z(-3, 0, -1)+t(0, -1, 1).
E est donc le sous-espace de R engendré par le systÈme S formé
des quatre triplets
u=(1, 1, 1) ; v=(1, 2, 0) ; w=(-3, 0, -1) ; j=(0,
-1, 1).
Déterminons le rang de S. grace à
la méthode du pivot de Gauss.
La matrice de S dans la base canonique de R est A=
_ Les manipulations
_ On poursuit avec
Le rang de S est donc égal à 3. En effet :
L’annulation de la derniÈre colonne est l’expression de l’égalité j=u-v
et le systÈme réduit aux 3 premiÈres colonnes est triangulaire
inférieur avec tous les coefficients diagonaux distincts de 0.
E est donc un sous-espace de R de mÊme dimension que celui-ci,
donc confondu avec lui. E=R . (u,
v, w) est bien sÛr une des
bases possibles.
_
Pour n=1, la propriété étudiée est
évidente car la fonction sinus n’est pas la fonction identiquement nulle sur R et constitue donc bien à elle
seule un systÈme libre.
_ Supposons la propriété vraie au rang n ³1 et essayons d’en déduire que le
systÈme formé par les n+1
fonctions fk définies sur R par fk(x)=sin(kx) avec kI est encore libre.
Pour cela examinons les conséquences d’une relation de dépendance du
type :
.
D’aprÈs les rÈgles élémentaires de dérivation il est clair que
pour tout entier k on a la relation
différentielle : fk’’=-k²fk . On en déduit, vu l’égalité précédente et la linéarité
de la dérivation : -a f a f -…….-n²anfn-(n+1)²an fn+1=0.
On peut alors combiner les deux relations précédentes de façon à
éliminer le terme en fn+1.
On obtient
D’aprÈs l’hypothÈse de récurrence à l’ordre n, tous les coefficients affectant les
vecteurs fk dans la
relation précédente sont nécessairement nuls.
Or k I (n+1)²-k²¹0. Tous les coefficients ak correspondants sont donc nuls et
.l’égalité initiale se résume à an fn =0 dont on tire immédiatement an =0 puisque fn+1 n’est pas le zéro de l’espace vectoriel.
La propriété de liberté étudiée est donc bien héréditaire , validée à
l’ordre 1, donc transmissible de proche en proche à tout entier
supérieur ou égal à 1.
Supposons maintenant f= . On en déduit que pour tout réel x, en multipliant par (cosx+2) : .
En utilisant la relation ci dessus
peut se condenser en l’égalité fonctionnelle :
( avec la convention f0=0).
L’étude précédente nous permet d’égaler les coefficients relatifs à un
mÊme vecteur fk et
donne le systÈme:
On en déduit facilement par un processus descendant l’annulation de tous les
coefficients ak ce qui est incompatible avec la
premiÈre égalité. f ne peut
donc s’écrire comme combinaison linéaire du systÈme (f1,…., fn).
La
somme étant supposée directe, on peut écrire 4=dimR(VecR(a,
b))+dimR(VecR(c, d)).
De plus, chacun des deux espaces constituant la somme est engendré par un
systÈme de deux vecteurs donc est de dimension au plus égale à 2.
La seule configuration compatible avec les remarques précédentes est donc dimR(VecR(a,
b))=dimR(VecR(c, d))=2.
Les deux couples générateurs (a, b)
et (c, d) constituent donc des bases des espaces respectifs engendrés et
l’on sait que dans le cas de sous-espaces supplémentaires, la juxtaposition de
ces deux systÈmes constitue une base de l’espace somme E.
S=(a, b, c, d) est donc une base de E.
Le remplacement de a par a+c ne modifie pas le rang et nous
conduit à la base (a+c,b,c,d)
De mÊme le remplacement de c
par 2c-(a+c) nous donne la base (a+c
,b, c-a, d)
Enfin l’échange de c-a et d nous dit que S’=(a+c, b, d, c-a) est une base de E.
On en déduit immédiatement la décomposition demandée : E=VecR(a+c)ÅVecR(b,d,c-a)
Si E n’est plus supposé de dimension 4, l’affirmation S base de E n’est plus
assurée et la deuxiÈme décomposition peut s’avérer fausse. Par exemple
elle l’est manifestement si a=0E
et si c¹0E car dans ce cas a+c=c-a=c vecteur non nul
appartenant aux deux sous-espaces que l’on voudrait supplémentaires.
Envisageons
une relation de dépendance du type a f anfn=0.
On en déduit immédiatement par dérivation que sur R entier on a l’égalité :
.
Puis, en posant X=x², que sur ]0,+¥[ :
Définissons alors pour tout k de
le polynôme .
L’égalité ci dessus équivaut avec ces notations à , toujours pour tout X >0.
Or un polynôme à coefficients réels et admettant une infinité de racines
ne peut Être que le polynôme identiquement nul. L’égalité précédente est
donc vraie sur R entier et en particulier en tout
X=-k. On en déduit immédiatement ak=0 car Pj(-k)=0 j ¹k
La matrice représentant S dans la
base canonique de R est A=
Les manipulations matrice d’un
systÈme S’ de mÊme rang que S. Or il est clair que S’ est de rang
2 car les deux premiÈres colonnes de sa matrice représentative ne sont
pas proportionnelles alors que les deux derniÈres sont des multiples
évidents de la premiÈre. VecR(S)=VecR(e1, e2).
Pour compléter (e1, e2) en une base de R il suffit de lui adjoindre un vecteur v non combinaison linéaire de S c’est
à dire pour lequel une égalité du type v=ae be est impossible. v=(0, 0, 1) est une des nombreuses possibilités !
On sait que l’ordre des vecteurs
d’un systÈme n’influe pas sur le rang de celui ci.
On peut donc supposer sans restriction du problÈme que polynômes Pk seront rangés selon les
degrés strictement croissants.
Considérons alors une relation de dépendance non triviale du type a P1+….+anPn=0 et notons r le
plus grand indice k tel que ak¹0.
_ Si r > 1on en déduit une expression de
Pr en fonction des
polynômes précédents : . Egalité impossible
car Pr serait alors
combinaison linéaire de polynômes de degré strictement inférieur à son
propre degré.
_ Si r=1, il reste a P1=0, impossible également
puisque a et P1
sont non nuls.
Le systÈme étudié ne peut donc Être lié.
1) La vérification de la
structure de R-espace ne pose aucun
problÈme.
Pour la dimension, il suffit de remarquer qu’une matrice quelconque M de coefficient générique x(i, j) se décompose de maniÈre unique avec P= et U(i,j) matrice carrée d’ordre 3 dont tous les
éléments sont nuls excepté celui de la ligne i et la colonne j que
l’on prend égal à 1.
La dimension de l’espace considéré est donc 9.
2) Pour l’étude de E, le plus simple consiste à essayer de construire
ces carrés magiques, sous la forme la plus générale. Pour cela notons que les
données de la valeur s des sommes
communes imposées, de l’élément central c
et des deux éléments de la premiÈre ligne soient a et b déterminent de
proche en proche les valeurs restantes. En effet, deux éléments alignés sur une
ligne, colonne ou diagonale de la matrice étant connus, on trouve le
troisiÈme élément en amenant la somme à la valeur s. On aura par exemple aprÈs 6
opérations de ce type la structure
Dans ce schéma on n’a pas utilisé les contraintes des sommes sur les deux
derniÈres lignes de la matrice. Pour qu’elles soient réellement
réalisées on voit que la condition s=3c est nécessaire et suffisante, ce qui
nous donne une forme générale fonction des trois seuls paramÈtres a,b,c : que l’on peut
décomposer en :
.
On a donc mis en évidence un systÈme générateur de E formé des trois
matrices apparaissant dans l’écriture ci dessus et en situation d’indépendance
car la combinaison précédente de maniÈre évidente ne peut donner la
matrice nulle que si les trois coefficients a, b,
c sont égaux à 0. E est donc un R-espace de dimension 3.
Notons P=VecR(u, v). Nous allons
montrer que tout supplémentaire G de F dans E est de dimension au plus 2.
Pour cela, soient x, y,
z trois vecteurs de G. D’aprÈs l’hypothÈse E =FÅP on peut les écrire sous la
forme avec f1, f2, f3
éléments de F.
Les vecteurs x-f1, y-f2, z-f3 sont alors élément du plan P donc nécessairement en
situation de dépendance linéaire. On peut donc trouver un triplet de réels non
identiquement nul, soit (a,b,c), tel
que : a(x-f1)+b(y-f2)+c(z-f3)=0E
En développant on peut écrire ax+by+cz=af1+bf2+cf3 égalité dont
le premier membre est situé dans le sous-espace G et le second membre
appartient à F.
Or par hypothÈse F G=, il s’ensuit que ax+by+cz=0E et que (x,y,z) est un systÈme lié. On a
bien dimR(G) £2.
G ne peut Être réduit à car F ¹ E . Montrons que G ne peut
Être une droite vectorielle. Il suffit de reprendre le raisonnement
précédent en inversant les rôles de P et G.
Si G=VecR(a) on peut
écrire u=f1+aa ; v=f2+ba avec f1, f2
éléments de F. Par suite le systÈme u-f1,
v-f2
sera lié. On en déduit comme précédemment l’existence d’un couple de réels (x,y)
non identiquement nul tel que x(u-f1)+y(v-f2) =0E, puis à partir de xu+yv=xf1+yf2 l’égalité xu+yv=0E
car P F=.G ne peut donc
Être que de dimension 2.
Sur la matrice représentant le
systÈme étudié dans la base canonique de R [X] les manipulations
Les 4 derniÈres colonnes sont de maniÈre évidente
proportionnelles et les deux premiÈres non colinéaires. Le rang du systÈme est donc égal à 2.
_ Si f est une homothétie de rapport a, il est bien évident que pour
tout vecteur x de E le systÈme
(x, f(x))=(x,ax) est lié.
_ Réciproquement supposons que pour tout x
de E (x, f(x)) soit lié.
Soit a un vecteur non nul de E. Il
existe donc un scalaire a tel que f(a)=aa.
Pour tout x multiple de a on a encore f(x)=ax. En effet on peut écrire x=ba , d’oÙ par linéarité de f : f(x)= f(ba b
f(a)=b aa a ba ax
Montrons que
l’on a encore f(x)=ax si (a, x) est un
systÈme libre.
Par hypothÈse il existe deux scalaires b et l tels que f(x)=bx et f(a+x)=l(a+x).
Or, par linéarité de f on aura :
l(a+x)= f(a+x)=
f(a)+ f(x)=aa+bx.
Le systÈme (a, x) étant supposé libre, on en déduit a l b et donc f(x)=ax
f n’est donc autre que l’homothétie
vectorielle de rapport a
a) Par hypothÈse f k-1est
non nulle, il existe donc au moins un vecteur, soit a, dont l’image
f
k-1(a) ne soit
pas le vecteur nul de E .
Montrons alors que le systÈme S= (a,
f(a),
f 2(a),…, f k-1(a)) est libre. Supposons pour cela une
combinaison linéaire du type
En prenant l’image par f k-1
on en déduit vu la linéarité et l’hypothÈse de nilpotence f k=0 :
a f
k (a)=0E et par
suite a =0 puisque f k-1(a)
est non nul.
De mÊme en prenant l’image par f
k-2 il ne restera que a f
k (a)=0E. dont on déduit a =0.
De proche en proche, en prenant les images par les puissances d’ordre q de f,
q variant en décroissant de k-3 à 0, on en déduit que tous
les coefficients ak-q sont nuls.
Le systÈme S est bien libre.
b) _ Si f k=0 pour un
entier k inférieur à la
dimension n de E on en déduit
immédiatement en composant avec f
n-k que : f n=0.
_ Si l’annulation d’une puissance de
f est réalisée pour un exposant
strictement supérieur à n,
notons k le plus petit entier
supérieur ou égal à n tel que f k=0.
Par minimalité de k, on a donc f k-1¹0 et d’aprÈs l’étude faite
précédemment, il existe un vecteur a
de E tel que S= (a, f(a),
f 2(a),…, f k-1(a)) soit libre. Ceci entraine que le
cardinal de S, soit k , est au plus
égal à n dimension de l’espace E. Ainsi k=n
et f n=0.
a) _ Si pour tout x de E f(x)=u(x)b , l’espace image Im(f ) est inclus dans la droite
vectorielle engendrée par b. Si de
plus u est supposé non nulle, il
existera au moins un x de E tel que u(x)¹0 et donc pour lequel f(x)¹0E.
Le sous-espace Im(f) n’est donc pas
réduit au sous-espace nul, est inclus dans la droite VecK(b) donc coÃncide avec cette droite
vectorielle. f est de rang 1.
_ Réciproquement, si f est supposé de rang 1, l’espace image
Im(f) est une droite engendrée par un
vecteur non nul b. Notons alors u l’application de E vers K qui à tout x de E fait correspondre la composante sur b de son image f(x). :
xIE f(x)=u(x)b
Il nous reste à montrer que f
est linéaire. Soient x et y quelconques dans E et a scalaire.
Par définition de u on a : f(x)=u(x)b ;
f(y)=u(y)b ; f(ax+y)=u(ax+y)b.
Puis, par linéarité de f, on peut
écrire : u(ax+y)b=a(u(x)b)+u(y)b.
b étant non nul, on en déduit u(ax+y au(x)+u(y).
(L’application u n’est pas
identiquement nulle puisque Im(f) n’est
pas réduit à ).
b) Avec les notations précédentes on peut écrire :
xIE ff(x)=
f(u(x)b)=u(x) f(b)=u(x)u(b)b. On aura donc f 2=f xIE u(x)=u(x)u(b)
Ceci étant en fait équivalent à u(b)=1 car u n’est pas l’application nulle.
Or u(b)=1
f(b)=b
. Un endomorphisme f de rang 1 est
donc une projection si et seulement si il existe un vecteur non nul b invariant pour f.
f est alors la projection sur VecK(b) parallÈlement à Ker(f)
c) Soit maintenant f de rang r et considérons une base B = (b1,…,.br) de Im(f).
Pour tout x de E on peut donc écrire f(x)= en désignant par uk(x) la composante d’ordre k de f(x)
dans la base B . On montre aussi facilement que
dans a) le caractÈre linéaire de chacune des applications uk . Remarquons pour conclure
qu’aucune de ces applications n’est nulle, sinon Im(f) serait inclus dans un espace de dimension strictement inférieur
à r, ceci en contradiction
avec rang(f)=r.
On a donc bien écrit f comme
somme de r applications de rang 1,
les applications fk définies sur E par fk(x)=uk(x)bk.
1) Im(gf)===g(Im(f))
2) _ On vient de voir que Im(gf) est un sous-espace de Im(g), on a donc nécessairement dimK(Im(gf £ dimK(Im(g)), soit : rang(gf £rang(g).
_ On sait que tout morphisme de K-espace transforme un sous-espace de
dimension finie r du départ en un
sous-espace à l’arrivée de dimension au plus r. On aura donc en particulier rang(gf)=dimK(g(Im(f)))
£ dimK(Im(f))=rang(f).
3) Plus précisément, on sait que dimK(g(Im(f)))=dimK(Im(f))-dimK(Im(f) Ker(g))
On a donc rang(gf)=rang(f)
dimK(Im(f) Ker(g))=0
Im(f) Ker(g)=.
4) On a vu que Im(gf) est un sous-espace de Im(g). On a donc une premiÈre
équivalence simple : rang(gf)=rang(g)
Im(gf)=Im(g).
Etudions maintenant cette égalité ensembliste.
_ Si Im(gf)=Im(g).
Pour tout vecteur y de F on pourra
dire que g(y) admet au moins un antécédent x
pour gf, donc s’écrira g(y)= gf(x). On en déduit l’existence d’un vecteur n de Ker(g) pour lequel y= f(x)+n.
Ainsi F coÃncide avec la somme des deux sous-espaces Im(f) et Ker(g).
_ Si F=Im(f)+Ker(g).
Tout élément de Im(g) est par
définition du type z=g(y)
avec y vecteur de F donc pouvant se
décomposer par hypothÈse en somme y=f(x)+n avec xIE et
nIKer(g).
Par linéarité de g on en déduit :
z=g(y)=g( f(x))+g(n)= gf(x)+0G= gf(x).
Ainsi z appartient à Im(gf).
On a donc bien l’égalité Im(gf)=Im(g) de par la double inclusion.
Remarquons la synthÈse intéressante des deux derniÈres
questions :
F=Im(f)ÅKer(g)
rang(gf)=rang(f)=rang(g).
1) Si x appartient à Ker(f)
on a, par définition , f(x)=0F, puis par linéarité de g, g( f(x))=0G
exprimant l’appartenance de x
à Ker(gf). On a bien Ker(f)ÌKer(gf).
2) xIKer(gf) g( f(x))=0G f(x)IKer(g)
xIf (Ker(g)).
3) On sait d’aprÈs le théorÈme du rang que :
dimK f(f -1(Ker(g)))=dimKf -1(Ker(g))-dimK(Ker(f) f (Ker(g)))
Or on a vu Ker(f)ÌKer(gf)=f -1(Ker(g)). L’égalité ci dessus se simplifie donc en :
dimK f(f -1(Ker(g)))=dimKKer(gf)-dimK(Ker(f)).
Il suffit maintenant de rappeler l’inclusion évidente f(f -1(Ker(g))Ì Ker(g) pour conclure l’inégalité demandée : dimKKer(gf)£dimKKer(f)+dimKKer(g)
4) D’aprÈs les calculs précédents, l’inégalité obtenue est une égalité
si et seulement si
f(f
-1(Ker(g))
coÃncide avec Ker(g).
Montrer cette égalité équivaut à établir l’inclusion : Ker(g)Ì f(f-1(Ker(g)))
_ Il est clair que cette relation entraine également Ker(g)Ì
Im(f).
_ Réciproquement, si Ker(g)Ì Im(f), tout y de Ker(g) pourra s’écrire image y=f(x)
d’un vecteur x de E. Mais cet x appartiendra à f-1(Ker(g)) puisque son image y
est dans Ker(g).
Ainsi y est par définition élément de
f(f-1(Ker(g))).
On a donc bien : dimK(Ker(gf)=dimK(Ker(f))+dimK(Ker(g)) Ker(g) Ì
Im(f)
5) D’aprÈs le théorÈme du rang on peut écrire les égalités :
dimK(E)=rang(f)+dimK(Ker(f)) (Pour f ILK(E,F)).
dimK(F)=rang(g) +dimK(Ker(g)) (Pour g I LK(F,G) ).
dimK(E)=rang(gf)+dimK(Ker(gf)) (Pour gf I LK(E,G)) .
On en déduit rang(gf)=dimK(E)-dimK(Ker(gf))³ dimK(E)-dimK(Ker(f))-dimK(Ker(g))
d’aprÈs la troisiÈme relation et l’inégalité de la question 3.
Les deux premiÈres formules conduisent ensuite à la minoration demandée :
rang( gf ³ rang(f)+rang(g)-dimK(F).
_ L’inclusion Ker(f k+1)Ì Ker(f k+2) est évidente car f k+1(x)=0E
Þ f(f k+1(x))=f(0E)=0E.
_Réciproquement, si f k+2(x)=0E, on peut écrire f k+1(f(x))=0E,
ou encore f(x)IKer(f k+1)
Or d’aprÈs l’hypothÈse, ce noyau coÃncide avec Ker(f k).
On en déduit donc f k(f(x))=0E
, c’est à dire x élément de
Ker(f k+1).
De proche en proche, en répétant le raisonnement précédent, on peut établir que
les noyaux des puissances d’ordre q
de f sont confondus avec Ker(f k) pour tout entier q ³k
En utilisant le
théorÈme du rang on en déduit alors que les espaces images de ces
puissances sont tous égaux à Im(f
k).
En effet pour q ³k on a de maniÈre évidente :
Im(f
q)ÌIm(f k) , ainsi que la relation :
rang(f q)=dimK(E)-dimK(Ker(f q))=dimK(E)-dimK(Ker(f k))=rang(.f k)
En particulier on peut dire Im(f 2k)=Im(f k). Pour tout vecteur x de E on aura donc :
f 2k(x)= f k(x) , c’est à dire x= f
k(x)+n avec nIKer(f k).
On a donc déjà la décomposition en somme : E=Im(f k)+Ker(f k).
Vérifions qu’elle est directe. Soit y
commun aux deux sous-espaces composants.
On peut donc l’écrire sous la forme y=
f k(x) avec xIE et f k(y)=0E.
Mais alors, par composition : f 2k(x)=0E,
c’est à dire xIKer(f 2k)=Ker(f k).
On en déduit y= f k(x)=0E.
La somme est bien directe.
Politica de confidentialitate | Termeni si conditii de utilizare |
Vizualizari: 1288
Importanta:
Termeni si conditii de utilizare | Contact
© SCRIGROUP 2024 . All rights reserved