Limiti ed esponenziali delle matrici (escluso programma ECG)

Limiti ed esponenziali delle matrici (escluso programma ECG)
Limiti ed esponenziali delle matrici (escluso programma ECG)
-

I concetti non curriculari devono essere elaborati in via prioritaria dai candidati rivolti alle tre parisiennes. Questo articolo ti invita a scoprire i limiti e gli esponenziali delle matrici, già apparsi in diverse materie di concorso, per aiutarti a comprenderle meglio se ti trovi di fronte a questo argomento in una giornata di concorso. Ti permetterà anche di creare un collegamento con la nozione di densità di un insieme.

Limiti della matrice

Impostiamo un numero intero (pinmathbb N^*).

Promemoria

Il prodotto scalare canonico su (mathcal M_p(mathbb R)), chiamato anche prodotto scalare di Frobenius, è definito da
[forall A,Binmathcal M_p(mathbb R), quad langle A,Brangle = text{Tr}({}^tAB)]

Inoltre, se notiamo (A=(a_{i,j})) e (B=(b_{i,j})), abbiamo: (langle A,Brangle =displaystyle sum_{i=1}^psum_{j=1}^p a_{i,j}b_{i,j}).

Possiamo quindi definire la norma su (mathcal M_p(mathbb R)) associata a questo prodotto scalare:
[forall Ainmathcal M_p(mathbb R), quad |A| = sqrt{text{Tr}({}^tAA)} = displaystyle sqrt{sum_{i=1}^psum_{j=1}^p a_{i,j}^2}]

Attenzione : talvolta il soggetto può introdurre un’altra norma su (mathcal M_p(mathbb R)). Ad esempio, se scriviamo (A=(a_{i,j})), le formule (|A|_infty=max_{1leq i,jleq p}| a_{ i,j}|), o anche (|A|_1=sum_{i=1}^psum_{j=1}^p |a_{i,j}|) definiscono altri due norme su (mathcal M_p(mathbb R)).

Per questo articolo prenderemo in considerazione la norma di Frobenius. Ma il giorno di una competizione bisogna sapersi adattare agli standard del proclamo!

Due definizioni di limite di una successione di matrici

Diamo qui le due principali definizioni della nozione di limite di matrici, che potrebbero essere fornite dall’enunciato in un argomento di concorso. Mostreremo che in realtà sono equivalenti.

Fissiamo ((A_n)_{ninmathbb N}) una sequenza di matrici di (mathcal M_p(mathbb R)) e (A) una matrice di (mathcal M_p ( mathbb R)).

Versione 1 (quella di HEC 2007)

Diciamo che ((A_n)) converge a (A) quando (lim_{nto+infty}|A_n-A|=0).

In questa versione dobbiamo capire bene cosa tende a 0 (|A_n-A|). La norma di una differenza può essere interpretata come la “distanza” tra questi due elementi (anche se la nozione di distanza tra matrici non è molto intuitivo).

Stiamo quindi dicendo che quanto più grande è (n), tanto più “vicini” sono (A_n) e (A).

Versione 2 (quella dell’EDHEC 2014)

Impostiamo (A_n=(a_{i,j}^{(n)})) e (A=(a_{i,j})). Diciamo che ((A_n)) converge a (A) quando per tutti ((i,j)in{1,dots,p}^2), la successione ((a_ {i,j}^{(n)})_{ninmathbb N}) converge a (a_{i,j}).

In questa versione, diciamo che una sequenza di matrici ((A_n)) converge quando ciascuno dei coefficienti della sequenza ha un limite finito quando (nto+infty). E il limite della successione è allora la matrice ottenuta raggruppando tutti i limiti dei coefficienti in una matrice (A).

Si noti che nella seconda versione è abbastanza chiaro che il limite di una matrice, se esiste, è unico. Infatti, se avessimo due matrici limite distinte, ciò contraddirebbe l’unicità del limite in (mathbb R).

Queste due definizioni sono infatti equivalenti

Mostriamolo con una doppia implicazione.

((Leftarrow)) Supponiamo che per tutti ((i,j)in{1,dots,p}^2), (lim_{nto+infty} a_{i ,j}^{(n)} = a_{i,j}).

Quindi per tutti ((i,j)in{1,dots,p}^2), (lim_{nto+infty} (a_{i,j}^{(n) }-a_{i,j})=0), quindi:
[|A_n-A|=left(sum_{i=1}^psum_{j=1}^p(a_{i,j}^{(n)}-a_{i,j})^2right)^{1/2}underset{nto+infty}longrightarrow 0]

((Rightarrow)) Supponiamo che (lim_{nto+infty}|A_n-A|=0).

Sia ((i,j)in{1,dots,p}^2). Per tutti ((k,ell)in{1,dots,p}^2), ((a_{k,ell}^{(n)}-a_{k,ell })^2geq 0), quindi:
[0leq (a_{i,j}^{(n)}-a_{i,j})^2leq sum_{k=1}^psum_{ell=1}^p(a_{k,ell}^{(n)}-a_{k,ell})^2 underset{nto+infty}longrightarrow 0]

Quindi, inquadrando: (lim_{nto+infty} a_{i,j}^{(n)} = a_{i,j}).

Pertanto, per la norma di Frobenius, le due definizioni sono equivalenti.

Ti lascerò verificare che questo sia ancora il caso per gli standard (|cdot|_1) e (|cdot|_infty).

Alcuni risultati noti sui limiti di matrice

1/ Limite di una somma/prodotto di matrici

a) Se ((A_n)_{ninmathbb N}) e ((B_n)_{ninmathbb N}) sono due successioni di (mathcal M_p(mathbb R) ) tale che (lim_{nto+infty} A_n=A) e (lim_{nto+infty} B_n=B), allora:
[ lim_{nto+infty} (A_n+B_n)=A+B ]

Prova :

Sia ((i,j)in{1,dots,p}^2). Abbiamo ( [A_n + B_n]_{i,j} = a_{i,j}^{(n)} + b_{i,j}^{(n)} underset{nto+infty}longrightarrow a_{i,j} + b_{i,j} = [A+B]_{i,j} ) da qui il risultato.

b) Esercizio: mostrare che analogamente il limite di un prodotto di successioni convergenti di matrici è il prodotto dei limiti.

2/ (text{GL}_p(mathbb R)) è denso in (mathcal M_p(mathbb R))

Qualsiasi matrice di (mathcal M_p(mathbb R)) è il limite di una sequenza di matrici invertibili.

Prova :

Sia (Ainmathcal M_p(mathbb R)).

Allora (A) ammette al più (p) autovalori distinti.

Pertanto, esiste al più un numero finito di interi (n) tali che (frac1n) sia l’autovalore di (A).

Pertanto, esiste un rango (n_0inmathbb N^*) tale che per ogni (ngeq n_0), la matrice (A-frac1n I_p) è invertibile.

Impostiamo (A_n=I_p) se (n< p>

La successione ((A_n)) è quindi una successione di matrici invertibili, ed inoltre abbiamo per tutti (ngeq n_0):
[ A_n = begin{pmatrix} a_{1,1} – frac1n & a_{1,2} & cdots & cdots & a_{1,p} \ a_{2,1} & a_{2,2} – frac1n & & & vdots \ vdots & & ddots & & vdots \ vdots & & & a_{p-1,p-1} – frac1n & a_{p-1,p} \ a_{p,1} & cdots & cdots & a_{p,p-1} & a_{p,p} – frac1n end{pmatrix} underset{nto+infty}longrightarrow begin{pmatrix} a_{1,1} & a_{1,2} & cdots & cdots & a_{1,p} \ a_{2,1} & a_{2,2} & & & vdots \ vdots & & ddots & & vdots \ vdots & & & a_{p-1,p-1} & a_{p-1,p} \ a_{p,1} & cdots & cdots & a_{p,p-1} & a_{p,p} end{pmatrix} = A ]

Esponenziali di matrici

Sia (Ainmathcal M_p(mathbb R)) fisso. Siamo interessati alla convergenza della sequenza di matrici definita da:
[ forall ninmathbb N, quad A_n = sum_{k=0}^n frac{1}{k!} A^k ]

Si noti la somiglianza di questa espressione con quella della serie esponenziale.

Quando questa successione converge, come specificato in precedenza, il suo limite è unico, e notiamo (exp(A)) il suo limite.

Alcuni esempi importanti

Esempio 1

Se (A) è zero, (exp(A)) esiste e vale (I_p). Infatti, per tutti (kgeq 1), (A^k=0) e inoltre (A^0=I_p).

Esempio 2

Se (A=I_p) questa volta, (exp(I_p)) esiste e vale (eI_p).

In effeti :
[forall ninmathbb N, quad A_n = begin{pmatrix} sum_{k=0}^n frac{1}{k!} & 0 & cdots & cdots & 0 \ 0 & sum_{k=0}^n frac{1}{k!} & & & vdots \ vdots & & ddots & & vdots \ vdots & & & sum_{k=0}^n frac{1}{k!} & 0 \ 0 & cdots & cdots & 0 & sum_{k=0}^n frac{1}{k!} end{pmatrix} ]

Pertanto, secondo la formula della serie esponenziale, il limite di ciascuno dei coefficienti diagonali è (e), quindi (lim_{nto+infty}A_n=eI_p).

Esempio 2a

In realtà, con lo stesso ragionamento, possiamo dimostrare che per ogni matrice diagonale (D=text{diag}(lambda_1,dots,lambda_p)), esiste la matrice (exp(D)) ed è uguale a (text{diag}(e^{lambda_1},dots,e^{lambda_p})).

Sta a te dimostrarlo!

Esempio 3

Assumiamo questa volta che (A) sia una matrice diagonalizzabile.

Esistono (Pintext{GL}_p(mathbb R)) e ((lambda_1,dots,lambda_p)inmathbb R^p) tali che (A=PDP^ {-1}) con (D=text{diag}(lambda_1,dots,lambda_p)).

Allora :
[A_n = sum_{k=0}^n frac{1}{k!} A^k = sum_{k=0}^n frac{1}{k!} P D^k P^{-1} = P sum_{k=0}^n frac{1}{k!} D^k P^{-1} ]
Inoltre, secondo l’esempio 2 bis, (lim_{nto+infty} sum_{k=0}^n frac{1}{k!} D^k = text{diag} (e^{ lambda_1},dots,e^{lambda_p})).

Pertanto ((A_n)) converge: quindi (exp(A)) esiste e vale (Ptimes text{diag}(e^{lambda_1},dots,e^{ lambda_p }) times P^{-1}).

Caso generale

Mostreremo che ogni matrice ammette un esponenziale.

Per ogni matrice (A=(a_{i,j})inmathcal M_p(mathbb R)), impostiamo:
[m_A = max_{1leq i,jleq p} |a_{i,j}|]

Sia (A=(a_{i,j}),B=(b_{i,j})inmathcal M_p(mathbb R)). Mostriamo che (m_{AB}leq pm_Am_B).

Sia ((i,j)in{1,dots,p}^2). Abbiamo (displaystyle |[AB]_{i,j}| = sinistra| sum_{k=1}^p a_{i,k} b_{k,j} right|), quindi per la disuguaglianza triangolare:
[|[AB]_{i,j}| leq sum_{k=1}^p |a_{i,k}| |b_{k,j}| leq sum_{k=1}^p m_Am_B = pm_Am_B]

Prendendo il massimo, otteniamo (m_{AB}leq pm_Am_B).

Con una ricorrenza immediata, deduciamo per tutti (kinmathbb N^*), (m_{A^k}leq p^{k-1} m_A^k).

Impostiamo ((i,j)in{1,dots,p}^2).

Da quanto sopra deduciamo che (|[A^k]_{i,j}|leq p^{k-1} m_A^k). Da dove :
[0leqleft|left[frac1{k!}A^kright]_{i,j}right|leq frac1ptimes frac{(pm_A)^k}{k!}]

Ora, la serie (sum_{kgeq 0} frac{(pm_A)^k}{k!}) è una serie esponenziale convergente (qui serie di numeri reali), quindi (sum_{k geq 0} sinistra[frac1{k!}A^kright]_{i,j}) converge assolutamente, quindi converge.

In altre parole, la sequenza delle somme parziali (left(left[frac1{0!}A^0+cdots+frac1{n!}A^nright]_{i,j}right)_{ninmathbb N^*}) converge.

Pertanto, la sequenza di matrici definita da (A_n=sum_{k=0}^nfrac1{k!}A^k) converge, da qui l’esistenza di (exp(A)) .

Conclusione

Come per tutti gli argomenti non curriculari, sarebbe una perdita di tempo memorizzare questi risultati. È meglio cercare di capire la sequenza degli argomenti. D’altra parte, se vuoi mettere alla prova la tua comprensione di questo argomento, ti consiglio di seguire i seguenti argomenti:

  • Ecricome 2004 ECE (esercizio 2), che studia le proprietà degli esponenziali di matrice nei casi particolari di matrice nilpotente, quindi di matrice diagonalizzabile.
  • HEC 2007 matematica 1 ECS, che studia gli esponenziali per uno standard diverso da quello utilizzato in questo articolo. Attenzione, questo è un argomento difficile.

-

PREV Omega vuole investire diversi milioni di franchi a Bienne
NEXT Licenziamenti alla BRP e al Waterville TG