Il calcolo della potenza di una matrice, $\mathbf{A}^k$, è un’operazione fondamentale in molti campi, dalla risoluzione di sistemi di equazioni differenziali lineari alla modellizzazione dei processi di Markov. Esistono due approcci principali per eseguire questo calcolo: il metodo classico (moltiplicazione ripetuta) e il metodo avanzato (diagonalizzazione).
INDICE
1. Metodo Classico: Moltiplicazione Ripetuta
Il modo più intuitivo per calcolare la potenza intera positiva $k$ di una matrice quadrata $\mathbf{A}$ è attraverso la moltiplicazione matriciale ripetuta.
$$\mathbf{A}^k = \underbrace{\mathbf{A} \cdot \mathbf{A} \cdot \mathbf{A} \cdots \mathbf{A}}_{k \text{ volte}}$$
Esempio Classico
Se abbiamo la matrice $\mathbf{A} = \begin{pmatrix} 1 & 1 \\ 0 & 2 \end{pmatrix}$, calcolare $\mathbf{A}^3$ richiede tre moltiplicazioni:
- $\mathbf{A}^2$:$$\mathbf{A}^2 = \begin{pmatrix} 1 & 1 \\ 0 & 2 \end{pmatrix} \begin{pmatrix} 1 & 1 \\ 0 & 2 \end{pmatrix} = \begin{pmatrix} 1 & 3 \\ 0 & 4 \end{pmatrix}$$
- $\mathbf{A}^3$:$$\mathbf{A}^3 = \mathbf{A}^2 \mathbf{A} = \begin{pmatrix} 1 & 3 \\ 0 & 4 \end{pmatrix} \begin{pmatrix} 1 & 1 \\ 0 & 2 \end{pmatrix} = \begin{pmatrix} 1 & 7 \\ 0 & 8 \end{pmatrix}$$
⚠️ Svantaggi del Metodo Classico
Questo metodo è computazionalmente inefficiente per grandi matrici o per potenze $k$ elevate. Ogni moltiplicazione di due matrici $n \times n$ richiede $\mathcal{O}(n^3)$ operazioni. Pertanto, calcolare $\mathbf{A}^k$ con la moltiplicazione ripetuta ha una complessità totale che cresce notevolmente con $k$.
2. Metodo Avanzato: La Diagonalizzazione
Il metodo della diagonalizzazione sfrutta le proprietà degli autovalori e degli autovettori di una matrice. Questo approccio riduce il complesso calcolo della potenza di una matrice alla semplice elevazione a potenza degli autovalori, trasformando un problema costoso in uno estremamente efficiente, specialmente per potenze elevate.
Requisito Fondamentale
Affinché la diagonalizzazione sia applicabile, la matrice $\mathbf{A}$ deve essere diagonalizzabile. Ciò avviene se e solo se $\mathbf{A}$ possiede un set completo (una base) di autovettori linearmente indipendenti.
La Formula di Diagonalizzazione
Se $\mathbf{A}$ è diagonalizzabile, può essere espressa come:
$$\mathbf{A} = \mathbf{P} \mathbf{D} \mathbf{P}^{-1}$$
dove:
- $\mathbf{D}$ è la matrice diagonale degli autovalori ($\lambda_1, \lambda_2, \dots$).
- $\mathbf{P}$ è la matrice degli autovettori (le cui colonne sono gli autovettori corrispondenti agli autovalori in $\mathbf{D}$).
- $\mathbf{P}^{-1}$ è l’inversa di $\mathbf{P}$.
Potenza tramite Diagonalizzazione
Elevando $\mathbf{A}$ alla potenza $k$, si ottiene una notevole semplificazione:
$$\mathbf{A}^k = (\mathbf{P} \mathbf{D} \mathbf{P}^{-1})^k = \underbrace{(\mathbf{P} \mathbf{D} \mathbf{P}^{-1})(\mathbf{P} \mathbf{D} \mathbf{P}^{-1})\cdots(\mathbf{P} \mathbf{D} \mathbf{P}^{-1})}_{k \text{ volte}}$$
Poiché i termini interni $\mathbf{P}^{-1}\mathbf{P}$ si annullano (sono uguali alla matrice identità $\mathbf{I}$), l’espressione si riduce a:
$$\mathbf{A}^k = \mathbf{P} \mathbf{D}^k \mathbf{P}^{-1}$$
Il grande vantaggio è che la potenza di una matrice diagonale $\mathbf{D}^k$ è estremamente facile da calcolare, richiedendo solo l’elevazione a potenza degli elementi sulla diagonale:
$$\mathbf{D}^k = \begin{pmatrix} \lambda_1 & 0 & \cdots \\ 0 & \lambda_2 & \cdots \\ \vdots & \vdots & \ddots \end{pmatrix}^k = \begin{pmatrix} \lambda_1^k & 0 & \cdots \\ 0 & \lambda_2^k & \cdots \\ \vdots & \vdots & \ddots \end{pmatrix}$$
Esempio con Diagonalizzazione
Riprendiamo la matrice $\mathbf{A} = \begin{pmatrix} 1 & 1 \\ 0 & 2 \end{pmatrix}$ e calcoliamo $\mathbf{A}^k$.
- Autovalori ($\mathbf{D}$): Essendo triangolare, gli autovalori sono gli elementi della diagonale: $\lambda_1 = 1$ e $\lambda_2 = 2$.$$\mathbf{D} = \begin{pmatrix} 1 & 0 \\ 0 & 2 \end{pmatrix}$$
- Autovettori ($\mathbf{P}$): Calcolando gli autovettori corrispondenti (omettendo i passaggi per brevità):
- Autovettore per $\lambda_1=1$: $\mathbf{v}_1 = \begin{pmatrix} 1 \\ 0 \end{pmatrix}$
- Autovettore per $\lambda_2=2$: $\mathbf{v}_2 = \begin{pmatrix} 1 \\ 1 \end{pmatrix}$$$\mathbf{P} = \begin{pmatrix} 1 & 1 \\ 0 & 1 \end{pmatrix}$$
- Inversa di $\mathbf{P}$:$$\mathbf{P}^{-1} = \begin{pmatrix} 1 & -1 \\ 0 & 1 \end{pmatrix}$$
- Calcolo di $\mathbf{A}^k$:$$\mathbf{A}^k = \mathbf{P} \mathbf{D}^k \mathbf{P}^{-1} = \begin{pmatrix} 1 & 1 \\ 0 & 1 \end{pmatrix} \begin{pmatrix} 1^k & 0 \\ 0 & 2^k \end{pmatrix} \begin{pmatrix} 1 & -1 \\ 0 & 1 \end{pmatrix}$$Eseguendo la moltiplicazione:$$\mathbf{A}^k = \begin{pmatrix} 1 & 2^k \\ 0 & 2^k \end{pmatrix} \begin{pmatrix} 1 & -1 \\ 0 & 1 \end{pmatrix} = \begin{pmatrix} 1 & -1 + 2^k \\ 0 & 2^k \end{pmatrix}$$
Verifica per $k=3$
Sostituendo $k=3$ nella formula:
$$\mathbf{A}^3 = \begin{pmatrix} 1 & -1 + 2^3 \\ 0 & 2^3 \end{pmatrix} = \begin{pmatrix} 1 & -1 + 8 \\ 0 & 8 \end{pmatrix} = \begin{pmatrix} 1 & 7 \\ 0 & 8 \end{pmatrix}$$
Il risultato è identico a quello ottenuto con il metodo classico, ma ottenuto con una singola formula analitica.
3. Confronto e Conclusioni
| Caratteristica | Metodo Classico (Ak=A⋯A) | Metodo con Diagonalizzazione (Ak=PDkP−1) |
| Complessità (per $k$ grande) | Molto alta, cresce con $k$ ($\mathcal{O}(k \cdot n^3)$) | Fissa e bassa dopo la diagonalizzazione ($\mathcal{O}(n^3)$ solo per diagonalizzare) |
| Applicabilità | Sempre applicabile a matrici quadrate | Applicabile solo a matrici diagonalizzabili |
| Utilità | Calcolo di potenze piccole ($k \le 4$) | Calcolo di potenze grandi ($k \ge 5$) o potenze generiche ($k$) |
| Natura del Risultato | Valore numerico specifico | Formula analitica generale in funzione di $k$ |
Il metodo della diagonalizzazione è di gran lunga superiore per il calcolo di potenze elevate, trasformando un problema sequenziale (moltiplicazione) in un problema parallelo (elevazione a potenza degli scalari $\lambda_i$), a patto che la matrice sia diagonalizzabile.
IMPARA L’ALGEBRA LINEARE
Impara l’algebra lineare con un percorso strutturato e facile da seguire passo a passo.
Un viaggio che parte dai vettori e dalle matrici, passando per i sitemi lineari giungerai nei meandri degli spazi vettoriali, della diagonalizzazione delle matrici con tappa finale nelle coniche.