12.5.4. Coniche e forme quadratiche simmetriche#
L’equazione polinomiale di secondo grado in due incognite può rappresentare le coniche — regolari e degeneri — in un piano, interprentando le due incognite \(x\), \(y\) come una coppia di coordinate cartesiane, che descrivono i punti del piano. In alcuni casi particolari, questa equazione non rappresenta una curva, ma un singolo punto oppure — in assenza di soluzioni dell’equazione — nessun ente geometrico.
Per motivi di comodità e di sintesi, in questa sezione viene usato il formalismo matriciale: questo permette una scrittura più sintetica delle equazioni e l’utilizzo naturale di alcuni concetti e risultati di algebra lineare riguardanti le trasformazioni di coordinate, la diagonalizzazione di una matrice (decomposizione spettrale), e il determinante di matrice.
In particolare, l’equazione di secondo grado viene scritta come
La natura delle coniche può essere determinata tramite gli autovalori della matrice \(\mathbf{A}\) e il determinante della matrice \(\mathbf{M}\).
Riassunto dei risultati
Se:
\(s_{1,2}(\mathbf{A}) \ne 0\) e concordi (si sceglie la convenzione \(s_{1,2} > 0\) - è sufficiente cambiare segno a tutti i termini dell’equazione in caso contrario). Se:
\(\text{det}(\mathbf{M}) < 0\): ellisse regolare
\(\text{det}(\mathbf{M}) = 0\): punto singolo (ellisse degenera in un punto singolo)
\(\text{det}(\mathbf{M}) > 0\): non esiste soluzione
\(s_{1,2}(\mathbf{A}) \ne 0\) e discordi (si sceglie la convenzione \(s_1 > 0\)). Se:
\(\text{det}(\mathbf{M}) \ne 0\): iperbole regolare
\(\text{det}(\mathbf{M}) = 0\): coppia di rette incidenti (l’iperbole degenera in una coppia di rette incidenti)
\(s_{1}(\mathbf{A}) \ne 0\), \(s_2(\mathbf{A}) = 0\). Se:
\(|\mathbf{M}| \ne 0\): parabola regolare
\(|\mathbf{M}| = 0\). Se:
…
…
\(s_{1,2}(\mathbf{A}) = 0\), l’equazione si riduce all’equazione lineare \(D x + E y + F = 0\).
\((1)\) Equazione generale di secondo grado.
con
\((2)\) Rotazione delle coordinate. In generale, esiste una rotazione delle coordinate \(\mathbf{x} = \mathbf{R} \mathbf{x}_1\), the permette di eliminare il termine misto di secondo grado, \(x_1 y_1\), dall’equazione diagonalizzando la matrice \(\mathbf{A}\), \(\mathbf{A}_d := \text{diag}\{ s_1, s_2 \} = \mathbf{R}^T \mathbf{A} \mathbf{R}\), dove \(\mathbf{R}\) è una matrice di rotazione.
La matrice \(\mathbf{A}\) è simmetrica, ed è sempre diagonalizzabile (todo aggiungere un box con la dimostrazione/discussione) con una base di autovettori ortogonali, anche nel caso di autovalori coincidenti.
In termini del vettore esteso \(\mathbf{z} = \begin{bmatrix} \mathbf{x} \\ 1 \end{bmatrix}\), si può scrivere la trasformazione delle coordinate come
\[\begin{split}\mathbf{z} = \begin{bmatrix} \mathbf{x} \\ 1 \end{bmatrix} = \begin{bmatrix} \mathbf{R} & \mathbf{0} \\ \mathbf{0}^T & 1 \end{bmatrix} \begin{bmatrix} \mathbf{x}_1 \\ 1 \end{bmatrix} = \widetilde{\mathbf{R}} \mathbf{z}_1 \ .\end{split}\]In seguito a questa trasformazione di coordinate, l’equazione diventa
\[\begin{split}\begin{aligned} 0 & = \mathbf{z}^T \mathbf{M} \mathbf{z} = \\ & = \mathbf{z}^T_1 \widetilde{\mathbf{R}}^T \mathbf{M} \widetilde{\mathbf{R}} \mathbf{z}_1 = \\ & = \mathbf{z}^T_1 \begin{bmatrix} \mathbf{A}_d & \frac{1}{2}\mathbf{R}^T \mathbf{d} \\ \frac{1}{2} \mathbf{d}^T \mathbf{R} & F \end{bmatrix} \mathbf{z}_1 \ . \end{aligned}\end{split}\]
\((3)\) Discussione casi a seconda di \(\ \mathbf{A}_d\). La matrice \(\mathbf{A}_d = \begin{bmatrix} s_1 & 0 \\ 0 & s_2 \end{bmatrix}\), può avere
entrambi gli autovalori uguali a zero: in questi casi la matrice \(\mathbf{A}_d = \mathbf{0}\) e la matrice di partenza \(\mathbf{A} = \mathbf{0}\) identicamente: in questo caso l’espressione iniziale è al massimo di primo grado \(D x + E y + F = 0\)
un autovalore nullo. In questo caso, la matrice \(\mathbf{A}_d = \begin{bmatrix} s_1 & 0 \\ 0 & 0 \end{bmatrix}\), è singolare e non invertibile
entrambi gli autovalori diversi da zero. In questo caso, la matrice \(\mathbf{A}_d = \begin{bmatrix} s_1 & 0 \\ 0 & 0 \end{bmatrix}\), è non singolare, invertibile e la sua inversa è \(\mathbf{A}_d^{-1} = \begin{bmatrix} \frac{1}{s_1} & 0 \\ 0 & \frac{1}{s_2} \end{bmatrix}\)
\((3.1)\) …
\((3.2)\) Parabola e casi degeneri. todo Calcolare in maniera esplicita il valore di autovalori e autovettori in questo caso. Questa espressione può essere utilizzata in seguito nella discussione dei risultati.
Decomposizione spettrale di \(\ \mathbf{A}\)
La matrice \(\mathbf{A}\) ha un autovalre nullo se \(B^2 = 4 AC\). Questo segue immediatamente dal calcolo degli zeri del determinante di \(\mathbf{A} - s \mathbf{I}\),
Per avere un autovalore uguale a zero, \(s_2 = 0\), il termine di grado zero deve essere nullo per poter fattorizzare il polinomio e ottenere il risultato desiderato
Gli autovettori diventano quindi
e la matrice di trasformazione di rotazione (dopo la normalizzazione degli autovettori)
todo Se necessario, utilizzare l’espressione della matrice \(\widetilde{\mathbf{R}}^T \mathbf{M} \widetilde{\mathbf{R}}\),
e del suo determinante, \(| \widetilde{\mathbf{R}}^T \mathbf{M} \widetilde{\mathbf{R}} | = | \mathbf{M} | = - \frac{1}{4} \left( \mathbf{d}^T \mathbf{r}_2 \right)^2 s_1\).
Nel caso \((3.2)\) l’espressione diventa
Se \(\mathbf{d}^T \mathbf{r}_2 \ne 0\), si ottiene l’espressione di una parabola. In questo caso \(|\mathbf{M}| \ne 0\).
Altrimenti, si ottengono \((a)\) due rette parallele distinte, \((b)\) due rette parallele coincidenti, \((c)\) nessuna soluzione a seconda delle soluzioni dell’equazione
\[s_1 x_1^2 + \mathbf{d}^T \mathbf{r}_1 x_1 + F = 0 \ .\]
Calcolo di \(\ \mathbf{d}^T \mathbf{r}_2\) in funzione dei coefficienti originali dell’equazione
Nel caso in cui \(AC - \frac{B^2}{4} = 0\) in analisi, questa espressione coincide con il determinante della matrice \(\mathbf{M}\)
cioè si ottiene un’espressione alternativa ed equivalente a quella trovata in precedenza del determinante di \(\mathbf{M}\).
Rango della matrice nel caso di parabola degenere
Nel caso di \(\mathbf{d}^T \mathbf{r}_2 = 0\), la matrice \(\widetilde{\mathbf{M}}\) è singolare e quindi ha rango \(\le 2\). Facendo riferimento all’equazione
si possono riconoscere diversi casi a seconda del valore del discriminante \(\Delta_1 = \left( \mathbf{d}^T \mathbf{r}_1 \mathbf{r}_1 \right)^2 - 4 s_1 F\).
\(\Delta_1 > 0\): esistono due soluzioni \(x_{1,a,b} = - \frac{\mathbf{d}^T}{2 s_1} \mp \frac{\sqrt{\Delta_1}}{2 s_1}\) reali distinte, che corrispondono alle due rette parallele di equazione \(x_1 = x_{1,a}\) e \(x_1 = x_{1,b}\)
\(\Delta_1 = 0\): esistono due soluzioni reali coincidenti, \(x_{1,a} = x_{1,b} = - \frac{\mathbf{d}^T \mathbf{r}_1}{2 s_1}\), che corrispondono entrambe alla retta di equazione \(x_1 = x_{1,a}\)
\(\Delta_1 < 0\): non esistono soluzioni reali dell’equazione, cioè l’espressione non rappresenta nessun punto nel piano
Si possono ritrovare gli stessi risultati tramite completamento del quadrato
Poiché \(s_1 \ne 0\), questo è equivalente ad annullare il fattore contenuto nella parentesi graffa. La fattorizzazione del polinomio di secondo grado dipende dal valore del discriminante
\(\Delta_1 < 0\), il polinomio di secondo grado può essere fattorizzato come prodotto di due polinomi di primo grado, usando l’identità \(a^2 - b^2 = (a+b)(a-b)\)
\[x_1^2 + \frac{\mathbf{d}^T \mathbf{r}_1}{s_1} + \frac{F}{s_1} = \left( x_1 + \frac{\mathbf{d}^T \mathbf{r}_1}{2 s_1} + \frac{\sqrt{\Delta_1}}{2 s_1} \right) \left( x_1 + \frac{\mathbf{d}^T \mathbf{r}_1}{2 s_1} - \frac{\sqrt{\Delta_1}}{2 s_1} \right) \]\(\Delta_1 = 0\), il polinomio di secondo grado può essere fattorizzato come quadrato di un polinomio di primo grado
\[x_1^2 + \frac{\mathbf{d}^T \mathbf{r}_1}{s_1} + \frac{F}{s_1} = \left( x_1 + \frac{\mathbf{d}^T \mathbf{r}_1}{2 s_1} \right)^2 \]\(\Delta_1 < 0\), il polinomio di secondo grado non può essere fattorizzato come prodotto di polinomi a coefficienti reali di primo grado, poiché si otteiene un polinomio nella forma \(a^2 + b^2\)
Gli stessi risultati possono essere discussi anche in termini di rango della matrice \(\mathbf{M}\), o equivalentemente della matrice \(\widetilde{\mathbf{M}} = \widetilde{\mathbf{R}}^T \mathbf{M} \widetilde{\mathbf{R}}\). Nel caso in analisi con \(\mathbf{d}^T \mathbf{r}_2 = 0\), la matrice diventa
e il polinomio \(\mathbf{z}_1^T \widetilde{\mathbf{M}} \mathbf{z}_1\). La matrice \(\widetilde{\mathbf{M}}\) ha una colonna identicamente nulla, quindi ha al massimo rango di dimensione uguale a \(2\): ha rango di dimensione uguale a \(2\) se le altre sue colonne sono linearmente indipendenti, rango uguale a \(1\) se sono linearmente indipendenti, rango uguale a \(0\) se tutti i termini sono nulli (ipotesi da escludere, poiché si è ipotizzato che \(s_1 \ne 0\)).
Usando il formalismo matriciale, il completamento del quadrato può essere scritto come
Nel caso in cui
\(\Delta_1 > 0\), il rango della matrice ha dimensione uguale a \(2\) e la fattorizzazione della matrice diventa \(\frac{\widetilde{\mathbf{M}}}{s_1} = ( \mathbf{u} + \mathbf{v})(\mathbf{u} - \mathbf{v})^T\), poiché
\[\mathbf{z}_1^T ( \mathbf{u} + \mathbf{v})(\mathbf{u} - \mathbf{v})^T \mathbf{z}_1 = \mathbf{z}_1^T \left( \mathbf{u} \mathbf{u} + \mathbf{v}\mathbf{u}^T - \mathbf{u}\mathbf{v}^T - \mathbf{v}\mathbf{v}^T \right) \mathbf{z}_1 = \mathbf{z}_1^T \left( \mathbf{u} \mathbf{u} - \mathbf{v}\mathbf{v}^T \right) \mathbf{z}_1 \ ,\]poiché \(\mathbf{z}_1^T \mathbf{v} \mathbf{u}^T \mathbf{z}_1 = \mathbf{z}_1^T \mathbf{u} \mathbf{v}^T \mathbf{z}_1\). La forma quadratica può essere scritta in forma simmetrica e quindi la matrice può essere riscritta come matrice simmetrica, \(\widetilde{\mathbf{M}} = \frac{1}{2} \left( \widetilde{\mathbf{u}} \widetilde{\mathbf{v}}^T + \widetilde{\mathbf{v}} \widetilde{\mathbf{u}}^T \right)\), con \(\widetilde{\mathbf{u}} := \mathbf{u} + \mathbf{v}\), \(\widetilde{\mathbf{v}} := \mathbf{u} - \mathbf{v}\) linearmente indipendenti. Esplicitando le componenti della matrice ridotta a \(2 \times 2\) rimuovendo per ragioni di sintesi la colonna e la riga identicamente nulla, le componenti della matrice \(\widetilde{\mathbf{M}}\) sono
\[\begin{split}\frac{\widetilde{\mathbf{M}}}{s_1} = \begin{bmatrix} \frac{1}{2}\left( \widetilde{u}_1 \widetilde{v}_1 + \widetilde{u}_1 \widetilde{v}_1 \right) & \frac{1}{2}\left( \widetilde{u}_2 \widetilde{v}_1 + \widetilde{u}_1 \widetilde{v}_2 \right) \\ \frac{1}{2}\left( \widetilde{u}_1 \widetilde{v}_2 + \widetilde{u}_2 \widetilde{v}_1 \right) & \frac{1}{2}\left( \widetilde{u}_2 \widetilde{v}_2 + \widetilde{u}_2 \widetilde{v}_2 \right) \end{bmatrix} = \begin{bmatrix} \frac{1}{2} \left( \widetilde{u}_1 \widetilde{\mathbf{v}} + \widetilde{v}_1 \widetilde{\mathbf{u}} \right) & \frac{1}{2} \left( \widetilde{u}_2 \widetilde{\mathbf{v}} + \widetilde{v}_2 \widetilde{\mathbf{u}} \right) \end{bmatrix} \ , \end{split}\]cioé ha due colonne linearmente indipendenti se \(\widetilde{\mathbf{u}} \ne \lambda \widetilde{\mathbf{v}}\), cioé se \(\widetilde{\mathbf{u}}\), \(\widetilde{\mathbf{v}}\) sono linearmente indipendenti, condizione verificata dall’indipendenza di \(\mathbf{u}\), \(\mathbf{v}\),
\(\Delta_1 = 0\), il rango della matrice ha dimensione uguale a \(1\) e la fattorizzazione diventa
\[\begin{aligned} \mathbf{z}_1^T \frac{\widetilde{\mathbf{M}}}{s_1} \mathbf{z}_1 & = \mathbf{z}_1^T \left( \mathbf{u} \mathbf{u}^T \right) \mathbf{z}_1 \ . \end{aligned}\]\(\Delta_1 < 0\), il rango della matrice ha dimensione \(2\). Infatti si può scrivere
\[\begin{aligned} \mathbf{z}_1^T \frac{\widetilde{\mathbf{M}}}{s_1} \mathbf{z}_1 & = \mathbf{z}_1^T \left( \mathbf{u} \mathbf{u}^T + \mathbf{v} \mathbf{v}^T \right) \mathbf{z}_1 \ , \end{aligned}\]o esplicitando - sempre in maniera simbolica - le componenti della matrice,
\[\begin{aligned} \frac{\widetilde{\mathbf{M}}}{s_1} & = \begin{bmatrix} u_1 \mathbf{u} + v_1 \mathbf{v} & u_2 \mathbf{u} + v_2 \mathbf{v} \end{bmatrix} \ . \end{aligned}\]Poiché \(\Delta_1 \ne 0\), i vettori \(\mathbf{u}\) e \(\mathbf{v}\) sono linearmente indipendenti. Le colonne della matrice quindi sono linearmente indipendenti. Infatti, per essere linearmente dipendenti devono essere proporzionali, cioè dovrebbe esistere un coefficiente \(\lambda\) tale che
\[\mathbf{c}_1 = \lambda \mathbf{c}_2\]e quindi
\[\mathbf{0} = \mathbf{u}\left( u_1 - \lambda u_2\right) + \mathbf{v} \left( v_1 - \lambda v_2 \right) \ ,\]e - per l’indipendenza di \(\mathbf{u}\), \(\mathbf{v}\) - si devono annullare entrambi i coefficienti, \(u_1 = \lambda u_2\), \(v_1 = \lambda v_2\) e i due vettori risulterebbero tra di loro proporzionali, o linearmente dipendenti, \(\mathbf{u} = u_2 \begin{bmatrix} \lambda \\ 1 \end{bmatrix}\), \(\mathbf{v} = v_2 \begin{bmatrix} \lambda \\ 1 \end{bmatrix}\), condizione esclusa in partenza dalla condizione \(\Delta_1 \ne 0\).
\((3.3)\) Ellissi/iperboli e casi degeneri. In questo caso si può completare il quadrato — che coincide ad applicare una traslazione come trasformazione delle coordinate — per eliminare i termini del primo grado. La traslazione \(\mathbf{x}_1 = \mathbf{x}_2 + \mathbf{x}_{1,C}\), o equivalentemente sul vettore
L’equazione diventa
La traslazione che rende nulli i termini di primo grado, è la traslazione che rende nulli i coefficienti fuori dalla diagonale a blocchi,
cioè, poiché la matrice \(\mathbf{A}_d\) è invertibile,
e quindi
Nel caso in cui:
\(s_1 > 0\), \(s_2 > 0\):
se \(f < 0\): ellisse regolare, \(\frac{x_2^2}{\left( \sqrt{\frac{-f}{s_1}} \right)^2} + \frac{y_2^2}{\left( \sqrt{\frac{-f}{s_2}} \right)^2} = 1\)
se \(f = 0\): punto \(x_2 = y_2 = 0\)
se \(f > 0\): nessuna soluzione
\(s_1 \cdot s_2 < 0\), con \(s_1 > 0\):
se \(f \ne 0\) iperbole regolare, \(\frac{x_2^2}{\left( \sqrt{\frac{|f|}{s_1}} \right)^2} - \frac{y_2^2}{\left( \sqrt{\frac{|f|}{-s_2}} \right)^2} = - \text{sgn}(f)\)
se \(f = 0\), iperbole degenere in due rette coincidenti,
\[0 = |s_1| x_2^2 - |s_2| y_2^2 = \left( \sqrt{|s_1|} x_2 - \sqrt{|s_2|} y_2 \right)\left( \sqrt{|s_1|} x_2 + \sqrt{|s_2|} y_2 \right) \ .\]
Quando \(f = 0\), allora \(| \mathbf{M} | = 0\), poichè \(f = \frac{|\mathbf{M}|}{|\mathbf{A}|}\) se \(|\mathbf{A}| \ne 0\). (todo vedi dimostrazione sotto).
Determinante di \(\ \widetilde{\mathbf{R}}\)
La matrice
è una matrice triangolare a blocchi (quadrati) e quindi il suo determinante è uguale al prodotto dei determinanti dei blocchi. Il determinante di una matrice di rotazione è uguale a \(1\), il determinante del blocco \(1 \times 1\), \(\begin{bmatrix} \ 1 \ \end{bmatrix}\) è uguale a \(1\). Segue quindi che
In maniera più esplicita, la generica matrice di rotazione \(2 \times 2\) può essere scritta in funzione di un angolo di rotazione \(\theta\),
così che la matrice \(\mathbf{M}\) diventa
e il suo determinante diventa quindi
\(f = \text{det}(\mathbf{M}) / \text{det}(\mathbf{A})\)
La trasformazione \(\widetilde{\mathbf{R}}\) ha determinante unitario. La matrice \(\widetilde{\mathbf{R}}^T \mathbf{M} \widetilde{\mathbf{R}}\) è diagonale a blocchi. Segue che
e quindi