Qui si risolve LOGO
a

Menu

M

Chiudi

Esercizi sulle forme bilineari

Applicazioni lineari ed endomorfismi

Home » Esercizi sulle forme bilineari

In questa sezione troverete 10 esercizi dettagliatamente svolti sulle forme bilineari, organizzati in ordine di difficoltà crescente. Gli argomenti chiave di questa raccolta sono la diagonalizzazione delle forme bilineari e i concetti di vettori e sottospazi ortogonali e isotropi. Questa dispensa, particolarmente indicata per i corsi di algebra rivolti agli studenti di ingegneria, fisica e matematica, si basa sulle conoscenze sulle applicazioni lineari che il lettore può testare in Esercizi sulle applicazioni lineari – 1 e in Esercizi su endomorfismi e diagonalizzazione. Auguriamo una buona lettura!

 

Autori e revisori


 

Notazioni sulle forme bilineari

Leggi...

\mathbb{R}

\mathbb{C}

\mathbb{N}

\mathbb{K}

V

\dim V

W^{\bot}

\mathbf{0}_V\in V

\mathcal{M}_{m\times n}(\mathbb{R})

\mathcal{M}_n(\mathbb{R})

\operatorname{Id}

\operatorname{rnk}A

\det A

\operatorname{Tr} A

\ker b

A^{\top}

\mathbb{R}_{\leq k}[x]

\operatorname{ma(\lambda)}, \operatorname{mg(\lambda)}

\mathcal{L}(v_1,\dots,v_n)\subseteq V

E(\lambda)\subseteq V

campo dei numeri reali

campo dei numeri complessi

insieme numeri naturali (incluso lo zero)

generico campo

generico spazio vettoriale

dimensione dello spazio vettoriale V

sottospazio W^{\bot}\subset V ortogonale al sottospazio W\subset V

vettore nullo in V

spazio vettoriale delle matrici quadrate m\times n a coefficienti reali

spazio vettoriale delle matrici quadrate n\times n a coefficienti reali

matrice identità di dimensione deducibile dal contesto

rango della matrice A\in\mathcal{M}_{m\times n}(\mathbb{R})

determinante della matrice quadrata A\in\mathcal{M}_n(\mathbb{R})

traccia della matrice quadrata A\in\mathcal{M}_n(\mathbb{R})

nucleo della forma bilineare simmetrica o antisimmetrica b

trasposta della matrice A\in\mathcal{M}_{m\times n}(\mathbb{R})

spazio vettoriale dei polinomi a coefficienti reali aventi grado al più k\in\mathbb{N}

molteplicità rispettivamente algebrica e geometrica dell’autovalore \lambda

sottospazio vettoriale di V generato dai vettori v_1,\dots,v_n\in V

autospazio relativo all’autovalore \lambda


 

Richiami di teoria sulle forme bilineari

Leggi...

In questa sezione riepilogheremo i concetti teorici essenziali per la comprensione e lo svolgimento degli esercizi proposti. L’attenzione sarà focalizzata sulla diagonalizzazione di forme bilineari definite su spazi vettoriali di dimensione finita. I risultati presentati sono ampiamente trattati in testi fondamentali di algebra lineare e geometria. Per coloro che desiderano approfondire ulteriormente, si consiglia la consultazione di quattro testi elencati in bibliografia. In particolare, tutte le informazioni qui riportate sono disponibili, con piccole modifiche, ad esempio in [3, capitolo 5, sezioni 3-4].    

Definizione 1.1 (forma bilineare).  Siano V e W spazi vettoriali sul campo \mathbb{K}. Una funzione

    \[b\colon V\times W\to \mathbb{K}\]

è detta forma bilineare se soddisfa le seguenti condizioni:

  • linearità nella prima variabile: f(\cdot;w)\colon V\to\mathbb{K} è un’applicazione lineare per ogni w\in W;
  • linearità nella seconda variabile: f(v;\cdot)\colon W\to\mathbb{K} è un’applicazione lineare per ogni v\in V.

Ricordiamo che la definizione di applicazione lineare è stata affrontata nella specifica dispensa sulla diagonalizzazione di endomorfismi, [4]. In termini generali, si utilizza il termine “forme” quando si tratta di applicazioni definite su spazi vettoriali il cui codominio è il campo di scalari associato allo spazio in questione.

Consideriamo ora due spazi vettoriali V e W su un campo \mathbb{K}, rispettivamente di dimensione n ed m e quindi finita. Sia b\colon V\times W\to\mathbb{K} una forma bilineare e siano \mathcal{B}_V=\{v_1,\dots,v_n\}, \mathcal{B}_W=\{w_1,\dots,w_n\} basi rispettivamente di V e W. Come nel caso delle applicazioni lineari, è possibile associare a b una matrice che la rappresenti rispetto alle basi \mathcal{B}_V e \mathcal{B}_W. Infatti, dati due vettori v\in V e w\in W, sappiamo che essi si decompongono in maniera unica nelle rispettive basi:

    \[v=\sum_{i=1}^n \alpha_i v_i,\qquad w=\sum_{j=1}^m \beta_j w_j.\]

Segue quindi dalla linearità in entrambe le variabili che

    \[\begin{aligned} b(v;w)& = b\left(\sum_{i=1}^n \alpha_i v_i;\sum_{j=1}^m \beta_j w_j\right)=\sum_{i=1}^n \alpha_i  b\left(v_i;  \sum_{j=1}^m \beta_j w_j\right)= \\&  =\sum_{i=1}^n\sum_{j=1}^m \alpha_i \beta_j b(v_i;  w_j)=\sum_{i=1}^n\sum_{j=1}^m \alpha_i \beta_j B_{ij}, \end{aligned}\]

dove abbiamo posto B_{ij}\coloneqq b(v_i,v_j). Chiamando \alpha \in \mathbb{R}^n il vettore colonna delle componenti di v e \beta \in \mathbb{R}^m il vettore colonna delle componenti di w, possiamo riscrivere la precedente relazione come un prodotto matriciale:

    \[b(v;w)=\alpha^{\top}B\beta,\]

dove B\in\mathcal{M}_{n\times m}(\mathbb{K}) è la matrice avente per componenti gli scalari B_{ij} sopra definiti.    

Definizione 1.2 (matrice associata a una forma bilineare).  Siano V,W spazi vettoriali di dimensione finita, rispettivamente n,m\in\mathbb{N}, sul campo \mathbb{K} e sia b\colon V\times W\to \mathbb{K} una forma bilineare. Siano inoltre \mathcal{B}_V=\{v_1,\dots,v_n\}, \mathcal{B}_W=\{w_1,\dots,w_n\} rispettivamente una base di V ed una base di W. La matrice B\in\mathcal{M}_{n\times m}(\mathbb{K}) detta matrice associata alla forma rispetto alla basi \mathcal{B}_V e \mathcal{B}_W è definita da

    \[B_{ij}=b(v_i;w_j).\]

Definiamo inoltre il rango della forma bilineare come il rango della matrice B ad essa associata rispetto a due basi qualsiasi per V e W.

È fondamentale comprendere come la matrice associata a una forma bilineare si modifichi al variare delle basi degli spazi V e W. In particolare, per garantire che la definizione di rango fornita in precedenza sia ben posta, è essenziale che questa non dipenda dalla scelta delle basi.    

Proposizione 1.3.  Siano V,W spazi vettoriali di dimensione finita, rispettivamente n,m\in\mathbb{N}, sul campo \mathbb{K} e sia b\colon V\times W\to \mathbb{K} una forma bilineare. Siano inoltre \mathcal{B}_V=\{v_1,\dots,v_n\}, \mathcal{B}_W=\{w_1,\dots,w_n\} rispettivamente una base di V ed una base di W. Siano adesso \mathcal{B'}_V=\{v'_1,\dots,v'_n\}, \mathcal{B'}_W=\{w'_1,\dots,w'_n\} rispettivamente un’altra base di V ed un’altra base di W. La matrice B\in\mathcal{M}_{n\times m}(\mathbb{K}) associata alla forma rispetto alla basi \mathcal{B}_V e \mathcal{B}_W e la matrice B'\in\mathcal{M}_{n\times m}(\mathbb{K}) associata alla forma rispetto alla basi \mathcal{B'}_V e \mathcal{B'}_W sono legate dalla relazione

    \[B'=Q^{\top}BP,\]

dove P\in\mathcal{M}_m(\mathbb{K}) e Q\in\mathcal{M}_n(\mathbb{K}) sono rispettivamente la matrice di passaggio dalla base \mathcal{B'}_W alla base \mathcal{B}_W e la matrice di passaggio dalla base \mathcal{B'}_V alla base \mathcal{B}_V.

Una dimostrazione di tale proposizione e ulteriori approfondimenti possono essere reperiti in [3, sezione 5.4.1] nel caso in cui V=W, oppure in [5, capitolo 7, Teorema 5] nel caso generale. Poiché la matrice di cambio di base è invertibile e, allo stesso modo, la sua trasposta è invertibile, considerando che moltiplicare B per matrici di rango massimo ne mantiene invariato il rango, possiamo concludere che la definizione di rango di una forma bilineare sia ben posta. In questa trattazione ci concentreremo esclusivamente su forme bilineari del tipo b\colon V\times V\to\mathbb{R}, dove V è uno spazio vettoriale reale di dimensione finita. Ogni volta che rappresenteremo la forma associandole una matrice rispetto a una base \mathcal{B}_V, assumiamo che la stessa base sia scelta per entrambi gli argomenti. La matrice associata in questo contesto sarà naturalmente una matrice quadrata.    

Definizione 1.4 (nucleo e simmetrie).  Sia V spazio vettoriale di dimensione arbitraria sul campo \mathbb{K} e sia b\colon V\times V\to \mathbb{K} una forma bilineare. b è detta simmetrica se

    \[b(v;w)=b(v;w) \qquad \forall v,w\in V.\]

b è altresì detta antisimmetrica se

    \[b(v;w)=-b(w;v) \qquad \forall v,w\in V.\]

Se b è simmetrica o antisimmetrica, il suo nucleo è il sottospazio di V definito da

    \[\operatorname{Ker}(b)=\{v\in V\colon b(v;w)=0,\forall w\in V\}.\]

Riportiamo un risultato evidente riguardante il legame tra la simmetria e l’antisimmetria di una forma bilineare e quella della sua matrice associata.    

Proposizione 1.5.  La matrice B associata ad una forma bilineare simmetrica rispetto ad una qualsiasi base \mathcal{B}_V è una matrice simmetrica: B^{\top}=B.

La matrice B associata ad una forma bilineare antisimmetrica rispetto ad una qualsiasi base \mathcal{B}_V è una matrice antisimmetrica: B^{\top}=-B.

Per una forma bilineare simmetrica, hanno rilevanza i concetti di vettori e sottospazi ortogonali e isotropi.

Definizione 1.6.  Sia b:V\times V\to\mathbb{K} una forma bilineare simmetrica. Due vettori v ,w\in V sono detti ortogonali se e solo se

    \[b(v;w)=0.\]

Un vettore v\in V è detto isotropo se e solo se

    \[b(v;v)=0.\]

Due sottospazi V,W\subseteq V sono detti ortogonali se e solo se per ogni v\in V e w\in W si ha che

    \[b(v;w)=0.\]

Un sottospazio W\subseteq V è detto isotropo se e solo se è costituito da soli vettori isotropi.

Per diagonalizzare le forme bilineari simmetriche reali, seguiremo la stessa procedura illustrata in [4] per gli endomorfismi. In breve, determineremo il polinomio caratteristico della matrice associata alla forma bilineare e successivamente identificheremo i suoi autovalori. La diagonalizzabilità è garantita a priori dal teorema spettrale. Per una comprensione più approfondita di tale procedura, il lettore può fare riferimento a [5, capitolo 9, sezione 2].

Il termine segnatura di una forma quadratica denota una terna di numeri naturali. Ognuno di essi rappresenta il numero di autovalori positivi, negativi e nulli, considerati con la loro molteplicità algebrica.


 

Testi degli esercizi

 

Esercizio 1  (\bigstar\bigstar\largewhitestar\largewhitestar\largewhitestar). Provare che le seguenti applicazioni sono forme bilineari e determinare la matrice associata rispetto alla base canonica dello spazio di definizione:
 

  1. b\colon\mathbb{R}^2\times\mathbb{R}^2\to\mathbb{R} tale che b((x,y);(x',y'))=xx'-2xy'+\frac{1}{2}yy'.
  2.  

  3. b\colon\mathbb{R}^3\times\mathbb{R}^3\to\mathbb{R} tale che b((x,y,z);(x',y',z'))=xx'-2yy'+zz'.
  4.  

  5. b\colon\mathcal{M}_2(\mathbb{R})\times\mathcal{M}_2(\mathbb{R})\to\mathbb{R} tale che b(A;B)=\operatorname{Tr}(AB^{T}-BA^T).
  6.  

  7. b\colon\mathbb{R}_{\leq 2}[x]\times\mathbb{R}_{\leq 2}[x]\to\mathbb{R} tale che b(f(x);g(x))=f(0)g'(0)+f'(0)g(0), dove con f'(x) si intende la derivata prima del polinomio f(x) rispetto alla variabile x.
  8.  

  9. b\colon\mathbb{R}^n\times\mathbb{R}^n\to\mathbb{R} tale che b((x_1,\dots,x_n);(y_1,\dots,y_n))=(x_1+\dots+x_n)(y_1+\dots+y_n).
  10.  

  11. b\colon\mathbb{R}_{\leq 2}[x]\times\mathbb{R}_{\leq 2}[x]\to\mathbb{R} tale che b(f(x);g(x))=f(2)\cdot g(2).
  12.  

  13. b\colon\mathcal{M}_2(\mathbb{R})\times\mathcal{M}_2(\mathbb{R})\to\mathbb{R} tale che b((a_{ij});(d_{ij}))=\sum_{1\leq i,j\leq 2}(j-i)a_{ij}d_{ji}.
  14.  

  15. b\colon\mathcal{M}_2(\mathbb{R})\times\mathcal{M}_2(\mathbb{R})\to\mathbb{R} tale che b(A;B)=\operatorname{Tr}(ACB), dove C=\begin{pmatrix}1&-2\\1&1\end{pmatrix}.

Svolgimento punto 1.

Verifichiamo ad ogni punto che b rispetta la definizione (1.1) e determiniamone la matrice associata. Proviamo la linearità nella prima variabile. Siano \alpha,\beta\in\mathbb{R} e (x_1,y_1),(x_2,y_2),(x',y')\in\mathbb{R}^2

    \[\begin{aligned}             b(\alpha(x_1,y_1) + \beta (x_2,y_2);(x',y')) &= b((\alpha x_1+\beta x_2,\alpha y_1+\beta y_2));(x',y'))=             \\& = (\alpha x_1+\beta x_2)x'-2(\alpha x_1 +\beta x_2)y'+\frac{1}{2}(\alpha y_1+\beta y_2)y'=             \\& = \alpha( x_1 x'-2x_1 y'+\frac{1}{2}y_1 y')+\beta ( x_2 x'-2x_2 y'+\frac{1}{2}y_2 y')=             \\& = \alpha b((x_1,y_1);(x',y'))+\beta b((x_2,y_2);(x',y')).             \end{aligned}\]

La linearità nella seconda variabile si prova in maniera analoga.

Determiniamo la matrice associata calcolando le immagini di tutte le possibili coppie di vettori della base canonica:

    \[\begin{aligned}             b((1,0);(1,0))&=1,\\             b((1,0);(0,1))&=-2,\\             b((0,1);(1,0))&=0,\\             b((0,1);(0,1))&=\frac{1}{2}.             \end{aligned}\]

La matrice associata è quindi data da

    \[\boxcolorato{geometria}{M=\begin{pmatrix}             1 & -2 \\             0 & \frac{1}{2}             \end{pmatrix}.}\]

Svolgimento punto 2.

La prova della bilinearità della forma è identica a quella svolta nell’esercizio precedente. Determiniamo la matrice associata calcolando le immagini di tutte le possibili coppie di vettori della base canonica \mathcal{B}=\{e_1,e_2,e_3\}, dove e_i è, come di consueto, il vettore avente tutte le componenti nulle eccetto l’i-esima pari ad 1.

Notiamo innanzi tutto che ogni qualvolta i\neq j si ha che b(e_i,e_j)=0. Calcoliamo gli elementi in diagonale della matrice associata:

    \[\begin{aligned}             b(e_1;e_1)&=1,\\             b(e_2;e_2)&=-2,\\             b(e_3;e_3)&=1.             \end{aligned}\]

La matrice associata è quindi data da

    \[\boxcolorato{geometria}{M=\begin{pmatrix}             1 & 0 & 0 \\             0 & -2 & 0 \\             0 & 0 & 1             \end{pmatrix}.}\]

Svolgimento punto 3.

Sfruttiamo la linearità e l’invarianza per trasposizione della traccia per provare che b è la forma nulla, e quindi ovviamente è anche bilineare con associata la matrice nulla. Si fissino A,B\in\mathcal{M}_2(\mathbb(R)):

    \[\begin{aligned} \operatorname{Tr}(AB^{\top}-BA^{\top})& = \operatorname{Tr}(AB^{\top})-\operatorname{Tr}(BA^{\top})= \\& =\operatorname{Tr}(AB^{\top})-\operatorname{Tr}((BA^{\top})^{\top})= \\& =\operatorname{Tr}(AB^{\top})-\operatorname{Tr}(AB^{\top})=0. \end{aligned}\]

Svolgimento punto 4.

Notiamo prima di tutto che la forma è simmetrica:

    \[b(g(x);f(x))=g(0)f'(0)+g'(0)f(0)=f(0)g'(0)+f'(0)g(0)=b(f(x);g(x)).\]

Dunque basta provare la linearità in una sola delle due variabili per provare la bilinearità. Siano quindi \alpha,\beta\in\mathbb{R} e f(x),h(x),g(x)\in\mathbb{R}_{\leq 2}[x]. Si ha che

    \[\begin{aligned}             b(\alpha f(x)+ \beta h(x);g(x))& =(\alpha f(0)+\beta h(0))g'(0)+(\alpha f(0)+\beta h(0))'g(0) =\\             &=\alpha f(0)g'(0)+\beta h(0)g'(0)+\alpha f'(0)g(0)+\beta h'(0)g(0) =\\             &=\alpha b(f(x);g(x))+\beta b(h(x);g(x)),             \end{aligned}\]

dove sono state usate banali proprietà della somma e del prodotto, insieme alla linearità della derivata. In alternativa si può notare, utilizzando la regola di Leibniz, che

    \[b(f(x);g(x))=(fg)'(0).\]

A questo punto la simmetria discende dalla commutatività del prodotto fra numeri reali e la bilinearità si deduce dalla linearità della derivata.

Data la base canonica \mathcal{B}=\{x^2,x,1\}, ricaviamo la matrice associata, ricordando che, essendo l’applicazione simmetrica, M sarà una matrice simmetrica anch’essa.

    \[\begin{aligned}             b(x^2;x^2)&=0,\\             b(x^2;x)&=0,\\             b(x^2;1)&=0,\\             b(x;x)&=0,\\             b(x;1)&=1,\\             b(1;1)&=0.             \end{aligned}\]

La matrice associata è quindi data da

    \[\boxcolorato{geometria}{M=\begin{pmatrix}             0 & 0 & 0 \\             0 & 0 & 1 \\             0 & 1 & 0             \end{pmatrix}.}\]

Svolgimento punto 5.

Dalla commutatività del prodotto fra numeri reali segue la simmetria della forma. Dunque basta provare la linearità nella prima variabile, che segue da note proprietà della somma e del prodotto fra numeri reali. Siano quindi \alpha,\beta\in\mathbb{R} e siano (x_1,\dots,x_n),(x'_1,\dots,x'_n),(y_1,\dots,y_n)\in\mathbb{R}^n:

    \[\begin{aligned}             &b(\alpha(x_1,\dots,x_n)+\beta(x'_1,\dots,x'_n);(y_1,\dots,y_n))= \\             &=(\alpha(x_1+\dots+x_n)+\beta(x'_1+\dots+x'_n))(y_1+\dots+y_n)= \\             &=\alpha(x_1+\dots+x_n)(y_1+\dots+y_n)+\beta(x'_1+\dots+x'_n)(y_1+\dots+y_n)= \\             &=\alpha b((x_1,\dots,x_n);(y_1,\dots,y_n))+\beta b((x'_1,\dots,x'_n);(y_1,\dots,y_n)).             \end{aligned}\]

Sia \mathcal{B}=\{e_1,\dots,e_n\} la base canonica di \mathbb{R}^n. Si calcola esplicitamente che per ogni coppia di indici i,j\in\{1,\dots,n\}

    \[b(e_i,e_j)=1.\]

La matrice associata e b è quindi una matrice n\times n contenente 1 in tutte le componenti:

    \[\boxcolorato{geometria}{M=\begin{pmatrix}             1 & \cdots & 1 \\             \vdots & \ddots & \vdots \\             1 & \cdots & 1             \end{pmatrix}.}\]

Svolgimento punto 6.

Dalla commutatività del prodotto fra numeri reali segue la simmetria della forma. Basta quindi provare la linearità nella prima variabile. Siano dunque \alpha,\beta\in\mathbb{R} e f_1(x),f_2(x), g(x)\in\mathbb{R}_{\leq2}[x]:

    \[\begin{aligned}             b(\alpha f_1(x)+ \beta f_2(x);g(x))&=(\alpha f_1(2)+\beta f_2(2))\cdot g(2)=\\             &=\alpha f_1(2)\cdot g(2)+\beta f_2(2)\cdot g(2)=\\             &=\alpha b(f_1(x);g(x))+\beta b(f_2(x);g(x)).             \end{aligned}\]

Valutiamo la forma su tutte le possibili combinazioni di vettori della base \mathcal{B}=\{x^2,x,1\}.

    \[\begin{aligned}             b(x^2;x^2)&=16,\\             b(x^2;x)&=8,\\             b(x^2;1)&=4,\\             b(x;x)&=4,\\             b(x;1)&=2,\\             b(1;1)&=1.             \end{aligned}\]

La matrice associata è quindi data da

    \[\boxcolorato{geometria}{M=\begin{pmatrix}             16 & 8 & 4 \\             8 & 4 & 2 \\             4 & 2 & 1             \end{pmatrix}.}\]

Svolgimento punto 7.

Espandendo la relazione definente la forma si trova

    \[b((a_{ij});(d_{ij}))=a_{12}d_{21}-a_{21}d_{12}.\]

La forma in questo caso è antisimmetrica, infatti

    \[\begin{aligned}             b((d_{ij});(a_{ij})) &=d_{12}a_{21}-d_{21}a_{12}= \\& =-(d_{21}a_{12}-d_{12}a_{21}) = \\& =-b((a_{ij});(d_{ij})). \end{aligned}\]

Quindi anche in questo caso basta provare la linearità nella prima variabile per dedurre la bilinearità. Dati \alpha,\beta\in\mathbb{R} e date A,A',D\in\mathcal{M}_2(\mathbb{R}) con componenti a_{ij},a'_{ij},d_{ij}\in\mathbb{R} abbiamo

    \[\begin{aligned}             b((\alpha a_{ij}+ \beta a'_{ij});(d_{ij}))&=(\alpha a_{12}+\beta a'_{12})d_{21}-(\alpha a_{21}+\beta a'_{21})d_{12}\\             &=\alpha (a_{12}d_{21}- a_{21}d_{12})+\beta (a'_{12}d_{21}- a'_{21}d_{12})\\             &=\alpha b(( a_{ij});(d_{ij}))+\beta b(( a'_{ij});(d_{ij})).             \end{aligned}\]

Prendiamo adesso in considerazione la base canonica dello spazio in esame

    \[\begin{aligned} \mathcal{B}_{\mathcal{M}_2(\mathbb{R})}&=\left\{\begin{pmatrix}             1 & 0 \\             0 & 0             \end{pmatrix}, \begin{pmatrix}             0 & 1 \\             0 & 0             \end{pmatrix}, \begin{pmatrix}             0 & 0 \\             1 & 0             \end{pmatrix},\begin{pmatrix}             0 & 0 \\             0 & 1             \end{pmatrix}\right\}= \\&             = \{e_1,e_2,e_3,e_4\}. \end{aligned}\]

Si ricavano quindi le uniche componenti non nulle della matrice antisimmetrica M\in\mathcal{M}_4(\mathbb{R}) di componenti M_{ij}=b(e_i,e_j) associata calcolando le immagini dei vettori della base:

    \[\boxcolorato{geometria}{M=\begin{pmatrix}             0 & 0 & 0 & 0 \\             0 & 0 & -1 & 0 \\             0 & 1 & 0 & 0 \\             0 & 0 & 0 & 0             \end{pmatrix}.}\]

Svolgimento punto 8.

Proviamo la linearità nella prima variabile. Siano A,A',B\in\mathcal{M}_2(\mathbb{R}) e siano \alpha,\beta\in\mathbb{R}

    \[\begin{aligned}             b(\alpha A+\beta A'; B)&= \operatorname{Tr}((\alpha A+\beta A')CB)= \\& =\alpha \operatorname{Tr}(ACB)+\beta\operatorname{Tr}(A'CB) = \\& = \alpha b(A;B)+\beta b(A';B).             \end{aligned}\]

dove si sono usate unicamente la distributività del prodotto di matrici rispetto alla somma e la linearità della traccia. La prova della linearità nella seconda variabile è identica. Vogliamo adesso determinare la matrice associata rispetto alla base canonica

    \[\begin{aligned} \mathcal{B}_{\mathcal{M}_2(\mathbb{R})}&=\left\{\begin{pmatrix}             1 & 0 \\             0 & 0             \end{pmatrix}, \begin{pmatrix}             0 & 1 \\             0 & 0             \end{pmatrix}, \begin{pmatrix}             0 & 0 \\             1 & 0             \end{pmatrix},\begin{pmatrix}             0 & 0 \\             0 & 1             \end{pmatrix}\right\}=\\&             = \{e_1,e_2,e_3,e_4\}. \end{aligned}\]

Per fare ciò notiamo prima di tutto che due generiche matrici A,B\in\mathcal{M}_2(\mathbb{R}) possono essere scritte come

    \[A=\sum_{i=1}^4 x_i e_i=\begin{pmatrix}             x_1 & x_2 \\             x_3 & x_4             \end{pmatrix} \qquad B=\sum_{j=1}^4 x'_j e_j=\begin{pmatrix}             x'_1 & x'_2 \\             x'_3 & x'_4             \end{pmatrix}.\]

Possiamo quindi scrivere esplicitamente la forma come

    \[\begin{aligned}             b(A;B)& =b\left(\sum_{i=1}^4 x_i e_i ;\sum_{j=1}^4 x'_j e_j\right)=\\             &=\operatorname{Tr}\left(\begin{pmatrix}             x_1 & x_2 \\             x_3 & x_4             \end{pmatrix}\begin{pmatrix}             1 & -2 \\             1 & 1             \end{pmatrix}\begin{pmatrix}             x'_1 & x'_2 \\             x'_3 & x'_4             \end{pmatrix}\right)= \\             &=\operatorname{Tr}\left(\begin{pmatrix}             x_1 & x_2 \\             x_3 & x_4             \end{pmatrix}\begin{pmatrix}             x'_1-2x'_3 & x'_2-2x'_4 \\             x'_1+x'_3 & x'_2+x'_4             \end{pmatrix}\right)= \\             &=\operatorname{Tr}\begin{pmatrix}             x_1x'_1-2x_1x'_3+x_2x'_1+x_2x'_3 & x_1x'_2-2x_1x'_4+x_2x'_2+x_2x'_4 \\             x_3x'_1-2x_3x'_3+x_4x'_1+x_4x'_3 & x_3x'_2-2x_3x'_4+x_4x'_2+x_4x'_4             \end{pmatrix}= \\             &=x'_1x_1-2x'_3x_1+x'_1x_2+x'_3x_2+x'_2x_3-2x'_4x_3+x'_2x_4+x'_4x_4= \\& = \sum_{i,j=1}^n M_{ij}x'_i x_j.             \end{aligned}\]

La matrice M\in\mathcal{M}_4(\mathbb{R}) associata alla forma rispetto alla base canonica può quindi essere letta dai coefficienti M_{ij}\in\mathbb{R} della precedente espressione:

    \[\boxcolorato{geometria}{M=\begin{pmatrix}             1 & 0 & -2 & 0 \\             1 & 0 & 1 & 0 \\             0 & 1 & 0 & -2 \\             0 & 1 & 0 & 1             \end{pmatrix}.}\]


 
 

Esercizio 2  (\bigstar\bigstar\largewhitestar\largewhitestar\largewhitestar). Provare che le seguenti applicazioni non sono forme bilineari:
 

  1. b\colon\mathbb{R}^2\times\mathbb{R}^2\to\mathbb{R} tale che b((x,y);(x',y'))=-xx'-xy'+3.
  2.  

  3. b\colon\mathbb{R}^3\times\mathbb{R}^3\to\mathbb{R} tale che b((x,y,z);(x',y',z'))=e^{xx'}-yy'.
  4.  

  5. b\colon\mathcal{M}_2(\mathbb{R})\times\mathcal{M}_2(\mathbb{R})\to\mathbb{R} tale che b(A;B)=\det(A+B).
  6.  

  7. b\colon\mathbb{R}_{\leq 1}[x]\times\mathbb{R}_{\leq 1}[x]\to\mathbb{R} tale che b(ax+\alpha;a'x+\alpha')=aa'+\alpha.
  8.  

  9. b\colon\mathbb{R}^n\times\mathbb{R}^n\to\mathbb{R} tale che b((x_1,\dots,x_n);(y_1,\dots,y_n))=|x_1 y_1+\dots+x_n y_n|.
  10.  

  11. b\colon\mathbb{R}^n\times\mathbb{R}^n\to\mathbb{R} tale che b((x_1,\dots,x_n);(y_1,\dots,y_n))=\sqrt{x_1 y_1+\dots x_n y_n}.
  12.  

  13. b\colon\mathbb{R}^n\times\mathbb{R}^n\to\mathbb{R} tale che b((x_1,\dots,x_n);(y_1,\dots,y_n))=\sqrt{x^2_1 y^2_1+\dots x^2_n y^2_n}.
  14.  

  15. b\colon\mathbb{R}^n\times\mathbb{R}^n\to\mathbb{R} tale che b((x_1,\dots,x_n);(y_1,\dots,y_n))=1.

Svolgimento punto 1.

Osservando che b(0;0)=3\neq 0 deduciamo la non bilinearità della forma.

Svolgimento punto 2.

Osservando che b(0;0)=1\neq 0 deduciamo la non bilinearità della forma.

Svolgimento punto 3.

Per provare la non linearità di b basta utilizzare la nota proprietà del determinante per cui dati A\in\mathcal{M}_n(\mathbb{R}) e k\in\mathbb{R} sappiamo che \det(kA)=k^n\det A.

    \[b(2\operatorname{Id};0)=\det(2\operatorname{Id})=4\neq 2b(\operatorname{Id};0).\]

Svolgimento punto 4.

Osservando che b(1;0)=1\neq 0 deduciamo la non bilinearità della forma.

Svolgimento punto 5.

Sia e_1 il primo vettore della base canonica di \mathbb{R}^n. Osservando che

    \[1=b(e_1;e_1)=b(-e_1;e_1)\neq -b(e_1,e_1),\]

deduciamo la non bilinearità della forma.

Svolgimento punto 6.

Sia e_1 il primo vettore della base canonica di \mathbb{R}^n. Osservando che

    \[b(2e_1;e_1)=\sqrt{2}b(e_1;e_1)\neq 2b(e_1,e_1),\]

deduciamo la non bilinearità della forma.

Svolgimento punto 7.

Siano e_1 ed e_2 il primo ed il secondo vettore della base canonica di \mathbb{R}^n. Osservando che

    \[1=b(e_1;e_1)=b(-e_1;e_1)\neq -b(e_1,e_1),\]

deduciamo la non bilinearità della forma.

Svolgimento punto 8.

Osservando che b(0;0)=1\neq 0 deduciamo la non bilinearità della forma.

 
 

Esercizio 3  (\bigstar\largewhitestar\largewhitestar\largewhitestar\largewhitestar). Determinare la matrice M associata rispetto alla base

    \[\(\mathcal{B}=\{v_1,v_2,v_3\}=\{(1,1,1),(-1,0,1),(0,2,1)\}\),\]

la matrice A associata rispetto alla base canonica di \mathbb{R}^3 e il rango di ciascuna delle seguenti forme bilineari su \mathbb{R}^3. Dire poi se esse sono forme simmetriche o antisimmetriche.
 

  1. b((x,y,z);(x',y',z'))=xy'+yz'+zx'.
  2.  

  3. b((x,y,z);(x',y',z'))=xy'+yz'-2zx'+x'y+y'z-2z'x.
  4.  

  5. b((x,y,z);(x',y',z'))=xy'+yz'-zx'.
  6.  

  7. b((x,y,z);(x',y',z'))=xx'+2yx'-zz'+2xz'.
  8.  

  9. b((x,y,z);(x',y',z'))=xx'+2yy'-zz'-(xy'+x'y)+(zx'+xz').
  10.  

  11. b((x,y,z);(x',y',z'))=yz'-y'z+xz'-x'z+xy'-yx'.
  12.  

  13. b((x,y,z);(x',y',z'))=(x+y+z)(x'+y'+z').
  14.  

  15. b((x,y,z);(x',y',z'))=xy'.

Svolgimento punto 1.

Per ciascun punto le due matrici richieste possono essere ricavate tramite semplici calcoli valutando l’applicazione su tutte le possibili coppie di vettori di base, in particolare la matrice associata rispetto alla base canonica può essere letta ad occhio dai coefficienti dei vari monomi.

    \[\begin{aligned} b(e_1,e_1)&=0, \qquad b(e_1,e_2)&=1, \qquad b(e_1,e_3)&=0, \\ b(e_2,e_1)&=0, \qquad b(e_2,e_2)&=0, \qquad b(e_2,e_3)&=1, \\ b(e_3,e_1)&=1, \qquad b(e_3,e_2)&=0, \qquad b(e_3,e_3)&=0.  \end{aligned}\]

    \[A= \begin{pmatrix} 0&1&0\\ 0&0&1\\ 1&0&0 \end{pmatrix}.\]

Dato che \det A=1 il rango della forma è 3.

    \[\begin{aligned} b(v_1,v_1)&=3, \qquad b(v_1,v_2)=&0, \qquad b(v_1,v_3)&=0, \\ b(v_2,v_1)&=0, \qquad b(v_2,v_2)=&-1, \qquad b(v_2,v_3)&=-2, \\ b(v_3,v_1)&=3, \qquad b(v_3,v_2)=&1, \qquad b(v_3,v_3)&=2. \end{aligned}\]

    \[\boxcolorato{geometria}{M= \begin{pmatrix} 3&0&3\\ 0&-1&-2\\ 3&1&2 \end{pmatrix}.}\]

Svolgimento punto 2.

    \[\begin{aligned} b(e_1,e_1)&=0, \qquad b(e_1,e_2)&=1, \qquad b(e_1,e_3)&=-2, \\ b(e_2,e_1)&=1, \qquad b(e_2,e_2)&=0, \qquad b(e_2,e_3)&=1, \\ b(e_3,e_1)&=-2, \qquad b(e_3,e_2)&=1, \qquad b(e_3,e_3)&=0.  \end{aligned}\]

    \[A= \begin{pmatrix} 0&1&-2\\ 1&0&1\\ -2&1&0 \end{pmatrix}.\]

Dato che \det A=-4 il rango della forma è 3.

    \[\begin{aligned} b(v_1,v_1)&=0, \qquad b(v_1,v_2)=0,& \qquad b(v_1,v_3)&=3, \\ b(v_2,v_1)&=0, \qquad b(v_2,v_2)=4,& \qquad b(v_2,v_3)&=2, \\ b(v_3,v_1)&=3, \qquad b(v_3,v_2)=2,& \quad b(v_3,v_3)&=4. \end{aligned}\]

    \[\boxcolorato{geometria}{M= \begin{pmatrix} 0&0&3\\ 0&4&2\\ 3&2&4 \end{pmatrix}.}\]

Svolgimento punto 3.

    \[\begin{aligned} b(e_1,e_1)&=0, \qquad &b(e_1,e_2)=1,& \qquad b(e_1,e_3)&=0, \\ b(e_2,e_1)&=0, \qquad &b(e_2,e_2)=0,& \qquad b(e_2,e_3)&=1, \\ b(e_3,e_1)&=-1,\qquad &b(e_3,e_2)=0,& \qquad b(e_3,e_3)&=0.  \end{aligned}\]

    \[A= \begin{pmatrix} 0&1&0\\ 0&0&1\\ -1&0&0 \end{pmatrix}.\]

Dato che \det A=-1 il rango della forma è 3.

    \[\begin{aligned} b(v_1,v_1)&=1, \qquad &b(v_1,v_2)&=2, \qquad b(v_1,v_3)=3,& \\ b(v_2,v_1)&=-2, \qquad &b(v_2,v_2)&=1, \qquad b(v_2,v_3)=-2,& \\ b(v_3,v_1)&=1, \qquad &b(v_3,v_2)&=3, \qquad b(v_3,v_3)=2.& \end{aligned}\]

    \[\boxcolorato{geometria}{M= \begin{pmatrix} 1&2&3\\ -2&1&-2\\ 1&3&2 \end{pmatrix}.}\]

Svolgimento punto 4.

    \[\begin{aligned} b(e_1,e_1)&=1, \qquad b(e_1,e_2)&=0, \qquad b(e_1,e_3)&=2, \\ b(e_2,e_1)&=2, \qquad b(e_2,e_2)&=0, \qquad b(e_2,e_3)&=0, \\ b(e_3,e_1)&=2, \qquad b(e_3,e_2)&=0, \qquad b(e_3,e_3)&=-1.  \end{aligned}\]

    \[A= \begin{pmatrix} 1&0&2\\ 2&0&0\\ 2&0&-1 \end{pmatrix}.\]

Dato che \det A=0 il rango della forma non può essre 3. Notiamo che le due righe non nulle non sono proporzionali, il rango è quindi 2.

    \[\begin{aligned} b(v_1,v_1)&=4, \qquad &b(v_1,v_2)&=-2, \qquad &b(v_1,v_3)&=1, \\ b(v_2,v_1)&=-4, \qquad &b(v_2,v_2)&=-2, \qquad &b(v_2,v_3)&=-3, \\ b(v_3,v_1)&=3, \qquad &b(v_3,v_2)&=-5, \qquad &b(v_3,v_3)&=-1. \end{aligned}\]

    \[\boxcolorato{geometria}{M= \begin{pmatrix} 4&-2&1\\ -4&-2&-3\\ 3&-5&-1 \end{pmatrix}.}\]

Svolgimento punto 5.

    \[\begin{aligned} b(e_1,e_1)&=1, \qquad &b(e_1,e_2)&=-1, \qquad &b(e_1,e_3)&=1, \\ b(e_2,e_1)&=-1, \qquad &b(e_2,e_2)&=2, \qquad &b(e_2,e_3)&=0, \\ b(e_3,e_1)&=1, \qquad &b(e_3,e_2)&=0, \qquad &b(e_3,e_3)&=-1.  \end{aligned}\]

    \[A= \begin{pmatrix} 1&-1&1\\ -1&2&0\\ 1&0&-1 \end{pmatrix}.\]

Dato che \det A=-3 il rango della forma è 3.

    \[\begin{aligned} b(v_1,v_1)&=1, \qquad &b(v_1,v_2)&=-1, \qquad &b(v_1,v_3)&=1, \\ b(v_2,v_1)&=-1, \qquad &b(v_2,v_2)&=2, \qquad &b(v_2,v_3)&=0, \\ b(v_3,v_1)&=1, \qquad &b(v_3,v_2)&=0, \qquad &b(v_3,v_3)&=-1. \end{aligned}\]

    \[\boxcolorato{geometria}{M= \begin{pmatrix} 1&-1&1\\ -1&2&0\\ 1&0&-1 \end{pmatrix}.}\]

Svolgimento punto 6.

    \[\begin{aligned} 		b(e_1,e_1)&=0, \qquad &b(e_1,e_2)&=1, \qquad &b(e_1,e_3)&=1, \\ 		b(e_2,e_1)&=-1, \qquad &b(e_2,e_2)&=0, \qquad &b(e_2,e_3)&=1, \\ 		b(e_3,e_1)&=-1, \qquad &b(e_3,e_2)&=-1, \qquad &b(e_3,e_3)&=0.  		\end{aligned}\]

    \[A= 		\begin{pmatrix} 		0&1&1\\ 		-1&0&1\\ 		-1&-1&0 		\end{pmatrix}.\]

Dato che la prima riga di A è la differenza fra la seconda e la terza, che sono linearmente indipendenti, il rango della forma è 2.

    \[\begin{aligned} 		b(v_1,v_1)&=0, \qquad &b(v_1,v_2)&=4, \qquad &b(v_1,v_3)&=2,& \\ 		b(v_2,v_1)&=-4, \qquad &b(v_2,v_2)&=0, \qquad &b(v_2,v_3)&=-5,& \\ 		b(v_3,v_1)&=-2, \qquad &b(v_3,v_2)&=5, \qquad &b(v_3,v_3)&=0.& 		\end{aligned}\]

    \[\boxcolorato{geometria}{M= 		\begin{pmatrix} 		0&4&2\\ 		-4&0&-5\\ 		-2&5&0 		\end{pmatrix}.}\]

Svolgimento punto 7.

    \[\begin{aligned} 		b(e_1,e_1)&=1, \qquad b(e_1,e_2)&=1, \qquad b(e_1,e_3)&=1, \\ 		b(e_2,e_1)&=1, \qquad b(e_2,e_2)&=1, \qquad b(e_2,e_3)&=1, \\ 		b(e_3,e_1)&=1, \qquad b(e_3,e_2)&=1, \qquad b(e_3,e_3)&=1.  		\end{aligned}\]

    \[A= 		\begin{pmatrix} 		1&1&1\\ 		1&1&1\\ 		1&1&1 		\end{pmatrix}.\]

Dato che le righe della matrice A sono tutte uguali il rango della forma è 1.

    \[\begin{aligned} 		b(v_1,v_1)&=9, \qquad b(v_1,v_2)&=0, \qquad b(v_1,v_3)&=9, \\ 		b(v_2,v_1)&=0, \qquad b(v_2,v_2)&=0, \qquad b(v_2,v_3)&=0, \\ 		b(v_3,v_1)&=9, \qquad b(v_3,v_2)&=0, \qquad b(v_3,v_3)&=9. 		\end{aligned}\]

    \[\boxcolorato{geometria}{M= 		\begin{pmatrix} 		9&0&9\\ 		0&0&0\\ 		9&0&9 		\end{pmatrix}.}\]

Svolgimento punto 8.

    \[\begin{aligned} 		b(e_1,e_1)&=0, \qquad b(e_1,e_2)&=1, \qquad b(e_1,e_3)&=0, \\ 		b(e_2,e_1)&=0, \qquad b(e_2,e_2)&=0, \qquad b(e_2,e_3)&=0, \\ 		b(e_3,e_1)&=0, \qquad b(e_3,e_2)&=0, \qquad b(e_3,e_3)&=0.  		\end{aligned}\]

    \[A= 		\begin{pmatrix} 		0&1&0\\ 		0&0&0\\ 		0&0&0 		\end{pmatrix}.\]

Dato che A ha solo una riga non nulla, il rango della forma è 1.

    \[\begin{aligned} 		b(v_1,v_1)&=1, \qquad &b(v_1,v_2)&=0, \qquad &b(v_1,v_3)&=2, \\ 		b(v_2,v_1)&=-1, \qquad &b(v_2,v_2)&=0, \qquad &b(v_2,v_3)&=-2, \\ 		b(v_3,v_1)&=0, \qquad &b(v_3,v_2)&=0, \qquad &b(v_3,v_3)&=0. 		\end{aligned}\]

    \[\boxcolorato{geometria}{M= 		\begin{pmatrix} 		1&0&2\\ 		-1&0&-2\\ 		0&0&0 		\end{pmatrix}.}\]


 
 

Esercizio 4  (\bigstar\bigstar\largewhitestar\largewhitestar\largewhitestar). Diagonalizzare le forme bilineari simmetriche su \mathbb{R}^n associate alle seguenti matrici rispetto alla base canonica, esplicitando la base diagonalizzante usata e la forma diagonale trovata:
 

  1. n=2, M=\begin{pmatrix} 1&-2\\-2&2 \end{pmatrix}.
  2.  

  3. n=2, M=\begin{pmatrix} 0&1\\1&0 \end{pmatrix}.
  4.  

  5. n=3, M=\begin{pmatrix} 1&0&3\\0&-2&0\\3&0&1 \end{pmatrix}.
  6.  

  7. n=3, M=\begin{pmatrix} 0&0&1\\0&0&0\\1&0&0 \end{pmatrix}.
  8.  

  9. n=3, M=\begin{pmatrix} 1&-1&2\\-1&1&-2\\2&-2&4 \end{pmatrix}.
  10.  

  11. n=3, M=\begin{pmatrix} 1&2&0\\2&1&0\\0&0&1 \end{pmatrix}.
  12.  

  13. n=4, M=\begin{pmatrix} 1&0&1&0\\0&1&0&0\\1&0&1&0\\0&0&0&0 \end{pmatrix}.
  14.  

  15. n=4, M=\begin{pmatrix} 1&0&-2&0\\0&1&0&2\\-2&0&1&0\\0&2&0&-1 \end{pmatrix}.

Introduzione esercizio 4.

Nello svolgimento di tale esercizio sfrutteremo continuamente il risultato citato nell’introuzione teorica noto come teorema spettrale. Ogni matrice simmetrica a coefficienti reali è diagonalizzabile: non avremo quindi bisogno di controllare ogni volta che le moltiplicità geometriche e algebriche degli autovalori coincidano. Seguendo le nostre notazioni, indicheremo con E(\lambda) l’autospazio relativo all’autovalore \lambda.

Svolgimento punto 1.

Ricaviamo il polinomio caratteristico e gli autovalori della forma:

    \[\begin{aligned} 		\det(M-\lambda\operatorname{Id})&=\det\begin{pmatrix} 		1-\lambda&-2\\-2&2-\lambda 		\end{pmatrix}= \\& =(1-\lambda)(2-\lambda)-4= \\& =\lambda^2-3\lambda-2. 		\end{aligned}\]

Gli autovalori sono quindi le radici del polinomio:

    \[\lambda_{1,2}= \frac{3\pm\sqrt{17}}{2}.\]

La matrice diagonale associata alla forma è quindi:

    \[D= 		\begin{pmatrix}\dfrac{3-\sqrt{17}}{2}&0\\0&\dfrac{3+\sqrt{17}}{2} 		\end{pmatrix}.\]

Determiniamo la base diagonalizzante \mathcal{B}=\{v_1,v_2\} di autovettori.

    \[E(\lambda_1)=\operatorname{Ker}\left(M-\frac{3-\sqrt{17}}{2}\operatorname{Id}\right).\]

Le coordinate dei vettori di tale nucleo si ricavano quindi risolvendo il sistema omogeneo

    \[\begin{pmatrix} 		\dfrac{\sqrt{17}-1}{2}&-2\\-2&\dfrac{1+\sqrt{17}}{2} 		\end{pmatrix}\begin{pmatrix} 		x\\y 		\end{pmatrix}=\bf 0.\]

Come atteso le due righe sono proporzionali, come si può notare moltiplicando la seconda per \frac{1-\sqrt{17}}{4}.

Lo spazio delle soluzioni è quindi definito dall’equazione

    \[y=\frac{\sqrt{17}-1}{4}x,\]

cui per x=1 corrisponde l’autovettore

    \[v_1=\left(1,\frac{\sqrt{17}-1}{4}\right).\]

Passiamo adesso al secondo autospazio:

    \[E(\lambda_2)=\operatorname{Ker}\left(M-\frac{3+\sqrt{17}}{2}\operatorname{Id}\right).\]

Le coordinate dei vettori di tale nucleo si ricavano quindi risolvendo il sistema omogeneo

    \[\begin{pmatrix} 		-\dfrac{1+\sqrt{17}}{2}&-2\\-2&\dfrac{1-\sqrt{17}}{2} 		\end{pmatrix}\begin{pmatrix} 		x\\y 		\end{pmatrix}=\mathbf{0}.\]

Anche in questo caso le righe sono proporzionali, infatti la prima si ottiene dalla seconda moltiplicando per \frac{1+\sqrt{17}}{4}. Lo spazio delle soluzioni è quindi definito dall’equazione

    \[y=-\frac{1+\sqrt{17}}{4}x,\]

cui per x=1 corrisponde l’autovettore

    \[v_2=\left(1,-\frac{\sqrt{17}+1}{4}\right).\]

Svolgimento punto 2.

Ricaviamo il polinomio caratteristico e gli autovalori:

    \[\begin{aligned} 		\det(M-\lambda\operatorname{Id})= 		\det\begin{pmatrix} 		-\lambda&1\\1&-\lambda 		\end{pmatrix}=\lambda^2-1. 		\end{aligned}\]

Gli autovalori sono quindi le radici del polinomio:

    \[\lambda_1=-1 ,\qquad \lambda_2=1.\]

La matrice diagonale associata alla forma è:

    \[D= 		\begin{pmatrix} 		-1&0\\0&1 		\end{pmatrix}.\]

Determiniamo la base diagonalizzante \mathcal{B}=\{v_1,v_2\} di autovettori.

    \[E(\lambda_1)=\operatorname{Ker}\left(M+\operatorname{Id}\right).\]

Le coordinate dei vettori di tale nucleo si ricavano quindi risolvendo il sistema omogeneo

    \[\begin{pmatrix} 		1&1\\1&1 		\end{pmatrix}\begin{pmatrix} 		x\\y 		\end{pmatrix}=\mathbf{0}.\]

Le due righe sono identiche e lo spazio delle soluzioni è quindi definito dall’equazione

    \[y=-x,\]

cui per x=1 corrisponde l’autovettore

    \[v_1=\left(1,-1\right).\]

Passiamo adesso al secondo autospazio:

    \[E(\lambda_2)=\operatorname{Ker}\left(M-\operatorname{Id}\right).\]

Le coordinate dei vettori di tale nucleo si ricavano quindi risolvendo il sistema omogeneo

    \[\begin{pmatrix} 		-1&1\\1&-1 		\end{pmatrix}\begin{pmatrix} 		x\\y 		\end{pmatrix}=\bf 0.\]

In questo caso le righe sono proporzionali con costante di proporzionalità -1. Lo spazio delle soluzioni è quindi definito dall’equazione

    \[y=x,\]

cui per x=1 corrisponde l’autovettore

    \[v_2=\left(1,1\right).\]

Svolgimento punto 3.

Ricaviamo il polinomio caratteristico e gli autovalori della forma:

    \[\begin{aligned} 		\det(M-\lambda\operatorname{Id})&= 		\det\begin{pmatrix} 		1-\lambda&0&3\\0&-2-\lambda&0\\3&0&1-\lambda 		\end{pmatrix}=\\ 		&=-(1-\lambda)^2(2+\lambda)+9(2+\lambda)=\\ 		&=-(\lambda+2)((1-\lambda)^2-9)=\\ 		&=-(\lambda+2)^2(\lambda-4). 		\end{aligned}\]

Gli autovalori sono quindi le radici del polinomio:

    \[\lambda_1=-2 ,\qquad \lambda_2=4,\]

con molteplicità algebriche rispettivamente \operatorname{ma}(-2)=2 e \operatorname{ma}(4)=1. La matrice diagonale associata alla forma è:

    \[D= 		\begin{pmatrix} 		-2&0&0\\0&-2&0\\0&0&4 		\end{pmatrix}.\]

Determiniamo la base diagonalizzante \mathcal{B}=\{v_1,v_2,v_3\} di autovettori.

    \[E(\lambda_1)=\operatorname{Ker}\left(M+2\operatorname{Id}\right).\]

Le coordinate dei vettori di tale nucleo si ricavano quindi risolvendo il sistema omogeneo

    \[\begin{pmatrix} 		3&0&3\\0&0&0\\3&0&3 		\end{pmatrix}\begin{pmatrix} 		x\\y\\z 		\end{pmatrix}=\mathbf{0}.\]

La prima e la terza riga sono identiche e lo spazio delle soluzioni è quindi definito dall’equazione

    \[z=-x,\]

con y arbitrario. Per cui per x=1 e y=0 corrisponde l’autovettore

    \[v_1=\left(1,0,-1\right),\]

mentre per x=0 e y=1 si ottiene l’autovettore

    \[v_2=(0,1,0).\]

Passiamo adesso al secondo autospazio:

    \[E(\lambda_2)=\operatorname{Ker}\left(M-4\operatorname{Id}\right).\]

Le coordinate dei vettori di tale nucleo si ricavano quindi risolvendo il sistema omogeneo

    \[\begin{pmatrix} 		-3&0&3\\0&-6&0\\3&0&-3 		\end{pmatrix}\begin{pmatrix} 		x\\y\\z 		\end{pmatrix}=\mathbf{0}.\]

In questo caso la prima e la terza riga sono proporzionali con costante di proporzionalità -1. Lo spazio delle soluzioni è quindi definito dall’equazione

    \[z=x, \qquad y=0,\]

cui per x=1 corrisponde l’autovettore

    \[v_3=\left(1,0,1\right).\]

Svolgimento punto 4.

Ricaviamo il polinomio caratteristico e gli autovalori della forma:

    \[\begin{aligned} 		\det(M-\lambda\operatorname{Id})= 		\det\begin{pmatrix}-\lambda&0&1\\0&-\lambda&0\\1&0&-\lambda 		\end{pmatrix}=-\lambda(\lambda^2-1). 		\end{aligned}\]

Gli autovalori sono quindi le radici del polinomio:

    \[\lambda_1=-1 ,\qquad \lambda_2=0 ,\qquad \lambda_3=1,\]

tutti di molteplicità algebrica e dunque geometrica pari ad uno. La matrice diagonale associata alla forma è quindi:

    \[D= 		\begin{pmatrix} 		-1&0&0\\0&0&0\\0&0&1 		\end{pmatrix}.\]

Ricaviamo il primo autospazio:

    \[E(\lambda_1)=\operatorname{Ker}\left(M+\operatorname{Id}\right).\]

Le coordinate dei vettori di tale nucleo si ricavano quindi risolvendo il sistema omogeneo

    \[\begin{pmatrix} 		1&0&1\\0&1&0\\1&0&1 		\end{pmatrix}\begin{pmatrix} 		x\\y\\z 		\end{pmatrix}=\mathbf{0}.\]

In questo caso la prima e la terza riga sono identiche. Lo spazio delle soluzioni è quindi definito dalla prima e dalla seconda equazione:

    \[\begin{cases} 		z=-x\\ y=0,	\end{cases}\]

cui per x=1 corrisponde l’autovettore

    \[v_1=\left(1,0,-1\right).\]

Passiamo adesso al secondo autospazio:

    \[E(\lambda_2)=\operatorname{Ker}\left(M-\operatorname{Id}\right).\]

Le coordinate dei vettori di tale nucleo si ricavano quindi risolvendo il sistema omogeneo

    \[\begin{pmatrix} 		0&0&1\\0&0&0\\1&0&0 		\end{pmatrix}\begin{pmatrix} 		x\\y\\z 		\end{pmatrix}=\mathbf{0}.\]

In questo caso la prima e la terza riga implicano che lo spazio delle soluzioni è dato per ogni y\in\mathbb{R} da

    \[y=z=0,\]

cui per y=1 corrisponde l’autovettore

    \[v_2=\left(0,1,0\right).\]

Passiamo adesso al terzo autospazio:

    \[E(\lambda_3)=\operatorname{Ker}\left(M-\operatorname{Id}\right).\]

Le coordinate dei vettori di tale nucleo si ricavano quindi risolvendo il sistema omogeneo

    \[\begin{pmatrix} 		-1&0&1\\0&-1&0\\1&0&-1 		\end{pmatrix}\begin{pmatrix} 		x\\y\\z 		\end{pmatrix}=\mathbf{0}.\]

In questo caso la prima e la terza riga sono proporzionali con costante di proporzionalità -1. Prima e seconda riga implicano quindi che lo spazio delle soluzioni è definito da

    \[\begin{cases} 		z=x\\ y=0, 		\end{cases}\]

cui per x=1 corrisponde l’autovettore

    \[v_3=\left(1,0,1\right).\]

Svolgimento punto 5.

In questo caso, essendo la seconda riga l’opposto della prima e la terza il doppio della prima, abbiamo che il rango della matrice è 1 e quindi il nucleo avrà dimensione 2, il che significa che \lambda_1=0 è autovalore con \operatorname{ma}(0)=2. A questo punto ricordiamo che la traccia della matrice è uguale alla somma dei suoi autovalori e ricaviamo che il secondo autovalore è \lambda_2=6 con molteplicità 1. La matrice diagonale associata alla forma è:

    \[D= 		\begin{pmatrix}0&0&0\\0&0&0\\0&0&6 		\end{pmatrix}.\]

Ricaviamo quindi il primo autospazio, ovvero il nucleo:

    \[E(\lambda_1)=\operatorname{Ker}(M).\]

Le coordinate dei vettori di tale nucleo si ricavano quindi risolvendo il sistema omogeneo

    \[\begin{pmatrix} 		1&-1&2\\-1&1&-2\\2&-2&4 		\end{pmatrix}\begin{pmatrix} 		x\\y\\z. 		\end{pmatrix}=\mathbf{0}.\]

Lo spazio delle soluzioni è quindi generato da

    \[x=y-2z\]

cui per y=1 e z=0 e poi per y=0 e z=1 corrispondono i due autovettori:

    \[v_1=(1,1,0) \qquad v_2=(-2,0,-2).\]

Passiamo adesso al secondo autospazio:

    \[E(\lambda_2)=\operatorname{Ker}(M-6\operatorname{Id}).\]

Le coordinate dei vettori di tale nucleo si ricavano quindi risolvendo il sistema omogeneo

    \[\begin{pmatrix} 		-5&-1&2\\-1&-5&-2\\2&-2&-2 		\end{pmatrix}\begin{pmatrix} 		x\\y\\z 		\end{pmatrix}=\mathbf{0}.\]

Il rango è 2 come ci si aspetta e per ricavare le soluzioni possiamo scegliere le ultime due equazioni, necessariamente indipendenti, e successivamente ridurre a scalini la matrice ottenendo

    \[\begin{aligned} 		&\begin{pmatrix} 		-1&-5&-2\\2&-2&-2\\0&0&0 		\end{pmatrix}\begin{pmatrix} 		x\\y\\z 		\end{pmatrix}=\begin{pmatrix} 		-1&-5&-2\\0&-12&-6\\0&0&0 		\end{pmatrix}\begin{pmatrix} 		x\\y\\z 		\end{pmatrix}=\mathbf{0} 		\end{aligned}\]

e le soluzioni si ottengono dal sistema

    \[\begin{cases} 		z=-2y\\ x=-5y-2z, 		\end{cases}\]

che per y=1 restituisce l’autovettore:

    \[v_3=(-1,1,-2).\]

Svolgimento punto 6.

Ricaviamo il polinomio caratteristico e gli autovalori della forma:

    \[\begin{aligned} 		\det(M-\lambda\operatorname{Id})&= 		\det\begin{pmatrix} 		1-\lambda&2&0\\2&1-\lambda&0\\0&0&1-\lambda 		\end{pmatrix}=\\&=(1-\lambda)((1-\lambda)^2-4)=\\ 		&=-(\lambda-1)(\lambda+1)(\lambda-3). 		\end{aligned}\]

Gli autovalori sono quindi le radici del polinomio:

    \[\lambda_1=-1 ,\qquad \lambda_2=1 ,\qquad \lambda_3=3 .\]

La matrice diagonale associata alla forma è:

    \[D= 		\begin{pmatrix} 		-1&0&0\\0&1&0\\0&0&3 		\end{pmatrix}.\]

Ricaviamo quindi il primo autospazio:

    \[E(\lambda_1)=\operatorname{Ker}(M+\operatorname{Id}).\]

Le coordinate dei vettori di tale nucleo si ricavano quindi risolvendo il sistema omogeneo

    \[\begin{pmatrix} 		2&2&0\\2&2&0\\0&0&2 		\end{pmatrix}\begin{pmatrix} 		x\\y\\z 		\end{pmatrix}=\mathbf{0}.\]

Il sistema si risolve immediatamente, infatti le prime due equazioni sono uguali e implicano

    \[x=-y,\]

mentre dalla terza si deduce

    \[z=0.\]

L’autovettore cercato si ottiene quindi scegliendo ad esempio y=1:

    \[v_1=(-1,1,0).\]

Passiamo adesso al secondo autospazio:

    \[E(\lambda_2)=\operatorname{Ker}(M-\operatorname{Id}).\]

Le coordinate dei vettori di tale nucleo si ricavano quindi risolvendo il sistema omogeneo

    \[\begin{pmatrix} 		0&2&0\\2&0&0\\0&0&0 		\end{pmatrix} 		\begin{pmatrix} 		x\\y\\z 		\end{pmatrix}=\mathbf{0}.\]

La soluzione di questo sistema si ricava agevolmente riscrivendo le equazioni nella forma

    \[x=y=0,\]

e una base dell’autospazio è quindi

    \[v_2=(0,0,1).\]

Passiamo adesso al terzo autospazio:

    \[E(\lambda_3)=\operatorname{Ker}(M-3\operatorname{Id}).\]

Le coordinate dei vettori di tale nucleo si ricavano quindi risolvendo il sistema omogeneo

    \[\begin{pmatrix} 		-2&2&0\\2&-2&0\\0&0&-2 		\end{pmatrix}\begin{pmatrix} 		x\\y\\z 		\end{pmatrix}=\mathbf{0}.\]

Anche in questo caso notiamo che le prime due righe sono l’una l’opposta dell’altra. La seconda e la terza equazione implicano quindi

    \[\begin{cases} 		x=y\\ z=0. 		\end{cases}\]

Ponendo y=1 ricaviamo l’ultimo autovettore:

    \[v_3=(1,1,0).\]

Svolgimento punto 7.

Ricaviamo il polinomio caratteristico e gli autovalori della forma:

    \[\begin{aligned} 		\det(M-\lambda\operatorname{Id})&= 		\det\begin{pmatrix} 		1-\lambda&0&1&0\\0&1-\lambda&0&0\\1&0&1-\lambda&0\\0&0&0&-\lambda 		\end{pmatrix}=\\ 		&=-\lambda((1-\lambda)^3-(1-\lambda))=\\ 		&=-\lambda(1-\lambda)((1-\lambda)^2-1)=\\ 		&=\lambda^2(\lambda-1)(\lambda-2). 		\end{aligned}\]

Gli autovalori sono quindi le radici del polinomio:

    \[\lambda_1= 0,\qquad \lambda_2= 1,\qquad \lambda_3= 2,\]

con \operatorname{ma}(\lambda_1)=2. La matrice diagonale associata alla forma è:

    \[D= 		\begin{pmatrix} 		0&0&0&0\\0&0&0&0\\0&0&1&0\\0&0&0&2		 		\end{pmatrix}.\]

Ricaviamo quindi il primo autospazio, ovvero il nucleo:

    \[E(\lambda_1)=\operatorname{Ker}(M).\]

Le coordinate dei vettori di tale nucleo si ricavano quindi risolvendo il sistema omogeneo

    \[\begin{pmatrix} 		1&0&1&0\\0&1&0&0\\1&0&1&0\\0&0&0&0 		\end{pmatrix}\begin{pmatrix} 		x\\y\\z\\w 		\end{pmatrix}=\mathbf{0}.\]

La prima e la terza equazione sono identiche, si ricava quindi agevolmente che il sistema è equivalente a:

    \[\begin{cases} 		x=-z\\ y=0. 		\end{cases}\]

Ponendo quindi z=1 e w=0 e poi z=0 e w=1 si ottengono i due autovettori

    \[v_1=(-1,0,1,0), \qquad v_2=(0,0,0,1).\]

Passiamo adesso al secondo autospazio:

    \[E(\lambda_2)=\operatorname{Ker}(M-\operatorname{Id}).\]

Le coordinate dei vettori di tale nucleo si ricavano quindi risolvendo il sistema omogeneo

    \[\begin{pmatrix} 		0&0&1&0\\0&0&0&0\\1&0&0&0\\0&0&0&-1 		\end{pmatrix}\begin{pmatrix} 		x\\y\\z\\w 		\end{pmatrix}=\mathbf{0}.\]

Anche in questo caso la soluzione si ricava agevolmente riscrivendo la prima, la terza e la quarta equazione nella forma

    \[x=z=w=0.\]

L’autospazio è quindi generato da

    \[v_3=(0,1,0,0).\]

Passiamo adesso al terzo ed ultimo autospazio:

    \[E(\lambda_3)=\operatorname{Ker}(M-2\operatorname{Id}).\]

Le coordinate dei vettori di tale nucleo si ricavano quindi risolvendo il sistema omogeneo

    \[\begin{pmatrix} 		-1&0&1&0\\0&-1&0&0\\1&0&-1&0\\0&0&0&-2 		\end{pmatrix}\begin{pmatrix} 		x\\y\\z\\w 		\end{pmatrix}=\mathbf{0}.\]

La prima e la terza equazione sono equivalenti. Quest’ultima e le altre due implicano invece:

    \[\begin{cases} 		y=w=0\\ x=z. 		\end{cases}\]

L’ultimo autovettore cercato si ottiene quindi ponendo z=1:

    \[v_4=(1,0,1,0).\]

Svolgimento punto 8.

Ricaviamo il polinomio caratteristico e gli autovalori della forma:

    \[\begin{aligned} 		\det(M-\lambda\operatorname{Id})&= 		\det\begin{pmatrix} 		1-\lambda&0&-2&0\\0&1-\lambda&0&2\\-2&0&1-\lambda&0\\0&2&0&-1-\lambda 		\end{pmatrix}=\\ 		& \\&                 =(1-\lambda)\det\begin{pmatrix} 		1-\lambda&0&2\\0&1-\lambda&0\\2&0&-1-\lambda 		\end{pmatrix}+\\& \\&\quad +(-2)\det\begin{pmatrix} 		0&1-\lambda&2\\-2&0&0\\0&2&-1-\lambda 		\end{pmatrix}=\\ 		& \\&                 =(1-\lambda)^2(\lambda^2-5)-4(\lambda^2-5)=\\ 		&=((1-\lambda)^2-4)(\lambda^2-5)=\\ 		&=(\lambda^2-5)(\lambda+1)(\lambda-3). 		\end{aligned}\]

Gli autovalori sono quindi le radici del polinomio:

    \[\lambda_1=-\sqrt{5} ,\qquad \lambda_2=-1 ,\qquad \lambda_3=\sqrt{5}, \qquad \lambda_4=3.\]

La matrice diagonale associata alla forma è:

    \[D= 		\begin{pmatrix} 		-\sqrt{5}&0&0&0\\0&-1&0&0\\0&0&\sqrt{5}&0\\0&0&0&3 		\end{pmatrix}\]

Ricaviamo quindi il primo autospazio:

    \[E(\lambda_1)=\operatorname{Ker}(M+\sqrt{5}\operatorname{Id}).\]

Le coordinate dei vettori di tale nucleo si ricavano quindi risolvendo il sistema omogeneo

    \[\begin{pmatrix} 		1+\sqrt{5}&0&-2&0\\0&1+\sqrt{5}&0&2\\-2&0&1+\sqrt{5}&0\\0&2&0&-1+\sqrt{5} 		\end{pmatrix}\begin{pmatrix} 		x\\y\\z\\w 		\end{pmatrix}=\mathbf{0}.\]

Dato che la matrice è certamente diagonalizzabile e l’autovalore ha molteplicità algebrica 1, il rango della matrice associata al sistema dovrà essere per forza 3. Le prime tre equazioni sono quindi linearmente indipendenti. Azzeriamo quindi la quarta riga e, per risolvere il sistema, sottraiamo alla terza riga la prima moltiplicata per \frac{1-\sqrt{5}}{2}

    \[\begin{pmatrix} 		1+\sqrt{5}&0&-2&0\\0&1+\sqrt{5}&0&2\\0&0&2&0\\0&0&0&0 		\end{pmatrix}\begin{pmatrix} 		x\\y\\z\\w 		\end{pmatrix}=\mathbf{0}.\]

A questo punto la prima e la terza equazione implicano

    \[x=z=0,\]

mentre dalla dalla seconda otteniamo

    \[y=\frac{\sqrt{5}-1}{2}w, \qquad\]

ed un generatore dell’autospazio in esame si ottiene ponendo w=1:

    \[v_3=\left(0,\frac{\sqrt{5}-1}{2},0,1\right).\]

Passiamo al secondo autospazio:

    \[E(\lambda_2)=\operatorname{Ker}(M+\operatorname{Id}).\]

Le coordinate dei vettori di tale nucleo si ricavano quindi risolvendo il sistema omogeneo

    \[\begin{pmatrix} 		2&0&-2&0\\0&2&0&2\\-2&0&2&0\\0&2&0&0 		\end{pmatrix}\begin{pmatrix} 		x\\y\\z\\w 		\end{pmatrix}=\mathbf{0}.\]

La prima e la terza equazione sono l’una l’opposto dell’altra. La quarta equazione e la seconda implicano

    \[y=w=0\]

e dalla prima ricaviamo

    \[x=z.\]

L’autospazio in esame è quindi generato dal vettore che otteniamo ponendo z=1:

    \[v_2=(1,0,1,0).\]

Ricaviamo il terzo autospazio:

    \[E(\lambda_3)=\operatorname{Ker}(M-\sqrt{5}\operatorname{Id}).\]

Le coordinate dei vettori di tale nucleo si ricavano quindi risolvendo il sistema omogeneo

    \[\begin{pmatrix} 	    1-\sqrt{5}&0&-2&0\\0&1-\sqrt{5}&0&2\\-2&0&1-\sqrt{5}&0\\0&2&0&-1-\sqrt{5} 	    \end{pmatrix}\begin{pmatrix} 	    x\\y\\z\\w 	    \end{pmatrix}=\mathbf{0}.\]

Per la stessa ragione discussa precedentemente, le prime tre equazioni sono linearmente indipendenti. Azzeriamo quindi la quarta riga e, per risolvere il sistema, sottraiamo alla terza riga la prima moltiplicata per \frac{1+\sqrt{5}}{2}

    \[\begin{pmatrix} 	    1-\sqrt{5}&0&-2&0\\0&1-\sqrt{5}&0&2\\0&0&2&0\\0&0&0&0 	    \end{pmatrix}\begin{pmatrix} 	    x\\y\\z\\w 	    \end{pmatrix}=\mathbf{0}.\]

A questo punto la prima e la terza equazione implicano

    \[x=z=0,\]

mentre dalla dalla seconda otteniamo

    \[y=\frac{1+\sqrt{5}}{2}w, \qquad\]

ed un generatore dell’autospazio in esame si ottiene ponendo w=1:

    \[v_3=\left(0,\frac{1+\sqrt{5}}{2},0,1\right).\]

Ricaviamo adesso il quarto e ultimo autospazio:

    \[E(\lambda_4)=\operatorname{Ker}(M-3\operatorname{Id}).\]

Le coordinate dei vettori di tale nucleo si ricavano quindi risolvendo il sistema omogeneo

    \[\begin{pmatrix} 	 	-2&0&-2&0\\0&-2&0&2\\-2&0&-2&0\\0&2&0&-4 	 	\end{pmatrix}\begin{pmatrix} 	 	x\\y\\z\\w 	 	\end{pmatrix}=\mathbf{0}.\]

La terza equazione è identica alla prima e può essere eliminata. Sommando alla quarta equazione la seconda, la matrice associata al sistema viene ridotta a scalini ottenendo

    \[\begin{pmatrix} 	 	-2&0&-2&0\\0&-2&0&2\\0&0&0&0\\0&0&0&-2 	 	\end{pmatrix}\begin{pmatrix} 	 	x\\y\\z\\w 	 	\end{pmatrix}=\mathbf{0}.\]

Da cui la soluzione si ottiene immadiatamente riscrivendo il sistema nella forma:

    \[\begin{cases} 	 	w=0\\ 	 	 y=0\\ 	 	  x=-z. 	 	\end{cases}\]

Per z=1 si ricava il generatore dell’ultimo autospazio:

    \[v_4=(-1,0,1,0).\]


 
 

Esercizio 5      (\bigstar\bigstar\bigstar\largewhitestar\largewhitestar). Si consideri al variare di k\in\mathbb{R} la forma bilineare su \mathbb{R}^4 definita da

    \[b(\textbf{x};\textbf{y})=x_1 y_1+x_4 y_4+x_3 y_1+x_1 y_3+kx_4 y_2+kx_2 y_4, \qquad \forall \textbf{x},\textbf{y}\in\mathbb{R}^4.\]

     

  1. Determinare il rango di b al variare di k \in \mathbb{R};
  2. Diagonalizzare b al variare di k \in \mathbb{R};
  3. Determinare al variare di k \in \mathbb{R} un sottospazio di dimensione massima possibile che non contiene vettori isotropi non banali.

Svolgimento punto 1.

Come nei precedenti esercizi ricaviamamo la matrice associata alla forma rispetto alla base canonica calcolando le immagini di tutte le possibili coppie di vettori, o leggendola ad occhio dai coefficienti dei polinomi.

    \[M= 			\begin{pmatrix} 			1&0&1&0\\0&0&0&k\\1&0&0&0\\0&k&0&1 			\end{pmatrix}.\]

Calcoliamone il determinante con la regola di Laplace rispetto alla seconda riga

    \[\det M=k\det\begin{pmatrix}1&0&1\\1&0&0\\0&k&0		 			\end{pmatrix}=k^2,\]

da cui deduciamo che il rango è 4 se e solo se k\neq 0. Se k=0 notiamo che prima, terza e quarta colonna sono comunque linearmente indipendenti e quindi il rango è 3.

Svolgimento punto 2.

Per diagonalizzare la forma studiamo prima di tutto il polinomio caratteristico della matrice associata

    \[\begin{aligned} 			\det(M-\lambda\operatorname{Id})&=\det\begin{pmatrix} 			1-\lambda&0&1&0\\0&-\lambda&0&k\\1&0&-\lambda&0\\0&k&0&1-\lambda 			\end{pmatrix}=\\&= 			(1-\lambda)\det\begin{pmatrix} 			-\lambda&0&k\\0&-\lambda&0\\k&0&1-\lambda 			\end{pmatrix}+\det\begin{pmatrix} 			0&1&0\\-\lambda&0&k\\k&0&1-\lambda 			\end{pmatrix}=\\&=(1-\lambda)(-\lambda)(\lambda^2-\lambda-k^2)-(\lambda^2-\lambda-k^2)=\\&= 			(\lambda^2-\lambda-k^2)(\lambda^2-\lambda-1) 			\end{aligned}\]

Le sue radici, reali e distinte per ogni valore di k\in\mathbb{R}, si ricavano agevolmente:

    \[\lambda_{1,2}=\frac{1\pm\sqrt{1+4k^2}}{2} ,\qquad\lambda_{3,4}=\frac{1\pm\sqrt{5}}{2}.\]

Una matrice diagonale, unica a meno di permutazione degli elementi diagonali, associata alla forma bilineare è quindi:

    \[D= 			\begin{pmatrix} 			\frac{1-\sqrt{1+4k^2}}{2}&0&0&0\\0&\frac{1+\sqrt{1+4k^2}}{2}&0&0\\0&0&\frac{1-\sqrt{5}}{2}&0\\0&0&0&\frac{1+\sqrt{5}}{2} 			\end{pmatrix}.\]

Svolgimento punto 3.

Se k\neq0 la forma ha segnatura (2,2,0), come si osserva da un semplice studio del segno dei suoi autovalori. Dunque uno spazio di dimensione 2 non contenente vettori isotropi non banali è generato dagli autovettori relativi ai due autovalori positivi o, alternativamente, dai due autovettori relativi gli autovalori negativi.

Infatti, chiamando v_1,v_2 i due autovettori relativi agli autovalori positivi e V il sottospazio da essi generato, se v \in V si ha

    \[v=a_1 v_1 + a_2 v_2,\]

quindi, in virtù dell’ortogonalità fra i due autospazi in esame e della positività degli autovalori abbiamo che:

    \[b(v;v)=a_1^2 \lambda_1 + a_2^2 \lambda_2 >0.\]

Un fatto analogo si verifica per autovalori negativi. Se k=0 l’autovalore \lambda_1 sia annulla e la forma ha segnatura (2,1,1). Dunque uno spazio di dimensione 2 non contenente vettori isotropi non banali è generato dagli autovettori relativi ai due autovalori positivi.

Mostriamo adesso che, per ogni k\in\mathbb{R}, 2 è la dimensione massima di un sottospazio non contenente vettori insotropi non banali.

Notiamo prima di tutto che per ogni valore del parametro esistono sempre due autovalori distinti positivi \lambda_1,\lambda_2>0: chiamiamo Y la somma diretta degli autospazi ad essi relativi e Z la somma diretta dei rimanenti autospazi relativi agli autovalori nulli o negativi. Tali spazi sono ortogonali, in quanto generati da autovettori relativi ad autovalori distinti.

Sia adesso W\subset\mathbb{R}^4 un sottospazio di dimensione \dim W=3. Dall’identità di Grassmann segue che

    \[\dim(W\cap Y)=\dim W+\dim Y-\dim(W+Y)=5-\dim(W+Y).\]

Adesso, dato che W ha dimensione 3 ed è sottospazio di \mathbb{R}^4, W+Y può essere al più di dimensione 4, qualora W+Y=\mathbb{R}^4. Da ciò segue quindi:

    \[\dim(W\cap Y)\geq 1.\]

Analogamente si prova che

    \[\dim(W\cap Z)\geq 1.\]

Dati adesso un vettore non nullo y\in W\cap Y ed un vettore non nullo z\in W\cap Z, definiamo il vettore v\in W

    \[v=z-\frac{b(z;z)}{b(y;y)}y,\]

la cui definizione è ben posta in quando, essendo y\in Y si ha che b(y;y)>0, come provato precedentemente. Sfruttando la bilinearità della forma e l’ortogonalità di y e z, dei semplici calcoli mostrano che v\in W è isotropo, concludendo la dimostrazione:

    \[b(v;v)=b(z;z)-\frac{b(z;z)}{b(y;y)}b(y;y)=b(z;z)-b(z;z)=0.\]


 
 

Esercizio 6      (\bigstar\bigstar\bigstar\largewhitestar\largewhitestar). Sia \mathcal{B}=\{e_1,e_2,e_3\} la base canonica di \mathbb{R}^3. Determinare, se esiste, una forma bilineare simmetrica su \mathbb{R}^3 tale che b(e_1;e_1)=b(e_2;e_2)=b(e_3,e_3)=1 e tale che i vettori e_1+e_2, e_1+e_3 e e_2+e_3 siano isotropi. Diagonalizzare l’eventuale forma trovata.

Svolgimento.

Calcoliamo la matrice A\in\mathcal{M}_3(\mathbb{R}) associata alla supposta forma bilineare simmetrica rispetto alla base canonica. Chiamate, come di consueto, le sue componenti a_{ij}=b(e_i;e_j)\in\mathbb{R} con i,j=1,2,3 abbiamo immediatamente che

    \[b(e_1;e_1)=b(e_2;e_2)=b(e_3,e_3)=1 \iff a_{11}=a_{22}=a_{33}=1.\]

La condizione che e_1+e_2 sia isotropo è equivalente a

    \[\begin{aligned} 0=b(e_1+e_2;e_1+e_2)&=b(e_1;e_1)+b(e_2;e_2)+b(e_1;e_2)+b(e_2;e_1)=\\ &=b(e_1;e_1)+b(e_2;e_2)+2b(e_1;e_2)=\\ &=2+2 b(e_1;e_2)=2+2a_{12}. \end{aligned}\]

dove la prima uguaglianza segue dalla bilinearità, la seconda dalla simmetria della forma e la terza dalla relazione b(e_1;e_1)=b(e_2;e_2)=1. Quindi tenendo conto delle precedente identità e della simmetria troviamo che

    \[a_{12}=a_{21}=-1.\]

Applicando le stesse considerazioni ai vettori isotropi e_1+e_3 e e_2+e_3 ricaviamo

    \[a_{13}=a_{31}=a_{23}=a_{32}=-1.\]

La matrice associata a tale forma rispetto alla base canonica risulta essere

    \[A=\begin{pmatrix} 1&-1&-1\\-1&1&-1\\-1&-1&1 \end{pmatrix}.\]

Per diagonalizzare la forma bilineare è sufficiente ricavarne gli autovalori, essendo la diagonalizzabilità garantita dalla simmetria.

Essendo la somma delle componenti di ogni riga uguale a -1 deduciamo che la matrice ammette (1,1,1) come autovettore relativo a \lambda_1=-1, come può essere agevolmente ricavato dal lettore tramite un calcolo esplicito. Ricordando inoltre che la traccia ed il determinante di una matrice sono rispettivamente somma e prodotto degli autovalori \lambda_1=-1,\lambda_2 e \lambda_3, otteniamo

    \[\begin{cases} \operatorname{Tr}A&=-1+\lambda_2+\lambda_3\\ \det A&=-\lambda_2\cdot\lambda_3. \end{cases}\]

Abbiamo che \operatorname{Tr}(A)=a_{11}+a_{22}+a_{33}=1+1+1=3, mentre

    \[\det A=\det \begin{pmatrix} 1&-1&-1\\-1&1&-1\\-1&-1&1 \end{pmatrix}= \det \begin{pmatrix} 0&0&-2\\-1&1&-1\\-1&-1&1 \end{pmatrix}=-4,\]

ove nel primo passaggio la prima riga è stata sostiuita dalla somma fra la prima e la seconda, mentre successivamente si è sfruttata la regola di Laplace sviluppando secondo la prima riga. Quindi

    \[\begin{cases} \lambda_2+\lambda_3&=4\\ -\lambda_2\cdot\lambda_3&=-4, \end{cases}\]

da cui segue facilmente \lambda_2=\lambda_3=2. In alternativa è possibile determinare tali autovalori dal solito studio delle radici del polinomio caratteristico. Una possibile matrice diagonale associata alla forma bilineare in esame è quindi

    \[D=\begin{pmatrix} -1&0&0\\0&2&0\\0&0&2 \end{pmatrix}.\]


 
 

Esercizio 7      (\bigstar\bigstar\bigstar\largewhitestar\largewhitestar). Determinare il sottospazio W^{\bot}\subset \mathbb{R}^4 ortogonale al sottospazio W\subset\mathbb{R}^4 rispetto alla forma bilineare b associata alla matrice

    \[A=\begin{pmatrix} 			0&1&-1&0\\1&0&0&0\\-1&0&0&0\\0&0&0&0 			\end{pmatrix}\]

per le seguenti scelte del sottospazio W.

  1. W = \mathcal{L}((1,2,0,1), (1,0,0,-1), (0,0,0,1)).
  2. W = \mathcal{L}((1,0,0,1), (0,0,0,-3)).
  3. W = \mathcal{L}((0,2,1,0), (0,-1,-1,0)).
  4. W = \mathbb{R}^4.
  5. W = \mathcal{L}((0,0,0,5)).
  6. W = \mathcal{L}((0,0,7,0)).

Svolgimento punto 1.

La bilinearità di b implica che (x,y,z,w)\in W^{\bot} se e solo se è ortogonale ad un sistema di generatori di W. Imponendo la condizione di ortogonalità rispetto ai generatori di W otteniamo:

    \[\begin{aligned} 		\begin{pmatrix} 		1&2&0&1 		\end{pmatrix}A&\begin{pmatrix}x\\y\\z\\w 		\end{pmatrix}=\begin{pmatrix} 		1&2&0&1 		\end{pmatrix}\begin{pmatrix}y-z\\x\\-x\\0 		\end{pmatrix}=y-z+2x=0;\\[4pt] 		\begin{pmatrix} 		1&0&0&-1 		\end{pmatrix}A&\begin{pmatrix}x\\y\\z\\w 		\end{pmatrix}=\begin{pmatrix} 		1&0&0&-1 		\end{pmatrix}\begin{pmatrix}y-z\\x\\-x\\0 		\end{pmatrix}=y-z=0;\\[4pt] 		\begin{pmatrix} 		0&0&0&1 		\end{pmatrix}A&\begin{pmatrix}x\\y\\z\\w 		\end{pmatrix}=\begin{pmatrix} 		0&0&0&1 		\end{pmatrix}\begin{pmatrix}y-z\\x\\-x\\0 		\end{pmatrix}=0. 		\end{aligned}\]

Il sottospazio risulta quindi descritto come soluzione del seguente sistema omogeneo di equazioni indipendenti

    \[\begin{cases} 			y-z+2x=0\\ 			y-z=0, 		\end{cases}\]

la cui soluzione si ricava immediatamente sostituendo la seconda equazione nella prima:

    \[\begin{cases} 		x=0\\ y=z. 		\end{cases}\]

W^{\bot}, essendo definito come sottosazio di \mathbb{R}^4 da due equazioni indipendenti, ha quindi dimensione 4-2=2. Una base si ottiene, ad esempio, ponendo y=1 e w=0 per il primo vettore e, viceversa, y=0 e w=1 per il secondo:

    \[W^{\bot}=\mathcal{L}((0,1,1,0),(0,0,0,1)).\]

Svolgimento punto 2.

Sia (x,y,z,w)\in W^{\bot}; allora imponendo la condizione di ortogonalità rispetto ai generatori di W otteniamo:

    \[\begin{aligned} 		\begin{pmatrix} 		1&0&0&1 		\end{pmatrix}A&\begin{pmatrix}x\\y\\z\\w 		\end{pmatrix}=\begin{pmatrix} 		1&0&0&1 		\end{pmatrix}\begin{pmatrix}y-z\\x\\-x\\0 		\end{pmatrix}=y-z=0;\\[4pt] 		\begin{pmatrix} 		0&0&0&-3 		\end{pmatrix}A&\begin{pmatrix}x\\y\\z\\w 		\end{pmatrix}=\begin{pmatrix} 		0&0&0&-3 		\end{pmatrix}\begin{pmatrix}y-z\\x\\-x\\0 		\end{pmatrix}=0. 		\end{aligned}\]

La soluzione è quindi descritta dalla singola equazione

    \[y=z.\]

Una base di W^{\bot} si ottiene, ad esempio, ponendo x=1 e y=w=0 per il primo vettore, z=1 e x=w=0 per il secondo vettore e, infine, w=1 e x=y=0 per il terzo:

    \[W^{\bot}=\mathcal{L}((1,0,0,0),(0,1,1,0),(0,0,0,1)).\]

Svolgimento punto 3.

Sia (x,y,z,w)\in W^{\bot}; allora imponendo la condizione di ortogonalità rispetto ai generatori di W otteniamo:

    \[\begin{aligned} 		\begin{pmatrix} 		0&2&1&0 		\end{pmatrix}A&\begin{pmatrix}x\\y\\z\\w 		\end{pmatrix}=\begin{pmatrix} 		0&2&1&0 		\end{pmatrix}\begin{pmatrix}y-z\\x\\-x\\0 		\end{pmatrix}=2x-x=0;\\[4pt] 		\begin{pmatrix} 		0&-1&-1&0 		\end{pmatrix}A&\begin{pmatrix}x\\y\\z\\w 		\end{pmatrix}=\begin{pmatrix} 		0&-1&-1&0 		\end{pmatrix}\begin{pmatrix}y-z\\x\\-x\\0 		\end{pmatrix}=0. 		\end{aligned}\]

La soluzione è quindi descritta dalla singola equazione

    \[x=0.\]

Una base di W^{\bot} si ottiene, ad esempio, ponendo y=1 e z=w=0 per il primo vettore, z=1 e y=w=0 per il secondo vettore e, infine, w=1 e y=z=0 per il terzo:

    \[W^{\bot}=\mathcal{L}((0,1,0,0),(0,0,1,0),(0,0,0,1)).\]

Svolgimento punto 4.

Lo spazio ortogonale a tutto \mathbb{R}^4 è il nucleo dell’applicazione \operatorname{Ker}(b) che può essere determinato risolvendo il sistema omogeneo

    \[A\begin{pmatrix} 		x\\y\\z\\w 		\end{pmatrix}=\begin{pmatrix}y-z\\x\\-x\\0 		\end{pmatrix}=\bf 0,\]

questo poiché

    \[b(v;(x,y,z,w))= v^\top A \begin{pmatrix}x\\y\\z\\w 		\end{pmatrix} = 		v^\top\begin{pmatrix}y-z\\x\\-x\\0 		\end{pmatrix}.\]

Tale prodotto scalare è nullo per ogni scelta di v se e solo se

    \[(y-z,x,-x,0)=\bf 0.\]

Risolviamo quindi la coppia di equazioni indipendenti

    \[\begin{cases} 		x=0\\ y=z. 		\end{cases}\]

Una base può essere determinata ponendo prima w=1 e z=0 e poi w=0 e z=1:

    \[W^{\bot}=\mathcal{L}((0,1,-1,0),(0,0,0,1)).\]

Svolgimento punto 5.

Essendo il vettore che genera W nel nucleo dell’applicazione, qualunque vettore sarà ad esso ortogonale e quindi

    \[W^{\bot}=\mathbb{R}^4.\]

Svolgimento punto 6.

Sia (x,y,z,w)\in W^{\bot}; imponiamo come nei punti precedenti

    \[\begin{pmatrix} 		0&0&7&0 		\end{pmatrix}A\begin{pmatrix}x\\y\\z\\w 		\end{pmatrix}=\begin{pmatrix} 		0&0&7&0 		\end{pmatrix}\begin{pmatrix}y-z\\x\\-x\\0 		\end{pmatrix}=-7x=0.\]

Si ricava immediatamente quindi che

    \[W^{\bot}=\mathcal{L}((0,1,0,0),(0,0,1,0),(0,0,0,1)).\]


 
 

Esercizio 8      (\bigstar\bigstar\bigstar\largewhitestar\largewhitestar). Stabilire per quali valori di a,b,c\in\mathbb{R} i due sottospazi

    \[U=\{(x,y,z)\in\mathbb{R}^3\colon x-2y+z=0\} 		,\]

    \[W=\{(x,y,z)\in\mathbb{R}^3\colon 2x-z=0\}\]

sono ortogonali rispetto alla forma bilineare di \mathbb{R}^3 definita da:

    \[b((x,y,z);(x',y',z'))=3xx'+a(xy'+x'y)+b(xz'+zx')+4yy'-2(yz'+zy')+czz'.\]

Svolgimento.

Notiamo prima di tutto che la matrice associata alla forma rispetto alla base canonica di \mathbb{R}^3 è la matrice simmetrica

    \[M=\begin{pmatrix} 3&a&b\\a&4&-2\\b&-2&c \end{pmatrix}.\]

Individuiamo adesso una base per ciascuno dei due sottospazi di \mathbb{R}^3 in esame. Essendo l’equazione che definisce lo spazio una sola, esso avra dimensione 3-1=2. Ponendo y=0 e z=1 per il primo vettore e poi y=1 e z=0 per il secondo, se ne ricava una base:

    \[U=\mathcal{L}((1,0,-1),(2,1,0)).\]

Per il sottospazio W vale invece z=2x senza alcun vincolo sulla componente y, quindi la base di W si trova ponendo x=1 e y=0 in un caso e ponendo x=0 e y=1 nel caso successivo:

    \[W=\mathcal{L}((1,0,2),(0,1,0)).\]

I due spazi sono ortogonali se e solo se i vettori delle rispettive basi sono a due a due ortogonali. Imponiamo quindi tale condizione

    \[\begin{aligned} 0&=b((1,0,-1);(1,0,2))=\begin{pmatrix} 1&0&-1 \end{pmatrix} \begin{pmatrix} 3&a&b\\a&4&-2\\b&-2&c \end{pmatrix} \begin{pmatrix} 1\\0\\2 \end{pmatrix}= \\& =\begin{pmatrix} 1&0&-1 \end{pmatrix}\begin{pmatrix} 3+2b\\a-4\\b+2c \end{pmatrix}=3+b-2c, \\[6pt] 0&=b((1,0,-1);(0,1,0))= \begin{pmatrix} 1&0&-1 \end{pmatrix} \begin{pmatrix} 3&a&b\\a&4&-2\\b&-2&c \end{pmatrix} \begin{pmatrix} 0\\1\\0 \end{pmatrix}= \\& =\begin{pmatrix} 1&0&-1 \end{pmatrix} \begin{pmatrix} a\\4\\-2 \end{pmatrix}=a+2, \\[6pt] 0&=b((2,1,0);(1,0,2))= \begin{pmatrix} 2&1&0 \end{pmatrix} \begin{pmatrix} 3&a&b\\a&4&-2\\b&-2&c \end{pmatrix} \begin{pmatrix} 1\\0\\2 \end{pmatrix}= \\& =\begin{pmatrix} 2&1&0 \end{pmatrix} \begin{pmatrix} 3+2b\\a-4\\b+2c \end{pmatrix}=2+4b+a=0, \\[6pt] 0&=b((2,1,0);(0,1,0))= \begin{pmatrix} 2&1&0 \end{pmatrix} \begin{pmatrix} 3&a&b\\a&4&-2\\b&-2&c \end{pmatrix} \begin{pmatrix} 0\\1\\0 \end{pmatrix} = \\& =\begin{pmatrix} 2&1&0 \end{pmatrix} \begin{pmatrix} a\\4\\-2 \end{pmatrix}=2a+4. \end{aligned}\]

Il sistema specificato dalle quattro equazioni di sopra risulta compatibile e si ricava coerentemente dalla seconda e dalla quarta equazione che a=-2; sostituendo tale valore nella terza equazione ricaviamo b=0 ed infine, dalla prima equazione, che c=\frac{3}{2}.


 
 

Esercizio 9      (\bigstar\bigstar\largewhitestar\largewhitestar\largewhitestar). Una forma bilineare b\colon\mathbb{R}^3\times\mathbb{R}^3\to\mathbb{R} ha associata, rispetto alla base \mathcal{B}=\{(1,0,1),(1,-1,1),(1,-1,0)\}, la matrice

    \[M=\begin{pmatrix} 		1&-2&1\\1&-1&1\\1&-4&-1 			\end{pmatrix}	.\]

  1. Calcolare le immagini delle seguenti coppie di vettori, dei quali formiamo le componenti nella base canonica di \mathbb{R}^3: b((1,-1,1);(2,7,-2)), b((1,1,1);(1,1,1)).
  2. Calcolare b((x,y,z);(x',y',z')) per due generici vettori di \mathbb{R}^3 aventi componenti nella base canonica date da (x,y,z) e (x',y',z') \in \mathbb{R}^3.

Svolgimento punto 1.

Per trovare le immagini delle coppie di vettori assegnate, determiniamo prima la matrice associata alla forma rispetto alla base canonica. Abbiamo bisogno di ricavare la matrice di passaggio P dalla base canonica alla base \mathcal{B}. Notiamo prima di tutto che la sua inversa P^{-1}, matrice di passaggio dalla base \mathcal{B} alla base canonica, ha per colonne le componenti dei vettori della base \mathcal{B} nella base canonica, quindi:

    \[P^{-1}=\begin{pmatrix} 1&1&1\\0&-1&-1\\1&1&0 \end{pmatrix}.\]

Invertendo P con l’algoritmo preferito si ricava

    \[P=\begin{pmatrix} 1&1&0\\-1&-1&1\\1&0&-1 \end{pmatrix}.\]

Calcoliamone la matrice trasposta

    \[P^{\top}=\begin{pmatrix} 1&-1&1\\1&-1&0\\0&1&-1  \end{pmatrix}.\]

La matrice associata alla forma rispetto alla base canonica è quindi

    \[\begin{aligned} N=P^{\top}MP&=\begin{pmatrix} 1&-1&1\\1&-1&0\\0&1&-1 \end{pmatrix}\begin{pmatrix} 1&-2&1\\1&-1&1\\1&-4&-1 \end{pmatrix}\begin{pmatrix} 1&1&0\\-1&-1&1\\1&0&-1 \end{pmatrix}=\\&=\begin{pmatrix} 5&6&-4\\1&1&-1\\-1&-3&1 \end{pmatrix}. \end{aligned}\]

Si calcolano quindi agevolmente

    \[b((1,-1,1);(2,7,-2))=\begin{pmatrix} 1&-1&1 \end{pmatrix}\begin{pmatrix} 5&6&-4\\1&1&-1\\-1&-3&1 \end{pmatrix}\begin{pmatrix} 2\\7\\-2 \end{pmatrix}=24\]

e

    \[b((1,1,1);(1,1,1))=\begin{pmatrix} 1&1&1 \end{pmatrix}\begin{pmatrix} 5&6&-4\\1&1&-1\\-1&-3&1 \end{pmatrix}\begin{pmatrix} 1\\1\\1 \end{pmatrix}=5.\]

Svolgimento punto 2.

Allo stesso modo per due generici vettori otteniamo

    \[\begin{aligned} b((x,y,z);(x',y',z'))&=\begin{pmatrix} x&y&z \end{pmatrix}\begin{pmatrix} 5&6&-4\\1&1&-1\\-1&-3&1 \end{pmatrix}\begin{pmatrix} x'\\y'\\z' \end{pmatrix}= \\&=5xx'+yx'-zx'+6xy'+ \\& +yy'-3zy'-4xz'-yz'+zz'. \end{aligned}\]


 
 

Esercizio 10      (\bigstar\bigstar\bigstar\largewhitestar\largewhitestar). Su \mathbb{R}^4 è data la forma bilineare avente associata rispetto alla base canonica la matrice

    \[M=\begin{pmatrix} 		2&-1&1&1\\-1&0&-1&-1\\1&-1&0&h\\1&-1&h&0 		\end{pmatrix}\]

al variare di h\in\mathbb{R}. Determinare una base dei sottospazi U^{\bot} e W^{\bot} ortogonali rispettivamente a

    \[U=\mathcal{L}((1,0,-1,0),(0,0,1,1)) 				\quad \text{e}\quad 		W=\mathcal{L}((1,0,1,0),(0,1,0,1)) 		.\]

Svolgimento punto 1.

Abbiamo che (x,y,z,t)\in U^{\bot} se e solo se è ortogonale a entrambi i generatori di U, quindi

    \[\begin{aligned} \begin{pmatrix} x&y&z&t \end{pmatrix} \begin{pmatrix} 2&-1&1&1\\-1&0&-1&-1\\1&-1&0&h\\1&-1&h&0 \end{pmatrix} \begin{pmatrix} 1\\0\\-1\\0 \end{pmatrix}&= \begin{pmatrix} x&y&z&t \end{pmatrix} \begin{pmatrix} 1\\0\\1\\1-h \end{pmatrix}= \\& =x+z+t(1-h)=0, \\ \\ \begin{pmatrix} x&y&z&t \end{pmatrix} \begin{pmatrix} 2&-1&1&1\\-1&0&-1&-1\\1&-1&0&h\\1&-1&h&0 \end{pmatrix} \begin{pmatrix} 0\\0\\1\\1 \end{pmatrix}&= \begin{pmatrix} x&y&z&t \end{pmatrix} \begin{pmatrix} 2\\-2\\h\\h \end{pmatrix}= \\& =2x-2y+hz+ht=0. \end{aligned} \\\]

Le componenti di un generico vettore in U^{\bot} sono quindi soluzioni del sistema omogeneo

    \[\begin{pmatrix} 1&0&1&1-h\\2&-2&h&h \end{pmatrix} \begin{pmatrix} x\\y\\z\\t \end{pmatrix}=\bf 0.\]

La matrice associata al sistema ha rango due per ogni valore di h\in\mathbb{R}, come si può dedurre osservando che il minore corrispondente alla sottomatrice formata dalle prime due colonne è chiaramente non nullo. Da ciò consegue che \dim U^{\bot}=2. Sottraendo alla seconda riga il doppio della prima otteniamo

    \[\begin{pmatrix} 1&0&1&1-h\\0&-2&h+2&3h-2 \end{pmatrix} \begin{pmatrix} x\\y\\z\\t \end{pmatrix}=0 \iff  \begin{cases} x=z-(1-h)t\\ y=\frac{h+2}{2}z+\frac{3h-2}{2}t.\\ \end{cases}\]

Una base dello spazio delle soluzioni è quindi

    \[\mathcal{B}_{U^{\bot}}=\left\{\left(1,\frac{h+2}{2},1,0\right),\left(h-1,\frac{3h-2}{2},0,1\right)\right\}.\]

Svolgimento punto 2.

Abbiamo che (x,y,z,t)\in W^{\bot} se e solo se è ortogonale a entrambi i generatori di W, quindi

    \[\begin{aligned} \begin{pmatrix} x&y&z&t \end{pmatrix} \begin{pmatrix} 2&-1&1&1\\-1&0&-1&-1\\1&-1&0&h\\1&-1&h&0 \end{pmatrix} \begin{pmatrix} 1\\0\\1\\0 \end{pmatrix}&= \begin{pmatrix} x&y&z&t \end{pmatrix} \begin{pmatrix} 3\\-2\\1\\1+h \end{pmatrix}= \\& =3x-2y+z+(1+h)t=0, \\ \\ \begin{pmatrix} x&y&z&t \end{pmatrix} \begin{pmatrix} 2&-1&1&1\\-1&0&-1&-1\\1&-1&0&h\\1&-1&h&0 \end{pmatrix} \begin{pmatrix} 0\\1\\0\\1 \end{pmatrix}&= \begin{pmatrix} x&y&z&t \end{pmatrix} \begin{pmatrix} 0\\-1\\-1+h\\-1 \end{pmatrix}= \\& =-y+(h-1)z-t=0. \end{aligned}\]

Le componenti di un generico vettore in W^{\bot} sono quindi soluzioni del sistema omogeneo

    \[\begin{pmatrix} 3&-2&1&1+h\\0&-1&h-1&-1 \end{pmatrix} \begin{pmatrix} x\\y\\z\\t \end{pmatrix}=\mathbf{0}.\]

La matrice associata al sistema ha rango due per ogni valore di h\in\mathbb{R}, come si può dedurre osservando che il minore corrispondente alla sottomatrice formata dalle prime due colonne è chiaramente non nullo. Da ciò consegue che \dim W^{\bot}=2. La matrice associata è già a scalini e si ricava immediatamente che le soluzioni sono

    \[\begin{cases} x=\dfrac{(2h-3)z-(3+h)t}{3}\\ y=(h-1)z-t. \end{cases}\]

Una base di tale sottospazio si ottiene quindi ponendo prima z=1 e t=0 e poi z=0 e t=1

    \[\mathcal{B}_{W^{\bot}}=\left\{\left(\frac{2h-3}{3},h-1,1,0\right),\left(-\frac{3+h}{3},-1,0,1\right)\right\}.\]


 
 

Riferimenti bibliografici degli esercizi sulle forme bilineari

[1] S. Lang. Linear Algebra. Third edition. Springer, 1987.

[2] M. Bramanti, C. D. Pagani, S. Salsa. Matematica – Calcolo infinitesimale e algebra lineare. Seconda edizione. Zanichelli, 2004.

[3] F. Bottacin. Algebra lineare e geometria. Seconda edizione. Esculapio, 2016.

[4] Qui Si Risolve. Problemi risolti su endomorfismi e diagonalizzazione.

[5] M. Stoka. Corso di Geometria. Terza edizione. CEDAM, 1995.

 

Scarica gli esercizi svolti

Ottieni il documento contenente 10 esercizi risolti, contenuti in 34 pagine ricche di dettagli, per migliorare la tua comprensione delle forme bilineari.

 
 

Ulteriori esercizi di geometria

In questa sezione vengono raccolti molti altri esercizi che coprono tutti gli argomenti di geometria proposti all’interno del sito con lo scopo di offrire al lettore la possibilità di approfondire e rinforzare le proprie competenze inerenti a tali argomenti.

Strutture algebriche.





 

Risorse didattiche aggiuntive per approfondire la matematica

Leggi...

Math Stack Exchange – Parte della rete Stack Exchange, questo sito è un forum di domande e risposte specificamente dedicato alla matematica. È una delle piattaforme più popolari per discutere e risolvere problemi matematici di vario livello, dall’elementare all’avanzato.






Document