Programma di massima del corso:
          Logica e algebra: Teoria elementare
            degli insiemi. Funzioni astratte tra insiemi e proprietà.
            Principio di Induzione. Gruppi astratti. Anelli di
            polinomi.  
           Algebra lineare: Matrici.
            Determinanti. Rango. Sistemi lineari. Spazi vettoriali.
            Applicazioni lineari. Autovalori e autovettori. 
            Diagonalizzazione. Forme bilineari e quadratiche. Prodotto
            scalare. Prodotto vettoriale. Operatori
            simmetrici. Teorema spettrale.  
          Geometria: Geometria affine del piano e dello
            spazio. Geometria euclidea del piano e dello spazio. Coniche
            affini ed euclidee. Quadriche euclidee. Geometria proiettiva
            del piano. Coniche proiettive. Curve algebriche
            piane affini e proiettive. 
          
          Programmi dettagliati: 
            Programma
              2016/17                    
          Programma
                  2015/16               
                Programma
                  2014/15            
              
                
                          
           
                Anni Accademici precedenti:   
          Pagina
                  del corso 2014/15                   
            Pagina
              del corso 2015/16
          
          
          Modalità d'esame: 
           L'esame comprende una prova scritta, un
                colloquio orale e una prova pratica, tutti obbligatori.
                
              
          
            - La prova scritta consiste in
                    cinque esercizi, più un eventuale esercizio
                    facoltativo. Il primo esercizio è suddiviso in due
                    parti: l'esercizio 1A comprende due domande a
                    risposta secca (2pt risp. esatta, 0 pt risp. non
                    data, -1pt risp. errata), l'esercizio 1B consta di
                    12 vero-falso (0,5pt risp. esatta, 0 pt risp. non
                    data, -0,25pt risp. errata). Il punteggio del primo
                    esercizio va da -5pt. a 10pt. Gli esercizi 2,3,4, e
                    5 valgono da 0 a 6 punti ciascuno e possono
                    contenere quesiti pratici o teorici. Il sesto
                    esercizio facoltativo conferisce bonus. Il punteggio
                    finale della prova scritta va da -5/34 a 34/34. La
                    prova scritta si intende superata se la somma dei
                    punteggi dei cinque esercizi (con l'eventuale bonus)
                    è maggiore di 18. 
                   
            - Superata la prova scritta, si ha
                    accesso alla prova orale.
              Essa consiste di un colloquio su argomenti inerenti
                al corso (discusione della prova scritta, dimostrazione
                e applicazione di enunciati studiati a lezione,
                svolgimento di esercizi) al termine della quale si
                stabilisce l'esito finale dell'esame.
 
            - La prova pratica consiste nella
                presentazione di (almeno) un modello di quadriche
                rigate. 
               
          
          Durante la prova scritta non è consentito
                l'uso di alcun supporto elettronico (pc, tablet,
                cellulari, orologi digitali, calcolatrici, etc.) o
                cartaceo (libri, appunti, dispense, etc.). È possibile
                utilizzare la tabella di classificazione delle quadriche
                fornita dal docente. La prova scritta di Gennaio dà la
                possibilità di sostenere la prova orale esclusivamente a
                Gennaio o a Febbraio. La prova scritta di Giugno dà la
                possibilità di sostenere la prova orale esclusivamente a
                Giugno o a Luglio. Eccezionalmente
                e a discrezione del docente, potranno essere ammesse con
                riserva all'orale prove scritte quasi sufficienti
                (<18). Un esito
                finale negativo annulla ogni prova, scritta o orale, già
                sostenuta. La
                votazione finale non potrà essere in ogni caso inferiore
                a 18 né superiore a 30 e lode. 
               
           
            Tracce d'esame:
              
          
             
           Libro di testo adottato e materiale didattico
                consigliato:
           
          
            
          
          Valutazioni del corso da parte degli
                  studenti:   Frequentanti   
                  Non
                    frequentanti
                  
                  
                DIARIO DELLE LEZIONI:
           
           LEZIONE 1
               Argomenti:
                Presentazione del corso.
          L'insieme \(\mathcal{M}_{m,n}(\mathbb{R})\) delle matrici di
          tipo \(m\times n\) a coefficienti reali. Notazioni e
          nomenclatura.Vettori riga e vettori colonna. Matrice nulla.
          L'insieme \(\mathcal{M}_{n}(\mathbb{R})\) delle matrici
          quadrate di ordine \(n\) a coefficienti reali. Matrici
          diagonali. Matrice identica di ordine \(n\). Trasposta di una
          matrice. Matrici triangolari superiori ed inferiori. Principio
          di identità tra matrici.
          
          
LEZIONE 2
            Argomenti: Somma di matrici dello stesso tipo.
            L'addizione tra matrici è associativa e commutativa, la
            matrice nulla è l'elemento neutro rispetto alla somma, ogni
            matrice ha la sua matrice opposta. Moltiplicazione di un
            numero reale per una matrice: proprietà fondamentali.
            L'operazione di trasposizione conserva la somma tra matrici
            e il prodottto di un numero reale con una matrice. Matrici
            simmetriche ed antisimmetriche: proprietà. L'unica matrice
            sia simmetrica che antisimmetrica è la matrice nulla.
          
          LEZIONE 3
                Argomenti: Teorema di decomposizione
          unica in parte simmetrica ed antisimmetrica: ogni matrice
          quadrata può essere scritta in maniera unica come somma di una
          matrice simmetrica ed una antisimmetrica. Prodotto di un
          vettore riga per un vettore colonna. Prodotto riga per colonna
          di matrici. In generale il prodotto riga per colonna non è
          commutativo. Proprietà del prodotto riga per colonna. Prese
          due matrici \(A\in M_{m,n}(\mathbb{R})\) e \(B\in
          M_{n,p}(\mathbb{R})\), allora \((AB)^T=B^TA^T\). La matrice
          identica è l'elemento neutro del prodotto. 
          
          
LEZIONE 4
            Argomenti: Esercitazione: calcolo matriciale. Il
          principio di induzione matematica. Formula di 
Gauss
          e formula di 
Fermat.
          L'insieme \(\mathbb{R}^n\) delle \(n\)-uple ordinate di numeri
          reali. Combinazioni lineari di vettori riga e vettori
          colonna.Vettori linearmente dipendenti e linearmente
          indipendenti. 
          
Esercizi
            foglio 1: Calcolo matriciale
          
          LEZIONE 5
                Argomenti: Esercitazione: calcolo matriciale.
              
              LEZIONE 6
                Argomenti: Vettori linearmente dipendenti e
              linearmente indipendenti. Un vettore riga (o colonna) è
              linearmente dipendente se e solo se è nullo. Due vettori
              riga (o colonna) sono linearmente dipendenti se e solo se
              uno dei due è multiplo dell'altro. Se in un insieme di
              vettori riga (o colonna) uno di essi è il vettore nullo,
              allora i vettori sono linearmente dipendenti. Se in un
              insieme di vettori riga (o colonna) due di essi sono
              uguali, allora i vettori sono linearmente dipendenti. Dei
              vettori (riga o colonna) sono linearmente dipendenti se e
              solo se uno di essi può essere scritto come combinazione
              lineare degli altri. Determinanti di matrici quadrati di
              ordine \(1\) e \(2\).  Sottomatrici complementari.
              Complementi algebrici. Determinanti. Sviluppo del
              determinante rispetto alla prima riga. Teorema di Laplace:
              il determinante di una matrice può essere calcolato
              sviluppandolo rispetto ad una qualsiasi riga o una
              qualsiasi colonna.
              Esercizi
                foglio 2: Algebra lineare in \(\mathbb{R}^n\)
              
              LEZIONE 7
                Argomenti: Regola di Sarrus.
              Proprietà dei determinanti: \(\textrm{det}(0_n)=0\), 
              \(\textrm{det}(I_n)=1\) e
              \(\textrm{det}(A^T)=\textrm{det}(A)\). Se una matrice ha
              una riga (o una colonna) nulla, il suo determinante è
              zero. Il determinante di una matrice triangolare è il
              prodotto degli elementi diagonali. Il determinante di una
              matrice diagonale è il prodotto degli elementi diagonali.
              Se in una matrice si moltiplica una riga (o una colonna)
              per uno scalare, il determinante della matrice resta
              moltiplicato per lo stesso scalare. Il determinante è
              lineare per righe (o per colonne). Scambiando due righe (o
              due colonne) in una matrice, il determinante cambia segno.
              Se una matrice ha due righe uguali (o due colonne uguali),
              il suo determinante è nullo. Se una matrice ha due righe
              (o due colonne) proporzionali, il suo determinante è
              nullo. Sommando ad una riga (o una colonna) di una matrice
              una combinazione lineare delle rimanenti, il determinante
              non cambia. Se in una matrice le righe (o le colonne) sono
              linearmente dipendenti, il determinante è nullo. Teorema
              di Binet: prese \(A\) e \(B\) due matrici quadrate dello
              stesso ordine, allora \(\textrm{det}(AB)=\textrm{det}A \
              \textrm{det}B\). Il determinante non si distribuisce
              rispetto alla somma di matrici.
              Esercizi foglio
                3: Determinanti
              
              LEZIONE 8 
                Argomenti: Matrici quadrate invertibili. Prese due
              matrici invertibili \(A\) e \(B\), anche la matrice \(AB\)
              è invertibile e si ha che \((AB)^{-1}=B^{-1}A^{-1}\). Il
              gruppo lineare reale di ordine \(n\) delle matrici
              invertibili, \(GL_n(\mathbb{R})\). Teorema di Laplace per
              la matrice inversa: una matrice è invertibile se e solo se
              ha determinante diverso da zero. In particolare, l'inversa
              di una matrice è data da
              \(A^{-1}=\frac{1}{\textrm{det}A}(A^*)^T\), dove \(A^*\) è
              la matrice che ha per entrate, ordinatamente, i
              complementi algebrici degli elementi della matrice \(A\).
              Esempi di calcolo di matrici inverse. Sottomatrici e
              minori di una matrice. Rango di una matrice. Una matrice
              ha rango zero se e solo se è la matrice nulla. Se \(A\in
              M_{m,n}(\mathbb{R})\), allora
              \(\textrm{rk}A\leqslant\min\{m,\,n\}\) e se vale
              l'uguaglianza si dice che \(A\) ha rango massimo. Una
              matrice quadrata ha rango massimo se e solo se è
              invertibile. Il rango di una matrice \(A\) vale \(r\) se e
              solo se la matrice contiene un minore non nullo di ordine
              \(r\) e tutti i monori di \(A\) di ordine \(r+1\) sono
              nulli. 
              Esercizi
                foglio 4: Matrice inversa
              
              LEZIONE 9
                Argomenti: Minori orlati. Teorema di Kronecker:
              il rango di una matrice vale \(r\) se e solo se la matrice
              contiene un minore non nullo di ordine \(r\) e tutti i
              suoi orlati di ordine \(r+1\) sono nulli. Equazioni
              lineari in una o più incognite. Soluzione di un'equazione
              lineare. Sistemi lineari di tipo \(m\times n\) a
              coefficienti reali (con \(m\) equazioni ed \(n\)
              incognite). Soluzione di un sistema lineare. Sistemi
              compatibili, determinati, indeterminati, impossibili (o
              incompatibili). Scrittura compatta di un sistema lineare:
              un sistema lineare si scrive nella forma
              \(A\mathbf{X}=\mathbf{b}\), dove \(A\in
              M_{m,n}(\mathbb{R})\) è la matrice incompleta,
              \(\mathbf{b}\in \mathbb{R}^m\) è la colonna dei termini
              noti e \(\mathbf{X}=(x_1,x_2,\dots,x_n)^T\) la colonna
              delle indeterminate. Sistemi omogenei. Un sistema omogeneo
              non è mai impossibile, ammette sempre la soluzione banale;
              inoltre, se ammette una soluzione non banale, ne ammette
              infinite. Le soluzioni di un sistema non omogeneo sono
              date dalla somma di una (data) soluzione particolare e di
              una qualsiasi soluzione del sistema omogeneo associato. Un
              sistema lineare ammette una, nessuna o infinite soluzioni.
              Sistemi lineari quadrati di ordine \(n\). Teorema di Cramer:
              un sistema lineare quadrato con matrice dei coefficienti
              \(A\) è determinato se e solo se \(\textrm{det}A\neq0\).
              Esercizi foglio 5: Rango
              
              LEZIONE 10
                Argomenti: Sistemi lineari crameriani. Teorema di
              Cramer: un sistema lineare quadrato con matrice dei
              coefficienti \(A\) è determinato se e solo se
              \(\textrm{det}A\neq0\) (indipendentemente dalla colonna
              dei termini noti). Risoluzione di un sistema crameriano
              col metodo della matrice inversa. Regola di Cramer per la
              risoluzione di un sistema crameriano. Un sistema lineare
              omogeneo quadrato con matrice dei coefficienti \(A\) è
              indeterminato se e solo se \(\textrm{det}A=0\). Una
              matrice quadrata ha rango massimo se e solo se le colonne
              (o le righe) di \(A\) sono linearmente indipendenti. Una
              matrice \(A\in M_{m,n}(\mathbb{R})\)  ha rango \(r\)
              se e solo se in \(A\) esistono \(r\) righe (o colonne)
              linearmente indipendenti e se \(r+1\) righe (o colonne)
              comunque scelte sono linearmente dipendenti. In una
              matrice \(A\in M_{m,n}(\mathbb{R})\)  il rango indica
              il massimo numero di righe (o colonne) linearmente
              indipendenti. Teorema di Rouché-Capelli:
              un sistema lineare  \(A\mathbf{X}=\mathbf{b}\) è
              compatibile se e solo se il rango della matrice incompleta
              del sistema \(A\) e il rango della matrice completa del
              sistema \((A|\mathbf{b})\) sono uguali. In tal caso, detto
              \(r\) il rango, il sistema è determinato se \(n=r\), è
              invece indeterminato con \(\infty^{n-r}\) soluzioni, se
              \(r<n\).
              Esercizi foglio
                6: Sistemi lineari
              
              LEZIONE 11
                Argomenti: Esercizi vari sui teoremi di Cramer e di
              Rouché-Capelli. Un vettore applicato è individuato da un
              punto di applicazione, una direzione, un verso ed un
              modulo. L'insieme dei vettori geometrici applicati nel
              piano. Vettori geometrici liberi. Vettore nullo. Vettori
              equipollenti. Somma di due vettori (con la regola del
              parallelogramma o della poligonale) e moltiplicazione con
              scalare. Operazioni con i vettori liberi: somma e
              moltiplicazione con scalare reale. L'insieme dei vettori
              geometrici liberi del piano \(\mathcal{V}_2\), della
              retta  \(\mathcal{V}_1\) e dello spazio fisico
              \(\mathcal{V}_3\). Definizione astratta di gruppo e di
              gruppo abeliano.
              Esempi di gruppi additivi e moltiplicativi, abeliani e
              non. 
              
              LEZIONE 12
                Argomenti:  Spazi vettoriali reali. Esempi di
              spazi vettoriali: \( M_{m,n}(\mathbb{R})\),
              \(\mathbb{R}^n\),  \(\mathcal{V}^2\). Lo
              spazio vettoriale reale \(\mathbb{R}[x]\) dei polinomi a
              coefficienti reali nell'indeterminata \(x\). Principio di
              identità tra polinomi. Lo spazio vettoriale reale
              \(\mathbb{R}^X\) delle funzioni a valori reali con dominio
              \(X\). Principio di identità tra funzioni. Operazioni tra
              funzioni: somma e moltiplicazione con scalare reale
              definite puntualmente. In uno spazio vettoriale \(V\) il
              vettore nullo \(\mathbf{0}_V\) è unico; il simmetrico di
              un vettore \(v\in V\) è unico, lo si indica con \(-v\) ed
              è detto l'opposto di \(v\). Legge di annullamento del
              prodotto negli spazi vettoriali: presi
              \(\lambda\in\mathbb{R}\) e \(v\in V\), si ha che \(\lambda
              v=\mathbf{0}_V\) se e solo se \(\lambda=0_{\mathbb{R}}\)
              oppure \(v=\mathbf{0}_V\). Preso un vettore un vettore
              \(v\) di uno spazio vettoriale \(V\), si ha che
              \((-1)v=-v\). Combinazioni lineari. Vettori linearmente
              dipendenti e linearmente indipendenti.
              
              LEZIONE 13
                Argomenti: Esercitazione: determinanti, rango,
              sistemi lineari.
              
              LEZIONE 14
                Argomenti: Un vettore è linearmente dipendente se e
              solo se è nullo. Due vettori sono linearmente dipendenti
              se e solo se sono proporzionali. Dei vettori sono
              linearmente dipendenti se e solo se uno di essi è
              combinazione lineare dei rimanenti. Se in un insieme di
              vettori alcuni di essi sono linearmente dipendenti, allora
              tutti sono linearmente dipendenti. Sottospazi vettoriali.
              Dato lo spazio vettoriale \(V\), gli insiemi
              \(\{\mathbf{0}_V\}\) e \(V\) sono sottospazi vettoriali di
              \(V\). Un sottospazio vettoriale contiene necessariamente
              il vettore nullo. Esempi di sottospazi vettoriali: matrici
              quadrate simmetriche \(S_n(\mathbb{R})\), antisimmetriche
              \(A_n(\mathbb{R})\) e diagonali \(D_n(\mathbb{R})\).
              L'insieme \(\mathbb{R}_{\leqslant n}[x]\) dei polinomi di
              grado al più \(n\) con il polinomio nullo è un sottospazio
              vettoriale di \(\mathbb{R}[x]\). L'insieme delle soluzioni
              di un sistema lineare di tipo \(m\times n\) è un
              sottospazio vettoriale di \(\mathbb{R}^n\) se e solo se il
              sistema è omogeneo. Sia \(V\) uno spazio vettoriale e
              siano \(v_1,\ v_2,\,\dots, v_n\) vettori di \(V\), allora
              il sottoinsieme costituito dalle combinazioni lineari dei
              \(v_i\) è un sottospazio vettoriale di \(V\); esso è
              chiamato il sottospazio generato dai \(v_i\) ed è indicato
              con \(\mathcal{L}(v_1,\ v_2,\,\dots, v_n)\). Retta
              vettoriale. Piano vettoriale. Spazi vettoriali finitamente
              generati. Lo spazio \(\mathbb{R}[x]\) non è finitamente
              generato. Gli spazi \(\mathbb{R}^n\),
              \(\mathcal{M}_{m,n}(\mathbb{R})\) e
              \(\mathbb{R}_{\leqslant n}[x]\) sono finitamente generati.
              Esercizi
                foglio 7: Dipendenza lineare
              Esercizi
                foglio 8: Sottospazi vettoriali
              
              LEZIONE 15
                Argomenti: Dato lo spazio vettoriale \(V\), gli
              insiemi \(\{\mathbf{0}_V\}\) e \(V\) sono sottospazi
              vettoriali di \(V\).  Lo spazio \(\mathbb{R}[x]\) non
              è finitamente generato. Dato \(V\) uno spazio vettoriale e
              \(v_1, v_2,\,\dots, v_n\) vettori di \(V\), preso
              \(w\in\mathcal{L}(v_1, v_2,\,\dots, v_n)\), allora si ha
              \(\mathcal{L}(v_1, v_2,\,\dots, v_n, w)=\mathcal{L}(v_1,
              v_2,\,\dots, v_n)\). Dati i vettori \(v_1, v_2,\,\dots,
              v_n\) linearmente indipendenti di \(V\), preso
              \(w\not\in\mathcal{L}(v_1, v_2,\,\dots, v_n)\), allora i
              vettori \(v_1, v_2,\,\dots, v_n, w\) sono linearmente
              indipendenti. Una base di uno spazio vettoriale
              finitamente generato è un sistema di generatori
              linearmente indipendenti. Basi canoniche di
              \(\mathbb{R}^n\),  \(\mathbb{R}_{\leqslant n}[x]\) e
              \(M_{m,n}(\mathbb{R})\). Le due condizioni per definire
              una base sono indipendenti (e vanno verificate entrambe).
              Metodo degli scarti successivi: ogni spazio vettoriale non
              banale finitamente generato ha almeno una base.
              
              LEZIONE 16
                Argomenti: Lemma di Steinitz:
              se \(\{v_1, v_2,\dots, v_n\}\) è una base di \(V\) e
              \(w_1, w_2, \dots, w_m\) sono \(m>n\) vettori di \(V\)
              allora i \(w_i\) sono linearmente dipendenti. Lemma di
              scambio: se in una base si sostituisce un vettore con la
              somma di questo vettore più una combinazione lineare dei
              vettori rimanenti, si ottiene una nuova base. Tutte le
              basi di uno spazio vettoriale finitamente generato hanno
              la stessa cardinalità che è detta la dimensione di \(V\) e
              si indica \(\dim V\). La dimensione di \(V\) indica il
              numero massimo di vettori linearmente indipendenti che si
              possono trovare in \(V\). La dimensione di \(V\) indica il
              numero minimo di generatori di \(V\). Se \(V\) è uno
              spazio vettoriale di dimensione \(n\), allora \(\{v_1,
              v_2,\dots, v_n\}\) è una base di \(V\) se e solo se \(v_1,
              v_2,\dots, v_n\) sono linearmente indipendenti, se e solo
              se \(v_1, v_2,\dots, v_n\) sono generatori di \(V\). 
              Coordinate di un vettore rispetto ad una base. Operazioni
              tra vettori in termini delle loro componenti rispetto ad
              una base. Teorema del completamento della base: Sia
              \(\{v_1, v_2,\dots, v_n\}\) una base di \(V\) e siano
              \(w_1, w_2, \dots, w_m\), con \(m<n\), vettori
              linearmente indipendenti  di \(V\); allora è
              possibile scegliere \(n-m\) vettori \(v'_1, v'_2, \dots,
              v'_{n-m}\) tra i \(v_i\) tali che  \(\{w_1,
              w_2,\dots, w_m, v'_1, \dots, v'_{n-m}\}\) sia una base di
              \(V\).
              Esercizi
                Foglio n.9: Basi e dimensione di sottospazi vettoriali.
              
              LEZIONE 17
                Argomenti: Applicazioni del completamento della
              base. Siano \(w_1,w_2,\dots,w_m\) vettori di uno spazio
              vettoriale \( V\) di dimensione \(n\) e sia \(\mathcal B\)
              una base di \(V\). Sia \(A\in M_{m,n}(\mathbb R)\) la
              matrice che ha per righe le coordinate dei \(w_i\)
              rispetto a \(\mathcal B\). Allora \(\textrm{rk} A=r\)
              indica il massimo numero di vettori linearmente
              indipendenti tra i \(w_i\) ed \(r\) vettori linearmente
              indipendenti sono quelli corrispondenti alle righe di un
              qualsiasi minore non nullo di \(A\) di ordine \(r\).
              Inoltre, i \(w_i\) sono linearmente indipendenti se e solo
              se \(\textrm{rk} A=m\). Siano \(\mathcal B\) e \(\mathcal
              B'\) basi di uno spazio vettoriale \(V\) di dimensione
              finita; la matrice di passaggio da \(\mathcal B\) a
              \(\mathcal B'\) è la matrice che si ottiene scrivendo in
              colonna ordinatamente le coordinate dei vettori di
              \(\mathcal B'\) in funzione di quelli di \(\mathcal B\).
              Teorema del cambiamento di coordinate nel passaggio da una
              base ad un'altra: siano \(P\) la matrice di passaggio
              dalla base \(\mathcal B\) alla base \(\mathcal B'\),
              \(P'\) la matrice di passaggio dalla base \(\mathcal B'\)
              alla base \(\mathcal B\), \(X\) la colonna delle
              coordinate di un vettore \(v\in V\) rispetto alla base
              \(\mathcal B\) e \(X'\) la colonna delle coordinate di
              \(v\) rispetto alla base \(\mathcal B'\), allora si ha che
              \(P'=P^{-1}\), \(X'=P^{-1}X\) e infine \(X=PX'\). 
              
              LEZIONE 18
                Argomenti: Esercitazione: sistemi lineari,
              sottospazi vettoriali, basi, dimensione.
              
              LEZIONE 19
                Argomenti: Cambiamenti di base e di coordinate:
              applicazioni ed esempi. Equazioni cartesiane e
              parametriche di un sottospazio vettoriale. Il numero di
              parametri necessari per dare le equazioni parametriche di
              \(W\) è uguale alla dimensione di \(W\). Se
              \(n=\textrm{dim}V\), il numero minimo di equazioni
              cartesiane per descrivere \(W\) è \(n-\textrm{dim}W\).
              Esempi. 
              
              LEZIONE 20
                Argomenti: Se \(V\) è uno spazio vettoriale di
              dimensione \(n\) e \(W\) è un sottospazio di \(V\), il
              numero minimo di equazioni cartesiane necessarie per
              descrivere \(W\) è detto codimensione di \(W\) e
              \(\textrm{codim}W=n-\textrm{dim}W\). In particolare, per
              ogni sottospazio vettoriale \(W\) si ha
              \(n=\textrm{dim}W+\textrm{codim}W\). Se \(V\) è uno spazio
              vettoriale di dimensione finita e \(W\) è un sottospazio
              di \(V\) allora \(\textrm{dim}W\leqslant\textrm{dim}V\).
              Inoltre \(\textrm{dim}W=\textrm{dim}V\) se e solo se
              \(W=V\). L'intersezione di due sottospazi vettoriali è un
              sottospazio vettoriale. In generale, l'unione di due
              sottospazi vettoriali non è un sottospazio vettoriale. La
              somma di due sottospazi vettoriali è un sottospazio
              vettoriale ed è il più piccolo contenente l'unione dei due
              sottospazi. Un sistema di generatori per la somma dei
              sottospazi \(U\) e \(W\) è dato dall'unione di una base di
              \(U\) e una base di \(W\); per ottenere una base va poi
              applicato il metodo degli scarti successivi. Equazioni
              cartesiane di \(U\cap W\) sono date dal sistema contenente
              equazioni cartesiane di \(U\) e di \(W\). Teorema di
              Grassmann: Se \(U\) e \(W\) sono sottospazi vettoriali di
              uno spazio vettoriale di dimensione finita, allora vale la
              formula di Grassmann
              \(\textrm{dim}(U+W)+\textrm{dim}(U\cap
              W)=\textrm{dim}U+\textrm{dim}W\). 
              
              LEZIONE 21
                Argomenti: Esempi di applicazione della formula di
              Grassmann. Dati due sottospazi \(U\) e \(W\) si ha che
              \(U+W=W\) se e solo se \(U\cap W=U\) se e solo se
              \(U\subseteq W\). Somma diretta di due sottospazi. Formula
              di Grassmann per la somma diretta: \(\textrm{dim}(U\oplus
              W)=\textrm{dim}U+\textrm{dim}W\). Teorema della somma
              diretta: dati \(U\) e \(W\) sottospazi vettoriali, si ha
              che \(U\) e \(W\) sono a somma diretta se e solo se ogni
              vettore di \(U+W\) si scrive in maniera unica come somma
              di un vettore di \(U\) e di un vettore di \(W\). Siano
              \(T\), \(U\) e \(W\) sottospazi vettoriali, siano
              \(\mathcal {B}_U=\{u_1,\dots, u_m\}\) una base di \(U\) e
              \(\mathcal {B}_W=\{w_1,\dots, w_l\}\) una base di \(W\),
              allora \(T=U\oplus W\) se e solo se \(\{u_1,\dots,
              u_m,w_1,\dots,w_l\}\) è una base di \(T\). Sottospazi
              complementari. In uno spazio vettoriale finitamente
              generato ogni sottospazio ammette un complemento diretto
              (che non è unico in generale). Somma diretta di più
              sottospazi vettoriali. 
              Esercizi
                Foglio n.10: Somma e intersezione di sottospazi
                vettoriali.
              
              LEZIONE 22
              Argomenti: Sistemi di riferimento affine nel piano.
              Coordinate affini di punti e vettori nel piano. Operazioni
              tra vettori in termini di coordinate. Presi due punti del
              piano \(A\) e \(B\), le coordinate del vettore
              \(\stackrel{\longrightarrow}{AB}\) sono date dalla
              differenza delle coordinate del punto finale \(B\) meno
              quelle del punto di applicazione \(A\); più in generale si
              ha che \(\stackrel{\longrightarrow}{AB}=v\) se e solo se
              \(B=A+v\) . Una retta nel piano è univocamente individuata
              da un suo punto e da un vettore ad essa parallelo. Vettore
              direzionale e parametri direttori di una retta. Equazione
              vettoriale di una retta: data una retta \(r\), un punto
              \(P_0\in r\) ed un vettore direzionale \({v}\) di \(r\),
              allora un punto \(P\) del piano appartiene ad \(r\) se e
              solo se \(\stackrel{\longrightarrow}{P_0P}=t\,{v}\), per
              qualche \(t\in \mathbb R\). Equazioni parametriche di una
              retta: data una retta \(r\), un punto \(P_0(x_0,\,y_0)\in
              r\) ed un vettore direzionale \({v}(l,\,m)\) di \(r\),
              allora equazioni parametriche di \(r\) sono date da
              \(\begin{cases}x=x_0+l\,t\\y=y_0+m\,t  
              \end{cases}\).
              
              LEZIONE 23
                Argomenti: Esercitazione: sottospazi vettoriali,
              basi, somma e intersezione, formula di Grassmann, somma
              diretta.
              
              LEZIONE 24
                Argomenti: Equazione cartesiana di una retta: una
              retta nel piano è rappresentata da un'equazione del tipo
              \(ax+by+c=0\), con \(a\) e \(b\) non contemporaneamente
              nulli, e viceversa, ogni equazione di questo tipo ha per
              grafico nel piano una retta. La retta di equazione
              \(ax+by+c=0\) ha per vettore direzionale il vettore
              \((-b,a)\). Dati \(P_1(x_1,y_1)\) e \(P_2(x_2,y_2)\) due
              punti distinti del piano, la retta che li congiunge ha
              equazioni parametriche date da
              \(\begin{cases}x=x_1+(x_2-x_1)\,t\\y=y_1+(y_2-y_1)\,t\end{cases}\)
              ed equazione cartesiana data da
              \(\begin{vmatrix}x-x_1&y-y_1\\x_2-x_1&y_2-y_1\end{vmatrix}=0\).
              Condizione di allineamento di tre punti. Rette parallele,
              rette coincidenti, rette parallele e distinte, rette
              incidenti. Posizione reciproca di due rette nel piano:
              siano date due rette \(r:\ ax+by+c=0\) e \(r':\
              a'x+b'y+c'=0\), allora \(r\|r'\) se e solo se
              \(\textrm{rk}\begin{pmatrix}a&b\\a'&b'\end{pmatrix}=1\);
              in particolare sono parallele e coincidenti se e solo se
              \(\textrm{rk}\begin{pmatrix}a&b&c\\a'&b'&c'\end{pmatrix}=1\),
              sono parallele e distinte se e solo se
              \(\textrm{rk}\begin{pmatrix}a&b\\a'&b'\end{pmatrix}=1\)
              e
              \(\textrm{rk}\begin{pmatrix}a&b&c\\a'&b'&c'\end{pmatrix}=2\);
              infine \(r\) ed \(r'\) sono incidenti se e solo se
              \(\textrm{rk}\begin{pmatrix}a&b\\a'&b'\end{pmatrix}=\textrm{rk}\begin{pmatrix}a&b&c\\a'&b'&c'\end{pmatrix}=2\).
              Esempi di geoemtria piana affine.
              Esercizi
                Foglio n.11: Piano affine.
              
              LEZIONE 25
                Argomenti: Richiami sulle proprietà elementari
              dello spazio euclideo tridimensionale. Punti allineati e
              punti complanari. Vettori allineati e vettori complanari.
              Tre vettori di \(\mathcal V^3\) sono linearmente
              dipendenti se e solo se sono complanari. Lo spazio
              \(\mathcal V_O^3\) ha dimensione tre. Lo spazio affine
              tridimensionale \(\mathbb A^3(\mathbb R)\). Sistema di
              riferimento affine e coordinate affini nello spazio.
              Coordinate di vettori liberi ed applicati. I punti \(P_1,\
              P_2,\ \dots,\ P_n\) sono allineati (rispettivamente
              complanari) se e solo se la matrice che ha per righe
              ordinatamente le coordinate dei vettori
              \(\stackrel{\longrightarrow}{P_1P_2}\), \(\dots\),
              \(\stackrel{\longrightarrow}{P_1P_n}\) ha
              rango 1 (rispettivamente rango 2). Equazione vettoriale di
              una retta: data una retta \(r\), un punto \(P_0\in r\) ed
              un vettore direzionale \({v}\) di \(r\), allora un punto
              \(P\) del piano appartiene ad \(r\) se e solo se
              \(\stackrel{\longrightarrow}{P_0P}=t\,{v}\), per qualche
              \(t\in \mathbb R\). Equazioni paramtriche di una retta:
              una retta parallela al vettore \( v=(l,m,n)\) e passante
              per il punto \(P_0=(x_0,y_0,z_0)\) ha equazioni
              parametriche 
              \(\begin{cases}x=x_0+l\,t\\y=y_0+m\,t\\z=z_0+n\,t  
              \end{cases}\). Condizioni operative per l'allineamento di
              tre punti e per la complanarità di quattro punti.
              Equazione vettoriale di un piano: dato un piano \(\pi\),
              un punto \(P_0\in \pi\) e due vettori non linearmente
              indipendenti \(v\) e \(w\) \({v}\) paralleli a \(\pi\),
              allora un punto \(P\) appartiene a \(\pi\) se e solo se
              \(\stackrel{\longrightarrow}{P_0P}=t\,{v}+t'\,w\), per
              qualche \(t,\,t'\in \mathbb R\). Equazioni parametriche di
              un piano: il piano parallelo ai vettori \( v=(l,m,n)\) e
              \( w=(l',m',n')\) e passante per il punto
              \(P_0=(x_0,y_0,z_0)\) ha equazioni parametriche 
              \(\begin{cases}x=x_0+l\,t+l\,t'\\y=y_0+m\,t+m\,t'\\z=z_0+n\,t+n\,t'\end{cases}\).
              Siano dati  \(P_1(x_1,y_1,z_1)\),
              \(P_2(x_2,y_2,z_2)\) e  \(P_3(x_3,y_3,z_3)\) tre
              punti non allineati dello spazio; il piano che li contiene
              ha equazioni parametriche date da
              \(\begin{cases}x=x_1+(x_2-x_1)\,t+(x_3-x_1)\,t'\\y=y_1+(y_2-y_1)\,t+(y_3-y_1)\,t'\\z=z_1+(z_2-z_1)\,t+(z_3-z_1)\,t'\end{cases}\).
              Tutti e soli i piani dello spazio sono rappresentati da
              un'equazione del tipo \(ax+by+cz+d=0\), con \(a,b,c\) non
              contemporaneamente nulli. Equazioni cartesiane di una
              retta nello spazio: tutte e sole le rette dello spazio
              sono definite da un sistema lineare di due equazioni in
              tre indeterminate del tipo \(\begin{cases}ax+by+cz+d=0\\
              a'x+b'y+c'z+d'=0\end{cases}\), con
              \(\textrm{rk}\begin{pmatrix}a&b&c\\a'&b'&c'\end{pmatrix}=2\).
              
              
              LEZIONE 26
                Argomenti: Una retta di equazioni cartesiane \(r:\
              \begin{cases}ax+by+cz+d=0\\ a'x+b'y+c'z+d'=0\end{cases}\)
              ha come vettore direzionale il vettore
              \(v_r=\left(\begin{vmatrix}b&c\\b'&c'\end{vmatrix},\
              -\begin{vmatrix}a&c\\a'&c'\end{vmatrix},\
              \begin{vmatrix}a&b\\a'&b'\end{vmatrix}\right)\).
              Piani coincidenti, piani paralleli e distinti, piani
              incidenti. I piani paralleli (in senso lato) si
              distinguono in piani propriamente paralleli e piani
              (paralleli e) coincidenti. Teorema di classificazione
              delle posizioni reciproche di due piani nello spazio:
              siano dati due piani \(\pi:\ ax+by+cz+d=0\) e \(\pi':\
              a'x+b'y+c'z+d'=0\); allora \(\pi\) e \(\pi'\) sono
              paralleli e distinti se e solo se
              \(\textrm{rk}\begin{pmatrix}a&b&c\\a'&b'&c'\end{pmatrix}=1\)
              e
              \(\textrm{rk}\begin{pmatrix}a&b&c&d\\a'&b'&c'&d'\end{pmatrix}=2\);
              \(\pi\) e \(\pi'\) sono coincidenti se e solo se
              \(\textrm{rk}\begin{pmatrix}a&b&c&d\\a'&b'&c'&d'\end{pmatrix}=1\);
              \(\pi\) e \(\pi'\) sono incidenti se e solo se
              \(\textrm{rk}\begin{pmatrix}a&b&c\\a'&b'&c'\end{pmatrix}=2\).
            Dato il piano \(\pi: \
                  ax+by+cz+d=0\), il vettore \(v=(a,b,c)\) è detto
                  vettore di giacitura di \(\pi\) e i coefficienti
                  \(a,\,b,\,c\) sono detti parametri giacitura. Piani
                  paralleli hanno, a meno di un fattore moltiplicativo
                  non nullo, gli stessi parametri di giacitura. Teorema
              di classificazione delle posizioni reciproche tra retta e
              piano nello spazio: dati un piano  \(\pi:\
              ax+by+cz+d=0\) ed una retta \(r:\
              \begin{cases}a'x+b'y+c'z+d'=0\\
              a''x+b''y+c''z+d''=0\end{cases}\), si ha che \(r\) e
              \(\pi\) sono propriamente paralleli se e solo se
              \(\textrm{det}\begin{pmatrix}a&b&c\\a'&b'&c'\\a''&b''&c''\end{pmatrix}=0\)
              e
              \(\textrm{rk}\begin{pmatrix}a&b&c&d\\a'&b'&c'&d'\\a''&b''&c''&d''\end{pmatrix}=3\);
              si ha che \(r\subset\pi\) se e solo se 
              \(\textrm{rk}\begin{pmatrix}a&b&c&d\\a'&b'&c'&d'\\a''&b''&c''&d''\end{pmatrix}=2\);
              risulta che \(r\) e \(\pi\) sono incidenti (in un solo
              punto) se e solo se
              \(\textrm{det}\begin{pmatrix}a&b&c\\a'&b'&c'\\a''&b''&c''\end{pmatrix}\neq0\).
              Un piano di giacitura \((a,b,c)\) ed una retta di
              parametri direttori \((l,m,n)\) sono paralleli se e solo
              se \(al+bm+cn=0\). Due rette sono parallele se e solo se
              hanno vettori direzionali proporzionali. Rette parallele
              sono complanari. Rette incidenti sono complanari. Rette
              sghembe. Teorema di classificazione delle posizioni
              reciproche di due rette nello spazio: date le rette \(r:\
              \begin{cases}ax+by+cz+d=0\\ a'x+b'y+c'z+d'=0\end{cases}\)
              e \(s:\ \begin{cases}a''x+b''y+c''z+d''=0\\
              a'''x+b'''y+c'''z+d'''=0\end{cases}\) e prese le matrici
              \(A=
              \begin{pmatrix}a&b&c\\a'&b'&c'\\a''&b''&c''\\a'''&b'''&c'''\end{pmatrix}\)
              e \(B=
              \begin{pmatrix}a&b&c&d\\a'&b'&c'&d'\\a''&b''&c''&d''\\a'''&b'''&c'''&d'''\end{pmatrix}\),
              si ha che \(r\) e \(s\) sono sghembe se e solo se
              \(\textrm{det}B\neq0\),  \(r\) e \(s\) sono incidenti
              se e solo se \(\textrm{rk}B=\textrm{rk}A=3\), \(r\) e
              \(s\) sono propriamente parallele se e solo se
              \(\textrm{rk}B=3\) e \(\textrm{rk}A=2\), \(r\) e \(s\)
              sono coincidenti se e solo se \(\textrm{rk}B=2\). 
              Esercizi
                Foglio n.12: Spazio affine.
              
              LEZIONE 27
                Argomenti: Esercitazione: Formula di Grassmann,
              piano affine.
              
              LEZIONE 28
                Argomenti: Esercitazione: Geometria dello spazio
              affine tridimensionale.
              
              LEZIONE 29
                Argomenti: Applicazioni lineari tra spazi
              vettoriali. Un'applicazione lineare \(F:\ V\rightarrow W\)
              è tale che \(F(\mathbf{0}_V)=\mathbf{0}_W\) e
              \(F(-v)=-F(v)\), per ogni \(v\in V\). Le applicazioni
              lineari conservano le combinazioni lineari: data
              un'applicazione lineare \(F:\ V\rightarrow W\) e il
              vettore \(v=\lambda_1 v_1+\dots+\lambda_k v_k\), allora
              \(F(v)=\lambda_1 F(v_1)+\dots+\lambda_k F(v_k)\). Due
              applicazioni lineari sono uguali se e solo se assumono gli
              stessi valori sui vettori di una base dello spazio di
              partenza. Applicazione nulla. Applicazione identica.
              Restrizione di un'applicazione lineare ad un sottospazio
              vettoriale. Applicazione lineare data dalla
              moltiplicazione a sinistra per una matrice. La derivazione
              è un'applicazione lineare definita sullo spazio dei
              polinomi (o delle funzioni derivabili).  Teorema
              fondamentale di esistenza e unicità dell'applicazione
              lineare definita dai valori assunti sui vettori di una
              base (o teorema di estensione): dati gli spazi vettoriali
              \(V\) e \(W\), con \(V\) finitamente generato, presi
              \(\{v_1,\dots, v_n\}\) una base di \(V\) e
              \(\{w_1,\dots,w_n\}\) un sottinsieme di vettori qualsiasi
              di \(W\), allora esiste ed è unica l'applicazione lineare
              \(F:V\rightarrow W\) tale che
              \(F(v_1)=w_1,\,\dots,\,F(v_n)=w_n\).  
              
              LEZIONE 30
                Argomenti: Esempi di applicazione del teorema di
              estensione. Matrice associata ad un'applicazione lineare
              rispetto a due basi. Formule di calcolo in termini di
              coordinate e matrice associata. Teorema di
              rappresentazione. Legge del cambiamento della matrice
              associata. Insieme immagine di un'applicazione lineare. Se
              \(F:\ V\rightarrow W\) è un'applicazione lineare, allora
              \(\textrm{Im} F\) è un sottospazio vettoriale di \(W\). 
              
              LEZIONE 31
                Argomenti: Se \(F:\ V\rightarrow W\) è
              un'applicazione lineare, allora \(\textrm{Im} F\) è un
              sottospazio vettoriale di \(W\); inoltre se \(V\) è
              finitamente generato ed ha dimensione \(n\) allora
              \(\textrm{dim Im}F\leqslant n\) e se \(\{v_1,\dots,
              v_n\}\) è una base di \(V\), allora
              \(\{F(v_1),\,\dots,\,F(v_n)\}\) è un sistema di generatori
              di \(\textrm{Im} F\). L'immagine diretta di un sottospazio
              del dominio sotto un'applicazione lineare è un sottospazio
              dell'insieme d'arrivo. La dimensione dell'immagine di
              un'applicazione lineare tra spazi vettoriali finitamente
              generati eguaglia il rango della matrice associata.
              Un'applicazione lineare \(F:\ V\rightarrow W\) è
              suriettiva se e solo se \(\textrm{Im}F=W\), e se \(V\) e
              \(W\) sono finitamente generati, \(F\) è suriettiva se e
              solo se \(\textrm{rk}A=\textrm{codim Ker}F\).
              Controimmagine di un vettore. La controimmagine sotto
              un'applicazione lineare tra spazi vettoriali finitamente
              generati è trovata risolvendo un sistema lineare. Nucleo
              di un'applicazione lineare. Il
              nucleo di un'applicazione lineare è un sottospazio
              vettoriale del dominio e se dominio e insieme di arrivo
              sono finitamente generati, la codimensione del nucleo è
              uguale al rango di una matrice associata all'applicazione.
              Un'applicazione lineare è iniettiva se e solo se il suo
              nucleo è banale. Teorema del rango: siano \(V\) e \(W\)
              spazi vettoriali, con \(V\) finitamente generato, e sia
              \(F:\ V\rightarrow W\) un'applicazione lineare, allora
              vale la formula della dimensione:
              \(\textrm{dim}V=\textrm{dim Im}(F)+\textrm{dim Ker}(F)\).
              
              
              LEZIONE 32
                Argomenti: Esempi di applicazione del teorema del
              rango. Data l'applicazione lineare \(F:\ V\rightarrow W\)
              tra due spazi vettoriali finitamente generati, si ha che
              \(F\) è iniettiva se e solo se \(\textrm{dim
              Im}F=\textrm{dim}V\), \(F\) è suriettiva se e solo se
              \(\textrm{dim Im}F=\textrm{dim}W\), infine \(F\) è
              biettiva se e solo se \(\textrm{dim
              Im}F=\textrm{dim}W=\textrm{dim}W\). Sia \(F:\ V\rightarrow
              W\) un'applicazione lineare e sia
              \(\textrm{dim}V=\textrm{dim}W\), allora \(F\) è iniettiva
              se e solo se \(F\) è suriettiva, se e solo se \(F\) è
              biettiva. Sia \(F: V\longrightarrow W\) un'applicazione
              lineare tra spazi vettoriali di dimensione finita, se
              \(\textrm{dim}V>\textrm{dim}W\) allora \(F\) non può
              essere iniettiva, se invece
              \(\textrm{dim}W>\textrm{dim}V\) allora \(F\) non può
              essere suriettiva. Sia data l'applicazione lineare \(F:\
              V\rightarrow W\) tra due spazi vettoriali finitamente
              generati e sia \(A\) una matrice associata ad \(F\), si ha
              che \(F\) è iniettiva se e solo se
              \(\textrm{rk}A=\textrm{dim}V\), \(F\) è suriettiva se e
              solo se \(\textrm{rk}A=\textrm{dim}W\). Omomorfismi,
              endomorfismi, automorfismi di spazi vettoriali. Due spazi
              vettoriali finitamente generati sono isomorfi se e solo se
              hanno la stessa dimensione. Tutti gli spazi vettoriali di
              dimensione \(n\) sono isomorfi ad \(\mathbb{R}^n\).
              Considerazioni sul significato del concetto di
              isomorfismo. Composizione di applicazioni. Applicazioni
              invertibili. Un'applicazione è invertibile se e solo se è
              biettiva. La composizione di applicazioni lineari è
              un'applicazione lineare. Teorema di composizione
              operatoria: date le applicazioni tra spazi vettoriali f.g.
              \(F:\ V\rightarrow W\) e  \(G:\ W\rightarrow U\) con
              matrici associate rispettivamente \(B\) e \(A\), allora
              l'applicazione \(G\circ F:\ V\rightarrow U\) ha come
              matrice associata la matrice \(AB\). 
            Esercizi
                    Foglio13: Applicazioni lineari
                
                LEZIONE 33
                Argomenti: Esercitazione: applicazioni lineari.
              
              LEZIONE 34
                Argomenti: Teorema di Kronecker per il rango del
              prodotto di matrici: se \(A\) e \(B\) sono due matrici
              allora
              \(\textrm{rk}AB\leqslant\textrm{min}\{\textrm{rk}A,\
              \textrm{rk}B\}\). Se si moltiplica una matrice \(A\) a
              destra o a sinistra per una matrice invertibile, allora il
              rango di \(A\) resta invariato. Le matrici associate ad
              una applicazione lineare hanno lo stesso rango (che
              coincide con la dimensione dell'immagine). Un'applicazione
              lineare \(F\) tra due spazi vettoriali f.g. è invertibile
              se e solo se le matrici associate ad \(F\) sono
              invertibili; in particolare la matrice di \(F^{-1}\) è
              l'inversa della matrice di \(F\) (a patto di usare le
              stesse basi). Endomorfismi e automorfismi di uno spazio
              vettoriale. Matrici associate ad un endomorfismo. Matrici
              simili. Le matrici associate ad un endomorfismo sono
              simili tra loro, hanno lo stesso rango e lo stesso
              determinante. Un endomorfismo è automorfismo se e solo se
              tutte le sue matrici associate sono invertibili.
              Introduzione alla diagonalizzazione: motivazione e
              applicazioni. Autovalori e autovettori di un endomorfismo.
              Autospazi. Gli autospazi di un endomorfismo sono
              sottospazi vettoriali di dimensione maggiore o uguale a 1.
              Autovettori associati ad autovalori distinti sono
              linearmente indipendenti.
              
              LEZIONE 35
                Argomenti: Un endomorfismo non è invertibile se e
              solo se ammette l'autovalore nullo, in particolare
              l'autospazio associato a 0 coincide con il nucleo
              dell'endomorfismo. Ricerca di autovalori e autovettori. Un
              numero reale \(\lambda\) è autovalore per un endomorfismo
              \(F\) se e solo verifica l'equazione
              \(\textrm{det}(A-\lambda I_n)=0\), dove \(A\) è una
              matrice associata ad \(F\). Un vettore con coordinate
              \(X\in\mathbb{R}^n\) è un autovettore per \(F\) associato
              all'autovalore \(\lambda\) se e solo se le sue coordinate
              risolvono il sistema lineare omogeneo \((A-\lambda
              I_n)X=\mathbf{0}\). Matrice caratteristica. Polinomio
              caratteristico. Equazione caratteristica. Equazione
              secolare di Laplace. Teorema di invarianza del polinomio
              caratteristico: il polinomio caratteristico di un
              endomorfismo \(F\) non dipende dalla matrice di \(F\)
              scelta per calcolarlo. Matrici simili hanno lo stesso
              polinomio caratteristico. Molteplicità algebrica
              \(\textrm{m.a.}(\lambda)\) e molteplicità geometrica
              \(\textrm{m.g.}(\lambda)\) di un autovalore \(\lambda\).
              Un endomorfismo diagonalizzabile ha autovalori tutti reali
              (non necessariamente distinti). Se \(\lambda\) è un
              autovalore di un endomorfismo allora \(1\leqslant
              \textrm{m.g.}(\lambda)\leqslant \textrm{m.a.}(\lambda)\).
              
              LEZIONE 36
                Argomenti: Gli autospazi di un endomorfismo sono a
              somma diretta. Un endomorfismo \(F\) di uno spazio
              vettoriale \(V\) è diagonalizzabile se e solo se \(V\) è
              somma diretta degli autospazi di \(F\). Teorema
              fondamentale della diagonalizzabilità: un endomorfismo di
              uno spazio vettoriale di dimensione finita è
              diagonalizzabile se e solo se ammette autovalori tutti
              reali e per ciascuno di questi molteplicità geometrica e
              molteplicità aritmetica coincidono. Se un endomorfismo
              ammette autovalori distinti allora è diagonalizzabile.
              Diagonalizzabilità di matrici. Polinomio caratteristico,
              autovalori, autovettori, autospazi di una matrice
              quadrata. Una matrice quadrata è diagonalizzabile se e
              solo se essa è simile ad una matrice diagonale. Esempi di
              diagonalizzazione di applicazioni lineari e matrici. 
               Esercizi
                Foglio 14: Diagonalizzazioni di endomorfismi
              
              LEZIONE 37
                Argomenti: Forme bilineari su uno spazio vettoriale
              reale. Forma bilineare nulla. Forma bilineare standard su
              \(\mathbb{R}^n\). Una forma bilineare \(b\) su uno spazio
              vettoriale \(V\) è detta simmetrica se per ogni \(v,w\in
              V\) si ha che \(b(v,w)=b(w,v)\). Una forma bilineare \(b\)
              su uno spazio vettoriale \(V\) è antisimmetrica se e solo
              se per ogni \(v,w\in V\) si ha che \(b(v,w)=-b(w,v)\). La
              forma nulla è l'unica sia simmetrica che antisimmetrica.
              Il determinante delle matrici quadrate di ordine 2 è una
              forma bilineare antisimmetrica. La forma bilineare
              standard su \(\mathbb{R}^n\) è simmetrica. Il prodotto tra
              numeri reali è una forma bilineare simmetrica su
              \(\mathbb{R}\). Matrice di Gram
              associata ad una forma bilineare rispetto ad una base.
              Formule di calcolo in termini di coordinate e matrice
              associata. Legge di cambiamento della matrice associata ad
              una forma bilineare: sia \(b\) una forma bilineare su uno
              spazio f.g. \(V\), siano \(\mathcal B\) e \(\mathcal B'\)
              due basi di \(V\) con matrice di passaggio \(P\), siano
              poi \(A\) la matrice associata a \(b\) rispetto a
              \(\mathcal B\) e \(A'\) la matrice associata a \(b\)
              rispetto alla base \(\mathcal{B}'\), allora si ha
              \(A'=P^{T}AP\). Matrici congruenti. Le matrici associate
              ad una stessa forma bilineare sono congruenti tra loro.
              Rango di una forma bilineare. Forme degeneri e non. Le
              matrici associate ad una stessa forma bilineare hanno
              tutte lo stesso rango. Una forma bilineare è simmetrica
              (risp. antisimmetrica) se e solo se una sua matrice
              associata è simmetrica (risp. antisimmetrica).
              
              LEZIONE 38
              Argomenti: Esercitazione: Diagonalizzazione di
              endomorfismi.
              
              LEZIONE 39
              Argomenti: Esercitazione: Applicazioni lineari.
              Diagonalizzazione di endomorfismi. Forme bilineari.
              
              LEZIONE 40
              Argomenti: Restrizione di una forma bilineare.
              La simmetria e l'antisimmetria sono invarianti per
              congruenza. Quadrato di binomio generalizzato. Una forma
              bilineare \(b\) su uno spazio \(V\) è degenere se e solo
              esiste un vettore non nullo \(v\) tale che \(b(v,w)=0\),
              per ogni \(w\in V\); se e solo esiste un vettore non nullo
              \(v\) tale che \(b(w,v)=0\), per ogni \(w\in V\). Due
              vettori \(v\) e \(w\) si dicono ortogonali secondo una
              forma bilineare simmetrica \(b\) se \(b(v,w)=0\) e si
              scrive \(v\bot w\). Il vettore nullo è ortogonale a tutti
              i vettori dello spazio. Vettori isotropi (ortogonali a sé
              stessi). L'insieme dei vettori isotropi non è in generale
              un sottospazio vettoriale, contiene il vettore nullo ed è
              unione di rette. Il sottospazio ortogonale \(S^\bot\) ad
              un insieme di vettori \(S\subset V\) è costituito da tutti
              i vettori di \(V\) ortogonali a tutti i vettori di \(S\).
              Il sottospazio ortogonale è un sottospazio vettoriale. Il
              sottospazio ortogonale \(W^\bot\) di un sottospazio \(W\)
              f.g. è il sottospazio dei vettori ortogonali a tutti i
              vettori di una base di \(W\). Esempi di calcolo di
              sottospazi ortogonali. Teorema di Fourier: dato un vettore
              non isotropo \(v\in V\), si ha che
              \(V=v^\bot\oplus\mathcal{L}(v)\). Coefficiente di Fourier
              di \(w\) secondo un vettore non isotropo \(v\):
              \(\frac{b(v,w)}{b(v,v)}\). Forma quadratica associata ad
              una forma bilineare simmetrica. Forma quadratica nulla.
              Forma quadratica standard.
              
              LEZIONE 41
                Argomenti: Forma quadratica standard. Le forme
              quadratiche sono funzioni omogenee di secondo grado. Forma
              (bilineare) polare di una forma quadratica. Formula di
              polarizzazione: data una forma quadratica \(Q\) su uno
              spazio vettoriale \(V\), la forma bilineare polare di
              \(Q\) è data da \(b(v,w)=\frac12[Q(v+w)-Q(v)-Q(w)]\), per
              ogni \(v,w\in V\). Matrice asssociata ad una forma
              quadratica. Regole di calcolo in termini di matrice
              associata. Basi ortogonali e basi diagonalizzanti. Teorema
              di Gauss-Lagrange:
              Una forma bilineare è diagonalizzabile (rispetto ad una
              base ortogonale) se e solo se è simmetrica.
              Diagonalizzazione di forme quadratiche. Diagonalizzazione
              di matrici simmetriche (ogni matrice simmetrica è
              congruente ad una matrice diagonale). 
              
              LEZIONE 42
                Argomenti: Legge di inerzia di Sylvester: data una
              forma quadratica \(Q\) di rango \(r\) su uno spazio
              vettoriale \(V\) di dimensione finita, esistono un numero
              intero positivo \(p\) ed una base \(\left\{ v_1,\,\dots,
              v_n \right\}\) di \(V\) rispetto a cui la forma \(Q\) ha
              l'espressione
              \(Q(x_1,\,\dots,\,x_n)=x_1^2+\dots+x_p^2-x_{p+1}^2-\dots-x_r^2\);
              inoltre il numero \(p\) è indipendente dalla base scelta e
              dipende solo dalla forma \(Q\). Forma canonica di
              Sylvester di una forma quadratica. Basi di Sylvester.
              Indice di positività, indice di negatività, segnatura di
              una forma quadratica. Forme quadratiche (e forme bilineari
              simmetriche) definite positive, semidefinite positive,
              definite negative, semidefinite negative, indefinite.
              Forme quadratiche canoniche su \(\mathbb{R}^2\) e su
              \(\mathbb{R}^3\). Teorema degli zeri per le forme
              quadratiche: se una forma quadratica \(Q\) assume valore
              positivo su un vettore \(v\) e valore negativo su un
              vettore \(w\), allora esiste un vettore isotropo per
              \(Q\). Matrici simmetriche definite positive, semidefinite
              positive, definite negative, semidefinite negative,
              indefinite. Tutte le matrici simmetriche definite positive
              di ordine \(n\) sono congruenti alla matrice identica. Una
              matrice simmetrica \(A\) è definita positiva se e solo se
              esiste una matrice invertibile \(M\) tale che \(A=M^TM\).
              Minori principali di una matrice quadrata. Teorema di
              Jacobi-Sylvester (criterio dei minori principali): una
              matrice simmetrica è definita positiva se e solo se tutti
              i suoi minori principali sono strettamente positivi. 
               Esercizi
                Foglio 15: Forme bilineari 
              Esercizi
                Foglio 16: Forme quadratiche
              
              LEZIONE 43
                Argomenti: Prodotti scalari. Spazi vettoriali
              euclidei. Prodotto scalare standard su \(\mathbb{R}^n\).
              Norma (o lunghezza) di un vettore, \(\parallel
              v\parallel=\sqrt{v\cdot v}\). Diseguaglianza di Cauchy-Schwarz:
              dati due vettori \(v\) e \(w\) si ha che \(|v\cdot
              w|\leqslant\parallel v\parallel \,\parallel w\parallel\).
              Proprietà della norma: la norma assume sempre valori
              positivi ed è nulla solo per il vettore nullo; la norma è
              positivamente omogenea di grado 1. Diseguaglianza
              triangolare. Angolo (convesso) compreso tra due vettori
              non nulli. Detto \(\theta\) l'angolo compreso tra due
              vettori non nulli \(v\) e \(w\), si ha che \(v\cdot
              w=\parallel v\parallel \,\parallel w\parallel
              \cos\theta\). Teorema di Pitagora.
              Versori. Normalizzazione di vettori. Basi ortogonali.
              Basi ortonormali. Dei vettori non nulli e a due a due
              ortogonali sono linearmente indipendenti. Normalizzando i
              vettori di una base ortogonale si ottiene una base
              ortonormale. Procedimento ortogonale di Gram-Schmidt.
              Formule di calcolo del prodotto scalare e della norma
              di un vettore in termini delle coordinate rispetto ad una
              qualsiasi base ortonormale. 
          
          LEZIONE 44
            Argomenti: Esercitazione: Diagonalizzazione di forme
          quadratiche. Sottospazi ortogonali.
          
          
LEZIONE 45
            Argomenti: Complemento ortogonale di un sottospazio
          vettoriale. Teorema di decomposizione ortogonale: Dato un
          sottospazio vettoriale non nullo \(W\subseteq\mathbb R^n\),
          risulta che \(\mathbb R^n=W\oplus W^\bot\); in particolare si
          ha che \(\textrm{dim}W^\bot=n-\textrm{dim}W\). Proiezione
          ortogonale di vettori rispetto a un sottospazio. 
          Interpretazione geometrica del coefficiente di Fourier e del
          procedimento ortogonale di G.-S. Matrici ortogonali. Una
          matrice ortogonale è invertibile. Una matrice di ordine \(n\)
          è ortogonale se e solo se le sue righe (colonne) sono una base
          di ortonormale di \(\mathbb R^n\). Le matrici ortogonali hanno
          determinante uguale a \(\pm1\). Siano \(\mathcal B\) una base
          ortonormale di \(\mathbb R^n\), \(\mathcal B'\) un'altra base
          di \(\mathbb R^n\) e sia \(P\) la matrice di passaggio da
          \(\mathcal B\) a \(\mathcal B'\); allora la base \(\mathcal
          B'\) è ortonormale se e solo se \(P\) è una matrice
          ortogonale. Endomorfismi simmetrici di \(\mathbb R^n\). Siano
          dati due endomorfismi \(F\) e \(G\)  di \(\mathbb R^n\)
          tali che \(F(v)\cdot w=v\cdot G(w)\), per ogni \(v,w\in\mathbb
          R^n\), allora la matrice canonica di \(F\) è la trasposta
          della matrice canonica di \(G\). Un endomorfismo di \(\mathbb
          R^n\) è simmetrico se e solo se la sua matrice rispetto a una
          qualsiasi base ortonormale è una matrice simmetrica.  Un
          endomorfismo simmetrico trasforma vettori ortogonali ad un
          autovettore in vettori ortogonali allo stesso autovettore. 
          
Esercizi
                Foglio 17: Spazi vettoriali euclidei
              
              LEZIONE 46
                Argomenti: Teorema spettrale: motivazione.Tereoma
              spettrale (per endomorfismi simmetrici): Ogni endomorfismo
              simmetrico di \(\mathbb R^n\) è diagonalizzabile rispetto
              ad una base ortonormale di suoi autovettori. Teorema
              spettrale (per matrici simmetriche): Ogni matrice
              simmetrica è sia simile che congruente ad una matrice
              diagonale, ovvero per ogni matrice simmetrica \(A\)
              esistono una matrice diagonale \(D\) ed una matrice
              ortogonale \(M\) tali che \(D=M^{-1}AM=M^{T}AM\). Se una
              matrice simmetrica di ordine \(n\) \(A\) ha \(r\)
              autovalori non nulli di cui \(p\) positivi ed 
              \(r-p\) negativi, allora la matrice \(A\) ha rango \(r\) e
              segnatura \(\textrm{sgn}(A)=(p,r-p)\). Teorema di 
                Harriot-Descartes
              (regola dei segni di Cartesio): Sia \(f(x)\in\mathbb
              R[x]\) un polinomio a coefficienti reali non costante;
              allora il numero di radici reali positive di \(f(x)\) non
              supera il numero delle variazioni di segno dei
              coefficienti di \(f(x)\) (ordinati secondo le potenze
              decrescenti della \(x\)) ed  il numero di radici
              reali negative di \(f(x)\) non supera il numero delle
              variazioni di segno dei coefficienti di \(f(-x)\)
              (ordinati secondo le potenze decrescenti della
              \(x\)).  
              Esercizi
                Foglio 18: Teorema spettrale
              
              LEZIONE 47
                Argomenti: Se un polinomio \(f(x)\in\mathbb R[x]\)
              ha solo radici reali (non nulle), il numero delle radici
              positive di \(f(x)\) è uguale al numero delle variazioni
              di segno ed il numero delle radici negative di \(f(x)\) è
              uguale al numero delle variazioni di segno dei
              coefficienti di \(f(-x)\). Una matrice simmetrica di rango
              \(r\) ha segnatura \((p,r-p)\) se e solo se nel suo
              polinomio caratteristico ci sono \(p\) variazioni di
              segno. Prodotto vettoriale in \(\mathbb R^3\). Il prodotto
              vettoriale è bilineare antisimmetrico. Il prodotto
              vettoriale di due vettori è nullo se e solo se i due
              vettori sono linearmente dipendenti. Prodotto misto di tre
              vettori. Il prodotto misto è lineare rispetto ai suoi
              argomenti e cambia segno per ogni scambio dei vettori che
              si moltiplicano. Il prodotto vettoriale di due vettori è
              ortogonale ad entrambi i fattori. Dati due vettori \(v\) e
              \(w\) di \(\mathbb R^3\), si ha che \(\parallel v\wedge
              w\parallel^2 =\parallel v\parallel ^2\,\,\parallel
              w\parallel^2-(v\cdot w)^2 \). Dati due vettori linearmente
              indipendenti \(v\) e \(w\), si ha che \(\left\{v,w,v\wedge
              w\right\}\) è una base di \(\mathbb{R}^3\). Siano dati due
              vettori non nulli \(v\) e \(w\) in \(\mathbb R^3\) e sia
              \(v=a+b\) con \(a\) parallelo a \(w\) e \(b\)
              perpendicolare a \(w\), allora \(\parallel v\wedge
              w\parallel = \parallel b\parallel \,\parallel
              w\parallel\). Il modulo del prodotto vettoriale di due
              vettori eguaglia l'area del parallelogramma sotteso dai
              due vettori. Dati tre punti nello spazio \(A,B,C\), l'area
              del triangolo \(ABC\) è data da \(\mathcal A= \frac12
              \parallel\vec{AB}\wedge\vec{AC}\parallel\). Il valore
              assoluto del prodotto misto di tre vettori nello spazio dà
              il volume del parallelepipedo sotteso ai tre vettori.
              Sistemi di riferimento cartesiano nel piano euclideo.
              Distanza tra due punti. Versore normale ad una retta. i.
              Dati un punto \(P(x_0,\,y_0)\) e la retta \(r:\
              ax+by+c=0\), la distanza di \(P\) da \(r\) vale
              \(d(P,r)=\displaystyle\frac{|ax_0+by_0+c|}{\sqrt{a^2+b^2}}\).
              Distanza tra rette parallele nel piano. Circonferenza nel
              piano. Ortottica e isottica di un segmento.
              Esercizi
                Foglio 19: Prodotto vettoriale
              Esercizi Foglio
                20: Piano Euclideo
              
              LEZIONE 48
                Argomenti: Spazio euclideo tridimensionale. Sistema
              di riferimento cartesiano. Distanza tra due punti. Dato il
              piano \(ax+by+cz+d=0\), il vettore di giacitura di
              \(\pi\), \(v_\pi=(a,b,c)\), è ortogonale al piano \(\pi\).
              Data una retta \(r\) di vettore direzionale \(v_r\) ed un
              piano \(\pi\) di giacitura \(v_\pi\), si ha che \(r\) è
              parallela a \(\pi\) se e solo se \(v_r\) e \(v_\pi\) sono
              ortogonali, \(r\) è ortogonale a \(\pi\) se e solo se
              \(v_r\) e \(v_\pi\) sono paralleli (proporzionali). Due
              piani sono perpendicolari se e solo se lo sono le loro
              giaciture. Distanza di un punto da un piano: dati un punto
              \(P(x_0,\,y_0,\,z_0)\) e il piano \(\pi:\ ax+by+cz+d=0\),
              la distanza di \(P\) da \(\pi\) vale
              \(d(P,\pi)=\displaystyle\frac{|ax_0+by_0+cz_0+d|}{\sqrt{a^2+b^2+c^2}}\).
              Distanza di un punto da una retta. Distanza di una retta
              da un piano. Distanza tra due piani. Distanza tra due
              rette complanari. Proiezione ortogonale di un punto su un
              piano, di un punto su una retta e di una retta su un
              piano. Teorema della perpendicolare comune: Date due rette
              sghembe \(r\) ed \(r'\), esiste ed è unica la retta \(s\)
              perpendicolare sia ad \(r\) che ad \(r'\) ed incidente sia
              \(r\) che \(r'\), inoltre la distanza tra i due punti di
              incidenza dà la distanza tra le due rette sghembe. Sfere
              nello spazio.
              Esercizi Foglio
                21: Spazio euclideo
              
              LEZIONE 49
                Argomenti: Esercitazione: forme quadratiche,
              teorema spettrale.
              
              LEZIONE 50
                Argomenti: Esercitazione: Spazi vettoriali
              euclidei, prodotto vettoriale.
              
              LEZIONE 51
                Argomenti: Sfera e circonferenza nello spazio.
              Problemi vari. Una trasformazione (lineare) del piano
              affine è un'applicazione \(f:\mathbb R^2\to \mathbb R^2\)
              tale che per ogni punto \(P(x,y)\) si abbia
              \(f(x,y)=(ax+by+c,\,\,a'x+b'y+c')\); inoltre ad una
              trasformazione lineare si associa la matrice
              \(A=\begin{pmatrix}a&b\\a'&b'\end{pmatrix}\) ed il
              vettore \(v=(c,c')\). Una trasformazione costante del tipo
              \(f(x,y)=(x_0,\,y_0)\) fa implodere tutto il piano nel
              punto \((x_0,y_0)\). La trasformazione identica
              \(f(x,y)=(x,y)\) lascia fissi tutti i punti, ha matrice
              associata identica e vettore associato nullo. Una
              traslazione è di tipo \(f(x,y)=(x+c,\,\,y+c')\), ha
              matrice associata identica e vettore associato \((c,c')\).
              Proiezione sull'asse \(x\): \(\Pi_x(x,y)=(x,0)\).
              Rotazione attorno all'origine di un angolo \(\vartheta\):
              \(\rho_\vartheta(x,y)=(\cos\vartheta\,x-\sin\vartheta\,y;\
              \sin\vartheta\,x+\cos\vartheta\,y)\). Dilatazioni.
              Simmetria centrale rispetto ad un punto \(C=(x_C,\,y_C)\):
              \(\sigma_C(x,y)=(2x_C-x,\,\,2y_C-y)\). La simmetria
              centrale rispetto a \(C\) è una rotazione di \(180^\circ\)
              attorno al punto \(C\). Simmetria rispetto all'asse \(x\):
              \(\sigma_x(x,y)=(x,\,-y)\). Interpretazione geometrica di
              autovalori ed autovettori di omomorfismi di \(\mathbb
              R^2\). Un'affinità è una trasformazione lineare del piano
              con amtrice associata invertibile. Un'isometria è
              un'affinità con matrice associata ortogonale. Se \(f\) è
              un'isometria, allora conserva le distanze e le lunghezze,
              cioè \(\parallel
              \stackrel{\longrightarrow}{f(P)f(Q)}\parallel=\parallel\stackrel{\longrightarrow}{PQ}
              \parallel\), per ogni coppia di punti \(P\) e \(Q\) del
              piano. La composizione di affinità è un'affinità. La
              composizione di isometrie è un'isometria. Equazione
              generale di una rototraslazione. 
              Esercizi
                Foglio 22: Sfere e circonferenze
              Esercizi
                Foglio 23: Trasformazioni del piano
              
              LEZIONE 52
                Argomenti: Esercitazione: geometria euclidea del
              piano e dello spazio. 
              
              LEZIONE 53
                Argomenti: Trasformazioni di rette e curve per
              azione di una trasformazione lineare. Una conica è un
              insieme dei punti del piano le cui coordinate \((x,y)\)
              verificano un'equazione di secondo grado di tipo:
              \(\mathscr C:
              a_{11}x^2+a_{22}y^2+2a_{12}xy+2a_{01}x+2a_{02}y+a_{00}=0\),
              con \(a_{ij}\in\mathbb R\) e \(a_{11},a_{12},a_{22}\) non
              contemporaneamente nulli. Matrice (simmetrica) associata
              ad una conica: data la conica \(\mathscr C\) di equazione
              come sopra, la matrice associata a \(\mathscr C\) è la
              matrice simmetrica
              \(A=\begin{pmatrix}a_{00}&a_{01}&a_{02}\\a_{10}&a_{11}&a_{12}\\a_{20}&a_{21}&a_{22}\end{pmatrix}\),
              in cui \(a_{01}=a_{10},\ a_{02}=a_{20},\ a_{21}=a_{12}\).
              Se \(A\) è la matrice associata alla conica \(\mathscr
              C\), allora si ha che \(\mathscr C\) ha equazione:
              \(\mathscr
              C:(1,x,y)A\begin{pmatrix}1\\x\\y\end{pmatrix}=0\). Rango
              di una conica. Coniche non degeneri, coniche degeneri,
              semplicemente degeneri e doppiamente degeneri. Matrice e
              forma quadratica associata ad una conica:
              \(Q=\begin{pmatrix}a_{11}&a_{12}\\a_{21}&a_{22}\end{pmatrix}\)
              e \(Q(x,y)=a_{11}x^2+a_{22}y^2+2a_{12}xy\). Tipo di una
              conica: coniche di tipo ellittico, iperbolico e
              parabolico. Sia \(f\) un'isometria del piano euclideo, sia
              \(f^{-1}(x,\,y)=M\begin{pmatrix}x\\y\end{pmatrix}+\begin{pmatrix}c_1\\c_2\end{pmatrix}\),
              con
              \(M=\begin{pmatrix}m_{11}&m_{12}\\m_{21}&m_{22}\end{pmatrix}\),
              la trasformazione inversa di \(f\), sia data la matrice
              \(S=\begin{pmatrix}1&0&0\\c_1&m_{11}&m_{12}\\c_2&m_{21}&m_{22}\end{pmatrix}\),
              allora presa la conica \(\mathscr C\) con matrice
              associata \(A\) e matrice quadratica \(Q\) e dette \(A'\)
              la matrice associata alla trasformata \(f(\mathscr C)\) di
              \(\mathscr C\) sotto l'azione di \(f\) e \(Q'\) la matrice
              quadratica di \(f(\mathscr C)\), si ha che \(\lambda
              A'=S^TA\,S\) e \(\lambda Q'=M^TQ\,M\), per qualche
              \(\lambda\in\mathbb R\). Teorema di invarianza: data una
              conica \(\mathscr C\) con matrice associata \(A\) e
              matrice quadratica \(Q\), se \(\mathscr C'\) è la
              trasformata di \(\mathscr C\) sotto l'azione di
              un'isometria e \(A'\) e \(Q'\) sono le matrici associate
              ad essa, si ha che \(\textrm{rank} A=\textrm{rank} A'\),
              \(\textrm{det} Q=\textrm{det} Q'\), \(\textrm{sgn}
              Q=\textrm{sgn} Q'\). Il tipo e il rango di una conica sono
              invarianti euclidei (per effetto di isometrie). Le nove
              forme canoniche delle coniche euclidee. Classificazione
              delle forme canoniche per rango, tipo e grafico (per
              distinguere le ellissi e le parabole semplicemente
              degeneri reali dalle corrispettive con grafico vuoto).
              Teorema di riduzione in forma canonica: ogni conica
              euclidea è isometrica (o congruente) ad una soltanto delle
              nove forme canoniche, ovvero si può sempre trovare
              un'isometria che trasforma la conica data nella sua forma
              canonica. 
              Esercizi Foglio 24:
                Coniche
              
              LEZIONE 54
                Argomenti: Esempi di riduzione in forma canonica
              diconiche euclidee. Quadriche nello spazio euclideo
              (tridimensionale). Matrice associata e matrice quadratica
              di una quadrica. Rango di una quadrica. Forme canoniche
              delle quadriche euclidee. Quadriche di rango 4 e di rango
              3. Ellissoide a punti reali. Ellissoide immaginario.
              Iperboloide iperbolico (a una falda). Iperboloide
              ellittico (a due falde). Paraboloide ellittico.
              Paraboloide iperbolico (a sella). Cono (doppio o quadrico)
              a punti reali e cono a punti immaginari. Cilindri
              ellittici, parabolici e iperbolici. Sezioni di quadriche
              con piani paralleli ai piani coordinati \(xy\), \(xz\) e
              \(yz\). Quadriche rigate. Piani tangenti ad una quadrica
              (cenni). Punti ellittici, iperbolici, parabolici su una
              quadrica. Il cono quadrico contiene le coniche a punti
              reali (tranne la coppia di rette parallele). Generazione
              meccanica di un iperboloide a sella (per scorrimento del
              vertice di una parabola lungo il profilo di un'altra).
              Analisi del modello di un cono, di un iperboloide
              iperbolico e di un paraboloide iperbolico. Esempi di
              riduzione in forma canonica.
              Esercizi Foglio 25:
                Quadriche 
              
              LEZIONE 55
                Argomenti: Gruppi (finiti o infiniti) di isometrie
              nel piano (cenni). Gruppo diedrale del triangolo
              equilatero, del quadrato, del rettangolo. Le isometrie del
              piano nelle arti figurative (arte islamica, Caravaggio,
              Borromini, Escher, cristalli di neve). Trasformazioni
              geometriche utilizzate nelle composizioni musicali di J.S.
              Bach (canone, ripetizione, trasposizione, inversione,
              retrogradazione del tema principale). Forma Sonata,
              analisi della sonata in La minore di Mozart. 
              
              LEZIONE 56
                Argomenti: Esercitazione: Coniche e quadriche.
              
              LEZIONE 57
                Argomenti: Introduzione agli spazi proiettivi:
              motivazione. Il piano proiettivo reale \(\mathbb
              P^2({\mathbb R})\) è l'insieme delle terne non nulle di
              numeri reali definite a meno di un fattore moltiplicativo
              non nullo. Coordinate omogenee \(P[x_1,x_2,x_0]\) di un
              punto \(P\in \mathbb P^2\). Una retta proiettiva in
              \(\mathbb P^2\) è l'insieme dei punti che verificano una
              equazione lineare omogenea a coefficienti reali nelle tre
              indeterminate \(X_1,X_2,X_0\) del tipo
              \(aX_1+b_2+cX_0=0\). La definizione di retta è ben posta.
              Per due punti distinti di \(\mathbb P^2\) passa una e una
              sola retta proiettiva. Due rette distinte in \(\mathbb
              P^2\) si intersecano in un unico punto (in \(\mathbb P^2\)
              non esistono rette parallele). Immersione naturale
              (iniettiva) del piano affine nel piano proiettivo: ogni
              punto \(P(x_P,y_P)\) del piano affine si identifica con il
              punto proiettivo \(\bar P[x_P,y_P,1]\). A meno di
              identificazioni, il piano proiettivo è unione del piano
              affine e dei punti che giacciono sulla retta \(X_0=0\),
              detta la retta impropria. I punti con ultima coordinata
              non nulla (quindi di tipo \([a,b,1]\)) sono detti punti
              propri, i punti dela retta impropria (di tipo
              \([\alpha,\beta,0]\)) sono detti impropri. Per definire
              luoghi geometrici in \(\mathbb P^2\) si devono usare
              polinomi omogenei nelle indeterminate \(X_0,X_1,X_2\)
              affinché l'appartenenza ad un luogo geometrico non dipenda
              dalle coordinate scelte per il punto. Data la retta affine
              \(r:\ ax+by+c=0\), la retta proiettiva \(\bar r:\
              aX_1+bX_2+cX_0=0\) è detta la chiusura proiettiva della
              retta \(r\) è può essere ottenuta omogenizzando
              l'equazione di \(r\) ponendo \(x=\frac{X_1}{X_0}\),
              \(y=\frac{X_2}{X_0}\) e cancellando i denominatori. Data
              una retta proiettiva \(\bar r:\ aX_1+bX_2+cX_0=0\), la sua
              parte affine \(r\) può essere ottenuta ponendo \(X_0=1\)
              ed il suo punto improprio è \(r_\infty[-b,a,0]\) che
              rappresenta la direzione della retta \(r\). Due rette
              affini parallele hanno (chiusure proiettive che hanno) il
              punto improprio in comune, quindi la stessa direzione. Il
              "punto all'infinito" \(r_\infty\) di una retta affine
              \(r\) è il punto improprio della sua chiusura proiettiva
              \(\bar r\). Due rette affini parallele si incontrano
              all'infinito (nel loro punto improprio comune).
              Esercizi
                foglio 26: Piano proiettivo
               
          LEZIONE 58
                      Argomenti: Esercitazione:
                  Trasformazioni del piano, circonferenze e sfere. 
                  
                LEZIONE 59
                Argomenti: Esercitazione: piano proiettivo.
                
              LEZIONE 60
                Argomenti: Il modello di \(\mathbb P^2\) come disco
              con il bordo in cui il piano affine è la parte interna del
              cerchio e la retta impropria è il bordo del cerchio. Una
              conica proiettiva è l'insieme dei punti di \(\mathbb P^2\)
              che annullano un polinomio omogeneo di secondo grado del
              tipo: \(\mathscr C:\  
              a_{11}X_1^2+a_{22}X_2^2+2a_{12}X_1X_2+2a_{01}X_0X_1+2a_{02}X_0X_2+a_{00}X_0^2=0\),
              con \(a_{ij}\in\mathbb R\) e non tutti nulli. Il polinomio
              che definisce una conica proiettiva è una forma quadratica
              nelle indeterminate \(X_0,X_1,X_2\) con matrice
              (simmetrica) associata
              \(A=\begin{pmatrix}a_{00}&a_{01}&a_{02}\\a_{10}&a_{11}&a_{12}\\a_{20}&a_{21}&a_{22}\end{pmatrix}\).
              In termini di matrice associata l'equazione di \(\mathscr
              C\) può essere scritta come \(\mathscr C: \
              (X_0,X_1,X_2)A\begin{pmatrix}X_0\\X_1\\X_2\end{pmatrix}=0\).
              Rango di una conica proiettiva. Coniche non degeneri
              (\(\textrm{rk}\mathscr{C}=3\)), coniche degeneri
              (\(\textrm{rk}\mathscr{C}<3\)), semplicemente degeneri
              (\(\textrm{rk}\mathscr{C}=2\)), doppiamente degeneri
              (\(\textrm{rk}\mathscr{C}=1\)). Cambiamenti di coordinate
              proiettive. Data una matrice invertibile \(M\) di ordine
              3, M definisce un cambiamento di coordinate dalle
              "vecchie" \(X_0,X_1,X_2\) alle "nuove" \(X_0',X_1',X_2'\)
              secondo le formule di trasformazione
              \(\begin{pmatrix}X_0\\X_1\\X_2\end{pmatrix}=M\begin{pmatrix}X_0'\\X_1'\\X_2'\end{pmatrix}\)
              e dalle vecchie alle nuove secondo le formule
              \(\begin{pmatrix}X_0'\\X_1'\\X_2'\end{pmatrix}=M^{-1}\begin{pmatrix}X_0\\X_1\\X_2\end{pmatrix}\).
              Coniche proiettive canoniche (conica vuota e conica reale
              di rango 3, conica ridotta a un punto, conica unione di
              due rette incidenti e conica unione di due rette
              coincidenti). Teorema di classificazione delle coniche
              proiettive: per ogni conica proiettiva è possibile trovare
              un cambiamento di ccordinate proiettive che la trasforma
              in una delle 5 forme canoniche proiettive. La
              classificazione proiettiva delle coniche è meno fine della
              classificazione affine (e di quella euclidea). Chiusura
              proiettiva di una conica affine. La chiusura proiettiva
              conserva il rango di una conica. Una conica proiettiva di
              rango 3 ha una, due o nessuna intersezione con la retta
              impropria \(X_0=0\). Una conica di rango 3 è detta di tipo
              ellittico se non interseca la retta impropria, di tipo
              parabolico se interseca la retta impropria in un solo
              punto, di tipo iperbolico se interseca la retta impropria
              in due punti distinti. Configurazione delle coniche di
              rango 3 nel piano proiettivo a seconda del loro tipo.
              Configurazione delle chiusure proiettive delle coniche
              affini di rango 3. Motivazione della nomenclatura dei tipi
              delle coniche proiettive.
              Esercizi
                Foglio 27: Coniche proiettive
              
              LEZIONE 61
                Argomenti: L'anello dei polinomi \(\mathbb
              R[x,y]\). Polinomi omogenei dell'anello \(\mathbb
              R[X_0,X_1,X_2]\). Legge di annullamento del prodotto tra
              polinomi. Omogenizzazione rispetto ad \(X_0\) di un
              polinomio di \(\mathbb R[x,y]\) (con la sostituzione
              abituale  \(x=\frac{X_1}{X_0}\),
              \(y=\frac{X_2}{X_0}\)). Deomogenizzazione di un polinomio
              omogeneo di \(\mathbb R[X_0,X_1,X_2]\) con la sostituzione
              \(X_0=1,\ X_1=x,\ X_2=y\). Curve algebriche piane affini e
              proiettive. Motivazione. Grado di una curva algebrica
              (affine o proiettiva). Chiusura proiettiva di una curva
              affine. Parte affine di una curva proiettiva.
              L'omogenzzazione delle curve affini conserva il grado
              delle curve. La deomogenizzazione delle curve proiettive
              conserva il grado a patto che \(X_0\) non sia un fattore
              del polinomio che definisce la curva proiettiva. La
              chiusura proiettiva di una curva affine aggiunge alla
              curva i suoi punti all'infinito. Una retta ed una curva
              (affine o proiettiva) di grado \(n\) che non contiene la
              retta hanno in comune al più \(n\) punti. La chiusura
              proiettiva e la deomogenizzazione conservano i punti
              propri di intersezione. Una curva ed una retta disgiunti
              nel piano affine possono invece avere intersezioni nel
              piano proiettivo. Derivate parziali. Gradiente di un
              polinomio di più variabili. Le derivate parziali di un
              polinomio omogeneo di grado \(n\) sono polinomi omogenei
              di grado \(n-1\). Identità di Euler per
              i polinomi omogenei. Un punto \(P\) di una curva (affine o
              proiettiva) \(\mathscr C\) si dice regolare se in \(P\)
              non si annulla il gradiente di \(\mathscr C\) (cioè se le
              derivate parziali non sono contemporaneamente nulle in
              \(P\)). Una curva si dice liscia se i suoi punti sono
              tutti regolari. I punti singolari di una curva affine sono
              i punti che annullano la curva ed il gradiente. I punti
              singolari di una curva proiettiva sono i punti che
              annullano il gradiente. Retta tangente ad una curva
              algebrica in un suo punto regolare: motivazione.
              Molteplicità di intersezione di una retta e di una curva
              in un punto e metodi di calcolo. 
              Esercizi Foglio 28:
                Polinomi di più variabili
               
              LEZIONE 62
                Argomenti: Teorema della retta tangente: data una
              curva affine  \(\mathscr C:\ f(x,y)=0\) ed un suo
              punto regolare \(P(x_P,y_P)\), esiste ed è unica la retta
              \(r\) che ha molteplicità di intersezione con \(\mathscr
              C\) in \(P\) maggiore o uguale a 2; tale retta è detta la
              retta tangente in \(P\) a \(\mathscr C\) ed ha equazione
              data da \(r:\ \frac{\partial f}{\partial
              x}(P)(x-x_P)+\frac{\partial f}{\partial y}(P)(y-y_P)=0\).
              Configurazione della curva e della retta tangente in un
              intorno del punto. I punti propri con molteplicità di
              intersezione tra curva e retta tangente pari sono detti
              punti di ondulazione, quelli con molteplicità di
              intersezione dispari sono detti punti di inflessione.
              Molteplicità di una curva in un suo punto. Punti semplici,
              doppi, tripli etc. Punti multipli ordinari, cuspidi, punti
              isolati. Tangenti principali in un punto di una curva.
              Cono (o complesso) tangente ad una curva in un suo
              punto. Un punto è regolare se e solo se è semplice, un
              punto è singolare se e solo se è multiplo. Studio
              dell'origine singolare. La molteplicità di una curva
              nell'origine è data dal grado minimo che compare
              nell'equazione della curva. Le tangenti principali ad una
              curva nell'origine sono ottenute dall'annullamento dei
              termini di grado minimo che compaiono nell'equazione della
              curva. Affinità, isometrie e cambiamenti di
              coordinate proiettive conservano le proprietà locali
              (tangenza, singolarità, molteplicità). Determinazione del
              centro di simmetria di una conica a centro.
            
          LEZIONE 63
                Argomenti: Se è data una curva proiettiva
              \(\mathscr C:\ F(X_1,X_2,X_0)=0\) ed un suo punto regolare
              \(P\), esiste ed è unica la retta \(r\) che ha
              molteplicità di intersezione con \(\mathscr C\) in \(P\)
              maggiore o uguale a 2; tale retta è detta la retta
              tangente in \(P\) a \(\mathscr C\) ed ha equazione data da
              \(r:\ \frac{\partial F}{\partial
              X_1}(P)\,X_1+\frac{\partial F}{\partial
              X_2}(P)\,X_2+\frac{\partial F}{\partial X_0}(P)\,X_0\). La
              retta tangente alla chiusura proiettiva in un punto
              proprio regolare coincide al finito con la retta tangente
              affine. Si chiama asintoto di una curva affine ogni retta
              affine la cui chiusura proiettiva è tangente principale in
              un punto improprio della curva. Ricerca degli asintoti nei
              punti impropri singolari usando cambi di coordinate
              omogenee. Configurazione dei rami di una curva rispetto ai
              suoi asintoti. Punti di cuspide all'infinito. Grafici di
              curve algebriche piane. 
            Esercizi
            Foglio 29: Curve algebriche piane
          
          LEZIONE 64
            Argomenti: Esercitazione in preparazione all'esame.