GEOMETRIA

Facoltà di Ingegneria Civile ed Industriale
Sapienza Università di Roma
Corso di Laurea Triennale in Ingegneria Energetica
A.A. 2016/2017


AVVISI


-   Esiti dell'appello di Ottobre 2017.
Le prove possono essere visionate martedì 24 Ottobre alle ore 16:00 presso lo studio del docente.
Le prove orali sono calendarizzate per martedì 31 Ottobre 2017 ore 16:00 (si ricorda che non sono obbligatorie). Chi intende sostenerla è pregato di avvisare il docente per email.
Chi intende verbalizzare il voto d'esame senza visionare la prova è pregato di avvisare il docente.

 
Docente:  prof. Antonio Cigliola
Esercitatore:  prof. Gabriele Gullà
 
Ricevimento

Orario delle lezioni:
Martedì [eserc.]         8:30 - 10:00       Aula 8 (via del Castro Laurenziano)
Martedì                     17:30 - 19:00     Aula 16

Mercoledì                 17:30 - 19:00     Aula 16
Giovedì                     8:30 - 10:00       Aula 16
Venerdì                     8:30 - 10:00       Aula 16
Venerdì [eserc.]        15:45 - 17:15     Aula  14

Prerequisiti:  Logica elementare. Teoria elementare degli insiemi. Insiemi numerici. Principio di induzione. Equazioni e disequazioni. Goniometria e trigonometria. Geometria Analitica di base. (In generale, sono dati per scontati tutti argomenti del Precorso di Matematica).

Programma di massima del corso:
Logica e algebra: Teoria elementare degli insiemi. Funzioni astratte tra insiemi e proprietà. Principio di Induzione. Gruppi astratti. Anelli di polinomi. 
Algebra lineare: Matrici. Determinanti. Rango. Sistemi lineari. Spazi vettoriali. Applicazioni lineari. Autovalori e autovettori.  Diagonalizzazione. Forme bilineari e quadratiche. Prodotto scalare. Prodotto vettoriale. Operatori simmetrici. Teorema spettrale. 
Geometria: Geometria affine del piano e dello spazio. Geometria euclidea del piano e dello spazio. Coniche affini ed euclidee. Quadriche euclidee. Geometria proiettiva del piano. Coniche proiettive. Curve algebriche piane affini e proiettive.

Programmi dettagliati:
Programma 2016/17
                     Programma 2015/16                Programma 2014/15            
     
Anni Accademici precedenti:    Pagina del corso 2014/15                    Pagina del corso 2015/16


Modalità d'esame:
L'esame comprende una prova scritta, un colloquio orale e una prova pratica, tutti obbligatori.
  • La prova scritta consiste in cinque esercizi, più un eventuale esercizio facoltativo. Il primo esercizio è suddiviso in due parti: l'esercizio 1A comprende due domande a risposta secca (2pt risp. esatta, 0 pt risp. non data, -1pt risp. errata), l'esercizio 1B consta di 12 vero-falso (0,5pt risp. esatta, 0 pt risp. non data, -0,25pt risp. errata). Il punteggio del primo esercizio va da -5pt. a 10pt. Gli esercizi 2,3,4, e 5 valgono da 0 a 6 punti ciascuno e possono contenere quesiti pratici o teorici. Il sesto esercizio facoltativo conferisce bonus. Il punteggio finale della prova scritta va da -5/34 a 34/34. La prova scritta si intende superata se la somma dei punteggi dei cinque esercizi (con l'eventuale bonus) è maggiore di 18.
  • Superata la prova scritta, si ha accesso alla prova orale. Essa consiste di un colloquio su argomenti inerenti al corso (discusione della prova scritta, dimostrazione e applicazione di enunciati studiati a lezione, svolgimento di esercizi) al termine della quale si stabilisce l'esito finale dell'esame.
  • La prova pratica consiste nella presentazione di (almeno) un modello di quadriche rigate.
Durante la prova scritta non è consentito l'uso di alcun supporto elettronico (pc, tablet, cellulari, orologi digitali, calcolatrici, etc.) o cartaceo (libri, appunti, dispense, etc.). È possibile utilizzare la tabella di classificazione delle quadriche fornita dal docente. La prova scritta di Gennaio dà la possibilità di sostenere la prova orale esclusivamente a Gennaio o a Febbraio. La prova scritta di Giugno dà la possibilità di sostenere la prova orale esclusivamente a Giugno o a Luglio. Eccezionalmente e a discrezione del docente, potranno essere ammesse con riserva all'orale prove scritte quasi sufficienti (<18). Un esito finale negativo annulla ogni prova, scritta o orale, già sostenuta. La votazione finale non potrà essere in ogni caso inferiore a 18 né superiore a 30 e lode.
 

Tracce d'esame:
 
Libro di testo adottato e materiale didattico consigliato:
 

Valutazioni del corso da parte degli studenti:   Frequentanti    Non frequentanti


DIARIO DELLE LEZIONI:


LEZIONE 1
Argomenti: Presentazione del corso. L'insieme \(\mathcal{M}_{m,n}(\mathbb{R})\) delle matrici di tipo \(m\times n\) a coefficienti reali. Notazioni e nomenclatura.Vettori riga e vettori colonna. Matrice nulla. L'insieme \(\mathcal{M}_{n}(\mathbb{R})\) delle matrici quadrate di ordine \(n\) a coefficienti reali. Matrici diagonali. Matrice identica di ordine \(n\). Trasposta di una matrice. Matrici triangolari superiori ed inferiori. Principio di identità tra matrici.

LEZIONE 2
Argomenti: Somma di matrici dello stesso tipo. L'addizione tra matrici è associativa e commutativa, la matrice nulla è l'elemento neutro rispetto alla somma, ogni matrice ha la sua matrice opposta. Moltiplicazione di un numero reale per una matrice: proprietà fondamentali. L'operazione di trasposizione conserva la somma tra matrici e il prodottto di un numero reale con una matrice. Matrici simmetriche ed antisimmetriche: proprietà. L'unica matrice sia simmetrica che antisimmetrica è la matrice nulla.


LEZIONE 3
Argomenti:
Teorema di decomposizione unica in parte simmetrica ed antisimmetrica: ogni matrice quadrata può essere scritta in maniera unica come somma di una matrice simmetrica ed una antisimmetrica. Prodotto di un vettore riga per un vettore colonna. Prodotto riga per colonna di matrici. In generale il prodotto riga per colonna non è commutativo. Proprietà del prodotto riga per colonna. Prese due matrici \(A\in M_{m,n}(\mathbb{R})\) e \(B\in M_{n,p}(\mathbb{R})\), allora \((AB)^T=B^TA^T\). La matrice identica è l'elemento neutro del prodotto.

LEZIONE 4
Argomenti:
Esercitazione: calcolo matriciale. Il principio di induzione matematica. Formula di Gauss e formula di Fermat. L'insieme \(\mathbb{R}^n\) delle \(n\)-uple ordinate di numeri reali. Combinazioni lineari di vettori riga e vettori colonna.Vettori linearmente dipendenti e linearmente indipendenti.
Esercizi foglio 1: Calcolo matriciale

LEZIONE 5
Argomenti:
Esercitazione: calcolo matriciale.

LEZIONE 6
Argomenti:
Vettori linearmente dipendenti e linearmente indipendenti. Un vettore riga (o colonna) è linearmente dipendente se e solo se è nullo. Due vettori riga (o colonna) sono linearmente dipendenti se e solo se uno dei due è multiplo dell'altro. Se in un insieme di vettori riga (o colonna) uno di essi è il vettore nullo, allora i vettori sono linearmente dipendenti. Se in un insieme di vettori riga (o colonna) due di essi sono uguali, allora i vettori sono linearmente dipendenti. Dei vettori (riga o colonna) sono linearmente dipendenti se e solo se uno di essi può essere scritto come combinazione lineare degli altri. Determinanti di matrici quadrati di ordine \(1\) e \(2\).  Sottomatrici complementari. Complementi algebrici. Determinanti. Sviluppo del determinante rispetto alla prima riga. Teorema di Laplace: il determinante di una matrice può essere calcolato sviluppandolo rispetto ad una qualsiasi riga o una qualsiasi colonna.
Esercizi foglio 2: Algebra lineare in \(\mathbb{R}^n\)

LEZIONE 7
Argomenti:
Regola di Sarrus. Proprietà dei determinanti: \(\textrm{det}(0_n)=0\),  \(\textrm{det}(I_n)=1\) e \(\textrm{det}(A^T)=\textrm{det}(A)\). Se una matrice ha una riga (o una colonna) nulla, il suo determinante è zero. Il determinante di una matrice triangolare è il prodotto degli elementi diagonali. Il determinante di una matrice diagonale è il prodotto degli elementi diagonali. Se in una matrice si moltiplica una riga (o una colonna) per uno scalare, il determinante della matrice resta moltiplicato per lo stesso scalare. Il determinante è lineare per righe (o per colonne). Scambiando due righe (o due colonne) in una matrice, il determinante cambia segno. Se una matrice ha due righe uguali (o due colonne uguali), il suo determinante è nullo. Se una matrice ha due righe (o due colonne) proporzionali, il suo determinante è nullo. Sommando ad una riga (o una colonna) di una matrice una combinazione lineare delle rimanenti, il determinante non cambia. Se in una matrice le righe (o le colonne) sono linearmente dipendenti, il determinante è nullo. Teorema di Binet: prese \(A\) e \(B\) due matrici quadrate dello stesso ordine, allora \(\textrm{det}(AB)=\textrm{det}A \ \textrm{det}B\). Il determinante non si distribuisce rispetto alla somma di matrici.
Esercizi foglio 3: Determinanti

LEZIONE 8
Argomenti:
Matrici quadrate invertibili. Prese due matrici invertibili \(A\) e \(B\), anche la matrice \(AB\) è invertibile e si ha che \((AB)^{-1}=B^{-1}A^{-1}\). Il gruppo lineare reale di ordine \(n\) delle matrici invertibili, \(GL_n(\mathbb{R})\). Teorema di Laplace per la matrice inversa: una matrice è invertibile se e solo se ha determinante diverso da zero. In particolare, l'inversa di una matrice è data da \(A^{-1}=\frac{1}{\textrm{det}A}(A^*)^T\), dove \(A^*\) è la matrice che ha per entrate, ordinatamente, i complementi algebrici degli elementi della matrice \(A\). Esempi di calcolo di matrici inverse. Sottomatrici e minori di una matrice. Rango di una matrice. Una matrice ha rango zero se e solo se è la matrice nulla. Se \(A\in M_{m,n}(\mathbb{R})\), allora \(\textrm{rk}A\leqslant\min\{m,\,n\}\) e se vale l'uguaglianza si dice che \(A\) ha rango massimo. Una matrice quadrata ha rango massimo se e solo se è invertibile. Il rango di una matrice \(A\) vale \(r\) se e solo se la matrice contiene un minore non nullo di ordine \(r\) e tutti i monori di \(A\) di ordine \(r+1\) sono nulli.
Esercizi foglio 4: Matrice inversa

LEZIONE 9
Argomenti:
Minori orlati. Teorema di Kronecker: il rango di una matrice vale \(r\) se e solo se la matrice contiene un minore non nullo di ordine \(r\) e tutti i suoi orlati di ordine \(r+1\) sono nulli. Equazioni lineari in una o più incognite. Soluzione di un'equazione lineare. Sistemi lineari di tipo \(m\times n\) a coefficienti reali (con \(m\) equazioni ed \(n\) incognite). Soluzione di un sistema lineare. Sistemi compatibili, determinati, indeterminati, impossibili (o incompatibili). Scrittura compatta di un sistema lineare: un sistema lineare si scrive nella forma \(A\mathbf{X}=\mathbf{b}\), dove \(A\in M_{m,n}(\mathbb{R})\) è la matrice incompleta, \(\mathbf{b}\in \mathbb{R}^m\) è la colonna dei termini noti e \(\mathbf{X}=(x_1,x_2,\dots,x_n)^T\) la colonna delle indeterminate. Sistemi omogenei. Un sistema omogeneo non è mai impossibile, ammette sempre la soluzione banale; inoltre, se ammette una soluzione non banale, ne ammette infinite. Le soluzioni di un sistema non omogeneo sono date dalla somma di una (data) soluzione particolare e di una qualsiasi soluzione del sistema omogeneo associato. Un sistema lineare ammette una, nessuna o infinite soluzioni. Sistemi lineari quadrati di ordine \(n\). Teorema di Cramer: un sistema lineare quadrato con matrice dei coefficienti \(A\) è determinato se e solo se \(\textrm{det}A\neq0\).
Esercizi foglio 5: Rango

LEZIONE 10
Argomenti:
Sistemi lineari crameriani. Teorema di Cramer: un sistema lineare quadrato con matrice dei coefficienti \(A\) è determinato se e solo se \(\textrm{det}A\neq0\) (indipendentemente dalla colonna dei termini noti). Risoluzione di un sistema crameriano col metodo della matrice inversa. Regola di Cramer per la risoluzione di un sistema crameriano. Un sistema lineare omogeneo quadrato con matrice dei coefficienti \(A\) è indeterminato se e solo se \(\textrm{det}A=0\). Una matrice quadrata ha rango massimo se e solo se le colonne (o le righe) di \(A\) sono linearmente indipendenti. Una matrice \(A\in M_{m,n}(\mathbb{R})\)  ha rango \(r\) se e solo se in \(A\) esistono \(r\) righe (o colonne) linearmente indipendenti e se \(r+1\) righe (o colonne) comunque scelte sono linearmente dipendenti. In una matrice \(A\in M_{m,n}(\mathbb{R})\)  il rango indica il massimo numero di righe (o colonne) linearmente indipendenti. Teorema di Rouché-Capelli: un sistema lineare  \(A\mathbf{X}=\mathbf{b}\) è compatibile se e solo se il rango della matrice incompleta del sistema \(A\) e il rango della matrice completa del sistema \((A|\mathbf{b})\) sono uguali. In tal caso, detto \(r\) il rango, il sistema è determinato se \(n=r\), è invece indeterminato con \(\infty^{n-r}\) soluzioni, se \(r<n\).
Esercizi foglio 6: Sistemi lineari

LEZIONE 11
Argomenti:
Esercizi vari sui teoremi di Cramer e di Rouché-Capelli. Un vettore applicato è individuato da un punto di applicazione, una direzione, un verso ed un modulo. L'insieme dei vettori geometrici applicati nel piano. Vettori geometrici liberi. Vettore nullo. Vettori equipollenti. Somma di due vettori (con la regola del parallelogramma o della poligonale) e moltiplicazione con scalare. Operazioni con i vettori liberi: somma e moltiplicazione con scalare reale. L'insieme dei vettori geometrici liberi del piano \(\mathcal{V}_2\), della retta  \(\mathcal{V}_1\) e dello spazio fisico \(\mathcal{V}_3\). Definizione astratta di gruppo e di gruppo abeliano. Esempi di gruppi additivi e moltiplicativi, abeliani e non.

LEZIONE 12
Argomenti: 
Spazi vettoriali reali. Esempi di spazi vettoriali: \( M_{m,n}(\mathbb{R})\), \(\mathbb{R}^n\)\(\mathcal{V}^2\). Lo spazio vettoriale reale \(\mathbb{R}[x]\) dei polinomi a coefficienti reali nell'indeterminata \(x\). Principio di identità tra polinomi. Lo spazio vettoriale reale \(\mathbb{R}^X\) delle funzioni a valori reali con dominio \(X\). Principio di identità tra funzioni. Operazioni tra funzioni: somma e moltiplicazione con scalare reale definite puntualmente. In uno spazio vettoriale \(V\) il vettore nullo \(\mathbf{0}_V\) è unico; il simmetrico di un vettore \(v\in V\) è unico, lo si indica con \(-v\) ed è detto l'opposto di \(v\). Legge di annullamento del prodotto negli spazi vettoriali: presi \(\lambda\in\mathbb{R}\) e \(v\in V\), si ha che \(\lambda v=\mathbf{0}_V\) se e solo se \(\lambda=0_{\mathbb{R}}\) oppure \(v=\mathbf{0}_V\). Preso un vettore un vettore \(v\) di uno spazio vettoriale \(V\), si ha che \((-1)v=-v\). Combinazioni lineari. Vettori linearmente dipendenti e linearmente indipendenti.

LEZIONE 13
Argomenti:
Esercitazione: determinanti, rango, sistemi lineari.

LEZIONE 14
Argomenti:
Un vettore è linearmente dipendente se e solo se è nullo. Due vettori sono linearmente dipendenti se e solo se sono proporzionali. Dei vettori sono linearmente dipendenti se e solo se uno di essi è combinazione lineare dei rimanenti. Se in un insieme di vettori alcuni di essi sono linearmente dipendenti, allora tutti sono linearmente dipendenti. Sottospazi vettoriali. Dato lo spazio vettoriale \(V\), gli insiemi \(\{\mathbf{0}_V\}\) e \(V\) sono sottospazi vettoriali di \(V\). Un sottospazio vettoriale contiene necessariamente il vettore nullo. Esempi di sottospazi vettoriali: matrici quadrate simmetriche \(S_n(\mathbb{R})\), antisimmetriche \(A_n(\mathbb{R})\) e diagonali \(D_n(\mathbb{R})\). L'insieme \(\mathbb{R}_{\leqslant n}[x]\) dei polinomi di grado al più \(n\) con il polinomio nullo è un sottospazio vettoriale di \(\mathbb{R}[x]\). L'insieme delle soluzioni di un sistema lineare di tipo \(m\times n\) è un sottospazio vettoriale di \(\mathbb{R}^n\) se e solo se il sistema è omogeneo. Sia \(V\) uno spazio vettoriale e siano \(v_1,\ v_2,\,\dots, v_n\) vettori di \(V\), allora il sottoinsieme costituito dalle combinazioni lineari dei \(v_i\) è un sottospazio vettoriale di \(V\); esso è chiamato il sottospazio generato dai \(v_i\) ed è indicato con \(\mathcal{L}(v_1,\ v_2,\,\dots, v_n)\). Retta vettoriale. Piano vettoriale. Spazi vettoriali finitamente generati. Lo spazio \(\mathbb{R}[x]\) non è finitamente generato. Gli spazi \(\mathbb{R}^n\), \(\mathcal{M}_{m,n}(\mathbb{R})\) e \(\mathbb{R}_{\leqslant n}[x]\) sono finitamente generati.
Esercizi foglio 7: Dipendenza lineare
Esercizi foglio 8: Sottospazi vettoriali

LEZIONE 15
Argomenti:
Dato lo spazio vettoriale \(V\), gli insiemi \(\{\mathbf{0}_V\}\) e \(V\) sono sottospazi vettoriali di \(V\).  Lo spazio \(\mathbb{R}[x]\) non è finitamente generato. Dato \(V\) uno spazio vettoriale e \(v_1, v_2,\,\dots, v_n\) vettori di \(V\), preso \(w\in\mathcal{L}(v_1, v_2,\,\dots, v_n)\), allora si ha \(\mathcal{L}(v_1, v_2,\,\dots, v_n, w)=\mathcal{L}(v_1, v_2,\,\dots, v_n)\). Dati i vettori \(v_1, v_2,\,\dots, v_n\) linearmente indipendenti di \(V\), preso \(w\not\in\mathcal{L}(v_1, v_2,\,\dots, v_n)\), allora i vettori \(v_1, v_2,\,\dots, v_n, w\) sono linearmente indipendenti. Una base di uno spazio vettoriale finitamente generato è un sistema di generatori linearmente indipendenti. Basi canoniche di \(\mathbb{R}^n\),  \(\mathbb{R}_{\leqslant n}[x]\) e \(M_{m,n}(\mathbb{R})\). Le due condizioni per definire una base sono indipendenti (e vanno verificate entrambe). Metodo degli scarti successivi: ogni spazio vettoriale non banale finitamente generato ha almeno una base.

LEZIONE 16
Argomenti:
Lemma di Steinitz: se \(\{v_1, v_2,\dots, v_n\}\) è una base di \(V\) e \(w_1, w_2, \dots, w_m\) sono \(m>n\) vettori di \(V\) allora i \(w_i\) sono linearmente dipendenti. Lemma di scambio: se in una base si sostituisce un vettore con la somma di questo vettore più una combinazione lineare dei vettori rimanenti, si ottiene una nuova base. Tutte le basi di uno spazio vettoriale finitamente generato hanno la stessa cardinalità che è detta la dimensione di \(V\) e si indica \(\dim V\). La dimensione di \(V\) indica il numero massimo di vettori linearmente indipendenti che si possono trovare in \(V\). La dimensione di \(V\) indica il numero minimo di generatori di \(V\). Se \(V\) è uno spazio vettoriale di dimensione \(n\), allora \(\{v_1, v_2,\dots, v_n\}\) è una base di \(V\) se e solo se \(v_1, v_2,\dots, v_n\) sono linearmente indipendenti, se e solo se \(v_1, v_2,\dots, v_n\) sono generatori di \(V\).  Coordinate di un vettore rispetto ad una base. Operazioni tra vettori in termini delle loro componenti rispetto ad una base. Teorema del completamento della base: Sia \(\{v_1, v_2,\dots, v_n\}\) una base di \(V\) e siano \(w_1, w_2, \dots, w_m\), con \(m<n\), vettori linearmente indipendenti  di \(V\); allora è possibile scegliere \(n-m\) vettori \(v'_1, v'_2, \dots, v'_{n-m}\) tra i \(v_i\) tali che  \(\{w_1, w_2,\dots, w_m, v'_1, \dots, v'_{n-m}\}\) sia una base di \(V\).
Esercizi Foglio n.9: Basi e dimensione di sottospazi vettoriali.

LEZIONE 17
Argomenti:
Applicazioni del completamento della base. Siano \(w_1,w_2,\dots,w_m\) vettori di uno spazio vettoriale \( V\) di dimensione \(n\) e sia \(\mathcal B\) una base di \(V\). Sia \(A\in M_{m,n}(\mathbb R)\) la matrice che ha per righe le coordinate dei \(w_i\) rispetto a \(\mathcal B\). Allora \(\textrm{rk} A=r\) indica il massimo numero di vettori linearmente indipendenti tra i \(w_i\) ed \(r\) vettori linearmente indipendenti sono quelli corrispondenti alle righe di un qualsiasi minore non nullo di \(A\) di ordine \(r\). Inoltre, i \(w_i\) sono linearmente indipendenti se e solo se \(\textrm{rk} A=m\). Siano \(\mathcal B\) e \(\mathcal B'\) basi di uno spazio vettoriale \(V\) di dimensione finita; la matrice di passaggio da \(\mathcal B\) a \(\mathcal B'\) è la matrice che si ottiene scrivendo in colonna ordinatamente le coordinate dei vettori di \(\mathcal B'\) in funzione di quelli di \(\mathcal B\). Teorema del cambiamento di coordinate nel passaggio da una base ad un'altra: siano \(P\) la matrice di passaggio dalla base \(\mathcal B\) alla base \(\mathcal B'\), \(P'\) la matrice di passaggio dalla base \(\mathcal B'\) alla base \(\mathcal B\), \(X\) la colonna delle coordinate di un vettore \(v\in V\) rispetto alla base \(\mathcal B\) e \(X'\) la colonna delle coordinate di \(v\) rispetto alla base \(\mathcal B'\), allora si ha che \(P'=P^{-1}\), \(X'=P^{-1}X\) e infine \(X=PX'\).

LEZIONE 18
Argomenti:
Esercitazione: sistemi lineari, sottospazi vettoriali, basi, dimensione.

LEZIONE 19
Argomenti:
Cambiamenti di base e di coordinate: applicazioni ed esempi. Equazioni cartesiane e parametriche di un sottospazio vettoriale. Il numero di parametri necessari per dare le equazioni parametriche di \(W\) è uguale alla dimensione di \(W\). Se \(n=\textrm{dim}V\), il numero minimo di equazioni cartesiane per descrivere \(W\) è \(n-\textrm{dim}W\). Esempi.

LEZIONE 20
Argomenti:
Se \(V\) è uno spazio vettoriale di dimensione \(n\) e \(W\) è un sottospazio di \(V\), il numero minimo di equazioni cartesiane necessarie per descrivere \(W\) è detto codimensione di \(W\) e \(\textrm{codim}W=n-\textrm{dim}W\). In particolare, per ogni sottospazio vettoriale \(W\) si ha \(n=\textrm{dim}W+\textrm{codim}W\). Se \(V\) è uno spazio vettoriale di dimensione finita e \(W\) è un sottospazio di \(V\) allora \(\textrm{dim}W\leqslant\textrm{dim}V\). Inoltre \(\textrm{dim}W=\textrm{dim}V\) se e solo se \(W=V\). L'intersezione di due sottospazi vettoriali è un sottospazio vettoriale. In generale, l'unione di due sottospazi vettoriali non è un sottospazio vettoriale. La somma di due sottospazi vettoriali è un sottospazio vettoriale ed è il più piccolo contenente l'unione dei due sottospazi. Un sistema di generatori per la somma dei sottospazi \(U\) e \(W\) è dato dall'unione di una base di \(U\) e una base di \(W\); per ottenere una base va poi applicato il metodo degli scarti successivi. Equazioni cartesiane di \(U\cap W\) sono date dal sistema contenente equazioni cartesiane di \(U\) e di \(W\). Teorema di Grassmann: Se \(U\) e \(W\) sono sottospazi vettoriali di uno spazio vettoriale di dimensione finita, allora vale la formula di Grassmann \(\textrm{dim}(U+W)+\textrm{dim}(U\cap W)=\textrm{dim}U+\textrm{dim}W\).

LEZIONE 21
Argomenti:
Esempi di applicazione della formula di Grassmann. Dati due sottospazi \(U\) e \(W\) si ha che \(U+W=W\) se e solo se \(U\cap W=U\) se e solo se \(U\subseteq W\). Somma diretta di due sottospazi. Formula di Grassmann per la somma diretta: \(\textrm{dim}(U\oplus W)=\textrm{dim}U+\textrm{dim}W\). Teorema della somma diretta: dati \(U\) e \(W\) sottospazi vettoriali, si ha che \(U\) e \(W\) sono a somma diretta se e solo se ogni vettore di \(U+W\) si scrive in maniera unica come somma di un vettore di \(U\) e di un vettore di \(W\). Siano \(T\), \(U\) e \(W\) sottospazi vettoriali, siano \(\mathcal {B}_U=\{u_1,\dots, u_m\}\) una base di \(U\) e \(\mathcal {B}_W=\{w_1,\dots, w_l\}\) una base di \(W\), allora \(T=U\oplus W\) se e solo se \(\{u_1,\dots, u_m,w_1,\dots,w_l\}\) è una base di \(T\). Sottospazi complementari. In uno spazio vettoriale finitamente generato ogni sottospazio ammette un complemento diretto (che non è unico in generale). Somma diretta di più sottospazi vettoriali.
Esercizi Foglio n.10: Somma e intersezione di sottospazi vettoriali.

LEZIONE 22
Argomenti: Sistemi di riferimento affine nel piano. Coordinate affini di punti e vettori nel piano. Operazioni tra vettori in termini di coordinate. Presi due punti del piano \(A\) e \(B\), le coordinate del vettore \(\stackrel{\longrightarrow}{AB}\) sono date dalla differenza delle coordinate del punto finale \(B\) meno quelle del punto di applicazione \(A\); più in generale si ha che \(\stackrel{\longrightarrow}{AB}=v\) se e solo se \(B=A+v\) . Una retta nel piano è univocamente individuata da un suo punto e da un vettore ad essa parallelo. Vettore direzionale e parametri direttori di una retta. Equazione vettoriale di una retta: data una retta \(r\), un punto \(P_0\in r\) ed un vettore direzionale \({v}\) di \(r\), allora un punto \(P\) del piano appartiene ad \(r\) se e solo se \(\stackrel{\longrightarrow}{P_0P}=t\,{v}\), per qualche \(t\in \mathbb R\). Equazioni parametriche di una retta: data una retta \(r\), un punto \(P_0(x_0,\,y_0)\in r\) ed un vettore direzionale \({v}(l,\,m)\) di \(r\), allora equazioni parametriche di \(r\) sono date da \(\begin{cases}x=x_0+l\,t\\y=y_0+m\,t   \end{cases}\).

LEZIONE 23
Argomenti:
Esercitazione: sottospazi vettoriali, basi, somma e intersezione, formula di Grassmann, somma diretta.

LEZIONE 24
Argomenti:
Equazione cartesiana di una retta: una retta nel piano è rappresentata da un'equazione del tipo \(ax+by+c=0\), con \(a\) e \(b\) non contemporaneamente nulli, e viceversa, ogni equazione di questo tipo ha per grafico nel piano una retta. La retta di equazione \(ax+by+c=0\) ha per vettore direzionale il vettore \((-b,a)\). Dati \(P_1(x_1,y_1)\) e \(P_2(x_2,y_2)\) due punti distinti del piano, la retta che li congiunge ha equazioni parametriche date da \(\begin{cases}x=x_1+(x_2-x_1)\,t\\y=y_1+(y_2-y_1)\,t\end{cases}\) ed equazione cartesiana data da \(\begin{vmatrix}x-x_1&y-y_1\\x_2-x_1&y_2-y_1\end{vmatrix}=0\). Condizione di allineamento di tre punti. Rette parallele, rette coincidenti, rette parallele e distinte, rette incidenti. Posizione reciproca di due rette nel piano: siano date due rette \(r:\ ax+by+c=0\) e \(r':\ a'x+b'y+c'=0\), allora \(r\|r'\) se e solo se \(\textrm{rk}\begin{pmatrix}a&b\\a'&b'\end{pmatrix}=1\); in particolare sono parallele e coincidenti se e solo se \(\textrm{rk}\begin{pmatrix}a&b&c\\a'&b'&c'\end{pmatrix}=1\), sono parallele e distinte se e solo se \(\textrm{rk}\begin{pmatrix}a&b\\a'&b'\end{pmatrix}=1\) e \(\textrm{rk}\begin{pmatrix}a&b&c\\a'&b'&c'\end{pmatrix}=2\); infine \(r\) ed \(r'\) sono incidenti se e solo se \(\textrm{rk}\begin{pmatrix}a&b\\a'&b'\end{pmatrix}=\textrm{rk}\begin{pmatrix}a&b&c\\a'&b'&c'\end{pmatrix}=2\). Esempi di geoemtria piana affine.
Esercizi Foglio n.11: Piano affine.

LEZIONE 25
Argomenti:
Richiami sulle proprietà elementari dello spazio euclideo tridimensionale. Punti allineati e punti complanari. Vettori allineati e vettori complanari. Tre vettori di \(\mathcal V^3\) sono linearmente dipendenti se e solo se sono complanari. Lo spazio \(\mathcal V_O^3\) ha dimensione tre. Lo spazio affine tridimensionale \(\mathbb A^3(\mathbb R)\). Sistema di riferimento affine e coordinate affini nello spazio. Coordinate di vettori liberi ed applicati. I punti \(P_1,\ P_2,\ \dots,\ P_n\) sono allineati (rispettivamente complanari) se e solo se la matrice che ha per righe ordinatamente le coordinate dei vettori \(\stackrel{\longrightarrow}{P_1P_2}\), \(\dots\), \(\stackrel{\longrightarrow}{P_1P_n}\) ha
rango 1 (rispettivamente rango 2). Equazione vettoriale di una retta: data una retta \(r\), un punto \(P_0\in r\) ed un vettore direzionale \({v}\) di \(r\), allora un punto \(P\) del piano appartiene ad \(r\) se e solo se \(\stackrel{\longrightarrow}{P_0P}=t\,{v}\), per qualche \(t\in \mathbb R\). Equazioni paramtriche di una retta: una retta parallela al vettore \( v=(l,m,n)\) e passante per il punto \(P_0=(x_0,y_0,z_0)\) ha equazioni parametriche  \(\begin{cases}x=x_0+l\,t\\y=y_0+m\,t\\z=z_0+n\,t   \end{cases}\). Condizioni operative per l'allineamento di tre punti e per la complanarità di quattro punti. Equazione vettoriale di un piano: dato un piano \(\pi\), un punto \(P_0\in \pi\) e due vettori non linearmente indipendenti \(v\) e \(w\) \({v}\) paralleli a \(\pi\), allora un punto \(P\) appartiene a \(\pi\) se e solo se \(\stackrel{\longrightarrow}{P_0P}=t\,{v}+t'\,w\), per qualche \(t,\,t'\in \mathbb R\). Equazioni parametriche di un piano: il piano parallelo ai vettori \( v=(l,m,n)\) e \( w=(l',m',n')\) e passante per il punto \(P_0=(x_0,y_0,z_0)\) ha equazioni parametriche  \(\begin{cases}x=x_0+l\,t+l\,t'\\y=y_0+m\,t+m\,t'\\z=z_0+n\,t+n\,t'\end{cases}\). Siano dati  \(P_1(x_1,y_1,z_1)\), \(P_2(x_2,y_2,z_2)\) e  \(P_3(x_3,y_3,z_3)\) tre punti non allineati dello spazio; il piano che li contiene ha equazioni parametriche date da \(\begin{cases}x=x_1+(x_2-x_1)\,t+(x_3-x_1)\,t'\\y=y_1+(y_2-y_1)\,t+(y_3-y_1)\,t'\\z=z_1+(z_2-z_1)\,t+(z_3-z_1)\,t'\end{cases}\). Tutti e soli i piani dello spazio sono rappresentati da un'equazione del tipo \(ax+by+cz+d=0\), con \(a,b,c\) non contemporaneamente nulli. Equazioni cartesiane di una retta nello spazio: tutte e sole le rette dello spazio sono definite da un sistema lineare di due equazioni in tre indeterminate del tipo \(\begin{cases}ax+by+cz+d=0\\ a'x+b'y+c'z+d'=0\end{cases}\), con \(\textrm{rk}\begin{pmatrix}a&b&c\\a'&b'&c'\end{pmatrix}=2\).

LEZIONE 26
Argomenti:
Una retta di equazioni cartesiane \(r:\ \begin{cases}ax+by+cz+d=0\\ a'x+b'y+c'z+d'=0\end{cases}\) ha come vettore direzionale il vettore \(v_r=\left(\begin{vmatrix}b&c\\b'&c'\end{vmatrix},\ -\begin{vmatrix}a&c\\a'&c'\end{vmatrix},\ \begin{vmatrix}a&b\\a'&b'\end{vmatrix}\right)\). Piani coincidenti, piani paralleli e distinti, piani incidenti. I piani paralleli (in senso lato) si distinguono in piani propriamente paralleli e piani (paralleli e) coincidenti. Teorema di classificazione delle posizioni reciproche di due piani nello spazio: siano dati due piani \(\pi:\ ax+by+cz+d=0\) e \(\pi':\ a'x+b'y+c'z+d'=0\); allora \(\pi\) e \(\pi'\) sono paralleli e distinti se e solo se \(\textrm{rk}\begin{pmatrix}a&b&c\\a'&b'&c'\end{pmatrix}=1\) e \(\textrm{rk}\begin{pmatrix}a&b&c&d\\a'&b'&c'&d'\end{pmatrix}=2\); \(\pi\) e \(\pi'\) sono coincidenti se e solo se \(\textrm{rk}\begin{pmatrix}a&b&c&d\\a'&b'&c'&d'\end{pmatrix}=1\); \(\pi\) e \(\pi'\) sono incidenti se e solo se \(\textrm{rk}\begin{pmatrix}a&b&c\\a'&b'&c'\end{pmatrix}=2\).
Dato il piano \(\pi: \ ax+by+cz+d=0\), il vettore \(v=(a,b,c)\) è detto vettore di giacitura di \(\pi\) e i coefficienti \(a,\,b,\,c\) sono detti parametri giacitura. Piani paralleli hanno, a meno di un fattore moltiplicativo non nullo, gli stessi parametri di giacitura. Teorema di classificazione delle posizioni reciproche tra retta e piano nello spazio: dati un piano  \(\pi:\ ax+by+cz+d=0\) ed una retta \(r:\ \begin{cases}a'x+b'y+c'z+d'=0\\ a''x+b''y+c''z+d''=0\end{cases}\), si ha che \(r\) e \(\pi\) sono propriamente paralleli se e solo se \(\textrm{det}\begin{pmatrix}a&b&c\\a'&b'&c'\\a''&b''&c''\end{pmatrix}=0\) e \(\textrm{rk}\begin{pmatrix}a&b&c&d\\a'&b'&c'&d'\\a''&b''&c''&d''\end{pmatrix}=3\); si ha che \(r\subset\pi\) se e solo se  \(\textrm{rk}\begin{pmatrix}a&b&c&d\\a'&b'&c'&d'\\a''&b''&c''&d''\end{pmatrix}=2\); risulta che \(r\) e \(\pi\) sono incidenti (in un solo punto) se e solo se \(\textrm{det}\begin{pmatrix}a&b&c\\a'&b'&c'\\a''&b''&c''\end{pmatrix}\neq0\). Un piano di giacitura \((a,b,c)\) ed una retta di parametri direttori \((l,m,n)\) sono paralleli se e solo se \(al+bm+cn=0\). Due rette sono parallele se e solo se hanno vettori direzionali proporzionali. Rette parallele sono complanari. Rette incidenti sono complanari. Rette sghembe. Teorema di classificazione delle posizioni reciproche di due rette nello spazio: date le rette \(r:\ \begin{cases}ax+by+cz+d=0\\ a'x+b'y+c'z+d'=0\end{cases}\) e \(s:\ \begin{cases}a''x+b''y+c''z+d''=0\\ a'''x+b'''y+c'''z+d'''=0\end{cases}\) e prese le matrici \(A= \begin{pmatrix}a&b&c\\a'&b'&c'\\a''&b''&c''\\a'''&b'''&c'''\end{pmatrix}\) e \(B= \begin{pmatrix}a&b&c&d\\a'&b'&c'&d'\\a''&b''&c''&d''\\a'''&b'''&c'''&d'''\end{pmatrix}\), si ha che \(r\) e \(s\) sono sghembe se e solo se \(\textrm{det}B\neq0\),  \(r\) e \(s\) sono incidenti se e solo se \(\textrm{rk}B=\textrm{rk}A=3\), \(r\) e \(s\) sono propriamente parallele se e solo se \(\textrm{rk}B=3\) e \(\textrm{rk}A=2\), \(r\) e \(s\) sono coincidenti se e solo se \(\textrm{rk}B=2\).
Esercizi Foglio n.12: Spazio affine.

LEZIONE 27
Argomenti:
Esercitazione: Formula di Grassmann, piano affine.

LEZIONE 28
Argomenti:
Esercitazione: Geometria dello spazio affine tridimensionale.

LEZIONE 29
Argomenti:
Applicazioni lineari tra spazi vettoriali. Un'applicazione lineare \(F:\ V\rightarrow W\) è tale che \(F(\mathbf{0}_V)=\mathbf{0}_W\) e \(F(-v)=-F(v)\), per ogni \(v\in V\). Le applicazioni lineari conservano le combinazioni lineari: data un'applicazione lineare \(F:\ V\rightarrow W\) e il vettore \(v=\lambda_1 v_1+\dots+\lambda_k v_k\), allora \(F(v)=\lambda_1 F(v_1)+\dots+\lambda_k F(v_k)\). Due applicazioni lineari sono uguali se e solo se assumono gli stessi valori sui vettori di una base dello spazio di partenza. Applicazione nulla. Applicazione identica. Restrizione di un'applicazione lineare ad un sottospazio vettoriale. Applicazione lineare data dalla moltiplicazione a sinistra per una matrice. La derivazione è un'applicazione lineare definita sullo spazio dei polinomi (o delle funzioni derivabili).  Teorema fondamentale di esistenza e unicità dell'applicazione lineare definita dai valori assunti sui vettori di una base (o teorema di estensione): dati gli spazi vettoriali \(V\) e \(W\), con \(V\) finitamente generato, presi \(\{v_1,\dots, v_n\}\) una base di \(V\) e \(\{w_1,\dots,w_n\}\) un sottinsieme di vettori qualsiasi di \(W\), allora esiste ed è unica l'applicazione lineare \(F:V\rightarrow W\) tale che \(F(v_1)=w_1,\,\dots,\,F(v_n)=w_n\). 

LEZIONE 30
Argomenti:
Esempi di applicazione del teorema di estensione. Matrice associata ad un'applicazione lineare rispetto a due basi. Formule di calcolo in termini di coordinate e matrice associata. Teorema di rappresentazione. Legge del cambiamento della matrice associata. Insieme immagine di un'applicazione lineare. Se \(F:\ V\rightarrow W\) è un'applicazione lineare, allora \(\textrm{Im} F\) è un sottospazio vettoriale di \(W\).

LEZIONE 31
Argomenti:
Se \(F:\ V\rightarrow W\) è un'applicazione lineare, allora \(\textrm{Im} F\) è un sottospazio vettoriale di \(W\); inoltre se \(V\) è finitamente generato ed ha dimensione \(n\) allora \(\textrm{dim Im}F\leqslant n\) e se \(\{v_1,\dots, v_n\}\) è una base di \(V\), allora \(\{F(v_1),\,\dots,\,F(v_n)\}\) è un sistema di generatori di \(\textrm{Im} F\). L'immagine diretta di un sottospazio del dominio sotto un'applicazione lineare è un sottospazio dell'insieme d'arrivo. La dimensione dell'immagine di un'applicazione lineare tra spazi vettoriali finitamente generati eguaglia il rango della matrice associata. Un'applicazione lineare \(F:\ V\rightarrow W\) è suriettiva se e solo se \(\textrm{Im}F=W\), e se \(V\) e \(W\) sono finitamente generati, \(F\) è suriettiva se e solo se \(\textrm{rk}A=\textrm{codim Ker}F\). Controimmagine di un vettore. La controimmagine sotto un'applicazione lineare tra spazi vettoriali finitamente generati è trovata risolvendo un sistema lineare. Nucleo di un'applicazione lineare.
Il nucleo di un'applicazione lineare è un sottospazio vettoriale del dominio e se dominio e insieme di arrivo sono finitamente generati, la codimensione del nucleo è uguale al rango di una matrice associata all'applicazione. Un'applicazione lineare è iniettiva se e solo se il suo nucleo è banale. Teorema del rango: siano \(V\) e \(W\) spazi vettoriali, con \(V\) finitamente generato, e sia \(F:\ V\rightarrow W\) un'applicazione lineare, allora vale la formula della dimensione: \(\textrm{dim}V=\textrm{dim Im}(F)+\textrm{dim Ker}(F)\).

LEZIONE 32
Argomenti:
Esempi di applicazione del teorema del rango. Data l'applicazione lineare \(F:\ V\rightarrow W\) tra due spazi vettoriali finitamente generati, si ha che \(F\) è iniettiva se e solo se \(\textrm{dim Im}F=\textrm{dim}V\), \(F\) è suriettiva se e solo se \(\textrm{dim Im}F=\textrm{dim}W\), infine \(F\) è biettiva se e solo se \(\textrm{dim Im}F=\textrm{dim}W=\textrm{dim}W\). Sia \(F:\ V\rightarrow W\) un'applicazione lineare e sia \(\textrm{dim}V=\textrm{dim}W\), allora \(F\) è iniettiva se e solo se \(F\) è suriettiva, se e solo se \(F\) è biettiva. Sia \(F: V\longrightarrow W\) un'applicazione lineare tra spazi vettoriali di dimensione finita, se \(\textrm{dim}V>\textrm{dim}W\) allora \(F\) non può essere iniettiva, se invece \(\textrm{dim}W>\textrm{dim}V\) allora \(F\) non può essere suriettiva. Sia data l'applicazione lineare \(F:\ V\rightarrow W\) tra due spazi vettoriali finitamente generati e sia \(A\) una matrice associata ad \(F\), si ha che \(F\) è iniettiva se e solo se \(\textrm{rk}A=\textrm{dim}V\), \(F\) è suriettiva se e solo se \(\textrm{rk}A=\textrm{dim}W\). Omomorfismi, endomorfismi, automorfismi di spazi vettoriali. Due spazi vettoriali finitamente generati sono isomorfi se e solo se hanno la stessa dimensione. Tutti gli spazi vettoriali di dimensione \(n\) sono isomorfi ad \(\mathbb{R}^n\). Considerazioni sul significato del concetto di isomorfismo. Composizione di applicazioni. Applicazioni invertibili. Un'applicazione è invertibile se e solo se è biettiva. La composizione di applicazioni lineari è un'applicazione lineare. Teorema di composizione operatoria: date le applicazioni tra spazi vettoriali f.g. \(F:\ V\rightarrow W\) e  \(G:\ W\rightarrow U\) con matrici associate rispettivamente \(B\) e \(A\), allora l'applicazione \(G\circ F:\ V\rightarrow U\) ha come matrice associata la matrice \(AB\).
Esercizi Foglio13: Applicazioni lineari

LEZIONE 33
Argomenti:
Esercitazione: applicazioni lineari.

LEZIONE 34
Argomenti:
Teorema di Kronecker per il rango del prodotto di matrici: se \(A\) e \(B\) sono due matrici allora \(\textrm{rk}AB\leqslant\textrm{min}\{\textrm{rk}A,\ \textrm{rk}B\}\). Se si moltiplica una matrice \(A\) a destra o a sinistra per una matrice invertibile, allora il rango di \(A\) resta invariato. Le matrici associate ad una applicazione lineare hanno lo stesso rango (che coincide con la dimensione dell'immagine). Un'applicazione lineare \(F\) tra due spazi vettoriali f.g. è invertibile se e solo se le matrici associate ad \(F\) sono invertibili; in particolare la matrice di \(F^{-1}\) è l'inversa della matrice di \(F\) (a patto di usare le stesse basi). Endomorfismi e automorfismi di uno spazio vettoriale. Matrici associate ad un endomorfismo. Matrici simili. Le matrici associate ad un endomorfismo sono simili tra loro, hanno lo stesso rango e lo stesso determinante. Un endomorfismo è automorfismo se e solo se tutte le sue matrici associate sono invertibili. Introduzione alla diagonalizzazione: motivazione e applicazioni. Autovalori e autovettori di un endomorfismo. Autospazi. Gli autospazi di un endomorfismo sono sottospazi vettoriali di dimensione maggiore o uguale a 1. Autovettori associati ad autovalori distinti sono linearmente indipendenti.

LEZIONE 35
Argomenti:
Un endomorfismo non è invertibile se e solo se ammette l'autovalore nullo, in particolare l'autospazio associato a 0 coincide con il nucleo dell'endomorfismo. Ricerca di autovalori e autovettori. Un numero reale \(\lambda\) è autovalore per un endomorfismo \(F\) se e solo verifica l'equazione \(\textrm{det}(A-\lambda I_n)=0\), dove \(A\) è una matrice associata ad \(F\). Un vettore con coordinate \(X\in\mathbb{R}^n\) è un autovettore per \(F\) associato all'autovalore \(\lambda\) se e solo se le sue coordinate risolvono il sistema lineare omogeneo \((A-\lambda I_n)X=\mathbf{0}\). Matrice caratteristica. Polinomio caratteristico. Equazione caratteristica. Equazione secolare di Laplace. Teorema di invarianza del polinomio caratteristico: il polinomio caratteristico di un endomorfismo \(F\) non dipende dalla matrice di \(F\) scelta per calcolarlo. Matrici simili hanno lo stesso polinomio caratteristico. Molteplicità algebrica \(\textrm{m.a.}(\lambda)\) e molteplicità geometrica \(\textrm{m.g.}(\lambda)\) di un autovalore \(\lambda\). Un endomorfismo diagonalizzabile ha autovalori tutti reali (non necessariamente distinti). Se \(\lambda\) è un autovalore di un endomorfismo allora \(1\leqslant \textrm{m.g.}(\lambda)\leqslant \textrm{m.a.}(\lambda)\).

LEZIONE 36
Argomenti:
Gli autospazi di un endomorfismo sono a somma diretta. Un endomorfismo \(F\) di uno spazio vettoriale \(V\) è diagonalizzabile se e solo se \(V\) è somma diretta degli autospazi di \(F\). Teorema fondamentale della diagonalizzabilità: un endomorfismo di uno spazio vettoriale di dimensione finita è diagonalizzabile se e solo se ammette autovalori tutti reali e per ciascuno di questi molteplicità geometrica e molteplicità aritmetica coincidono. Se un endomorfismo ammette autovalori distinti allora è diagonalizzabile. Diagonalizzabilità di matrici. Polinomio caratteristico, autovalori, autovettori, autospazi di una matrice quadrata. Una matrice quadrata è diagonalizzabile se e solo se essa è simile ad una matrice diagonale. Esempi di diagonalizzazione di applicazioni lineari e matrici.
Esercizi Foglio 14: Diagonalizzazioni di endomorfismi

LEZIONE 37
Argomenti:
Forme bilineari su uno spazio vettoriale reale. Forma bilineare nulla. Forma bilineare standard su \(\mathbb{R}^n\). Una forma bilineare \(b\) su uno spazio vettoriale \(V\) è detta simmetrica se per ogni \(v,w\in V\) si ha che \(b(v,w)=b(w,v)\). Una forma bilineare \(b\) su uno spazio vettoriale \(V\) è antisimmetrica se e solo se per ogni \(v,w\in V\) si ha che \(b(v,w)=-b(w,v)\). La forma nulla è l'unica sia simmetrica che antisimmetrica. Il determinante delle matrici quadrate di ordine 2 è una forma bilineare antisimmetrica. La forma bilineare standard su \(\mathbb{R}^n\) è simmetrica. Il prodotto tra numeri reali è una forma bilineare simmetrica su \(\mathbb{R}\). Matrice di Gram associata ad una forma bilineare rispetto ad una base. Formule di calcolo in termini di coordinate e matrice associata. Legge di cambiamento della matrice associata ad una forma bilineare: sia \(b\) una forma bilineare su uno spazio f.g. \(V\), siano \(\mathcal B\) e \(\mathcal B'\) due basi di \(V\) con matrice di passaggio \(P\), siano poi \(A\) la matrice associata a \(b\) rispetto a \(\mathcal B\) e \(A'\) la matrice associata a \(b\) rispetto alla base \(\mathcal{B}'\), allora si ha \(A'=P^{T}AP\). Matrici congruenti. Le matrici associate ad una stessa forma bilineare sono congruenti tra loro. Rango di una forma bilineare. Forme degeneri e non. Le matrici associate ad una stessa forma bilineare hanno tutte lo stesso rango. Una forma bilineare è simmetrica (risp. antisimmetrica) se e solo se una sua matrice associata è simmetrica (risp. antisimmetrica).

LEZIONE 38
Argomenti: Esercitazione: Diagonalizzazione di endomorfismi.

LEZIONE 39
Argomenti: Esercitazione: Applicazioni lineari. Diagonalizzazione di endomorfismi. Forme bilineari.

LEZIONE 40
Argomenti: Restrizione di una forma bilineare. La simmetria e l'antisimmetria sono invarianti per congruenza. Quadrato di binomio generalizzato. Una forma bilineare \(b\) su uno spazio \(V\) è degenere se e solo esiste un vettore non nullo \(v\) tale che \(b(v,w)=0\), per ogni \(w\in V\); se e solo esiste un vettore non nullo \(v\) tale che \(b(w,v)=0\), per ogni \(w\in V\). Due vettori \(v\) e \(w\) si dicono ortogonali secondo una forma bilineare simmetrica \(b\) se \(b(v,w)=0\) e si scrive \(v\bot w\). Il vettore nullo è ortogonale a tutti i vettori dello spazio. Vettori isotropi (ortogonali a sé stessi). L'insieme dei vettori isotropi non è in generale un sottospazio vettoriale, contiene il vettore nullo ed è unione di rette. Il sottospazio ortogonale \(S^\bot\) ad un insieme di vettori \(S\subset V\) è costituito da tutti i vettori di \(V\) ortogonali a tutti i vettori di \(S\). Il sottospazio ortogonale è un sottospazio vettoriale. Il sottospazio ortogonale \(W^\bot\) di un sottospazio \(W\) f.g. è il sottospazio dei vettori ortogonali a tutti i vettori di una base di \(W\). Esempi di calcolo di sottospazi ortogonali. Teorema di Fourier: dato un vettore non isotropo \(v\in V\), si ha che \(V=v^\bot\oplus\mathcal{L}(v)\). Coefficiente di Fourier di \(w\) secondo un vettore non isotropo \(v\): \(\frac{b(v,w)}{b(v,v)}\). Forma quadratica associata ad una forma bilineare simmetrica. Forma quadratica nulla. Forma quadratica standard.

LEZIONE 41
Argomenti:
Forma quadratica standard. Le forme quadratiche sono funzioni omogenee di secondo grado. Forma (bilineare) polare di una forma quadratica. Formula di polarizzazione: data una forma quadratica \(Q\) su uno spazio vettoriale \(V\), la forma bilineare polare di \(Q\) è data da \(b(v,w)=\frac12[Q(v+w)-Q(v)-Q(w)]\), per ogni \(v,w\in V\). Matrice asssociata ad una forma quadratica. Regole di calcolo in termini di matrice associata. Basi ortogonali e basi diagonalizzanti. Teorema di Gauss-Lagrange: Una forma bilineare è diagonalizzabile (rispetto ad una base ortogonale) se e solo se è simmetrica. Diagonalizzazione di forme quadratiche. Diagonalizzazione di matrici simmetriche (ogni matrice simmetrica è congruente ad una matrice diagonale).

LEZIONE 42
Argomenti:
Legge di inerzia di Sylvester: data una forma quadratica \(Q\) di rango \(r\) su uno spazio vettoriale \(V\) di dimensione finita, esistono un numero intero positivo \(p\) ed una base \(\left\{ v_1,\,\dots, v_n \right\}\) di \(V\) rispetto a cui la forma \(Q\) ha l'espressione \(Q(x_1,\,\dots,\,x_n)=x_1^2+\dots+x_p^2-x_{p+1}^2-\dots-x_r^2\); inoltre il numero \(p\) è indipendente dalla base scelta e dipende solo dalla forma \(Q\). Forma canonica di Sylvester di una forma quadratica. Basi di Sylvester. Indice di positività, indice di negatività, segnatura di una forma quadratica. Forme quadratiche (e forme bilineari simmetriche) definite positive, semidefinite positive, definite negative, semidefinite negative, indefinite. Forme quadratiche canoniche su \(\mathbb{R}^2\) e su \(\mathbb{R}^3\). Teorema degli zeri per le forme quadratiche: se una forma quadratica \(Q\) assume valore positivo su un vettore \(v\) e valore negativo su un vettore \(w\), allora esiste un vettore isotropo per \(Q\). Matrici simmetriche definite positive, semidefinite positive, definite negative, semidefinite negative, indefinite. Tutte le matrici simmetriche definite positive di ordine \(n\) sono congruenti alla matrice identica. Una matrice simmetrica \(A\) è definita positiva se e solo se esiste una matrice invertibile \(M\) tale che \(A=M^TM\). Minori principali di una matrice quadrata. Teorema di Jacobi-Sylvester (criterio dei minori principali): una matrice simmetrica è definita positiva se e solo se tutti i suoi minori principali sono strettamente positivi.
Esercizi Foglio 15: Forme bilineari
Esercizi Foglio 16: Forme quadratiche

LEZIONE 43
Argomenti:
Prodotti scalari. Spazi vettoriali euclidei. Prodotto scalare standard su \(\mathbb{R}^n\). Norma (o lunghezza) di un vettore, \(\parallel v\parallel=\sqrt{v\cdot v}\). Diseguaglianza di Cauchy-Schwarz: dati due vettori \(v\) e \(w\) si ha che \(|v\cdot w|\leqslant\parallel v\parallel \,\parallel w\parallel\). Proprietà della norma: la norma assume sempre valori positivi ed è nulla solo per il vettore nullo; la norma è positivamente omogenea di grado 1. Diseguaglianza triangolare. Angolo (convesso) compreso tra due vettori non nulli. Detto \(\theta\) l'angolo compreso tra due vettori non nulli \(v\) e \(w\), si ha che \(v\cdot w=\parallel v\parallel \,\parallel w\parallel \cos\theta\). Teorema di Pitagora. Versori. Normalizzazione di vettori. Basi ortogonali. Basi ortonormali. Dei vettori non nulli e a due a due ortogonali sono linearmente indipendenti. Normalizzando i vettori di una base ortogonale si ottiene una base ortonormale. Procedimento ortogonale di Gram-Schmidt. Formule di calcolo del prodotto scalare e della norma di un vettore in termini delle coordinate rispetto ad una qualsiasi base ortonormale.


LEZIONE 44
Argomenti:
Esercitazione: Diagonalizzazione di forme quadratiche. Sottospazi ortogonali.

LEZIONE 45
Argomenti:
Complemento ortogonale di un sottospazio vettoriale. Teorema di decomposizione ortogonale: Dato un sottospazio vettoriale non nullo \(W\subseteq\mathbb R^n\), risulta che \(\mathbb R^n=W\oplus W^\bot\); in particolare si ha che \(\textrm{dim}W^\bot=n-\textrm{dim}W\). Proiezione ortogonale di vettori rispetto a un sottospazio.  Interpretazione geometrica del coefficiente di Fourier e del procedimento ortogonale di G.-S. Matrici ortogonali. Una matrice ortogonale è invertibile. Una matrice di ordine \(n\) è ortogonale se e solo se le sue righe (colonne) sono una base di ortonormale di \(\mathbb R^n\). Le matrici ortogonali hanno determinante uguale a \(\pm1\). Siano \(\mathcal B\) una base ortonormale di \(\mathbb R^n\), \(\mathcal B'\) un'altra base di \(\mathbb R^n\) e sia \(P\) la matrice di passaggio da \(\mathcal B\) a \(\mathcal B'\); allora la base \(\mathcal B'\) è ortonormale se e solo se \(P\) è una matrice ortogonale. Endomorfismi simmetrici di \(\mathbb R^n\). Siano dati due endomorfismi \(F\) e \(G\)  di \(\mathbb R^n\) tali che \(F(v)\cdot w=v\cdot G(w)\), per ogni \(v,w\in\mathbb R^n\), allora la matrice canonica di \(F\) è la trasposta della matrice canonica di \(G\). Un endomorfismo di \(\mathbb R^n\) è simmetrico se e solo se la sua matrice rispetto a una qualsiasi base ortonormale è una matrice simmetrica.  Un endomorfismo simmetrico trasforma vettori ortogonali ad un autovettore in vettori ortogonali allo stesso autovettore.
Esercizi Foglio 17: Spazi vettoriali euclidei

LEZIONE 46
Argomenti:
Teorema spettrale: motivazione.Tereoma spettrale (per endomorfismi simmetrici): Ogni endomorfismo simmetrico di \(\mathbb R^n\) è diagonalizzabile rispetto ad una base ortonormale di suoi autovettori. Teorema spettrale (per matrici simmetriche): Ogni matrice simmetrica è sia simile che congruente ad una matrice diagonale, ovvero per ogni matrice simmetrica \(A\) esistono una matrice diagonale \(D\) ed una matrice ortogonale \(M\) tali che \(D=M^{-1}AM=M^{T}AM\). Se una matrice simmetrica di ordine \(n\) \(A\) ha \(r\) autovalori non nulli di cui \(p\) positivi ed  \(r-p\) negativi, allora la matrice \(A\) ha rango \(r\) e segnatura \(\textrm{sgn}(A)=(p,r-p)\). Teorema di Harriot-Descartes (regola dei segni di Cartesio): Sia \(f(x)\in\mathbb R[x]\) un polinomio a coefficienti reali non costante; allora il numero di radici reali positive di \(f(x)\) non supera il numero delle variazioni di segno dei coefficienti di \(f(x)\) (ordinati secondo le potenze decrescenti della \(x\)) ed  il numero di radici reali negative di \(f(x)\) non supera il numero delle variazioni di segno dei coefficienti di \(f(-x)\) (ordinati secondo le potenze decrescenti della \(x\)). 
Esercizi Foglio 18: Teorema spettrale

LEZIONE 47
Argomenti:
Se un polinomio \(f(x)\in\mathbb R[x]\) ha solo radici reali (non nulle), il numero delle radici positive di \(f(x)\) è uguale al numero delle variazioni di segno ed il numero delle radici negative di \(f(x)\) è uguale al numero delle variazioni di segno dei coefficienti di \(f(-x)\). Una matrice simmetrica di rango \(r\) ha segnatura \((p,r-p)\) se e solo se nel suo polinomio caratteristico ci sono \(p\) variazioni di segno. Prodotto vettoriale in \(\mathbb R^3\). Il prodotto vettoriale è bilineare antisimmetrico. Il prodotto vettoriale di due vettori è nullo se e solo se i due vettori sono linearmente dipendenti. Prodotto misto di tre vettori. Il prodotto misto è lineare rispetto ai suoi argomenti e cambia segno per ogni scambio dei vettori che si moltiplicano. Il prodotto vettoriale di due vettori è ortogonale ad entrambi i fattori. Dati due vettori \(v\) e \(w\) di \(\mathbb R^3\), si ha che \(\parallel v\wedge w\parallel^2 =\parallel v\parallel ^2\,\,\parallel w\parallel^2-(v\cdot w)^2 \). Dati due vettori linearmente indipendenti \(v\) e \(w\), si ha che \(\left\{v,w,v\wedge w\right\}\) è una base di \(\mathbb{R}^3\). Siano dati due vettori non nulli \(v\) e \(w\) in \(\mathbb R^3\) e sia \(v=a+b\) con \(a\) parallelo a \(w\) e \(b\) perpendicolare a \(w\), allora \(\parallel v\wedge w\parallel = \parallel b\parallel \,\parallel w\parallel\). Il modulo del prodotto vettoriale di due vettori eguaglia l'area del parallelogramma sotteso dai due vettori. Dati tre punti nello spazio \(A,B,C\), l'area del triangolo \(ABC\) è data da \(\mathcal A= \frac12 \parallel\vec{AB}\wedge\vec{AC}\parallel\). Il valore assoluto del prodotto misto di tre vettori nello spazio dà il volume del parallelepipedo sotteso ai tre vettori. Sistemi di riferimento cartesiano nel piano euclideo. Distanza tra due punti. Versore normale ad una retta. i. Dati un punto \(P(x_0,\,y_0)\) e la retta \(r:\ ax+by+c=0\), la distanza di \(P\) da \(r\) vale \(d(P,r)=\displaystyle\frac{|ax_0+by_0+c|}{\sqrt{a^2+b^2}}\). Distanza tra rette parallele nel piano. Circonferenza nel piano. Ortottica e isottica di un segmento.
Esercizi Foglio 19: Prodotto vettoriale
Esercizi Foglio 20: Piano Euclideo

LEZIONE 48
Argomenti:
Spazio euclideo tridimensionale. Sistema di riferimento cartesiano. Distanza tra due punti. Dato il piano \(ax+by+cz+d=0\), il vettore di giacitura di \(\pi\), \(v_\pi=(a,b,c)\), è ortogonale al piano \(\pi\). Data una retta \(r\) di vettore direzionale \(v_r\) ed un piano \(\pi\) di giacitura \(v_\pi\), si ha che \(r\) è parallela a \(\pi\) se e solo se \(v_r\) e \(v_\pi\) sono ortogonali, \(r\) è ortogonale a \(\pi\) se e solo se \(v_r\) e \(v_\pi\) sono paralleli (proporzionali). Due piani sono perpendicolari se e solo se lo sono le loro giaciture. Distanza di un punto da un piano: dati un punto \(P(x_0,\,y_0,\,z_0)\) e il piano \(\pi:\ ax+by+cz+d=0\), la distanza di \(P\) da \(\pi\) vale \(d(P,\pi)=\displaystyle\frac{|ax_0+by_0+cz_0+d|}{\sqrt{a^2+b^2+c^2}}\). Distanza di un punto da una retta. Distanza di una retta da un piano. Distanza tra due piani. Distanza tra due rette complanari. Proiezione ortogonale di un punto su un piano, di un punto su una retta e di una retta su un piano. Teorema della perpendicolare comune: Date due rette sghembe \(r\) ed \(r'\), esiste ed è unica la retta \(s\) perpendicolare sia ad \(r\) che ad \(r'\) ed incidente sia \(r\) che \(r'\), inoltre la distanza tra i due punti di incidenza dà la distanza tra le due rette sghembe. Sfere nello spazio.
Esercizi Foglio 21: Spazio euclideo

LEZIONE 49
Argomenti:
Esercitazione: forme quadratiche, teorema spettrale.

LEZIONE 50
Argomenti:
Esercitazione: Spazi vettoriali euclidei, prodotto vettoriale.

LEZIONE 51
Argomenti:
Sfera e circonferenza nello spazio. Problemi vari. Una trasformazione (lineare) del piano affine è un'applicazione \(f:\mathbb R^2\to \mathbb R^2\) tale che per ogni punto \(P(x,y)\) si abbia \(f(x,y)=(ax+by+c,\,\,a'x+b'y+c')\); inoltre ad una trasformazione lineare si associa la matrice \(A=\begin{pmatrix}a&b\\a'&b'\end{pmatrix}\) ed il vettore \(v=(c,c')\). Una trasformazione costante del tipo \(f(x,y)=(x_0,\,y_0)\) fa implodere tutto il piano nel punto \((x_0,y_0)\). La trasformazione identica \(f(x,y)=(x,y)\) lascia fissi tutti i punti, ha matrice associata identica e vettore associato nullo. Una traslazione è di tipo \(f(x,y)=(x+c,\,\,y+c')\), ha matrice associata identica e vettore associato \((c,c')\). Proiezione sull'asse \(x\): \(\Pi_x(x,y)=(x,0)\). Rotazione attorno all'origine di un angolo \(\vartheta\): \(\rho_\vartheta(x,y)=(\cos\vartheta\,x-\sin\vartheta\,y;\ \sin\vartheta\,x+\cos\vartheta\,y)\). Dilatazioni. Simmetria centrale rispetto ad un punto \(C=(x_C,\,y_C)\): \(\sigma_C(x,y)=(2x_C-x,\,\,2y_C-y)\). La simmetria centrale rispetto a \(C\) è una rotazione di \(180^\circ\) attorno al punto \(C\). Simmetria rispetto all'asse \(x\): \(\sigma_x(x,y)=(x,\,-y)\). Interpretazione geometrica di autovalori ed autovettori di omomorfismi di \(\mathbb R^2\). Un'affinità è una trasformazione lineare del piano con amtrice associata invertibile. Un'isometria è un'affinità con matrice associata ortogonale. Se \(f\) è un'isometria, allora conserva le distanze e le lunghezze, cioè \(\parallel \stackrel{\longrightarrow}{f(P)f(Q)}\parallel=\parallel\stackrel{\longrightarrow}{PQ} \parallel\), per ogni coppia di punti \(P\) e \(Q\) del piano. La composizione di affinità è un'affinità. La composizione di isometrie è un'isometria. Equazione generale di una rototraslazione.
Esercizi Foglio 22: Sfere e circonferenze
Esercizi Foglio 23: Trasformazioni del piano

LEZIONE 52
Argomenti:
Esercitazione: geometria euclidea del piano e dello spazio.

LEZIONE 53
Argomenti:
Trasformazioni di rette e curve per azione di una trasformazione lineare. Una conica è un insieme dei punti del piano le cui coordinate \((x,y)\) verificano un'equazione di secondo grado di tipo: \(\mathscr C: a_{11}x^2+a_{22}y^2+2a_{12}xy+2a_{01}x+2a_{02}y+a_{00}=0\), con \(a_{ij}\in\mathbb R\) e \(a_{11},a_{12},a_{22}\) non contemporaneamente nulli. Matrice (simmetrica) associata ad una conica: data la conica \(\mathscr C\) di equazione come sopra, la matrice associata a \(\mathscr C\) è la matrice simmetrica \(A=\begin{pmatrix}a_{00}&a_{01}&a_{02}\\a_{10}&a_{11}&a_{12}\\a_{20}&a_{21}&a_{22}\end{pmatrix}\), in cui \(a_{01}=a_{10},\ a_{02}=a_{20},\ a_{21}=a_{12}\). Se \(A\) è la matrice associata alla conica \(\mathscr C\), allora si ha che \(\mathscr C\) ha equazione: \(\mathscr C:(1,x,y)A\begin{pmatrix}1\\x\\y\end{pmatrix}=0\). Rango di una conica. Coniche non degeneri, coniche degeneri, semplicemente degeneri e doppiamente degeneri. Matrice e forma quadratica associata ad una conica: \(Q=\begin{pmatrix}a_{11}&a_{12}\\a_{21}&a_{22}\end{pmatrix}\) e \(Q(x,y)=a_{11}x^2+a_{22}y^2+2a_{12}xy\). Tipo di una conica: coniche di tipo ellittico, iperbolico e parabolico. Sia \(f\) un'isometria del piano euclideo, sia \(f^{-1}(x,\,y)=M\begin{pmatrix}x\\y\end{pmatrix}+\begin{pmatrix}c_1\\c_2\end{pmatrix}\), con \(M=\begin{pmatrix}m_{11}&m_{12}\\m_{21}&m_{22}\end{pmatrix}\), la trasformazione inversa di \(f\), sia data la matrice \(S=\begin{pmatrix}1&0&0\\c_1&m_{11}&m_{12}\\c_2&m_{21}&m_{22}\end{pmatrix}\), allora presa la conica \(\mathscr C\) con matrice associata \(A\) e matrice quadratica \(Q\) e dette \(A'\) la matrice associata alla trasformata \(f(\mathscr C)\) di \(\mathscr C\) sotto l'azione di \(f\) e \(Q'\) la matrice quadratica di \(f(\mathscr C)\), si ha che \(\lambda A'=S^TA\,S\) e \(\lambda Q'=M^TQ\,M\), per qualche \(\lambda\in\mathbb R\). Teorema di invarianza: data una conica \(\mathscr C\) con matrice associata \(A\) e matrice quadratica \(Q\), se \(\mathscr C'\) è la trasformata di \(\mathscr C\) sotto l'azione di un'isometria e \(A'\) e \(Q'\) sono le matrici associate ad essa, si ha che \(\textrm{rank} A=\textrm{rank} A'\), \(\textrm{det} Q=\textrm{det} Q'\), \(\textrm{sgn} Q=\textrm{sgn} Q'\). Il tipo e il rango di una conica sono invarianti euclidei (per effetto di isometrie). Le nove forme canoniche delle coniche euclidee. Classificazione delle forme canoniche per rango, tipo e grafico (per distinguere le ellissi e le parabole semplicemente degeneri reali dalle corrispettive con grafico vuoto). Teorema di riduzione in forma canonica: ogni conica euclidea è isometrica (o congruente) ad una soltanto delle nove forme canoniche, ovvero si può sempre trovare un'isometria che trasforma la conica data nella sua forma canonica.
Esercizi Foglio 24: Coniche

LEZIONE 54
Argomenti:
Esempi di riduzione in forma canonica diconiche euclidee. Quadriche nello spazio euclideo (tridimensionale). Matrice associata e matrice quadratica di una quadrica. Rango di una quadrica. Forme canoniche delle quadriche euclidee. Quadriche di rango 4 e di rango 3. Ellissoide a punti reali. Ellissoide immaginario. Iperboloide iperbolico (a una falda). Iperboloide ellittico (a due falde). Paraboloide ellittico. Paraboloide iperbolico (a sella). Cono (doppio o quadrico) a punti reali e cono a punti immaginari. Cilindri ellittici, parabolici e iperbolici. Sezioni di quadriche con piani paralleli ai piani coordinati \(xy\), \(xz\) e \(yz\). Quadriche rigate. Piani tangenti ad una quadrica (cenni). Punti ellittici, iperbolici, parabolici su una quadrica. Il cono quadrico contiene le coniche a punti reali (tranne la coppia di rette parallele). Generazione meccanica di un iperboloide a sella (per scorrimento del vertice di una parabola lungo il profilo di un'altra). Analisi del modello di un cono, di un iperboloide iperbolico e di un paraboloide iperbolico. Esempi di riduzione in forma canonica.
Esercizi Foglio 25: Quadriche

LEZIONE 55
Argomenti:
Gruppi (finiti o infiniti) di isometrie nel piano (cenni). Gruppo diedrale del triangolo equilatero, del quadrato, del rettangolo. Le isometrie del piano nelle arti figurative (arte islamica, Caravaggio, Borromini, Escher, cristalli di neve). Trasformazioni geometriche utilizzate nelle composizioni musicali di J.S. Bach (canone, ripetizione, trasposizione, inversione, retrogradazione del tema principale). Forma Sonata, analisi della sonata in La minore di Mozart.

LEZIONE 56
Argomenti:
Esercitazione: Coniche e quadriche.

LEZIONE 57
Argomenti:
Introduzione agli spazi proiettivi: motivazione. Il piano proiettivo reale \(\mathbb P^2({\mathbb R})\) è l'insieme delle terne non nulle di numeri reali definite a meno di un fattore moltiplicativo non nullo. Coordinate omogenee \(P[x_1,x_2,x_0]\) di un punto \(P\in \mathbb P^2\). Una retta proiettiva in \(\mathbb P^2\) è l'insieme dei punti che verificano una equazione lineare omogenea a coefficienti reali nelle tre indeterminate \(X_1,X_2,X_0\) del tipo \(aX_1+b_2+cX_0=0\). La definizione di retta è ben posta. Per due punti distinti di \(\mathbb P^2\) passa una e una sola retta proiettiva. Due rette distinte in \(\mathbb P^2\) si intersecano in un unico punto (in \(\mathbb P^2\) non esistono rette parallele). Immersione naturale (iniettiva) del piano affine nel piano proiettivo: ogni punto \(P(x_P,y_P)\) del piano affine si identifica con il punto proiettivo \(\bar P[x_P,y_P,1]\). A meno di identificazioni, il piano proiettivo è unione del piano affine e dei punti che giacciono sulla retta \(X_0=0\), detta la retta impropria. I punti con ultima coordinata non nulla (quindi di tipo \([a,b,1]\)) sono detti punti propri, i punti dela retta impropria (di tipo \([\alpha,\beta,0]\)) sono detti impropri. Per definire luoghi geometrici in \(\mathbb P^2\) si devono usare polinomi omogenei nelle indeterminate \(X_0,X_1,X_2\) affinché l'appartenenza ad un luogo geometrico non dipenda dalle coordinate scelte per il punto. Data la retta affine \(r:\ ax+by+c=0\), la retta proiettiva \(\bar r:\ aX_1+bX_2+cX_0=0\) è detta la chiusura proiettiva della retta \(r\) è può essere ottenuta omogenizzando l'equazione di \(r\) ponendo \(x=\frac{X_1}{X_0}\), \(y=\frac{X_2}{X_0}\) e cancellando i denominatori. Data una retta proiettiva \(\bar r:\ aX_1+bX_2+cX_0=0\), la sua parte affine \(r\) può essere ottenuta ponendo \(X_0=1\) ed il suo punto improprio è \(r_\infty[-b,a,0]\) che rappresenta la direzione della retta \(r\). Due rette affini parallele hanno (chiusure proiettive che hanno) il punto improprio in comune, quindi la stessa direzione. Il "punto all'infinito" \(r_\infty\) di una retta affine \(r\) è il punto improprio della sua chiusura proiettiva \(\bar r\). Due rette affini parallele si incontrano all'infinito (nel loro punto improprio comune).
Esercizi foglio 26: Piano proiettivo

LEZIONE 58
Argomenti:
Esercitazione: Trasformazioni del piano, circonferenze e sfere.

LEZIONE 59
Argomenti:
Esercitazione: piano proiettivo.

LEZIONE 60
Argomenti:
Il modello di \(\mathbb P^2\) come disco con il bordo in cui il piano affine è la parte interna del cerchio e la retta impropria è il bordo del cerchio. Una conica proiettiva è l'insieme dei punti di \(\mathbb P^2\) che annullano un polinomio omogeneo di secondo grado del tipo: \(\mathscr C:\   a_{11}X_1^2+a_{22}X_2^2+2a_{12}X_1X_2+2a_{01}X_0X_1+2a_{02}X_0X_2+a_{00}X_0^2=0\), con \(a_{ij}\in\mathbb R\) e non tutti nulli. Il polinomio che definisce una conica proiettiva è una forma quadratica nelle indeterminate \(X_0,X_1,X_2\) con matrice (simmetrica) associata \(A=\begin{pmatrix}a_{00}&a_{01}&a_{02}\\a_{10}&a_{11}&a_{12}\\a_{20}&a_{21}&a_{22}\end{pmatrix}\). In termini di matrice associata l'equazione di \(\mathscr C\) può essere scritta come \(\mathscr C: \ (X_0,X_1,X_2)A\begin{pmatrix}X_0\\X_1\\X_2\end{pmatrix}=0\). Rango di una conica proiettiva. Coniche non degeneri (\(\textrm{rk}\mathscr{C}=3\)), coniche degeneri (\(\textrm{rk}\mathscr{C}<3\)), semplicemente degeneri (\(\textrm{rk}\mathscr{C}=2\)), doppiamente degeneri (\(\textrm{rk}\mathscr{C}=1\)). Cambiamenti di coordinate proiettive. Data una matrice invertibile \(M\) di ordine 3, M definisce un cambiamento di coordinate dalle "vecchie" \(X_0,X_1,X_2\) alle "nuove" \(X_0',X_1',X_2'\) secondo le formule di trasformazione \(\begin{pmatrix}X_0\\X_1\\X_2\end{pmatrix}=M\begin{pmatrix}X_0'\\X_1'\\X_2'\end{pmatrix}\) e dalle vecchie alle nuove secondo le formule \(\begin{pmatrix}X_0'\\X_1'\\X_2'\end{pmatrix}=M^{-1}\begin{pmatrix}X_0\\X_1\\X_2\end{pmatrix}\). Coniche proiettive canoniche (conica vuota e conica reale di rango 3, conica ridotta a un punto, conica unione di due rette incidenti e conica unione di due rette coincidenti). Teorema di classificazione delle coniche proiettive: per ogni conica proiettiva è possibile trovare un cambiamento di ccordinate proiettive che la trasforma in una delle 5 forme canoniche proiettive. La classificazione proiettiva delle coniche è meno fine della classificazione affine (e di quella euclidea). Chiusura proiettiva di una conica affine. La chiusura proiettiva conserva il rango di una conica. Una conica proiettiva di rango 3 ha una, due o nessuna intersezione con la retta impropria \(X_0=0\). Una conica di rango 3 è detta di tipo ellittico se non interseca la retta impropria, di tipo parabolico se interseca la retta impropria in un solo punto, di tipo iperbolico se interseca la retta impropria in due punti distinti. Configurazione delle coniche di rango 3 nel piano proiettivo a seconda del loro tipo. Configurazione delle chiusure proiettive delle coniche affini di rango 3. Motivazione della nomenclatura dei tipi delle coniche proiettive.
Esercizi Foglio 27: Coniche proiettive

LEZIONE 61
Argomenti:
L'anello dei polinomi \(\mathbb R[x,y]\). Polinomi omogenei dell'anello \(\mathbb R[X_0,X_1,X_2]\). Legge di annullamento del prodotto tra polinomi. Omogenizzazione rispetto ad \(X_0\) di un polinomio di \(\mathbb R[x,y]\) (con la sostituzione abituale  \(x=\frac{X_1}{X_0}\), \(y=\frac{X_2}{X_0}\)). Deomogenizzazione di un polinomio omogeneo di \(\mathbb R[X_0,X_1,X_2]\) con la sostituzione \(X_0=1,\ X_1=x,\ X_2=y\). Curve algebriche piane affini e proiettive. Motivazione. Grado di una curva algebrica (affine o proiettiva). Chiusura proiettiva di una curva affine. Parte affine di una curva proiettiva. L'omogenzzazione delle curve affini conserva il grado delle curve. La deomogenizzazione delle curve proiettive conserva il grado a patto che \(X_0\) non sia un fattore del polinomio che definisce la curva proiettiva. La chiusura proiettiva di una curva affine aggiunge alla curva i suoi punti all'infinito. Una retta ed una curva (affine o proiettiva) di grado \(n\) che non contiene la retta hanno in comune al più \(n\) punti. La chiusura proiettiva e la deomogenizzazione conservano i punti propri di intersezione. Una curva ed una retta disgiunti nel piano affine possono invece avere intersezioni nel piano proiettivo. Derivate parziali. Gradiente di un polinomio di più variabili. Le derivate parziali di un polinomio omogeneo di grado \(n\) sono polinomi omogenei di grado \(n-1\). Identità di Euler per i polinomi omogenei. Un punto \(P\) di una curva (affine o proiettiva) \(\mathscr C\) si dice regolare se in \(P\) non si annulla il gradiente di \(\mathscr C\) (cioè se le derivate parziali non sono contemporaneamente nulle in \(P\)). Una curva si dice liscia se i suoi punti sono tutti regolari. I punti singolari di una curva affine sono i punti che annullano la curva ed il gradiente. I punti singolari di una curva proiettiva sono i punti che annullano il gradiente. Retta tangente ad una curva algebrica in un suo punto regolare: motivazione. Molteplicità di intersezione di una retta e di una curva in un punto e metodi di calcolo.
Esercizi Foglio 28: Polinomi di più variabili

LEZIONE 62
Argomenti:
Teorema della retta tangente: data una curva affine  \(\mathscr C:\ f(x,y)=0\) ed un suo punto regolare \(P(x_P,y_P)\), esiste ed è unica la retta \(r\) che ha molteplicità di intersezione con \(\mathscr C\) in \(P\) maggiore o uguale a 2; tale retta è detta la retta tangente in \(P\) a \(\mathscr C\) ed ha equazione data da \(r:\ \frac{\partial f}{\partial x}(P)(x-x_P)+\frac{\partial f}{\partial y}(P)(y-y_P)=0\). Configurazione della curva e della retta tangente in un intorno del punto. I punti propri con molteplicità di intersezione tra curva e retta tangente pari sono detti punti di ondulazione, quelli con molteplicità di intersezione dispari sono detti punti di inflessione. Molteplicità di una curva in un suo punto. Punti semplici, doppi, tripli etc. Punti multipli ordinari, cuspidi, punti isolati. Tangenti principali in un punto di una curva. Cono (o complesso) tangente ad una curva in un suo punto. Un punto è regolare se e solo se è semplice, un punto è singolare se e solo se è multiplo. Studio dell'origine singolare. La molteplicità di una curva nell'origine è data dal grado minimo che compare nell'equazione della curva. Le tangenti principali ad una curva nell'origine sono ottenute dall'annullamento dei termini di grado minimo che compaiono nell'equazione della curva. Affinità, isometrie e cambiamenti di coordinate proiettive conservano le proprietà locali (tangenza, singolarità, molteplicità). Determinazione del centro di simmetria di una conica a centro.

LEZIONE 63
Argomenti:
Se è data una curva proiettiva \(\mathscr C:\ F(X_1,X_2,X_0)=0\) ed un suo punto regolare \(P\), esiste ed è unica la retta \(r\) che ha molteplicità di intersezione con \(\mathscr C\) in \(P\) maggiore o uguale a 2; tale retta è detta la retta tangente in \(P\) a \(\mathscr C\) ed ha equazione data da \(r:\ \frac{\partial F}{\partial X_1}(P)\,X_1+\frac{\partial F}{\partial X_2}(P)\,X_2+\frac{\partial F}{\partial X_0}(P)\,X_0\). La retta tangente alla chiusura proiettiva in un punto proprio regolare coincide al finito con la retta tangente affine. Si chiama asintoto di una curva affine ogni retta affine la cui chiusura proiettiva è tangente principale in un punto improprio della curva. Ricerca degli asintoti nei punti impropri singolari usando cambi di coordinate omogenee. Configurazione dei rami di una curva rispetto ai suoi asintoti. Punti di cuspide all'infinito. Grafici di curve algebriche piane.
Esercizi Foglio 29: Curve algebriche piane

LEZIONE 64
Argomenti:
Esercitazione in preparazione all'esame.