GEOMETRIA

Facol di Ingegneria Civile ed Industriale

Università degli studi di Roma La Sapienza
Corso di Laurea Triennale in Ingegneria Energetica (orario)
A.A. 2014/2015


AVVISI

- Il corso è terminato. Gli studenti che intendono sostenere l'esame di Geometria negli appelli successivi a Settembre 2015 sono pregati di aggiornarsi sulla pagina del corso 2015/16.
 


Ricevimento studenti


Valutazione del corso da parte degli studenti frequentanti e non frequentanti.


Orario delle lezioni:
Martedì      17:30 - 19:00     Aula 15  
Mercoledì   8:30 - 10:00      Aula 15
Giovedì      17:30 - 19:00     Aula 15
Venerdì       8:30 - 10:00      Aula 15


Esercitatore/tutor:
Dott.  Valerio Dose

Prerequisiti:
Logica elementare. Teoria elementare degli insiemi. Insiemi numerici. Principio di induzione. Equazioni e disequazioni. Goniometria e trigonometria. Geometria Analitica di base. (In generale, sono dati per scontati tutti argomenti del Precorso di Matematica).

Programma di massima del corso:
Algebra lineare: Matrici. Determinanti. Rango. Sistemi lineari. Spazi vettoriali. Applicazioni lineari. Autovalori e autovettori.  Diagonalizzazione. Prodotto scalare. Prodotto vettoriale. Operatori simmetrici. Teorema spettrale.
Geometria: Geometria piana affine ed euclidea. Geometria dello spazio affine ed euclidea. Coniche. Curve algebriche piane.
Programma definitivo (degli enunciati in corsivo non è stata data dimostrazione a lezione)
Programma A.A. 2013/2014


Modalità d'esame:
La prova finale d'esame consta di una prova scritta e di una prova orale, ciascuna con valutazione indipendente dall'altra. Entrambe le prove possono vertere sia su esercizi di natura pratica (esercizi in senso classico) che di natura teorica (dimostrazione di asserti).
La prova scritta è costituita da cinque esercizi: il primo vale dieci punti, gli altri sei punti ciascuno (per un totale di \(34\) punti). Si è ammessi alla prova orale solo se la prova scritta è almeno sufficiente, \(\geqslant {18}/{34}\). La prova orale può essere sostenuta in un qualsiasi appello della stessa sessione di esame (sessione invernale, sessione estiva, sessione autunnale). Un voto per la prova scritta \(\geqslant {24}/{34}\) consente di ripetere la prova orale nel successivo appello della stessa sessione in cui è stata sostenuta la prova scritta. Finita la sessione d'esame, le prove scritte vengono distrutte. La votazione finale non potrà in ogni caso essere inferiore a \(18\) né superiore a \(30\) e lode. Si ricorda che il giudizio della commissione è insindacabile.




Prove d'esame:

Esame del 4 Novembre 2014:    
Testo (A.A  Precedenti)


Esame del 21 Gennaio 2015:     
Prova 1         Prova 2         A.A.Precedenti

Esame del 20 Febbraio 2015:     Prova1          Prova2          Prova3         Prova4

Esame del 10 Aprile 2015:          Testo (A.A. Precedenti)

Esame del 24 Giugno 2015:        Prova1          Prova2         A.A. Precedenti

Esame del 14 Luglio 2015:         Prova1           Prova2         A.A. Precedenti

Esame dell'11 Settembre 2015:   Prova1           A.A. Precedenti

Esame del 12 Novembre 2015:    Prova1          Prova2

Diario delle lezioni:

LEZIONE 1
Argomenti: Esercitazione: risoluzione elementare di sistemi lineari. Metodo di Gauss-Jordan (cenni).

LEZIONE 2
Argomenti: Presentazione del corso. L'insieme \(\mathcal{M}_{m,n}(\mathbb{R})\) delle matrici di tipo \(m\times n\) a coefficienti reali. Notazioni e nomenclatura.Vettori riga e vettori colonna. Matrice nulla. L'insieme \(\mathcal{M}_{n}(\mathbb{R})\) delle matrici quadrate di ordine \(n\) a coefficienti reali. Matrici diagonali. Matrice identica di ordine \(n\). Trasposta di una matrice. Principio di identità tra matrici. Somma di matrici dello stesso tipo. La struttura \((\mathcal{M}_{m,n}(\mathbb{R}),+)\) è un gruppo: l'addizione tra matrici è associativa e commutativa, la matrice nulla è l'elemento neutro rispetto alla somma, ogni matrice ha la sua matrice opposta. Definizione astratta di gruppo. Esempi di gruppi additivi e moltiplicativi.

LEZIONE 3
Argomenti: Moltiplicazione di uno scalare per una matrice: proprietà fondamentali. Matrici simmetriche ed antisimmetriche: proprietà. L'unica matrice sia simmetrica che antisimmetrica è la matrice nulla. Teorema di decomposizione unica in parte simmetrica ed antisimmetrica: ogni matrice quadrata può essere scritta in maniera unica come somma di una matrice simmetrica ed una antisimmetrica. Prodotto di un vettore riga per un vettore colonna. Prodotto riga per colonna di matrici. In generale il prodotto riga per colonna non è commutativo.

LEZIONE 4
Argomenti: Proprietà del prodotto riga per colonna. Prese due matrici \(A\in M_{m,n}(\mathbb{R})\) e \(B\in M_{n,p}(\mathbb{R})\), allora \((AB)^T=B^TA^T\). La matrice identica è l'elemento neutro del prodotto. I prodotti notevoli non valgono in generale per le matrici a causa della non commutatività del prodotto riga per colonna. La legge di annullamento del prodotto non vale per le matrici. Matrici quadrate invertibili. Il gruppo (non abeliano) lineare reale di ordine \(n\) delle matrici invertibili, \(GL_n(\mathbb{R})\). L'insieme \(\mathbb{R}^n\) delle \(n\)-uple ordinate di numeri reali. Combinazioni lineari di vettori riga e vettori colonna. Vettori linearmente dipendenti e linearmente indipendenti.
ESERCIZI 1

LEZIONE 5
Argomenti:
Esercitazione: calcolo matriciale.

LEZIONE 6
Argomenti:
Combinazioni lineari di vettori riga e di vettori colonna. Dipendenza lineare e indipendenza lineare in \(\mathbb{R}^n\). Un vettore riga (o colonna) è linearmente dipendente se e solo se è nullo. Due vettori
riga (o colonna) sono linearmente dipendenti se e solo se uno dei due è multiplo dell'altro. Se in un insieme di vettori riga (o colonna) uno di essi è il vettore nullo, allora i vettori sono linearmente dipendenti. Se in un insieme di vettori riga (o colonna) due di essi sono uguali, allora i vettori sono linearmente dipendenti. Dei vettori (riga o colonna) sono linearmente dipendenti se e solo se uno di essi può essere scritto come combinazione lineare degli altri. Determinanti di matrici quadrati di ordine \(1\) e \(2\). Calcolo di determinanti di ordine \(3\) con la regola di Sarrus.  Sottomatrici complementari. Complementi algebrici.

LEZIONE 7
Argomenti:
Determinanti. Sviluppo del determinante rispetto alla prima riga. Teorema di Laplace: il determinante di una matrice può essere calcolato sviluppandolo rispetto ad una qualsiasi riga o una qualsiasi colonna. Proprietà dei determinanti: \(\textrm{det}(0_n)=0\),  \(\textrm{det}(I_n)=1\) e \(\textrm{det}(A^T)=\textrm{det}(A)\)
. Se una matrice ha una riga (o una colonna) nulla, il suo determinante è zero. Il determinante di una matrice diagonale è il prodotto degli elementi che sono sulla diagonale. Se in una matrice si moltiplica una riga (o una colonna) per uno scalare, il determinante della matrice resta moltiplicato per lo stesso scalare. Il determinante è lineare per righe (o per colonne). Il determinante non si distribuisce rispetto alla somma di matrici. Scambiando due righe (o due colonne) in una matrice, il determinante cambia segno. Se una matrice ha due righe uguali (o due colonne uguali), il suo determinante è nullo. Se una matrice ha due righe (o due colonne) proporzionali, il suo determinante è nullo. Sommando ad una riga (o una colonna) di una matrice una combinazione lineare delle altre, il determinante non cambia. Se in una matrice le righe (o le colonne) sono linearmente dipendenti, il determinante è nullo.

LEZIONE 8
Argomenti:
Teorema di Binet: prese \(A\) e \(B\) due matrici quadrate dello stesso ordine, allora \(\textrm{det}(AB)=\textrm{det}A \ \textrm{det}B\). Matrici invertibili. Se \(A\) e \(B\) sono due matrici quadrate invertibili dello stesso ordine allora \((AB)^{-1}=(B)^{-1}(A)^{-1}\). Teorema della matrice inversa: una matrice è invertibile se e solo se ha determinante diverso da zero. In particolare, l'inversa di una matrice è data da \(A^{-1}=\frac{1}{\textrm{det}A}(A^*)^T\), dove \(A^*\) è la matrice aggiunta di \(A\) (la matrice che ha per entrate, ordinatamente, i complementi algebrici degli elementi della matrice \(A\)). Rango di una matrice. Una matrice ha rango zero se e solo se è la matrice nulla. Sottomatrici e minori di una matrice. Il rango di una matrice \(A\) vale \(r\) se e solo se la matrice contiene un minore non nullo di ordine \(r\) e tutti i monori di \(A\) di ordine \(r+1\) sono nulli. Minori orlati. Teorema di Kronecker: il rango di una matrice vale  \(r\) se e solo se la matrice contiene un minore non nullo di ordine \(r\) e tutti i suoi orlati di ordine \(r+1\) sono nulli. Una matrice quadrata è invertibile se e solo se ha rango massimo.
ESERCIZI 2

LEZIONE 9
Argomenti:
Esercitazione: calcolo di determinanti e rango di matrici.

LEZIONE 10
Argomenti:
Equazioni lineari in una o più incognite. Equazioni lineari determinate, indeterminate e impossibili. Soluzione di un'equazione lineare. Sistemi lineari di tipo \(m\times n\) a coefficienti reali (con \(m\) equazioni ed \(n\) incognite). Soluzione di un sistema lineare. Sistemi determinati, indeterminati, impossibili. Scrittura compatta di un sistema lineare: un sistema lineare si scrive nella forma \(A\mathbf{X}=\mathbf{b}\), dove \(A\in M_{m,n}(\mathbb{R})\) è la matrice dei coefficienti, \(\mathbf{b}\in \mathbb{R}^m\) è la colonna dei termini noti e \(\mathbf{X}=(x_1,x_2,\dots,x_n)^T\) la colonna delle indeterminate. Sistemi omogenei. Un sistema omogeneo non è mai impossibile, ammette sempre la soluzione banale; inoltre, se ammette una soluzione non banale, ne ammette infinite. Le soluzioni di un sistema non omogeneo sono date dalla somma di una (data) soluzione particolare e di una qualsiasi soluzione del sistema omogeneo associato. Un sistema lineare ammette una, nessuna o infinite soluzioni. Sistemi lineari quadrati di ordine \(n\). Sistemi lineari crameriani. Teorema di Cramer: un sistema lineare quadrato con matrice dei coefficienti \(A\) è determinato se e solo se \(\textrm{det}A\neq0\). Calcolo della matrice inversa col metodo di Cramer. Risoluzione di un sistema crameriano col metodo della matrice inversa.

LEZIONE 11
Argomenti:
Regola di Cramer per la risoluzione di un sistema crameriano. Un sistema lineare omogeneo quadrato con matrice dei coefficienti \(A\) è indeterminato se e solo se \(\textrm{det}A=0\). Una matrice quadrata ha rango massimo se e solo se le colonne (o le righe) di \(A\) sono linearmente indipendenti. Una matrice \(A\in M_{m,n}(\mathbb{R})\)  ha rango \(r\) se e solo se in \(A\) esistono \(r\) righe (o colonne) linearmente indipendenti e se \(r+1\) righe (o colonne) sono linearmente dipendenti. In una matrice \(A\in M_{m,n}(\mathbb{R})\)  il rango indica il massimo numero di righe (o colonne) linearmente indipendenti. Sistemi compatibili ed incompatibili. Teorema di Kronecker-Rouché-Capelli: un sistema lineare  \(A\mathbf{X}=\mathbf{b}\) è compatibile se e solo se il rango della matrice incompleta del sistema \(A\) e il rango della matrice completa del sistema \((A|\mathbf{b})\) sono uguali. In tal caso, detto il rango \(r\), il sistema è determinato se \(n=r\), è invece indeterminato con \(\infty^{n-r}\) soluzioni, se \(r<n\).

LEZIONE 12
Argomenti:
Esercitazione: risoluzione di sistemi lineari applicando i teoremi di Cramer e Rouché-Capelli. Un insieme di vettori di \(\mathbb{R}^n\) contiene al più \(n\) vettori linearmente indipendenti. Struttura di spazio vettoriale sull'insieme delle matrici a coefficienti reali. L'insieme \(\mathcal{V}_O^2\) dei vettori del piano applicati nel punto \(O\). Somma e prodotto con scalare di vettori applicati in un punto. Struttura di spazio vettoriale sull'insieme dei vettori applicati in un punto.
ESERCIZI 3

LEZIONE 13
Argomenti:
Esercitazione: calcolo della matrice inversa col metodo di Cramer; discussione e risoluzione di sistemi lineari parametrici. Spazi vettoriali reali. Esempi di spazi vettoriali: \( M_{m,n}(\mathbb{R})\), \(\mathbb{R}^n\), \(\mathcal{V}_O^2\) e l'insieme \(\mathbb{R}[x]\) dei polinomi a coefficienti reali nell'indeterminata \(x\). In uno spazio vettoriale \(V\) il vettore nullo \(\mathbf{0}_V\) è unico, il simmetrico di un vettore \(v\in V\) è unico, lo si indica con \(-v\) ed è detto l'opposto di \(v\). In particolare si ha che \((-1)v=-v\).

LEZIONE 14
Argomenti: 
Legge di annullamento del prodotto negli spazi vettoriali. Combinazioni lineari. Vettori linearmente dipendenti e linearmente indipendenti. Un vettore è linearmente dipendente se e solo se è nullo. Due vettori sono linearmente dipendenti se e solo se sono proporzionali. Dei vettori sono linearmente dipendenti se e solo se uno di essi è combinazione lineare dei rimanenti. Se in un insieme di vettori alcuni di essi sono linearmente dipendenti, allora tutti sono linearmente dipendenti. Sottospazi vettoriali. Dato lo spazio vettoriale \(V\), gli insiemi \(\{\mathbf{0}_V\}\) e \(V\) sono sottospazi vettoriali di \(V\). Un sottospazio vettoriale contiene necessariamente il vettore nullo. Esempi di sottospazi vettoriali: matrici quadrate simmetriche \(Sym_n(\mathbb{R})\), antisimmetriche \(ASym_n(\mathbb{R})\) e diagonali \(Diag_n(\mathbb{R})\). L'insieme \(\mathbb{R}_{\leqslant n}[x]\) dei polinomi di grado al più \(n\) con il polinomio nullo è un sottospazio vettoriale di \(\mathbb{R}[x]\). L'insieme delle soluzioni di un sistema lineare di tipo \(m\times n\) è un sottospazio vettoriale di \(\mathbb{R}^n\) se e solo se il sistema è omogeneo.

LEZIONE 15
Argomenti:
Sia \(V\) uno spazio vettoriale e siano \(v_1,\ v_2,\,\dots, v_n\) vettori di \(V\), allora il sottoinsieme delle combinazioni lineari dei \(v_i\) è un sottospazio vettoriale di \(V\); esso è chiamato il sottospazio generato dai \(v_i\) ed è indicato con \(\mathcal{L}(v_1,\ v_2,\,\dots, v_n)\). Retta vettoriale e piano vettoriale. Spazi vettoriali finitamente generati. Lo spazio \(\mathbb{R}[x]\) non è finitamente generato. Gli spazi \(\mathbb{R}^n\) e \(\mathbb{R}[x]\) sono finitamente generati. Dato \(V\) uno spazio vettoriale e \(v_1, v_2,\,\dots, v_n\) vettori di \(V\), preso \(w\in\mathcal{L}(v_1, v_2,\,\dots, v_n)\), allora si ha \(\mathcal{L}(v_1, v_2,\,\dots, v_n, w)=\mathcal{L}(v_1, v_2,\,\dots, v_n)\). Similmente, se \(w_1,w_2, \dots, w_m\in\mathcal{L}(v_1, v_2,\,\dots, v_n)\), allora \(\mathcal{L}(v_1, \dots, v_n, w_1, w_2, \dots, w_m)=\mathcal{L}(v_1,\dots, v_n)\). Dati i vettori \(v_1, v_2,\,\dots, v_n\) linearmente indipendenti di \(V\), preso \(w\not\in\mathcal{L}(v_1, v_2,\,\dots, v_n)\), allora i vettori \(v_1, v_2,\,\dots, v_n, w\) sono linearmente indipendenti. Una base di uno spazio vettoriale è un sistema di generatori linearmente indipendenti. I vettori \(v_1, v_2,\,\dots, v_n\) sono una base di \(V\) se e solo se ogni vettore di \(V\) si scrive in maniera unica come combinazione lineare di \(v_1, v_2,\,\dots, v_n\). Coordinate di un vettore rispetto ad una base. Operazioni tra vettori in termini delle loro componenti rispetto ad una base. Metodo degli scarti successivi: ogni spazio vettoriale non banale finitamente generato ha almeno una base.

LEZIONE 16
Argomenti:
Basi canoniche di \(\mathbb{R}^n\),  \(\mathbb{R}_{\leqslant n}[x]\) e \(M_{m,n}(\mathbb{R})\). Lemma di Steinitz: se \(\{v_1, v_2,\dots, v_n\}\) è una base di \(V\) e \(w_1, w_2, \dots, w_m\) sono \(m>n\) vettori di \(V\) allora i \(w_i\) sono linearmente dipendenti. Lemma di scambio: se in una base si sostituisce un vettore con la somma di questo vettore più una combinazione lineare dei vettori rimanenti, si ottiene una nuova base. Tutte le basi di uno spazio vettoriale finitamente generato hanno la stessa cardinalità che è detta la dimensione di \(V\) e si indica \(\dim V\). La dimensione di \(V\) indica il numero massimo di vettori linearmente indipendenti che si possono trovare in \(V\). La dimensione di \(V\) indica il numero minimo di generatori di \(V\). Teorema del completamento della base: Sia \(\{v_1, v_2,\dots, v_n\}\) una base di \(V\) e siano \(w_1, w_2, \dots, w_m\), con \(m<n\), vettori linearmente indipendenti  di \(V\); allora è possibile scegliere \(n-m\) vettori \(v'_1, v'_2, \dots, v'_{n-m}\) tra i \(v_i\) tali che  \(\{w_1, w_2,\dots, w_m, v'_1, \dots, v'_{n-m}\}\) sia una base di \(V\). Se \(V\) è uno spazio vettoriale di dimensione \(n\), allora \(\{v_1, v_2,\dots, v_n\}\) è una base di \(V\) se e solo se \(v_1, v_2,\dots, v_n\) sono linearmente indipendenti, se e solo se \(v_1, v_2,\dots, v_n\) sono generatori di \(V\).
ESERCIZI 4

LEZIONE 17
Argomenti:
Esercitazione: spazi e sottospazi vettoriali.

LEZIONE 18
Argomenti:
Siano \(w_1,w_2,\dots,w_m\) vettori di uno spazio vettoriale \( V\) di dimensione \(n\) e sia \(\mathcal B\) una base di \(V\). Sia \(A\in M_{m,n}(\mathbb R)\) la matrice che ha per righe le coordinate dei \(w_i\) rispetto a \(\mathcal B\). Allora \(\textrm{rk} A=r\) indica il massimo numero di vettori linearmente indipendenti tra i \(w_i\) ed \(r\) vettori linearmente indipendenti sono quelli corrispondenti alle righe di un qualsiasi minore non nullo di \(A\) di ordine \(r\). Inoltre, i \(w_i\) sono linearmente indipendenti se e solo se \(\textrm{rk} A=m\). Siano \(\mathcal B\) e
\(\mathcal B'\) basi di uno spazio vettoriale \(V\) di dimensione finita; la matrice di passaggio da \(\mathcal B\) a \(\mathcal B'\) è la matrice che si ottiene scrivendo in colonna ordinatamente le coordinate dei vettori di \(\mathcal B'\) in funzione di quelli di \(\mathcal B\). Teorema del cambiamento di coordinate nel passaggio da una base ad un'altra: siano \(P\) la matrice di passaggio dalla base \(\mathcal B\) alla base \(\mathcal B'\), \(P'\) la matrice di passaggio dalla base \(\mathcal B'\) alla base \(\mathcal B\), \(X\) la colonna delle coordinate di un vettore \(v\in V\) rispetto alla base \(\mathcal B\) e \(X'\) la colonna delle coordinate di \(v\) rispetto alla base \(\mathcal B'\), allora si ha che \(P'=P^{-1}\), \(X'=P^{-1}X\) e infine \(X=PX'\).

LEZIONE 19
Argomenti:
Se \(V\) è uno spazio vettoriale di dimensione finita e \(W\) è un sottospazio di \(V\) allora \(\textrm{dim}W\leqslant\textrm{dim}V\). Inoltre \(\textrm{dim}W=\textrm{dim}V\) se e solo se \(W=V\). Equazioni cartesiane e parametriche di un sottospazio vettoriale. Il numero di parametri necessari per dare le equazioni parametriche di \(W\) è uguale alla dimensione di \(W\). Se \(n=\textrm{dim}V\), il numero di equazioni cartesiane per descrivere \(W\) è detto codimensione di \(W\) e \(\textrm{codim}W=n-\textrm{dim}W\). In particolare, per ogni sottospazio vettoriale \(W\) si ha \(n=\textrm{dim}W+\textrm{codim}W\). L'intersezione di due sottospazi vettoriali è un sottospazio vettoriale. In generale, l'unione di due sottospazi vettoriali non è un sottospazio vettoriale. La somma di due sottospazi vettoriali è un sottospazio vettoriale ed è il più piccolo contenente l'unione dei due sottospazi. Teorema di Grassmann: Se \(U\) e \(W\) sono sottospazi vettoriali di uno spazio di dimensione finita, allora vale la formula di Grassmann \(\textrm{dim}(U+W)+\textrm{dim}(U\cap W)=\textrm{dim}U+\textrm{dim}W\).

LEZIONE 20
Argomenti:
La somma di due sottospazi vettoriali è il più piccolo sottospazio vettoriale contenente l'unione dei due sottospazi. Somma diretta di due sottospazi. Formula di Grassmann per la somma diretta: \(\textrm{dim}(U\oplus W)=\textrm{dim}U+\textrm{dim}W\). Sottospazi supplementari. In uno spazio vettoriale finitamente generato ogni sottospazio ammette un supplemento (che non è unico in generale). Teorema della somma diretta: dati \(T\), \(U\) e \(W\) sottospazi vettoriali, si ha che \(T=U\oplus W\) se e solo se ogni vettore di \(T\) si scrive in maniera unica come somma di un vettore di \(U\) e di un vettore di \(W\). Siano \(T\), \(U\) e \(W\) sottospazi vettoriali, siano \(\mathcal {B}_U=\{u_1,\dots, u_m\}\) una base di \(U\) e \(\mathcal {B}_W=\{w_1,\dots, w_l\}\) una base di \(W\), allora \(T=U\oplus W\) se e solo se \(\{u_1,\dots, u_m,w_1,\dots,w_l\}\) è una base di \(T\). Somma e somma diretta di un numero finito di sottospazi. Esercitazione: base, dimensione, equazioni parametriche e cartesiane di un sottospazio vettoriale.
ESERCIZI 5

LEZIONE 21
Argomenti:
Esercitazione: Somma e intersezione di sottospazi vettoriali.

LEZIONE 22
Argomenti:
Geometria nel piano affine \(\mathbb A^2(\mathbb R)\). Vettori applicati nel piano. Frecce orientate. Un vettore applicato è individuato da un punto di applicazione, una direzione, un verso ed un modulo. Vettore nullo. Vettori equipollenti. Quinto postulato di Euclide. Prima proprietà fondamentale degli spazi affini: dato un vettore \(\stackrel{\longrightarrow}{AB}\) ed un punto \(C\) nel piano, esiste ed è unico il punto \(D\) tale che \(\stackrel{\longrightarrow}{AB}\) e \(\stackrel{\longrightarrow}{CD}\) siano equipollenti. Lo spazio vettoriale \(\mathcal{V}^2_O\) dei vettori applicati in uno stesso punto \(O\) del piano. Operazioni in \(\mathcal{V}^2_O\): somma di due vettori (con la regola del parallelogramma) e moltiplicazione con scalare. Un vettore \(\stackrel{\longrightarrow}{OA}\) è linearmente dipendente se e solo se \(A=O\). Due vettori applicati in \(O\) sono dipendenti se e solo se sono paralleli. Lo spazio vettoriale \(\mathcal{V}^2_O\) ha dimensione due e le sue basi sono costituite da coppie di vettori non paralleli applicati in \(O\). Sistemi di riferimento affine nel piano. Coordinate affini di punti e vettori nel piano. Operazioni tra vettori in termini di coordinate. Seconda proprietà fondamentale degli spazi affini: presi tre punti \(O,P,Q\) nel piano si ha \(\stackrel{\longrightarrow}{OP}+\stackrel{\longrightarrow}{PQ}=\stackrel{\longrightarrow}{OQ}\). Presi due punti del piano \(A\) e \(B\), le coordinate del vettore \(\stackrel{\longrightarrow}{AB}\) sono date dalla differenza delle coordinate del punto finale \(B\) meno quelle del punto di applicazione \(A\). Una retta nel piano è automaticamente individuata da un suo punto e da un vettore ad essa parallelo. Vettore direzionale e parametri direttori di una retta. Equazione vettoriale di una retta: data una retta \(r\), un punto \(P_0\in r\) ed un vettore direzionale \(\vec{v}\) di \(r\), allora un punto \(P\) del piano appartiene ad \(r\) se e solo se \(\stackrel{\longrightarrow}{OP}=\stackrel{\longrightarrow}{OP_0}+t\,\vec{v}\), per qualche \(t\in \mathbb R\). Equazioni parametriche di una retta: data una retta \(r\) un punto \(P_0(x_0,\,y_0)\in r\) ed un vettore direzionale \(\vec{v}(l,\,m)\) di \(r\), allora equazioni parametriche di \(r\) sono date da \(\begin{cases}x=x_0+l\,t\\y=y_0+m\,t   \end{cases}\). Equazione cartesiana di una retta: una retta nel piano è rappresentata da un'equazione del tipo \(ax+by+c=0\), con \(a\) e \(b\) non contemporaneamente nulli, e viceversa, ogni equazione di questo tipo ha per grafico nel piano una retta.

LEZIONE 23
Argomenti:
Dati \(P_1(x_1,y_1)\) e \(P_2(x_2,y_2)\) due punti distinti del piano, la retta che li congiunge ha equazioni parametriche date da \(\begin{cases}x=x_1+(x_2-x_1)\,t\\y=y_1+(y_2-y_1)\,t\end{cases}\) ed equazione cartesiana data da \(\begin{vmatrix}x-x_1&y-y_1\\x_2-x_1&y_2-y_1\end{vmatrix}=0\). Condizione di allineamento di tre punti. Rette parallele, rette coincidenti, rette parallele e distinte, rette incidenti. Posizione reciproca di due rette nel piano. Fasci di rette nel piano: fasci propri (stellati) e fasci impropri (rigati). Il fascio di tutte le rette parallele al vettore \(\vec{v}=(l,m)\) ha equazione \(\mathscr{F}_{\vec{v}}:\ mx-ly+k=0\), con \(k\in\mathbb R\). Il fascio di tutte le rette passanti per il punto \(P_0(x_0,y_0)\) ha equazione \(\mathscr{F}_{P_0}:\ \lambda(x-x_0)+\mu(y-y_0)=0\), con \(\lambda,\mu\in\mathbb R\). Il piano contiene \(\infty^2\) punti ed \(\infty^2\) rette. Le rette parallele ad un vettore dato sono \(\infty^1\) e le rette passanti per un punto fissato del piano sono \(\infty^1\). Esercitazione: rette e punti nel piano affine.
ESERCIZI 6

LEZIONE 24
Argomenti:
Vettori geometrici nello spazio. L'insieme \(\mathcal V_O^3\) dei vettori dello spazio applicati nel punto \(O\) è uno spazio vettoriale. Richiami sulle proprietà elementari dello spazio fisico tridimensionale. Punti allineati e punti complanari. Vettori allineati e vettori complanari. Tre vettori di \(\mathcal V_O^3\) sono linearmente dipendenti se e solo se sono complanari. Lo spazio \(\mathcal V_O^3\) ha dimensione tre. Lo spazio affine tridimensionale \(\mathbb A^3(\mathbb R)\). Sistema di riferimento affine e coordinate affini nello spazio. Coordinate di vettori liberi ed applicati. Una retta parallela al vettore \(\vec v=(l,m,n)\) e passante per il punto \(P_0=(x_0,y_0,z_0)\) ha equazioni parametriche  \(\begin{cases}x=x_0+l\,t\\y=y_0+m\,t\\z=z_0+n\,t   \end{cases}\). Due rette sono parallele se e solo se hanno vettori direzionali proporzionali. Dati \(P_1(x_1,y_1,z_1)\) e \(P_2(x_2,y_2,z_2)\) due punti distinti nello spazio, la retta che li congiunge ha equazioni parametriche \(\begin{cases}x=x_1+(x_2-x_1)\,t\\y=y_1+(y_2-y_1)\,t\\z=z_1+(z_2-z_1)\,t\end{cases}\). Condizione di allineamento di tre punti.

LEZIONE 25
Argomenti:
Condizioni operative per l'allineamento di tre punti e per la complanarità di quattro punti. Equazione vettoriale di un piano. Siano dati  \(P_1(x_1,y_1,z_1)\), \(P_2(x_2,y_2,z_2)\) e  \(P_3(x_3,y_3,z_3)\) tre punti non allineati dello spazio; il piano che li contiene ha equazioni parametriche date da \(\begin{cases}x=x_1+(x_2-x_1)\,t+(x_3-x_1)\,t'\\y=y_1+(y_2-y_1)\,t+(y_3-y_1)\,t'\\z=z_1+(z_2-z_1)\,t+(z_3-z_1)\,t'\end{cases}\) ed equazione cartesiana data da \(\begin{vmatrix}x-x_1&y-y_1&z-z_1\\x_2-x_1&y_2-y_1&z_2-z_1\\ x_3-x_1&y_3-y_1&z_3-z_1 \end{vmatrix}=0\). Il piano parallelo ai vettori \(\vec v=(l,m,n)\) e \(\vec w=(l',m',n')\) e passante per il punto \(P_0=(x_0,y_0,z_0)\) ha equazioni parametriche  \(\begin{cases}x=x_0+l\,t+l\,t'\\y=y_0+m\,t+m\,t'\\z=z_0+n\,t+n\,t'\end{cases}\). Tutti e soli i piani dello spazio sono rappresentati da un'equazione del tipo \(ax+by+cz+d=0\), con \(a,b,c\) non contemporaneamente nulli. Rappresentazione grafica di piani. Piani paralleli, piani coincidenti, piani paralleli e distinti, piani incidenti. Due piani se si intersecano, hanno almeno una retta in comune.

LEZIONE 26
Argomenti: Parametri di giacitura di un piano. Piani paralleli hanno, a meno di un fattore moltiplicativo non nullo, gli stessi parametri di giacitura. Equazioni cartesiane di una retta. Parametri direttori di una retta in termini dei minori di ordine due della matrice incompleta del sistema che la definisce. Posizione reciproca di un piano e di una retta nello spazio: caratterizzazione. Un piano di giacitura \((a,b,c)\) ed una retta di parametri direttori \((l,m,n)\) sono paralleli se e solo se \(al+bm+cn=0\). 

LEZIONE 27
Argomenti:
Rette sghembe. Posizione reciproca di due rette nello spazio: classificazione. Esercitazione: geometria nello spazio affine. Applicazioni tra insiemi. Applicazione costante. Applicazioni iniettive, suriettive e biettive tra insiemi. 
ESERCIZI 7

LEZIONE 28
Argomenti:
Applicazioni lineari tra spazi vettoriali. Un'applicazione lineare \(F:\ V\rightarrow W\) è tale che \(F(\mathbf{0}_V)=\mathbf{0}_W\) e \(F(-v)=-F(v)\), per ogni \(v\in V\). Due applicazioni lineari sono uguali se e solo se assumono gli stessi valori sui vettori di una base dello spazio di partenza. Matrice associata ad un'applicazione lineare rispetto ad una base dello spazio di partenza e ad una base dello spazio di arrivo. Insieme immagine di un'applicazione lineare. Se \(F:\ V\rightarrow W\) è un'applicazione lineare, allora \(\textrm{Im}(F)\) è un sottospazio vettoriale di \(W\) generato dalle immagini dei vettori di una base di \(V\) e se \(A\) è una matrice associata ad \(F\), allora \(\textrm{dim Im}(F)=\textrm{rk}A\).

LEZIONE 29
Argomenti:
Esercitazione: geometria affine dello spazio. Applicazioni lineari: matrici associate e immagine di un'applicazione lineare.

LEZIONE 30
Argomenti:
Equazioni di un'applicazione lineare. Formula del cambiamento della matrice associata ad un'applicazione lineare per cambiamenti di base. Teorema fondamentale di esistenza ed unicità dell'applicazione lineare definita sui valori di una base. Immagine diretta di un sottospazio. Controimmagine di un vettore. Nucleo di un'applicazione lineare. Data un'applicazione lineare \(F:\ V\rightarrow W\), si ha che \(\textrm{Ker}(F)\) è un sottospazio vettoriale di \(V\), inoltre se \(A\) è una matrice associata ad \(F\), allora \(\textrm{Ker}(F)\) è definito dal sistema omogeneo associato ad \(A\) e \(\textrm{codim Ker}(F)=\textrm{rk}A\). Teorema del rango: data un'applicazione lineare \(F:\ V\rightarrow W\), con \(V\) finitamente generato, allora vale la formula della dimensione: \(\textrm{dim}V=\textrm{dim Im}(F)+\textrm{dim Ker}(F)\) (con dimostrazione sia del caso generale che nel caso in cui anche \(W\) è finitamente generato).

LEZIONE 31
Argomenti:
Un'applicazione lineare \(F: V\longrightarrow W\) è iniettiva se e solo se  \(\textrm{Ker}(F)=\{\mathbf{0}_V\}\).  Sia \(F: V\longrightarrow W\) un'applicazione lineare tra spazi vettoriali di dimensione finita e sia \(A\) una matrice associata ad \(F\), allora \(F\) è iniettiva se e solo se \(\textrm{rk}A=\textrm{dim}V\) ed è suriettiva se e solo se \(\textrm{rk}A=\textrm{dim}W\). Sia \(F: V\longrightarrow W\) un'applicazione lineare tra spazi vettoriali di dimensione finita, se \(\textrm{dim}V>\textrm{dim}W\) allora \(F\) non può essere iniettiva, se invece \(\textrm{dim}W>\textrm{dim}V\) allora \(F\) non può essere suriettiva. Isomorfismi di spazi vettoriali. Due spazi vettoriali sono isomorfi se e solo se hanno la stessa dimensione. Ogni spazio vettoriale di dimensione \(n\) è isomorfo a \(\mathbb R^n\).
ESERCIZI 8

LEZIONE 32
Argomenti:
Esercitazione: applicazioni lineari di spazi vettoriali. Se \(V\) e \(W\) sono spazi vettoriali di dimensione finita uguale, allora un'applicazione lineare \(F: V\longrightarrow W\) è iniettiva se e solo se è suriettiva, se e solo se è biunivoca. Endomorfismi di uno spazio vettoriale. Matrice associata ad un endomorfismo di uno spazio vettoriale di dimensione finita rispetto ad una base. Matrici simili. Due matrici simili hanno lo stesso rango e lo stesso determinante. Due matrici associate ad uno stesso endomorfismo sono associate tra loro. Automorfismi di uno spazio vettoriale. Un endomorfismo di uno spazio vettoriale di dimensione finita è un automorfismo se e solo se ogni matrice ad esso associata è invertibile. Introduzione alla diagonalizzazione di applicazioni lineari: motivazione. Autovalori ed autovettori di un endomorfismo. Autospazi e molteplicità geometrica di un autovalore. Autovettori associati ad autovalori distinti sono linearmente indipendenti. La somma di autospazi associati ad autovalori distinti è una somma diretta. Ogni endomorfismo di uno spazio vettoriale di dimensione finita \(n\) ha al più \(n\) autovalori distinti.

LEZIONE 33
Argomenti:
Esercitazione: applicazioni lineari tra spazi vettoriali.

LEZIONE 34
Argomenti:
Un endomorfismo ha \(0\) come autovalore se e solo se non è iniettivo, inoltre \(E(0)=\textrm{Ker}(F)\). Endomorfismi diagonalizzabili. Un endomorfismo \(F\) di uno spazio vettoriale finitamente generato \(V\) è diagonalizzabile se e solo se esiste una base di \(V\) di autovettori per \(F\). Richiami su polinomi: radici, test delle radici razionali di Newton, teorema di Ruffini, regola di Ruffini, molteplicità di una radice. Ricerca di autovalori ed autovettori. Un numero reale \(\lambda\) è autovalore per un endomorfismo \(F\) se e solo verifica l'equazione \(\textrm{det}(A-\lambda I_n)=0\), dove \(A\) è una matrice associata ad \(F\). Un vettore con coordinate \(X\in\mathbb{R}^n\) è un autovettore per \(F\) associato all'autovalore \(\lambda\) se e solo se le sue coordinate risolvono il sistema lineare omogeneo \((A-\lambda I_n)X=\mathbf{0}\). Equazione caratteristica (secolare) e polinomio caratteristico. Il polinomio caratteristico è un invariante dell'endomorfismo \(F\) (non dipende dalla matrice scelta per calcolarlo). Molteplicità algebrica di un autovalore.

LEZIONE 35
Argomenti:
Un endomorfismo diagonalizzabile ha autovalori tutti reali (non necessariamente distinti). Se \(\lambda\) è un autovalore di un endomorfismo allora \(1\leqslant \textrm{mg}(\lambda)\leqslant \textrm{ma}(\lambda)\). Se un endomorfismo ammette autovalori distinti allora è diagonalizzabile. Teorema fondamentale della diagonalizzabilità: un endomorfismo di uno spazio vettoriale di dimensione finita è diagonalizzabile se e solo se ammette autovalori tutti reali e per ciascuno di questi molteplicità geometrica e molteplicità aritmetica coincidono. Diagonalizzabilità di matrici. Polinomio caratteristico, autovalori, autovettori, autospazi di una matrice quadrata. Una matrice quadrata è diagonalizzabile se e solo se essa è simile ad una matrice diagonale. Esercitazione: diagonalizzabilità di endomorfismi e di matrici quadrate.
ESERCIZI 9


LEZIONE 36
Argomenti:
Esercitazione: diagonalizzazione di endomorfismi, automorfismi. Prodotto scalare standard in \(\mathbb{R}^n\). Spazi vettoriali euclidei. Il prodotto scalare è bilineare, simmetrico e definito positivo. Norma di un vettore di \(\mathbb{R}^n\). La norma dei vettori di \(\mathcal{V}_O^2\) e \(\mathcal{V}_O^3\) rappresenta la loro lunghezza (modulo). 

LEZIONE 37
Argomenti:
Vettori ortogonali. Diseguaglianza di Cauchy-Schwarz. Coseno dell'angolo compreso tra due vettori non nulli. Interpretazione geometrica dell'ortogonalità tra vettori in termini dell'angolo tra essi compreso. La norma di un vettore è positiva, non degenere e positivamente omogenea. Diseguaglianza triangolare. Teorema di Pitagora. Teorema di Carnot. Identità del parallelogramma. Versori. Versore (positivo) associato ad un vettore. Basi ortogonali. Basi ortonormali. Normalizzazione di una base ortogonale. Ortogonalizzazione di una base: procedimento ortogonale di Gram-Schmidt.

LEZIONE 38
Argomenti:
Se \(m\) vettori di \(\mathbb{R}^n\) sono non nulli e a due a due ortogonali, allora \(m\leqslant n\) e i vettori sono linearmente indipendenti. Proiezione ortogonale di un vettore non nullo sulla direzione di un vettore non nullo. Coefficienti di Fourier. Interpretazione geometrica del procedimento ortogonale di Gram-Schmidt. Complemento ortogonale di un sottospazio vettoriale. Il complemento ortogonale \(W^{\bot}\) di un sottospazio vettoriale \(W\) è costituito dai vettori ortogonali ad i vettori di una base di \(W\), inoltre \(W^{\bot}\) è esso stesso un sottospazio e \(W\cap W^{\bot}=\{\mathbf 0\}\). Se \(W\) è un sottospazio non banale di \(\mathbb{R}^n\), allora ogni vettore \(v\in\mathbb{R}^n\) si scrive in maniera unica come \(v=w+w'\),  dove \(w\in W\) e \(w'\in W^{\bot}\); in particolare \(\mathbb{R}^n=W\oplus W^{\bot}\) e \(\textrm{dim}W^{\bot}=\textrm{codim}W\). Proiezione ortogonale di un vettore su un sottospazio. Interpretazione geometrica.
ESERCIZI 10

LEZIONE 39
Argomenti:
Matrici ortogonali. Una matrice ortogonale è invertibile e la sua inversa coincide con la sua trasposta. Una matrice ortogonale ha il determinante uguale a \(\pm1\). Le colonne (e le righe) di una matrice ortogonale di ordine \(n\) costituiscono una base ortogonale di \(\mathbb R^n\). La matrice di passaggio da una base ortonormale ad un'altra base ortonormale di \(\mathbb R^n\) è una matrice ortogonale. Endomorfismi simmetrici di \(\mathbb R^n\). Se \(F\) e \(G\) sono due endomorfismi di \(\mathbb R^n\) tali che per ogni coppia di vettori \(v,w\in\mathbb R^n\) si abbia che \(F(v)\cdot w=v\cdot G(w)\), allora le matrici associate ad \(F\) e \(G\) rispetto alla base canonica sono l'una la trasposta dell'altra. Un endomorfismo è simmetrico se e solo se la sua matrice rispetto alla base canonica (o rispetto ad una qualsiasi base ortonormale) è una matrice simmetrica. L'operatore di proiezione ortogonale è un operatore simmetrico. Un endomorfismo simmetrico ammette autovalori tutti reali. Un endomorfismo simmetrico trasforma vettori ortogonali ad un autovettore in vettori ortogonali allo stesso autovettore. Autovettori di un endomorfismo simmetrico associati ad autovalori distinti sono ortogonali. Teorema spettrale: ogni endomorfismo simmetrico è diagonalizzabile rispetto ad una base ortonormale di autovettori.

LEZIONE 40
Argomenti:
Teorema spettrale per le matrici: ogni matrice simmetrica a coefficienti reali è simile ad una matrice diagonale per mezzo di una matrice ortogonale. Esercitazione: teorema spettrale, diagonalizzazione di endomorfismi.
ESERCIZI 11

LEZIONE 41
Argomenti:
Geometria euclidea piana. Riferimenti cartesiani ortonormali nel piano. Coordinate cartesiane ortogonali e versori ortonormali fondamentali. Distanza di un punto dall'origine. Distanza tra due punti. Versori direzionali di una retta. Versori perpendicolari associati ad una retta. Criteri di perpendicolarità tra due rette (sia date in equazioni cartesiane che in equazioni parametriche). Angoli formati da due rette. Distanza di un punto da una retta. Sistemi di riferimento cartesiano ortonormale nello spazio. Coordinate cartesiane e versori ortogonali nello spazio. Prodotto vettoriale in \(\mathbb R^3\). Il prodotto vettoriale è bilineare ed anticommutativo. Prodotto misto di tre vettori in \(\mathbb R^3\). Il prodotto misto cambia segno se si scambia l'ordine di due vettori. Il prodotto misto è nullo se due dei tre vettori sono paralleli. Formula di Lagrange per il calcolo del modulo del prodotto vettoriale. Siano dati due vettori \(v,w\in\mathbb R^3\) e sia \(v=a+b\), con \(a/\!\!/ w\) e \(b\bot w\); allora \(\|v\wedge w\|=\|w\| \,\|b\|\). Il modulo del prodotto vettoriale di due vettori è uguale all'area del parallelogramma delimitato dai due vettori.

LEZIONE 42
Argomenti:
Se \(v\) e \(w\) sono due vettori linearmente indipendenti di \(\mathbb R^3\) allora \(\{v,\,w,\, v\wedge w\}\) è una base di \(\mathbb R^3\). Il prodotto misto (a meno del segno) di tre vettori calcola il volume del paralellepipedo descritto dai tre vettori. Formule per il calcolo dell'area di un triangolo nel piano. Asse di un segmento. Circonferenza nel piano. Esercitazione: geometria analitica del piano.

ESERCIZI 12
 
LEZIONE 43
Argomenti:
Angolo tra due rette nello spazio. Condizione di ortogonalità tra rette nello spazio. Complemento ortogonale di una retta. Interpretazione geometrica del vettore di giacitura di un piano. Ortogonalità tra piani. Ortogonalità di una retta e di un piano. Interpretazione geometrica della condizione di parallelismo di una retta e di un pano nello spazio. Un vettore direzionale di una retta data per mezzo di equazioni cartesiane è dato dal prodotto vettoriale dei vettori di giacitura dei piani che la definiscono. Distanza tra due punti nello spazio. Distanza di un punto da un piano. Distanza di un punto da una retta. Distanza tra rette parallele nel piano. Distanza tra rette parallele nello spazio. Distanza tra piani paralleli. Distanza tra una retta ed un piano paralleli.
ESERCIZI 13

LEZIONE 44
Argomenti:
Teorema delle perpendicolare comune. Distanza tra due rette sghembe. Composizione di applicazioni lineari. Teorema della composizione operatoria.  Endomorfismi invertibili e matrici associate. Interpretazione geometrica di alcuni endomorfismi di \(\mathbb R^2\): simmetria rispetto all'asse \(x\). Gli autospazi di un endomorfismo indicano le rette passanti per l'origine che restano invariate sotto l'azione dell'endomorfismo. Correzione di un esercizio assegnato (su endomorfismi e prodotto vettoriale).

LEZIONE 45
Argomenti:
Operatori ortogonali. Rotazioni attorno all'origine. Classificazione degli operatori ortogonali su \(\mathbb R^2\). Trasformazioni del piano euclideo. Trasformazioni del tipo \(f(x,y)=A\begin{pmatrix}x\\y\end{pmatrix}+\begin{pmatrix}a\\b\end{pmatrix}\), con \(A\) matrice quadrata di ordine 2 e \(\begin{pmatrix}a\\b\end{pmatrix}\in\mathbb R^2\). Traslazioni. Rototraslazioni. Esempio di una glissosimmetria ottenuta componendo la simmetria rispetto all'asse \(x\) con la traslazione secondo un vettore \(v\). Legge del cambiamento di coordinate cartesiane.

LEZIONE 46
Argomenti:
Affinità ed isometrie nel piano (cenni). Proiezione ortogonale sull'asse \(x\). Forme quadratiche reali in due variabili. Matrice simmetrica associata ad una forma quadratica. Espressione matriciale di una forma quadratica. Teorema di diagonalizzazione delle forme quadratiche: ogni forma quadratica può essere portata in forma diagonale applicando un cambio di variabili corrispondente ad una trasformazione ortogonale di \(\mathbb R^2\). Curve algebriche piane. I polinomi a coefficienti reali nelle indeterminate \(x\) ed \(y\) formano un anello commutativo unitario, indicato con \(\mathbb R[x,y]\), rispetto alle operazioni di somma e prodotto definite nel calcolo letterale. Grado di un polinomio in due variabili. Proprietà del grado. Legge di annullamento del prodotto in \(\mathbb R[x,y]\). Conica generale in due variabili. Matrice associata ad una conica. Equazione matriciale di una conica. Rango di una conica. Forma quadratica associata ad una conica. Esempi di coniche. Teorema di classificazione delle forme canoniche delle coniche reali euclidee (enunciato).
ESERCIZI 14

LEZIONE 47
Argomenti: 
Teorema di Kronecker per il rango del prodotto di matrici: se \(A\) e \(B\) sono due matrici allora \(\textrm{rk}AB\leqslant\textrm{min}\{\textrm{rk}A,\ \textrm{rk}B\}\)
. Se si moltiplica una matrice \(A\) a destra o a sinistra per una matrice invertibile, allora il rango di \(A\) resta invariato. Teorema d'invarianza: data una conica con matrice associata \(A\) e forma quadratica associata \(Q\), se si applica una isometria al sistema di riferimento fissato, allora \(\textrm{det}A\), \(\textrm{det}Q\), \(\textrm{rk}A\) e \(\textrm{rk}Q\) non cambiano. Invarianti metrici euclidei delle coniche piane euclidee. Coniche non degeneri (con \(\textrm{rk}A=3\)), coniche semplicemente degeneri (con \(\textrm{rk}A=2\)), coniche doppiamente degeneri (con \(\textrm{rk}A=1\)). Coniche di tipo ellittico (con \(\textrm{det}Q>0\)), coniche di tipo iperbolico (con \(\textrm{det}Q<0\)), coniche di tipo parabolico (con \(\textrm{det}Q=0\)). Esempi di classificazione di coniche. Teorema di riduzione: ogni conica piana può essere trasformata in una delle seguenti coniche ridotte per mezzo di isometrie: \(\lambda X^2+\mu Y^2+p=0\) se \(\textrm{det}Q\neq0\),  \(\mu Y^2+qx=0\), con \(q\neq0\), se \(\textrm{det}Q=0\) e \(\textrm{det}A\neq0\),  \(\mu Y^2+r=0\) se \(\textrm{det}Q=\textrm{det}A=0\); inoltre gli assi \(X\) e \(Y\) del nuovo sistema di riferimento cartesiano sono paralleli agli autospazi \(E(\lambda)\) ed \(E(\mu)\) di \(Q\). Esempi di riduzione in forma canonica. Note di A. Savo sulle coniche euclidee.
ESERCIZI 15

LEZIONE 48
Argomenti:
Esercitazione: geometria analitica dello spazio, trasformazioni geometriche del piano, coniche euclidee.

LEZIONE 49
Argomenti:
Grafici di coniche nel piano euclideo. Coniche a centro e coniche senza centro. Le coniche a centro sono necessariamente di tipo ellittico o iperbolico ed hanno due assi di simmetria. Le coniche senza centro sono di tipo parabolico con un solo asse di simmetria. Se una conica \(\mathscr C\) è a centro, allora il suo centro ha coordinate \(C=\left(\frac{\mathscr A_{01}}{\textrm{det}Q},\,\frac{\mathscr A_{02}}{\textrm{det}Q}\right)\) e i suoi assi di simmetria sono orientati come gli autospazi della matrice \(Q\). Se una conica non ha centro, il suo asse di simmetria è parallelo all'autospazio \(E(0)\), inoltre, se la conica è una parabola non degenere, allora il vertice della parabola è dato dall'intersezione tra la conica e la retta parallela all'autospazio associato all'autovalore non nullo di \(Q\) tangente a \(\mathscr C\). Esercitazione: grafici e riduzione a forma canonica di coniche euclidee.
Derivate parziali dei polinomi di due variabili. Gradiente di un polinomio in due variabili.

LEZIONE 50
Argomenti:
Se \(\mathscr C_1:\ p_1(x,y)=0\) e \(\mathscr C_2:\ p_2(x,y)=0\) sono due curve algebriche, allora anche \(\mathscr C_1\cup\mathscr C_2\) e \(\mathscr C_1\cap\mathscr C_2\) sono curve algebriche definite rispettivamente dai polinomi \(p_1(x,y)\cdot p_2(x,y)\) e \((p_1(x,y))^2+(p_2(x,y))^2\). Polinomi irriducibili. Teorema di fattorizzazione unica dei polinomi: ogni polinomio di \(\mathbb R[x,y]\) si decompone in maniera essenzialmente unica come prodotto di polinomi irriducibili. Curve irriducibili. Ogni curva algebrica è unione di curve algebriche irriducibili (dette le sue componenti irriducibili). Una retta \(r\) ed una curva algebrica \(\mathscr C\) irriducibile di grado \(n\), con \(r\neq\mathscr C\), hanno al più \(n\) punti comuni. Teorema di Bézout: due curve algebriche distinte \(\mathscr C_1\) e \(\mathscr C_2\) di gradi \(m\) ed \(n\) si incontrano in al più \(mn\) punti. Punti regolari e retta tangente ad una curva in un suo punto regolare. Punti singolari.  Curve lisce. Punti isolati di una curva piana. Rami lineari di curve piane. Complesso tangente (insieme delle rette tangenti) ad una curva in un punto. Il complesso tangente in un punto isolato è vuoto. Il complesso tangente in un punto regolare è costituito dalla retta tangente in quel punto. Teorema dell'origine singolare: il complesso tangente nell'origine ad una curva \(\mathscr C:\ p(x,y)=0\) è dato dall'annullamento dei termini di grado minimo di \(p(x,y)\).

LEZIONE 51
Argomenti:
Date due curve algebriche \(\mathscr C_1\) e \(\mathscr C_2\) i punti singolari della curva \(\mathscr{C}_1\cup \mathscr{C}_2\) sono dati da \(\textrm{Sing}(\mathscr{C}_1\cup \mathscr{C}_2)=\textrm{Sing}(\mathscr{C}_1)\cup\textrm{Sing}(\mathscr{C}_2)\cup (\mathscr{C}_1\cap \mathscr{C}_2)\).
Classificazione dei punti singolari in base al numero di rami che passano per essi: punti doppi, tripli, ecc. Classificazione dei punti doppi: i punti isolati hanno tangenti immaginarie, i nodi hanno due tangenti reali e distinte, le cuspidi hanno due tangenti reali e coincidenti. Cenni di classificazione delle cuspidi. Asintoti. Metodi di calcolo per gli asintoti verticali e non. Grafici di curve algebriche piane. Versiera dell'Agnesi. Lemniscata di Bernoulli. Curva piriforme. Folium di Cartesio. Trifoglio. Parabole (cubiche) divergenti di Newton: parabola semplice, parabola con ovale, parabola nodata, parabola puntata, parabola cuspidata. 
ESERCIZI 16



Libro di testo adottato:

  •  Geometria, A. Cigliola, La Dotta

Libro di testo per i precorsi:
  • SOS Matematica, M. Chiricotto, A. Cigliola, I. de Bonis, V. De Cicco, S. Marconi, La Dotta, 2013.   Errata Corrige (in continuo aggiornamento)