Programma di massima del corso:
Logica e algebra: Teoria elementare
degli insiemi. Funzioni astratte tra insiemi e proprietà.
Principio di Induzione. Gruppi astratti. Anelli di
polinomi.
Algebra lineare: Matrici.
Determinanti. Rango. Sistemi lineari. Spazi vettoriali.
Applicazioni lineari. Autovalori e autovettori.
Diagonalizzazione. Forme bilineari e quadratiche. Prodotto
scalare. Prodotto vettoriale. Operatori
simmetrici. Teorema spettrale.
Geometria: Geometria affine del piano e dello
spazio. Geometria euclidea del piano e dello spazio. Coniche
affini ed euclidee. Quadriche euclidee. Geometria proiettiva
del piano. Coniche proiettive. Curve algebriche
piane affini e proiettive.
Programmi dettagliati:
Programma
2016/17
Programma
2015/16
Programma
2014/15
Anni Accademici precedenti:
Pagina
del corso 2014/15
Pagina
del corso 2015/16
Modalità d'esame:
L'esame comprende una prova scritta, un
colloquio orale e una prova pratica, tutti obbligatori.
- La prova scritta consiste in
cinque esercizi, più un eventuale esercizio
facoltativo. Il primo esercizio è suddiviso in due
parti: l'esercizio 1A comprende due domande a
risposta secca (2pt risp. esatta, 0 pt risp. non
data, -1pt risp. errata), l'esercizio 1B consta di
12 vero-falso (0,5pt risp. esatta, 0 pt risp. non
data, -0,25pt risp. errata). Il punteggio del primo
esercizio va da -5pt. a 10pt. Gli esercizi 2,3,4, e
5 valgono da 0 a 6 punti ciascuno e possono
contenere quesiti pratici o teorici. Il sesto
esercizio facoltativo conferisce bonus. Il punteggio
finale della prova scritta va da -5/34 a 34/34. La
prova scritta si intende superata se la somma dei
punteggi dei cinque esercizi (con l'eventuale bonus)
è maggiore di 18.
- Superata la prova scritta, si ha
accesso alla prova orale.
Essa consiste di un colloquio su argomenti inerenti
al corso (discusione della prova scritta, dimostrazione
e applicazione di enunciati studiati a lezione,
svolgimento di esercizi) al termine della quale si
stabilisce l'esito finale dell'esame.
- La prova pratica consiste nella
presentazione di (almeno) un modello di quadriche
rigate.
Durante la prova scritta non è consentito
l'uso di alcun supporto elettronico (pc, tablet,
cellulari, orologi digitali, calcolatrici, etc.) o
cartaceo (libri, appunti, dispense, etc.). È possibile
utilizzare la tabella di classificazione delle quadriche
fornita dal docente. La prova scritta di Gennaio dà la
possibilità di sostenere la prova orale esclusivamente a
Gennaio o a Febbraio. La prova scritta di Giugno dà la
possibilità di sostenere la prova orale esclusivamente a
Giugno o a Luglio. Eccezionalmente
e a discrezione del docente, potranno essere ammesse con
riserva all'orale prove scritte quasi sufficienti
(<18). Un esito
finale negativo annulla ogni prova, scritta o orale, già
sostenuta. La
votazione finale non potrà essere in ogni caso inferiore
a 18 né superiore a 30 e lode.
Tracce d'esame:
Libro di testo adottato e materiale didattico
consigliato:
Valutazioni del corso da parte degli
studenti: Frequentanti
Non
frequentanti
DIARIO DELLE LEZIONI:
LEZIONE 1
Argomenti:
Presentazione del corso.
L'insieme \(\mathcal{M}_{m,n}(\mathbb{R})\) delle matrici di
tipo \(m\times n\) a coefficienti reali. Notazioni e
nomenclatura.Vettori riga e vettori colonna. Matrice nulla.
L'insieme \(\mathcal{M}_{n}(\mathbb{R})\) delle matrici
quadrate di ordine \(n\) a coefficienti reali. Matrici
diagonali. Matrice identica di ordine \(n\). Trasposta di una
matrice. Matrici triangolari superiori ed inferiori. Principio
di identità tra matrici.
LEZIONE 2
Argomenti: Somma di matrici dello stesso tipo.
L'addizione tra matrici è associativa e commutativa, la
matrice nulla è l'elemento neutro rispetto alla somma, ogni
matrice ha la sua matrice opposta. Moltiplicazione di un
numero reale per una matrice: proprietà fondamentali.
L'operazione di trasposizione conserva la somma tra matrici
e il prodottto di un numero reale con una matrice. Matrici
simmetriche ed antisimmetriche: proprietà. L'unica matrice
sia simmetrica che antisimmetrica è la matrice nulla.
LEZIONE 3
Argomenti: Teorema di decomposizione
unica in parte simmetrica ed antisimmetrica: ogni matrice
quadrata può essere scritta in maniera unica come somma di una
matrice simmetrica ed una antisimmetrica. Prodotto di un
vettore riga per un vettore colonna. Prodotto riga per colonna
di matrici. In generale il prodotto riga per colonna non è
commutativo. Proprietà del prodotto riga per colonna. Prese
due matrici \(A\in M_{m,n}(\mathbb{R})\) e \(B\in
M_{n,p}(\mathbb{R})\), allora \((AB)^T=B^TA^T\). La matrice
identica è l'elemento neutro del prodotto.
LEZIONE 4
Argomenti: Esercitazione: calcolo matriciale. Il
principio di induzione matematica. Formula di
Gauss
e formula di
Fermat.
L'insieme \(\mathbb{R}^n\) delle \(n\)-uple ordinate di numeri
reali. Combinazioni lineari di vettori riga e vettori
colonna.Vettori linearmente dipendenti e linearmente
indipendenti.
Esercizi
foglio 1: Calcolo matriciale
LEZIONE 5
Argomenti: Esercitazione: calcolo matriciale.
LEZIONE 6
Argomenti: Vettori linearmente dipendenti e
linearmente indipendenti. Un vettore riga (o colonna) è
linearmente dipendente se e solo se è nullo. Due vettori
riga (o colonna) sono linearmente dipendenti se e solo se
uno dei due è multiplo dell'altro. Se in un insieme di
vettori riga (o colonna) uno di essi è il vettore nullo,
allora i vettori sono linearmente dipendenti. Se in un
insieme di vettori riga (o colonna) due di essi sono
uguali, allora i vettori sono linearmente dipendenti. Dei
vettori (riga o colonna) sono linearmente dipendenti se e
solo se uno di essi può essere scritto come combinazione
lineare degli altri. Determinanti di matrici quadrati di
ordine \(1\) e \(2\). Sottomatrici complementari.
Complementi algebrici. Determinanti. Sviluppo del
determinante rispetto alla prima riga. Teorema di Laplace:
il determinante di una matrice può essere calcolato
sviluppandolo rispetto ad una qualsiasi riga o una
qualsiasi colonna.
Esercizi
foglio 2: Algebra lineare in \(\mathbb{R}^n\)
LEZIONE 7
Argomenti: Regola di Sarrus.
Proprietà dei determinanti: \(\textrm{det}(0_n)=0\),
\(\textrm{det}(I_n)=1\) e
\(\textrm{det}(A^T)=\textrm{det}(A)\). Se una matrice ha
una riga (o una colonna) nulla, il suo determinante è
zero. Il determinante di una matrice triangolare è il
prodotto degli elementi diagonali. Il determinante di una
matrice diagonale è il prodotto degli elementi diagonali.
Se in una matrice si moltiplica una riga (o una colonna)
per uno scalare, il determinante della matrice resta
moltiplicato per lo stesso scalare. Il determinante è
lineare per righe (o per colonne). Scambiando due righe (o
due colonne) in una matrice, il determinante cambia segno.
Se una matrice ha due righe uguali (o due colonne uguali),
il suo determinante è nullo. Se una matrice ha due righe
(o due colonne) proporzionali, il suo determinante è
nullo. Sommando ad una riga (o una colonna) di una matrice
una combinazione lineare delle rimanenti, il determinante
non cambia. Se in una matrice le righe (o le colonne) sono
linearmente dipendenti, il determinante è nullo. Teorema
di Binet: prese \(A\) e \(B\) due matrici quadrate dello
stesso ordine, allora \(\textrm{det}(AB)=\textrm{det}A \
\textrm{det}B\). Il determinante non si distribuisce
rispetto alla somma di matrici.
Esercizi foglio
3: Determinanti
LEZIONE 8
Argomenti: Matrici quadrate invertibili. Prese due
matrici invertibili \(A\) e \(B\), anche la matrice \(AB\)
è invertibile e si ha che \((AB)^{-1}=B^{-1}A^{-1}\). Il
gruppo lineare reale di ordine \(n\) delle matrici
invertibili, \(GL_n(\mathbb{R})\). Teorema di Laplace per
la matrice inversa: una matrice è invertibile se e solo se
ha determinante diverso da zero. In particolare, l'inversa
di una matrice è data da
\(A^{-1}=\frac{1}{\textrm{det}A}(A^*)^T\), dove \(A^*\) è
la matrice che ha per entrate, ordinatamente, i
complementi algebrici degli elementi della matrice \(A\).
Esempi di calcolo di matrici inverse. Sottomatrici e
minori di una matrice. Rango di una matrice. Una matrice
ha rango zero se e solo se è la matrice nulla. Se \(A\in
M_{m,n}(\mathbb{R})\), allora
\(\textrm{rk}A\leqslant\min\{m,\,n\}\) e se vale
l'uguaglianza si dice che \(A\) ha rango massimo. Una
matrice quadrata ha rango massimo se e solo se è
invertibile. Il rango di una matrice \(A\) vale \(r\) se e
solo se la matrice contiene un minore non nullo di ordine
\(r\) e tutti i monori di \(A\) di ordine \(r+1\) sono
nulli.
Esercizi
foglio 4: Matrice inversa
LEZIONE 9
Argomenti: Minori orlati. Teorema di Kronecker:
il rango di una matrice vale \(r\) se e solo se la matrice
contiene un minore non nullo di ordine \(r\) e tutti i
suoi orlati di ordine \(r+1\) sono nulli. Equazioni
lineari in una o più incognite. Soluzione di un'equazione
lineare. Sistemi lineari di tipo \(m\times n\) a
coefficienti reali (con \(m\) equazioni ed \(n\)
incognite). Soluzione di un sistema lineare. Sistemi
compatibili, determinati, indeterminati, impossibili (o
incompatibili). Scrittura compatta di un sistema lineare:
un sistema lineare si scrive nella forma
\(A\mathbf{X}=\mathbf{b}\), dove \(A\in
M_{m,n}(\mathbb{R})\) è la matrice incompleta,
\(\mathbf{b}\in \mathbb{R}^m\) è la colonna dei termini
noti e \(\mathbf{X}=(x_1,x_2,\dots,x_n)^T\) la colonna
delle indeterminate. Sistemi omogenei. Un sistema omogeneo
non è mai impossibile, ammette sempre la soluzione banale;
inoltre, se ammette una soluzione non banale, ne ammette
infinite. Le soluzioni di un sistema non omogeneo sono
date dalla somma di una (data) soluzione particolare e di
una qualsiasi soluzione del sistema omogeneo associato. Un
sistema lineare ammette una, nessuna o infinite soluzioni.
Sistemi lineari quadrati di ordine \(n\). Teorema di Cramer:
un sistema lineare quadrato con matrice dei coefficienti
\(A\) è determinato se e solo se \(\textrm{det}A\neq0\).
Esercizi foglio 5: Rango
LEZIONE 10
Argomenti: Sistemi lineari crameriani. Teorema di
Cramer: un sistema lineare quadrato con matrice dei
coefficienti \(A\) è determinato se e solo se
\(\textrm{det}A\neq0\) (indipendentemente dalla colonna
dei termini noti). Risoluzione di un sistema crameriano
col metodo della matrice inversa. Regola di Cramer per la
risoluzione di un sistema crameriano. Un sistema lineare
omogeneo quadrato con matrice dei coefficienti \(A\) è
indeterminato se e solo se \(\textrm{det}A=0\). Una
matrice quadrata ha rango massimo se e solo se le colonne
(o le righe) di \(A\) sono linearmente indipendenti. Una
matrice \(A\in M_{m,n}(\mathbb{R})\) ha rango \(r\)
se e solo se in \(A\) esistono \(r\) righe (o colonne)
linearmente indipendenti e se \(r+1\) righe (o colonne)
comunque scelte sono linearmente dipendenti. In una
matrice \(A\in M_{m,n}(\mathbb{R})\) il rango indica
il massimo numero di righe (o colonne) linearmente
indipendenti. Teorema di Rouché-Capelli:
un sistema lineare \(A\mathbf{X}=\mathbf{b}\) è
compatibile se e solo se il rango della matrice incompleta
del sistema \(A\) e il rango della matrice completa del
sistema \((A|\mathbf{b})\) sono uguali. In tal caso, detto
\(r\) il rango, il sistema è determinato se \(n=r\), è
invece indeterminato con \(\infty^{n-r}\) soluzioni, se
\(r<n\).
Esercizi foglio
6: Sistemi lineari
LEZIONE 11
Argomenti: Esercizi vari sui teoremi di Cramer e di
Rouché-Capelli. Un vettore applicato è individuato da un
punto di applicazione, una direzione, un verso ed un
modulo. L'insieme dei vettori geometrici applicati nel
piano. Vettori geometrici liberi. Vettore nullo. Vettori
equipollenti. Somma di due vettori (con la regola del
parallelogramma o della poligonale) e moltiplicazione con
scalare. Operazioni con i vettori liberi: somma e
moltiplicazione con scalare reale. L'insieme dei vettori
geometrici liberi del piano \(\mathcal{V}_2\), della
retta \(\mathcal{V}_1\) e dello spazio fisico
\(\mathcal{V}_3\). Definizione astratta di gruppo e di
gruppo abeliano.
Esempi di gruppi additivi e moltiplicativi, abeliani e
non.
LEZIONE 12
Argomenti: Spazi vettoriali reali. Esempi di
spazi vettoriali: \( M_{m,n}(\mathbb{R})\),
\(\mathbb{R}^n\), \(\mathcal{V}^2\). Lo
spazio vettoriale reale \(\mathbb{R}[x]\) dei polinomi a
coefficienti reali nell'indeterminata \(x\). Principio di
identità tra polinomi. Lo spazio vettoriale reale
\(\mathbb{R}^X\) delle funzioni a valori reali con dominio
\(X\). Principio di identità tra funzioni. Operazioni tra
funzioni: somma e moltiplicazione con scalare reale
definite puntualmente. In uno spazio vettoriale \(V\) il
vettore nullo \(\mathbf{0}_V\) è unico; il simmetrico di
un vettore \(v\in V\) è unico, lo si indica con \(-v\) ed
è detto l'opposto di \(v\). Legge di annullamento del
prodotto negli spazi vettoriali: presi
\(\lambda\in\mathbb{R}\) e \(v\in V\), si ha che \(\lambda
v=\mathbf{0}_V\) se e solo se \(\lambda=0_{\mathbb{R}}\)
oppure \(v=\mathbf{0}_V\). Preso un vettore un vettore
\(v\) di uno spazio vettoriale \(V\), si ha che
\((-1)v=-v\). Combinazioni lineari. Vettori linearmente
dipendenti e linearmente indipendenti.
LEZIONE 13
Argomenti: Esercitazione: determinanti, rango,
sistemi lineari.
LEZIONE 14
Argomenti: Un vettore è linearmente dipendente se e
solo se è nullo. Due vettori sono linearmente dipendenti
se e solo se sono proporzionali. Dei vettori sono
linearmente dipendenti se e solo se uno di essi è
combinazione lineare dei rimanenti. Se in un insieme di
vettori alcuni di essi sono linearmente dipendenti, allora
tutti sono linearmente dipendenti. Sottospazi vettoriali.
Dato lo spazio vettoriale \(V\), gli insiemi
\(\{\mathbf{0}_V\}\) e \(V\) sono sottospazi vettoriali di
\(V\). Un sottospazio vettoriale contiene necessariamente
il vettore nullo. Esempi di sottospazi vettoriali: matrici
quadrate simmetriche \(S_n(\mathbb{R})\), antisimmetriche
\(A_n(\mathbb{R})\) e diagonali \(D_n(\mathbb{R})\).
L'insieme \(\mathbb{R}_{\leqslant n}[x]\) dei polinomi di
grado al più \(n\) con il polinomio nullo è un sottospazio
vettoriale di \(\mathbb{R}[x]\). L'insieme delle soluzioni
di un sistema lineare di tipo \(m\times n\) è un
sottospazio vettoriale di \(\mathbb{R}^n\) se e solo se il
sistema è omogeneo. Sia \(V\) uno spazio vettoriale e
siano \(v_1,\ v_2,\,\dots, v_n\) vettori di \(V\), allora
il sottoinsieme costituito dalle combinazioni lineari dei
\(v_i\) è un sottospazio vettoriale di \(V\); esso è
chiamato il sottospazio generato dai \(v_i\) ed è indicato
con \(\mathcal{L}(v_1,\ v_2,\,\dots, v_n)\). Retta
vettoriale. Piano vettoriale. Spazi vettoriali finitamente
generati. Lo spazio \(\mathbb{R}[x]\) non è finitamente
generato. Gli spazi \(\mathbb{R}^n\),
\(\mathcal{M}_{m,n}(\mathbb{R})\) e
\(\mathbb{R}_{\leqslant n}[x]\) sono finitamente generati.
Esercizi
foglio 7: Dipendenza lineare
Esercizi
foglio 8: Sottospazi vettoriali
LEZIONE 15
Argomenti: Dato lo spazio vettoriale \(V\), gli
insiemi \(\{\mathbf{0}_V\}\) e \(V\) sono sottospazi
vettoriali di \(V\). Lo spazio \(\mathbb{R}[x]\) non
è finitamente generato. Dato \(V\) uno spazio vettoriale e
\(v_1, v_2,\,\dots, v_n\) vettori di \(V\), preso
\(w\in\mathcal{L}(v_1, v_2,\,\dots, v_n)\), allora si ha
\(\mathcal{L}(v_1, v_2,\,\dots, v_n, w)=\mathcal{L}(v_1,
v_2,\,\dots, v_n)\). Dati i vettori \(v_1, v_2,\,\dots,
v_n\) linearmente indipendenti di \(V\), preso
\(w\not\in\mathcal{L}(v_1, v_2,\,\dots, v_n)\), allora i
vettori \(v_1, v_2,\,\dots, v_n, w\) sono linearmente
indipendenti. Una base di uno spazio vettoriale
finitamente generato è un sistema di generatori
linearmente indipendenti. Basi canoniche di
\(\mathbb{R}^n\), \(\mathbb{R}_{\leqslant n}[x]\) e
\(M_{m,n}(\mathbb{R})\). Le due condizioni per definire
una base sono indipendenti (e vanno verificate entrambe).
Metodo degli scarti successivi: ogni spazio vettoriale non
banale finitamente generato ha almeno una base.
LEZIONE 16
Argomenti: Lemma di Steinitz:
se \(\{v_1, v_2,\dots, v_n\}\) è una base di \(V\) e
\(w_1, w_2, \dots, w_m\) sono \(m>n\) vettori di \(V\)
allora i \(w_i\) sono linearmente dipendenti. Lemma di
scambio: se in una base si sostituisce un vettore con la
somma di questo vettore più una combinazione lineare dei
vettori rimanenti, si ottiene una nuova base. Tutte le
basi di uno spazio vettoriale finitamente generato hanno
la stessa cardinalità che è detta la dimensione di \(V\) e
si indica \(\dim V\). La dimensione di \(V\) indica il
numero massimo di vettori linearmente indipendenti che si
possono trovare in \(V\). La dimensione di \(V\) indica il
numero minimo di generatori di \(V\). Se \(V\) è uno
spazio vettoriale di dimensione \(n\), allora \(\{v_1,
v_2,\dots, v_n\}\) è una base di \(V\) se e solo se \(v_1,
v_2,\dots, v_n\) sono linearmente indipendenti, se e solo
se \(v_1, v_2,\dots, v_n\) sono generatori di \(V\).
Coordinate di un vettore rispetto ad una base. Operazioni
tra vettori in termini delle loro componenti rispetto ad
una base. Teorema del completamento della base: Sia
\(\{v_1, v_2,\dots, v_n\}\) una base di \(V\) e siano
\(w_1, w_2, \dots, w_m\), con \(m<n\), vettori
linearmente indipendenti di \(V\); allora è
possibile scegliere \(n-m\) vettori \(v'_1, v'_2, \dots,
v'_{n-m}\) tra i \(v_i\) tali che \(\{w_1,
w_2,\dots, w_m, v'_1, \dots, v'_{n-m}\}\) sia una base di
\(V\).
Esercizi
Foglio n.9: Basi e dimensione di sottospazi vettoriali.
LEZIONE 17
Argomenti: Applicazioni del completamento della
base. Siano \(w_1,w_2,\dots,w_m\) vettori di uno spazio
vettoriale \( V\) di dimensione \(n\) e sia \(\mathcal B\)
una base di \(V\). Sia \(A\in M_{m,n}(\mathbb R)\) la
matrice che ha per righe le coordinate dei \(w_i\)
rispetto a \(\mathcal B\). Allora \(\textrm{rk} A=r\)
indica il massimo numero di vettori linearmente
indipendenti tra i \(w_i\) ed \(r\) vettori linearmente
indipendenti sono quelli corrispondenti alle righe di un
qualsiasi minore non nullo di \(A\) di ordine \(r\).
Inoltre, i \(w_i\) sono linearmente indipendenti se e solo
se \(\textrm{rk} A=m\). Siano \(\mathcal B\) e \(\mathcal
B'\) basi di uno spazio vettoriale \(V\) di dimensione
finita; la matrice di passaggio da \(\mathcal B\) a
\(\mathcal B'\) è la matrice che si ottiene scrivendo in
colonna ordinatamente le coordinate dei vettori di
\(\mathcal B'\) in funzione di quelli di \(\mathcal B\).
Teorema del cambiamento di coordinate nel passaggio da una
base ad un'altra: siano \(P\) la matrice di passaggio
dalla base \(\mathcal B\) alla base \(\mathcal B'\),
\(P'\) la matrice di passaggio dalla base \(\mathcal B'\)
alla base \(\mathcal B\), \(X\) la colonna delle
coordinate di un vettore \(v\in V\) rispetto alla base
\(\mathcal B\) e \(X'\) la colonna delle coordinate di
\(v\) rispetto alla base \(\mathcal B'\), allora si ha che
\(P'=P^{-1}\), \(X'=P^{-1}X\) e infine \(X=PX'\).
LEZIONE 18
Argomenti: Esercitazione: sistemi lineari,
sottospazi vettoriali, basi, dimensione.
LEZIONE 19
Argomenti: Cambiamenti di base e di coordinate:
applicazioni ed esempi. Equazioni cartesiane e
parametriche di un sottospazio vettoriale. Il numero di
parametri necessari per dare le equazioni parametriche di
\(W\) è uguale alla dimensione di \(W\). Se
\(n=\textrm{dim}V\), il numero minimo di equazioni
cartesiane per descrivere \(W\) è \(n-\textrm{dim}W\).
Esempi.
LEZIONE 20
Argomenti: Se \(V\) è uno spazio vettoriale di
dimensione \(n\) e \(W\) è un sottospazio di \(V\), il
numero minimo di equazioni cartesiane necessarie per
descrivere \(W\) è detto codimensione di \(W\) e
\(\textrm{codim}W=n-\textrm{dim}W\). In particolare, per
ogni sottospazio vettoriale \(W\) si ha
\(n=\textrm{dim}W+\textrm{codim}W\). Se \(V\) è uno spazio
vettoriale di dimensione finita e \(W\) è un sottospazio
di \(V\) allora \(\textrm{dim}W\leqslant\textrm{dim}V\).
Inoltre \(\textrm{dim}W=\textrm{dim}V\) se e solo se
\(W=V\). L'intersezione di due sottospazi vettoriali è un
sottospazio vettoriale. In generale, l'unione di due
sottospazi vettoriali non è un sottospazio vettoriale. La
somma di due sottospazi vettoriali è un sottospazio
vettoriale ed è il più piccolo contenente l'unione dei due
sottospazi. Un sistema di generatori per la somma dei
sottospazi \(U\) e \(W\) è dato dall'unione di una base di
\(U\) e una base di \(W\); per ottenere una base va poi
applicato il metodo degli scarti successivi. Equazioni
cartesiane di \(U\cap W\) sono date dal sistema contenente
equazioni cartesiane di \(U\) e di \(W\). Teorema di
Grassmann: Se \(U\) e \(W\) sono sottospazi vettoriali di
uno spazio vettoriale di dimensione finita, allora vale la
formula di Grassmann
\(\textrm{dim}(U+W)+\textrm{dim}(U\cap
W)=\textrm{dim}U+\textrm{dim}W\).
LEZIONE 21
Argomenti: Esempi di applicazione della formula di
Grassmann. Dati due sottospazi \(U\) e \(W\) si ha che
\(U+W=W\) se e solo se \(U\cap W=U\) se e solo se
\(U\subseteq W\). Somma diretta di due sottospazi. Formula
di Grassmann per la somma diretta: \(\textrm{dim}(U\oplus
W)=\textrm{dim}U+\textrm{dim}W\). Teorema della somma
diretta: dati \(U\) e \(W\) sottospazi vettoriali, si ha
che \(U\) e \(W\) sono a somma diretta se e solo se ogni
vettore di \(U+W\) si scrive in maniera unica come somma
di un vettore di \(U\) e di un vettore di \(W\). Siano
\(T\), \(U\) e \(W\) sottospazi vettoriali, siano
\(\mathcal {B}_U=\{u_1,\dots, u_m\}\) una base di \(U\) e
\(\mathcal {B}_W=\{w_1,\dots, w_l\}\) una base di \(W\),
allora \(T=U\oplus W\) se e solo se \(\{u_1,\dots,
u_m,w_1,\dots,w_l\}\) è una base di \(T\). Sottospazi
complementari. In uno spazio vettoriale finitamente
generato ogni sottospazio ammette un complemento diretto
(che non è unico in generale). Somma diretta di più
sottospazi vettoriali.
Esercizi
Foglio n.10: Somma e intersezione di sottospazi
vettoriali.
LEZIONE 22
Argomenti: Sistemi di riferimento affine nel piano.
Coordinate affini di punti e vettori nel piano. Operazioni
tra vettori in termini di coordinate. Presi due punti del
piano \(A\) e \(B\), le coordinate del vettore
\(\stackrel{\longrightarrow}{AB}\) sono date dalla
differenza delle coordinate del punto finale \(B\) meno
quelle del punto di applicazione \(A\); più in generale si
ha che \(\stackrel{\longrightarrow}{AB}=v\) se e solo se
\(B=A+v\) . Una retta nel piano è univocamente individuata
da un suo punto e da un vettore ad essa parallelo. Vettore
direzionale e parametri direttori di una retta. Equazione
vettoriale di una retta: data una retta \(r\), un punto
\(P_0\in r\) ed un vettore direzionale \({v}\) di \(r\),
allora un punto \(P\) del piano appartiene ad \(r\) se e
solo se \(\stackrel{\longrightarrow}{P_0P}=t\,{v}\), per
qualche \(t\in \mathbb R\). Equazioni parametriche di una
retta: data una retta \(r\), un punto \(P_0(x_0,\,y_0)\in
r\) ed un vettore direzionale \({v}(l,\,m)\) di \(r\),
allora equazioni parametriche di \(r\) sono date da
\(\begin{cases}x=x_0+l\,t\\y=y_0+m\,t
\end{cases}\).
LEZIONE 23
Argomenti: Esercitazione: sottospazi vettoriali,
basi, somma e intersezione, formula di Grassmann, somma
diretta.
LEZIONE 24
Argomenti: Equazione cartesiana di una retta: una
retta nel piano è rappresentata da un'equazione del tipo
\(ax+by+c=0\), con \(a\) e \(b\) non contemporaneamente
nulli, e viceversa, ogni equazione di questo tipo ha per
grafico nel piano una retta. La retta di equazione
\(ax+by+c=0\) ha per vettore direzionale il vettore
\((-b,a)\). Dati \(P_1(x_1,y_1)\) e \(P_2(x_2,y_2)\) due
punti distinti del piano, la retta che li congiunge ha
equazioni parametriche date da
\(\begin{cases}x=x_1+(x_2-x_1)\,t\\y=y_1+(y_2-y_1)\,t\end{cases}\)
ed equazione cartesiana data da
\(\begin{vmatrix}x-x_1&y-y_1\\x_2-x_1&y_2-y_1\end{vmatrix}=0\).
Condizione di allineamento di tre punti. Rette parallele,
rette coincidenti, rette parallele e distinte, rette
incidenti. Posizione reciproca di due rette nel piano:
siano date due rette \(r:\ ax+by+c=0\) e \(r':\
a'x+b'y+c'=0\), allora \(r\|r'\) se e solo se
\(\textrm{rk}\begin{pmatrix}a&b\\a'&b'\end{pmatrix}=1\);
in particolare sono parallele e coincidenti se e solo se
\(\textrm{rk}\begin{pmatrix}a&b&c\\a'&b'&c'\end{pmatrix}=1\),
sono parallele e distinte se e solo se
\(\textrm{rk}\begin{pmatrix}a&b\\a'&b'\end{pmatrix}=1\)
e
\(\textrm{rk}\begin{pmatrix}a&b&c\\a'&b'&c'\end{pmatrix}=2\);
infine \(r\) ed \(r'\) sono incidenti se e solo se
\(\textrm{rk}\begin{pmatrix}a&b\\a'&b'\end{pmatrix}=\textrm{rk}\begin{pmatrix}a&b&c\\a'&b'&c'\end{pmatrix}=2\).
Esempi di geoemtria piana affine.
Esercizi
Foglio n.11: Piano affine.
LEZIONE 25
Argomenti: Richiami sulle proprietà elementari
dello spazio euclideo tridimensionale. Punti allineati e
punti complanari. Vettori allineati e vettori complanari.
Tre vettori di \(\mathcal V^3\) sono linearmente
dipendenti se e solo se sono complanari. Lo spazio
\(\mathcal V_O^3\) ha dimensione tre. Lo spazio affine
tridimensionale \(\mathbb A^3(\mathbb R)\). Sistema di
riferimento affine e coordinate affini nello spazio.
Coordinate di vettori liberi ed applicati. I punti \(P_1,\
P_2,\ \dots,\ P_n\) sono allineati (rispettivamente
complanari) se e solo se la matrice che ha per righe
ordinatamente le coordinate dei vettori
\(\stackrel{\longrightarrow}{P_1P_2}\), \(\dots\),
\(\stackrel{\longrightarrow}{P_1P_n}\) ha
rango 1 (rispettivamente rango 2). Equazione vettoriale di
una retta: data una retta \(r\), un punto \(P_0\in r\) ed
un vettore direzionale \({v}\) di \(r\), allora un punto
\(P\) del piano appartiene ad \(r\) se e solo se
\(\stackrel{\longrightarrow}{P_0P}=t\,{v}\), per qualche
\(t\in \mathbb R\). Equazioni paramtriche di una retta:
una retta parallela al vettore \( v=(l,m,n)\) e passante
per il punto \(P_0=(x_0,y_0,z_0)\) ha equazioni
parametriche
\(\begin{cases}x=x_0+l\,t\\y=y_0+m\,t\\z=z_0+n\,t
\end{cases}\). Condizioni operative per l'allineamento di
tre punti e per la complanarità di quattro punti.
Equazione vettoriale di un piano: dato un piano \(\pi\),
un punto \(P_0\in \pi\) e due vettori non linearmente
indipendenti \(v\) e \(w\) \({v}\) paralleli a \(\pi\),
allora un punto \(P\) appartiene a \(\pi\) se e solo se
\(\stackrel{\longrightarrow}{P_0P}=t\,{v}+t'\,w\), per
qualche \(t,\,t'\in \mathbb R\). Equazioni parametriche di
un piano: il piano parallelo ai vettori \( v=(l,m,n)\) e
\( w=(l',m',n')\) e passante per il punto
\(P_0=(x_0,y_0,z_0)\) ha equazioni parametriche
\(\begin{cases}x=x_0+l\,t+l\,t'\\y=y_0+m\,t+m\,t'\\z=z_0+n\,t+n\,t'\end{cases}\).
Siano dati \(P_1(x_1,y_1,z_1)\),
\(P_2(x_2,y_2,z_2)\) e \(P_3(x_3,y_3,z_3)\) tre
punti non allineati dello spazio; il piano che li contiene
ha equazioni parametriche date da
\(\begin{cases}x=x_1+(x_2-x_1)\,t+(x_3-x_1)\,t'\\y=y_1+(y_2-y_1)\,t+(y_3-y_1)\,t'\\z=z_1+(z_2-z_1)\,t+(z_3-z_1)\,t'\end{cases}\).
Tutti e soli i piani dello spazio sono rappresentati da
un'equazione del tipo \(ax+by+cz+d=0\), con \(a,b,c\) non
contemporaneamente nulli. Equazioni cartesiane di una
retta nello spazio: tutte e sole le rette dello spazio
sono definite da un sistema lineare di due equazioni in
tre indeterminate del tipo \(\begin{cases}ax+by+cz+d=0\\
a'x+b'y+c'z+d'=0\end{cases}\), con
\(\textrm{rk}\begin{pmatrix}a&b&c\\a'&b'&c'\end{pmatrix}=2\).
LEZIONE 26
Argomenti: Una retta di equazioni cartesiane \(r:\
\begin{cases}ax+by+cz+d=0\\ a'x+b'y+c'z+d'=0\end{cases}\)
ha come vettore direzionale il vettore
\(v_r=\left(\begin{vmatrix}b&c\\b'&c'\end{vmatrix},\
-\begin{vmatrix}a&c\\a'&c'\end{vmatrix},\
\begin{vmatrix}a&b\\a'&b'\end{vmatrix}\right)\).
Piani coincidenti, piani paralleli e distinti, piani
incidenti. I piani paralleli (in senso lato) si
distinguono in piani propriamente paralleli e piani
(paralleli e) coincidenti. Teorema di classificazione
delle posizioni reciproche di due piani nello spazio:
siano dati due piani \(\pi:\ ax+by+cz+d=0\) e \(\pi':\
a'x+b'y+c'z+d'=0\); allora \(\pi\) e \(\pi'\) sono
paralleli e distinti se e solo se
\(\textrm{rk}\begin{pmatrix}a&b&c\\a'&b'&c'\end{pmatrix}=1\)
e
\(\textrm{rk}\begin{pmatrix}a&b&c&d\\a'&b'&c'&d'\end{pmatrix}=2\);
\(\pi\) e \(\pi'\) sono coincidenti se e solo se
\(\textrm{rk}\begin{pmatrix}a&b&c&d\\a'&b'&c'&d'\end{pmatrix}=1\);
\(\pi\) e \(\pi'\) sono incidenti se e solo se
\(\textrm{rk}\begin{pmatrix}a&b&c\\a'&b'&c'\end{pmatrix}=2\).
Dato il piano \(\pi: \
ax+by+cz+d=0\), il vettore \(v=(a,b,c)\) è detto
vettore di giacitura di \(\pi\) e i coefficienti
\(a,\,b,\,c\) sono detti parametri giacitura. Piani
paralleli hanno, a meno di un fattore moltiplicativo
non nullo, gli stessi parametri di giacitura. Teorema
di classificazione delle posizioni reciproche tra retta e
piano nello spazio: dati un piano \(\pi:\
ax+by+cz+d=0\) ed una retta \(r:\
\begin{cases}a'x+b'y+c'z+d'=0\\
a''x+b''y+c''z+d''=0\end{cases}\), si ha che \(r\) e
\(\pi\) sono propriamente paralleli se e solo se
\(\textrm{det}\begin{pmatrix}a&b&c\\a'&b'&c'\\a''&b''&c''\end{pmatrix}=0\)
e
\(\textrm{rk}\begin{pmatrix}a&b&c&d\\a'&b'&c'&d'\\a''&b''&c''&d''\end{pmatrix}=3\);
si ha che \(r\subset\pi\) se e solo se
\(\textrm{rk}\begin{pmatrix}a&b&c&d\\a'&b'&c'&d'\\a''&b''&c''&d''\end{pmatrix}=2\);
risulta che \(r\) e \(\pi\) sono incidenti (in un solo
punto) se e solo se
\(\textrm{det}\begin{pmatrix}a&b&c\\a'&b'&c'\\a''&b''&c''\end{pmatrix}\neq0\).
Un piano di giacitura \((a,b,c)\) ed una retta di
parametri direttori \((l,m,n)\) sono paralleli se e solo
se \(al+bm+cn=0\). Due rette sono parallele se e solo se
hanno vettori direzionali proporzionali. Rette parallele
sono complanari. Rette incidenti sono complanari. Rette
sghembe. Teorema di classificazione delle posizioni
reciproche di due rette nello spazio: date le rette \(r:\
\begin{cases}ax+by+cz+d=0\\ a'x+b'y+c'z+d'=0\end{cases}\)
e \(s:\ \begin{cases}a''x+b''y+c''z+d''=0\\
a'''x+b'''y+c'''z+d'''=0\end{cases}\) e prese le matrici
\(A=
\begin{pmatrix}a&b&c\\a'&b'&c'\\a''&b''&c''\\a'''&b'''&c'''\end{pmatrix}\)
e \(B=
\begin{pmatrix}a&b&c&d\\a'&b'&c'&d'\\a''&b''&c''&d''\\a'''&b'''&c'''&d'''\end{pmatrix}\),
si ha che \(r\) e \(s\) sono sghembe se e solo se
\(\textrm{det}B\neq0\), \(r\) e \(s\) sono incidenti
se e solo se \(\textrm{rk}B=\textrm{rk}A=3\), \(r\) e
\(s\) sono propriamente parallele se e solo se
\(\textrm{rk}B=3\) e \(\textrm{rk}A=2\), \(r\) e \(s\)
sono coincidenti se e solo se \(\textrm{rk}B=2\).
Esercizi
Foglio n.12: Spazio affine.
LEZIONE 27
Argomenti: Esercitazione: Formula di Grassmann,
piano affine.
LEZIONE 28
Argomenti: Esercitazione: Geometria dello spazio
affine tridimensionale.
LEZIONE 29
Argomenti: Applicazioni lineari tra spazi
vettoriali. Un'applicazione lineare \(F:\ V\rightarrow W\)
è tale che \(F(\mathbf{0}_V)=\mathbf{0}_W\) e
\(F(-v)=-F(v)\), per ogni \(v\in V\). Le applicazioni
lineari conservano le combinazioni lineari: data
un'applicazione lineare \(F:\ V\rightarrow W\) e il
vettore \(v=\lambda_1 v_1+\dots+\lambda_k v_k\), allora
\(F(v)=\lambda_1 F(v_1)+\dots+\lambda_k F(v_k)\). Due
applicazioni lineari sono uguali se e solo se assumono gli
stessi valori sui vettori di una base dello spazio di
partenza. Applicazione nulla. Applicazione identica.
Restrizione di un'applicazione lineare ad un sottospazio
vettoriale. Applicazione lineare data dalla
moltiplicazione a sinistra per una matrice. La derivazione
è un'applicazione lineare definita sullo spazio dei
polinomi (o delle funzioni derivabili). Teorema
fondamentale di esistenza e unicità dell'applicazione
lineare definita dai valori assunti sui vettori di una
base (o teorema di estensione): dati gli spazi vettoriali
\(V\) e \(W\), con \(V\) finitamente generato, presi
\(\{v_1,\dots, v_n\}\) una base di \(V\) e
\(\{w_1,\dots,w_n\}\) un sottinsieme di vettori qualsiasi
di \(W\), allora esiste ed è unica l'applicazione lineare
\(F:V\rightarrow W\) tale che
\(F(v_1)=w_1,\,\dots,\,F(v_n)=w_n\).
LEZIONE 30
Argomenti: Esempi di applicazione del teorema di
estensione. Matrice associata ad un'applicazione lineare
rispetto a due basi. Formule di calcolo in termini di
coordinate e matrice associata. Teorema di
rappresentazione. Legge del cambiamento della matrice
associata. Insieme immagine di un'applicazione lineare. Se
\(F:\ V\rightarrow W\) è un'applicazione lineare, allora
\(\textrm{Im} F\) è un sottospazio vettoriale di \(W\).
LEZIONE 31
Argomenti: Se \(F:\ V\rightarrow W\) è
un'applicazione lineare, allora \(\textrm{Im} F\) è un
sottospazio vettoriale di \(W\); inoltre se \(V\) è
finitamente generato ed ha dimensione \(n\) allora
\(\textrm{dim Im}F\leqslant n\) e se \(\{v_1,\dots,
v_n\}\) è una base di \(V\), allora
\(\{F(v_1),\,\dots,\,F(v_n)\}\) è un sistema di generatori
di \(\textrm{Im} F\). L'immagine diretta di un sottospazio
del dominio sotto un'applicazione lineare è un sottospazio
dell'insieme d'arrivo. La dimensione dell'immagine di
un'applicazione lineare tra spazi vettoriali finitamente
generati eguaglia il rango della matrice associata.
Un'applicazione lineare \(F:\ V\rightarrow W\) è
suriettiva se e solo se \(\textrm{Im}F=W\), e se \(V\) e
\(W\) sono finitamente generati, \(F\) è suriettiva se e
solo se \(\textrm{rk}A=\textrm{codim Ker}F\).
Controimmagine di un vettore. La controimmagine sotto
un'applicazione lineare tra spazi vettoriali finitamente
generati è trovata risolvendo un sistema lineare. Nucleo
di un'applicazione lineare. Il
nucleo di un'applicazione lineare è un sottospazio
vettoriale del dominio e se dominio e insieme di arrivo
sono finitamente generati, la codimensione del nucleo è
uguale al rango di una matrice associata all'applicazione.
Un'applicazione lineare è iniettiva se e solo se il suo
nucleo è banale. Teorema del rango: siano \(V\) e \(W\)
spazi vettoriali, con \(V\) finitamente generato, e sia
\(F:\ V\rightarrow W\) un'applicazione lineare, allora
vale la formula della dimensione:
\(\textrm{dim}V=\textrm{dim Im}(F)+\textrm{dim Ker}(F)\).
LEZIONE 32
Argomenti: Esempi di applicazione del teorema del
rango. Data l'applicazione lineare \(F:\ V\rightarrow W\)
tra due spazi vettoriali finitamente generati, si ha che
\(F\) è iniettiva se e solo se \(\textrm{dim
Im}F=\textrm{dim}V\), \(F\) è suriettiva se e solo se
\(\textrm{dim Im}F=\textrm{dim}W\), infine \(F\) è
biettiva se e solo se \(\textrm{dim
Im}F=\textrm{dim}W=\textrm{dim}W\). Sia \(F:\ V\rightarrow
W\) un'applicazione lineare e sia
\(\textrm{dim}V=\textrm{dim}W\), allora \(F\) è iniettiva
se e solo se \(F\) è suriettiva, se e solo se \(F\) è
biettiva. Sia \(F: V\longrightarrow W\) un'applicazione
lineare tra spazi vettoriali di dimensione finita, se
\(\textrm{dim}V>\textrm{dim}W\) allora \(F\) non può
essere iniettiva, se invece
\(\textrm{dim}W>\textrm{dim}V\) allora \(F\) non può
essere suriettiva. Sia data l'applicazione lineare \(F:\
V\rightarrow W\) tra due spazi vettoriali finitamente
generati e sia \(A\) una matrice associata ad \(F\), si ha
che \(F\) è iniettiva se e solo se
\(\textrm{rk}A=\textrm{dim}V\), \(F\) è suriettiva se e
solo se \(\textrm{rk}A=\textrm{dim}W\). Omomorfismi,
endomorfismi, automorfismi di spazi vettoriali. Due spazi
vettoriali finitamente generati sono isomorfi se e solo se
hanno la stessa dimensione. Tutti gli spazi vettoriali di
dimensione \(n\) sono isomorfi ad \(\mathbb{R}^n\).
Considerazioni sul significato del concetto di
isomorfismo. Composizione di applicazioni. Applicazioni
invertibili. Un'applicazione è invertibile se e solo se è
biettiva. La composizione di applicazioni lineari è
un'applicazione lineare. Teorema di composizione
operatoria: date le applicazioni tra spazi vettoriali f.g.
\(F:\ V\rightarrow W\) e \(G:\ W\rightarrow U\) con
matrici associate rispettivamente \(B\) e \(A\), allora
l'applicazione \(G\circ F:\ V\rightarrow U\) ha come
matrice associata la matrice \(AB\).
Esercizi
Foglio13: Applicazioni lineari
LEZIONE 33
Argomenti: Esercitazione: applicazioni lineari.
LEZIONE 34
Argomenti: Teorema di Kronecker per il rango del
prodotto di matrici: se \(A\) e \(B\) sono due matrici
allora
\(\textrm{rk}AB\leqslant\textrm{min}\{\textrm{rk}A,\
\textrm{rk}B\}\). Se si moltiplica una matrice \(A\) a
destra o a sinistra per una matrice invertibile, allora il
rango di \(A\) resta invariato. Le matrici associate ad
una applicazione lineare hanno lo stesso rango (che
coincide con la dimensione dell'immagine). Un'applicazione
lineare \(F\) tra due spazi vettoriali f.g. è invertibile
se e solo se le matrici associate ad \(F\) sono
invertibili; in particolare la matrice di \(F^{-1}\) è
l'inversa della matrice di \(F\) (a patto di usare le
stesse basi). Endomorfismi e automorfismi di uno spazio
vettoriale. Matrici associate ad un endomorfismo. Matrici
simili. Le matrici associate ad un endomorfismo sono
simili tra loro, hanno lo stesso rango e lo stesso
determinante. Un endomorfismo è automorfismo se e solo se
tutte le sue matrici associate sono invertibili.
Introduzione alla diagonalizzazione: motivazione e
applicazioni. Autovalori e autovettori di un endomorfismo.
Autospazi. Gli autospazi di un endomorfismo sono
sottospazi vettoriali di dimensione maggiore o uguale a 1.
Autovettori associati ad autovalori distinti sono
linearmente indipendenti.
LEZIONE 35
Argomenti: Un endomorfismo non è invertibile se e
solo se ammette l'autovalore nullo, in particolare
l'autospazio associato a 0 coincide con il nucleo
dell'endomorfismo. Ricerca di autovalori e autovettori. Un
numero reale \(\lambda\) è autovalore per un endomorfismo
\(F\) se e solo verifica l'equazione
\(\textrm{det}(A-\lambda I_n)=0\), dove \(A\) è una
matrice associata ad \(F\). Un vettore con coordinate
\(X\in\mathbb{R}^n\) è un autovettore per \(F\) associato
all'autovalore \(\lambda\) se e solo se le sue coordinate
risolvono il sistema lineare omogeneo \((A-\lambda
I_n)X=\mathbf{0}\). Matrice caratteristica. Polinomio
caratteristico. Equazione caratteristica. Equazione
secolare di Laplace. Teorema di invarianza del polinomio
caratteristico: il polinomio caratteristico di un
endomorfismo \(F\) non dipende dalla matrice di \(F\)
scelta per calcolarlo. Matrici simili hanno lo stesso
polinomio caratteristico. Molteplicità algebrica
\(\textrm{m.a.}(\lambda)\) e molteplicità geometrica
\(\textrm{m.g.}(\lambda)\) di un autovalore \(\lambda\).
Un endomorfismo diagonalizzabile ha autovalori tutti reali
(non necessariamente distinti). Se \(\lambda\) è un
autovalore di un endomorfismo allora \(1\leqslant
\textrm{m.g.}(\lambda)\leqslant \textrm{m.a.}(\lambda)\).
LEZIONE 36
Argomenti: Gli autospazi di un endomorfismo sono a
somma diretta. Un endomorfismo \(F\) di uno spazio
vettoriale \(V\) è diagonalizzabile se e solo se \(V\) è
somma diretta degli autospazi di \(F\). Teorema
fondamentale della diagonalizzabilità: un endomorfismo di
uno spazio vettoriale di dimensione finita è
diagonalizzabile se e solo se ammette autovalori tutti
reali e per ciascuno di questi molteplicità geometrica e
molteplicità aritmetica coincidono. Se un endomorfismo
ammette autovalori distinti allora è diagonalizzabile.
Diagonalizzabilità di matrici. Polinomio caratteristico,
autovalori, autovettori, autospazi di una matrice
quadrata. Una matrice quadrata è diagonalizzabile se e
solo se essa è simile ad una matrice diagonale. Esempi di
diagonalizzazione di applicazioni lineari e matrici.
Esercizi
Foglio 14: Diagonalizzazioni di endomorfismi
LEZIONE 37
Argomenti: Forme bilineari su uno spazio vettoriale
reale. Forma bilineare nulla. Forma bilineare standard su
\(\mathbb{R}^n\). Una forma bilineare \(b\) su uno spazio
vettoriale \(V\) è detta simmetrica se per ogni \(v,w\in
V\) si ha che \(b(v,w)=b(w,v)\). Una forma bilineare \(b\)
su uno spazio vettoriale \(V\) è antisimmetrica se e solo
se per ogni \(v,w\in V\) si ha che \(b(v,w)=-b(w,v)\). La
forma nulla è l'unica sia simmetrica che antisimmetrica.
Il determinante delle matrici quadrate di ordine 2 è una
forma bilineare antisimmetrica. La forma bilineare
standard su \(\mathbb{R}^n\) è simmetrica. Il prodotto tra
numeri reali è una forma bilineare simmetrica su
\(\mathbb{R}\). Matrice di Gram
associata ad una forma bilineare rispetto ad una base.
Formule di calcolo in termini di coordinate e matrice
associata. Legge di cambiamento della matrice associata ad
una forma bilineare: sia \(b\) una forma bilineare su uno
spazio f.g. \(V\), siano \(\mathcal B\) e \(\mathcal B'\)
due basi di \(V\) con matrice di passaggio \(P\), siano
poi \(A\) la matrice associata a \(b\) rispetto a
\(\mathcal B\) e \(A'\) la matrice associata a \(b\)
rispetto alla base \(\mathcal{B}'\), allora si ha
\(A'=P^{T}AP\). Matrici congruenti. Le matrici associate
ad una stessa forma bilineare sono congruenti tra loro.
Rango di una forma bilineare. Forme degeneri e non. Le
matrici associate ad una stessa forma bilineare hanno
tutte lo stesso rango. Una forma bilineare è simmetrica
(risp. antisimmetrica) se e solo se una sua matrice
associata è simmetrica (risp. antisimmetrica).
LEZIONE 38
Argomenti: Esercitazione: Diagonalizzazione di
endomorfismi.
LEZIONE 39
Argomenti: Esercitazione: Applicazioni lineari.
Diagonalizzazione di endomorfismi. Forme bilineari.
LEZIONE 40
Argomenti: Restrizione di una forma bilineare.
La simmetria e l'antisimmetria sono invarianti per
congruenza. Quadrato di binomio generalizzato. Una forma
bilineare \(b\) su uno spazio \(V\) è degenere se e solo
esiste un vettore non nullo \(v\) tale che \(b(v,w)=0\),
per ogni \(w\in V\); se e solo esiste un vettore non nullo
\(v\) tale che \(b(w,v)=0\), per ogni \(w\in V\). Due
vettori \(v\) e \(w\) si dicono ortogonali secondo una
forma bilineare simmetrica \(b\) se \(b(v,w)=0\) e si
scrive \(v\bot w\). Il vettore nullo è ortogonale a tutti
i vettori dello spazio. Vettori isotropi (ortogonali a sé
stessi). L'insieme dei vettori isotropi non è in generale
un sottospazio vettoriale, contiene il vettore nullo ed è
unione di rette. Il sottospazio ortogonale \(S^\bot\) ad
un insieme di vettori \(S\subset V\) è costituito da tutti
i vettori di \(V\) ortogonali a tutti i vettori di \(S\).
Il sottospazio ortogonale è un sottospazio vettoriale. Il
sottospazio ortogonale \(W^\bot\) di un sottospazio \(W\)
f.g. è il sottospazio dei vettori ortogonali a tutti i
vettori di una base di \(W\). Esempi di calcolo di
sottospazi ortogonali. Teorema di Fourier: dato un vettore
non isotropo \(v\in V\), si ha che
\(V=v^\bot\oplus\mathcal{L}(v)\). Coefficiente di Fourier
di \(w\) secondo un vettore non isotropo \(v\):
\(\frac{b(v,w)}{b(v,v)}\). Forma quadratica associata ad
una forma bilineare simmetrica. Forma quadratica nulla.
Forma quadratica standard.
LEZIONE 41
Argomenti: Forma quadratica standard. Le forme
quadratiche sono funzioni omogenee di secondo grado. Forma
(bilineare) polare di una forma quadratica. Formula di
polarizzazione: data una forma quadratica \(Q\) su uno
spazio vettoriale \(V\), la forma bilineare polare di
\(Q\) è data da \(b(v,w)=\frac12[Q(v+w)-Q(v)-Q(w)]\), per
ogni \(v,w\in V\). Matrice asssociata ad una forma
quadratica. Regole di calcolo in termini di matrice
associata. Basi ortogonali e basi diagonalizzanti. Teorema
di Gauss-Lagrange:
Una forma bilineare è diagonalizzabile (rispetto ad una
base ortogonale) se e solo se è simmetrica.
Diagonalizzazione di forme quadratiche. Diagonalizzazione
di matrici simmetriche (ogni matrice simmetrica è
congruente ad una matrice diagonale).
LEZIONE 42
Argomenti: Legge di inerzia di Sylvester: data una
forma quadratica \(Q\) di rango \(r\) su uno spazio
vettoriale \(V\) di dimensione finita, esistono un numero
intero positivo \(p\) ed una base \(\left\{ v_1,\,\dots,
v_n \right\}\) di \(V\) rispetto a cui la forma \(Q\) ha
l'espressione
\(Q(x_1,\,\dots,\,x_n)=x_1^2+\dots+x_p^2-x_{p+1}^2-\dots-x_r^2\);
inoltre il numero \(p\) è indipendente dalla base scelta e
dipende solo dalla forma \(Q\). Forma canonica di
Sylvester di una forma quadratica. Basi di Sylvester.
Indice di positività, indice di negatività, segnatura di
una forma quadratica. Forme quadratiche (e forme bilineari
simmetriche) definite positive, semidefinite positive,
definite negative, semidefinite negative, indefinite.
Forme quadratiche canoniche su \(\mathbb{R}^2\) e su
\(\mathbb{R}^3\). Teorema degli zeri per le forme
quadratiche: se una forma quadratica \(Q\) assume valore
positivo su un vettore \(v\) e valore negativo su un
vettore \(w\), allora esiste un vettore isotropo per
\(Q\). Matrici simmetriche definite positive, semidefinite
positive, definite negative, semidefinite negative,
indefinite. Tutte le matrici simmetriche definite positive
di ordine \(n\) sono congruenti alla matrice identica. Una
matrice simmetrica \(A\) è definita positiva se e solo se
esiste una matrice invertibile \(M\) tale che \(A=M^TM\).
Minori principali di una matrice quadrata. Teorema di
Jacobi-Sylvester (criterio dei minori principali): una
matrice simmetrica è definita positiva se e solo se tutti
i suoi minori principali sono strettamente positivi.
Esercizi
Foglio 15: Forme bilineari
Esercizi
Foglio 16: Forme quadratiche
LEZIONE 43
Argomenti: Prodotti scalari. Spazi vettoriali
euclidei. Prodotto scalare standard su \(\mathbb{R}^n\).
Norma (o lunghezza) di un vettore, \(\parallel
v\parallel=\sqrt{v\cdot v}\). Diseguaglianza di Cauchy-Schwarz:
dati due vettori \(v\) e \(w\) si ha che \(|v\cdot
w|\leqslant\parallel v\parallel \,\parallel w\parallel\).
Proprietà della norma: la norma assume sempre valori
positivi ed è nulla solo per il vettore nullo; la norma è
positivamente omogenea di grado 1. Diseguaglianza
triangolare. Angolo (convesso) compreso tra due vettori
non nulli. Detto \(\theta\) l'angolo compreso tra due
vettori non nulli \(v\) e \(w\), si ha che \(v\cdot
w=\parallel v\parallel \,\parallel w\parallel
\cos\theta\). Teorema di Pitagora.
Versori. Normalizzazione di vettori. Basi ortogonali.
Basi ortonormali. Dei vettori non nulli e a due a due
ortogonali sono linearmente indipendenti. Normalizzando i
vettori di una base ortogonale si ottiene una base
ortonormale. Procedimento ortogonale di Gram-Schmidt.
Formule di calcolo del prodotto scalare e della norma
di un vettore in termini delle coordinate rispetto ad una
qualsiasi base ortonormale.
LEZIONE 44
Argomenti: Esercitazione: Diagonalizzazione di forme
quadratiche. Sottospazi ortogonali.
LEZIONE 45
Argomenti: Complemento ortogonale di un sottospazio
vettoriale. Teorema di decomposizione ortogonale: Dato un
sottospazio vettoriale non nullo \(W\subseteq\mathbb R^n\),
risulta che \(\mathbb R^n=W\oplus W^\bot\); in particolare si
ha che \(\textrm{dim}W^\bot=n-\textrm{dim}W\). Proiezione
ortogonale di vettori rispetto a un sottospazio.
Interpretazione geometrica del coefficiente di Fourier e del
procedimento ortogonale di G.-S. Matrici ortogonali. Una
matrice ortogonale è invertibile. Una matrice di ordine \(n\)
è ortogonale se e solo se le sue righe (colonne) sono una base
di ortonormale di \(\mathbb R^n\). Le matrici ortogonali hanno
determinante uguale a \(\pm1\). Siano \(\mathcal B\) una base
ortonormale di \(\mathbb R^n\), \(\mathcal B'\) un'altra base
di \(\mathbb R^n\) e sia \(P\) la matrice di passaggio da
\(\mathcal B\) a \(\mathcal B'\); allora la base \(\mathcal
B'\) è ortonormale se e solo se \(P\) è una matrice
ortogonale. Endomorfismi simmetrici di \(\mathbb R^n\). Siano
dati due endomorfismi \(F\) e \(G\) di \(\mathbb R^n\)
tali che \(F(v)\cdot w=v\cdot G(w)\), per ogni \(v,w\in\mathbb
R^n\), allora la matrice canonica di \(F\) è la trasposta
della matrice canonica di \(G\). Un endomorfismo di \(\mathbb
R^n\) è simmetrico se e solo se la sua matrice rispetto a una
qualsiasi base ortonormale è una matrice simmetrica. Un
endomorfismo simmetrico trasforma vettori ortogonali ad un
autovettore in vettori ortogonali allo stesso autovettore.
Esercizi
Foglio 17: Spazi vettoriali euclidei
LEZIONE 46
Argomenti: Teorema spettrale: motivazione.Tereoma
spettrale (per endomorfismi simmetrici): Ogni endomorfismo
simmetrico di \(\mathbb R^n\) è diagonalizzabile rispetto
ad una base ortonormale di suoi autovettori. Teorema
spettrale (per matrici simmetriche): Ogni matrice
simmetrica è sia simile che congruente ad una matrice
diagonale, ovvero per ogni matrice simmetrica \(A\)
esistono una matrice diagonale \(D\) ed una matrice
ortogonale \(M\) tali che \(D=M^{-1}AM=M^{T}AM\). Se una
matrice simmetrica di ordine \(n\) \(A\) ha \(r\)
autovalori non nulli di cui \(p\) positivi ed
\(r-p\) negativi, allora la matrice \(A\) ha rango \(r\) e
segnatura \(\textrm{sgn}(A)=(p,r-p)\). Teorema di
Harriot-Descartes
(regola dei segni di Cartesio): Sia \(f(x)\in\mathbb
R[x]\) un polinomio a coefficienti reali non costante;
allora il numero di radici reali positive di \(f(x)\) non
supera il numero delle variazioni di segno dei
coefficienti di \(f(x)\) (ordinati secondo le potenze
decrescenti della \(x\)) ed il numero di radici
reali negative di \(f(x)\) non supera il numero delle
variazioni di segno dei coefficienti di \(f(-x)\)
(ordinati secondo le potenze decrescenti della
\(x\)).
Esercizi
Foglio 18: Teorema spettrale
LEZIONE 47
Argomenti: Se un polinomio \(f(x)\in\mathbb R[x]\)
ha solo radici reali (non nulle), il numero delle radici
positive di \(f(x)\) è uguale al numero delle variazioni
di segno ed il numero delle radici negative di \(f(x)\) è
uguale al numero delle variazioni di segno dei
coefficienti di \(f(-x)\). Una matrice simmetrica di rango
\(r\) ha segnatura \((p,r-p)\) se e solo se nel suo
polinomio caratteristico ci sono \(p\) variazioni di
segno. Prodotto vettoriale in \(\mathbb R^3\). Il prodotto
vettoriale è bilineare antisimmetrico. Il prodotto
vettoriale di due vettori è nullo se e solo se i due
vettori sono linearmente dipendenti. Prodotto misto di tre
vettori. Il prodotto misto è lineare rispetto ai suoi
argomenti e cambia segno per ogni scambio dei vettori che
si moltiplicano. Il prodotto vettoriale di due vettori è
ortogonale ad entrambi i fattori. Dati due vettori \(v\) e
\(w\) di \(\mathbb R^3\), si ha che \(\parallel v\wedge
w\parallel^2 =\parallel v\parallel ^2\,\,\parallel
w\parallel^2-(v\cdot w)^2 \). Dati due vettori linearmente
indipendenti \(v\) e \(w\), si ha che \(\left\{v,w,v\wedge
w\right\}\) è una base di \(\mathbb{R}^3\). Siano dati due
vettori non nulli \(v\) e \(w\) in \(\mathbb R^3\) e sia
\(v=a+b\) con \(a\) parallelo a \(w\) e \(b\)
perpendicolare a \(w\), allora \(\parallel v\wedge
w\parallel = \parallel b\parallel \,\parallel
w\parallel\). Il modulo del prodotto vettoriale di due
vettori eguaglia l'area del parallelogramma sotteso dai
due vettori. Dati tre punti nello spazio \(A,B,C\), l'area
del triangolo \(ABC\) è data da \(\mathcal A= \frac12
\parallel\vec{AB}\wedge\vec{AC}\parallel\). Il valore
assoluto del prodotto misto di tre vettori nello spazio dà
il volume del parallelepipedo sotteso ai tre vettori.
Sistemi di riferimento cartesiano nel piano euclideo.
Distanza tra due punti. Versore normale ad una retta. i.
Dati un punto \(P(x_0,\,y_0)\) e la retta \(r:\
ax+by+c=0\), la distanza di \(P\) da \(r\) vale
\(d(P,r)=\displaystyle\frac{|ax_0+by_0+c|}{\sqrt{a^2+b^2}}\).
Distanza tra rette parallele nel piano. Circonferenza nel
piano. Ortottica e isottica di un segmento.
Esercizi
Foglio 19: Prodotto vettoriale
Esercizi Foglio
20: Piano Euclideo
LEZIONE 48
Argomenti: Spazio euclideo tridimensionale. Sistema
di riferimento cartesiano. Distanza tra due punti. Dato il
piano \(ax+by+cz+d=0\), il vettore di giacitura di
\(\pi\), \(v_\pi=(a,b,c)\), è ortogonale al piano \(\pi\).
Data una retta \(r\) di vettore direzionale \(v_r\) ed un
piano \(\pi\) di giacitura \(v_\pi\), si ha che \(r\) è
parallela a \(\pi\) se e solo se \(v_r\) e \(v_\pi\) sono
ortogonali, \(r\) è ortogonale a \(\pi\) se e solo se
\(v_r\) e \(v_\pi\) sono paralleli (proporzionali). Due
piani sono perpendicolari se e solo se lo sono le loro
giaciture. Distanza di un punto da un piano: dati un punto
\(P(x_0,\,y_0,\,z_0)\) e il piano \(\pi:\ ax+by+cz+d=0\),
la distanza di \(P\) da \(\pi\) vale
\(d(P,\pi)=\displaystyle\frac{|ax_0+by_0+cz_0+d|}{\sqrt{a^2+b^2+c^2}}\).
Distanza di un punto da una retta. Distanza di una retta
da un piano. Distanza tra due piani. Distanza tra due
rette complanari. Proiezione ortogonale di un punto su un
piano, di un punto su una retta e di una retta su un
piano. Teorema della perpendicolare comune: Date due rette
sghembe \(r\) ed \(r'\), esiste ed è unica la retta \(s\)
perpendicolare sia ad \(r\) che ad \(r'\) ed incidente sia
\(r\) che \(r'\), inoltre la distanza tra i due punti di
incidenza dà la distanza tra le due rette sghembe. Sfere
nello spazio.
Esercizi Foglio
21: Spazio euclideo
LEZIONE 49
Argomenti: Esercitazione: forme quadratiche,
teorema spettrale.
LEZIONE 50
Argomenti: Esercitazione: Spazi vettoriali
euclidei, prodotto vettoriale.
LEZIONE 51
Argomenti: Sfera e circonferenza nello spazio.
Problemi vari. Una trasformazione (lineare) del piano
affine è un'applicazione \(f:\mathbb R^2\to \mathbb R^2\)
tale che per ogni punto \(P(x,y)\) si abbia
\(f(x,y)=(ax+by+c,\,\,a'x+b'y+c')\); inoltre ad una
trasformazione lineare si associa la matrice
\(A=\begin{pmatrix}a&b\\a'&b'\end{pmatrix}\) ed il
vettore \(v=(c,c')\). Una trasformazione costante del tipo
\(f(x,y)=(x_0,\,y_0)\) fa implodere tutto il piano nel
punto \((x_0,y_0)\). La trasformazione identica
\(f(x,y)=(x,y)\) lascia fissi tutti i punti, ha matrice
associata identica e vettore associato nullo. Una
traslazione è di tipo \(f(x,y)=(x+c,\,\,y+c')\), ha
matrice associata identica e vettore associato \((c,c')\).
Proiezione sull'asse \(x\): \(\Pi_x(x,y)=(x,0)\).
Rotazione attorno all'origine di un angolo \(\vartheta\):
\(\rho_\vartheta(x,y)=(\cos\vartheta\,x-\sin\vartheta\,y;\
\sin\vartheta\,x+\cos\vartheta\,y)\). Dilatazioni.
Simmetria centrale rispetto ad un punto \(C=(x_C,\,y_C)\):
\(\sigma_C(x,y)=(2x_C-x,\,\,2y_C-y)\). La simmetria
centrale rispetto a \(C\) è una rotazione di \(180^\circ\)
attorno al punto \(C\). Simmetria rispetto all'asse \(x\):
\(\sigma_x(x,y)=(x,\,-y)\). Interpretazione geometrica di
autovalori ed autovettori di omomorfismi di \(\mathbb
R^2\). Un'affinità è una trasformazione lineare del piano
con amtrice associata invertibile. Un'isometria è
un'affinità con matrice associata ortogonale. Se \(f\) è
un'isometria, allora conserva le distanze e le lunghezze,
cioè \(\parallel
\stackrel{\longrightarrow}{f(P)f(Q)}\parallel=\parallel\stackrel{\longrightarrow}{PQ}
\parallel\), per ogni coppia di punti \(P\) e \(Q\) del
piano. La composizione di affinità è un'affinità. La
composizione di isometrie è un'isometria. Equazione
generale di una rototraslazione.
Esercizi
Foglio 22: Sfere e circonferenze
Esercizi
Foglio 23: Trasformazioni del piano
LEZIONE 52
Argomenti: Esercitazione: geometria euclidea del
piano e dello spazio.
LEZIONE 53
Argomenti: Trasformazioni di rette e curve per
azione di una trasformazione lineare. Una conica è un
insieme dei punti del piano le cui coordinate \((x,y)\)
verificano un'equazione di secondo grado di tipo:
\(\mathscr C:
a_{11}x^2+a_{22}y^2+2a_{12}xy+2a_{01}x+2a_{02}y+a_{00}=0\),
con \(a_{ij}\in\mathbb R\) e \(a_{11},a_{12},a_{22}\) non
contemporaneamente nulli. Matrice (simmetrica) associata
ad una conica: data la conica \(\mathscr C\) di equazione
come sopra, la matrice associata a \(\mathscr C\) è la
matrice simmetrica
\(A=\begin{pmatrix}a_{00}&a_{01}&a_{02}\\a_{10}&a_{11}&a_{12}\\a_{20}&a_{21}&a_{22}\end{pmatrix}\),
in cui \(a_{01}=a_{10},\ a_{02}=a_{20},\ a_{21}=a_{12}\).
Se \(A\) è la matrice associata alla conica \(\mathscr
C\), allora si ha che \(\mathscr C\) ha equazione:
\(\mathscr
C:(1,x,y)A\begin{pmatrix}1\\x\\y\end{pmatrix}=0\). Rango
di una conica. Coniche non degeneri, coniche degeneri,
semplicemente degeneri e doppiamente degeneri. Matrice e
forma quadratica associata ad una conica:
\(Q=\begin{pmatrix}a_{11}&a_{12}\\a_{21}&a_{22}\end{pmatrix}\)
e \(Q(x,y)=a_{11}x^2+a_{22}y^2+2a_{12}xy\). Tipo di una
conica: coniche di tipo ellittico, iperbolico e
parabolico. Sia \(f\) un'isometria del piano euclideo, sia
\(f^{-1}(x,\,y)=M\begin{pmatrix}x\\y\end{pmatrix}+\begin{pmatrix}c_1\\c_2\end{pmatrix}\),
con
\(M=\begin{pmatrix}m_{11}&m_{12}\\m_{21}&m_{22}\end{pmatrix}\),
la trasformazione inversa di \(f\), sia data la matrice
\(S=\begin{pmatrix}1&0&0\\c_1&m_{11}&m_{12}\\c_2&m_{21}&m_{22}\end{pmatrix}\),
allora presa la conica \(\mathscr C\) con matrice
associata \(A\) e matrice quadratica \(Q\) e dette \(A'\)
la matrice associata alla trasformata \(f(\mathscr C)\) di
\(\mathscr C\) sotto l'azione di \(f\) e \(Q'\) la matrice
quadratica di \(f(\mathscr C)\), si ha che \(\lambda
A'=S^TA\,S\) e \(\lambda Q'=M^TQ\,M\), per qualche
\(\lambda\in\mathbb R\). Teorema di invarianza: data una
conica \(\mathscr C\) con matrice associata \(A\) e
matrice quadratica \(Q\), se \(\mathscr C'\) è la
trasformata di \(\mathscr C\) sotto l'azione di
un'isometria e \(A'\) e \(Q'\) sono le matrici associate
ad essa, si ha che \(\textrm{rank} A=\textrm{rank} A'\),
\(\textrm{det} Q=\textrm{det} Q'\), \(\textrm{sgn}
Q=\textrm{sgn} Q'\). Il tipo e il rango di una conica sono
invarianti euclidei (per effetto di isometrie). Le nove
forme canoniche delle coniche euclidee. Classificazione
delle forme canoniche per rango, tipo e grafico (per
distinguere le ellissi e le parabole semplicemente
degeneri reali dalle corrispettive con grafico vuoto).
Teorema di riduzione in forma canonica: ogni conica
euclidea è isometrica (o congruente) ad una soltanto delle
nove forme canoniche, ovvero si può sempre trovare
un'isometria che trasforma la conica data nella sua forma
canonica.
Esercizi Foglio 24:
Coniche
LEZIONE 54
Argomenti: Esempi di riduzione in forma canonica
diconiche euclidee. Quadriche nello spazio euclideo
(tridimensionale). Matrice associata e matrice quadratica
di una quadrica. Rango di una quadrica. Forme canoniche
delle quadriche euclidee. Quadriche di rango 4 e di rango
3. Ellissoide a punti reali. Ellissoide immaginario.
Iperboloide iperbolico (a una falda). Iperboloide
ellittico (a due falde). Paraboloide ellittico.
Paraboloide iperbolico (a sella). Cono (doppio o quadrico)
a punti reali e cono a punti immaginari. Cilindri
ellittici, parabolici e iperbolici. Sezioni di quadriche
con piani paralleli ai piani coordinati \(xy\), \(xz\) e
\(yz\). Quadriche rigate. Piani tangenti ad una quadrica
(cenni). Punti ellittici, iperbolici, parabolici su una
quadrica. Il cono quadrico contiene le coniche a punti
reali (tranne la coppia di rette parallele). Generazione
meccanica di un iperboloide a sella (per scorrimento del
vertice di una parabola lungo il profilo di un'altra).
Analisi del modello di un cono, di un iperboloide
iperbolico e di un paraboloide iperbolico. Esempi di
riduzione in forma canonica.
Esercizi Foglio 25:
Quadriche
LEZIONE 55
Argomenti: Gruppi (finiti o infiniti) di isometrie
nel piano (cenni). Gruppo diedrale del triangolo
equilatero, del quadrato, del rettangolo. Le isometrie del
piano nelle arti figurative (arte islamica, Caravaggio,
Borromini, Escher, cristalli di neve). Trasformazioni
geometriche utilizzate nelle composizioni musicali di J.S.
Bach (canone, ripetizione, trasposizione, inversione,
retrogradazione del tema principale). Forma Sonata,
analisi della sonata in La minore di Mozart.
LEZIONE 56
Argomenti: Esercitazione: Coniche e quadriche.
LEZIONE 57
Argomenti: Introduzione agli spazi proiettivi:
motivazione. Il piano proiettivo reale \(\mathbb
P^2({\mathbb R})\) è l'insieme delle terne non nulle di
numeri reali definite a meno di un fattore moltiplicativo
non nullo. Coordinate omogenee \(P[x_1,x_2,x_0]\) di un
punto \(P\in \mathbb P^2\). Una retta proiettiva in
\(\mathbb P^2\) è l'insieme dei punti che verificano una
equazione lineare omogenea a coefficienti reali nelle tre
indeterminate \(X_1,X_2,X_0\) del tipo
\(aX_1+b_2+cX_0=0\). La definizione di retta è ben posta.
Per due punti distinti di \(\mathbb P^2\) passa una e una
sola retta proiettiva. Due rette distinte in \(\mathbb
P^2\) si intersecano in un unico punto (in \(\mathbb P^2\)
non esistono rette parallele). Immersione naturale
(iniettiva) del piano affine nel piano proiettivo: ogni
punto \(P(x_P,y_P)\) del piano affine si identifica con il
punto proiettivo \(\bar P[x_P,y_P,1]\). A meno di
identificazioni, il piano proiettivo è unione del piano
affine e dei punti che giacciono sulla retta \(X_0=0\),
detta la retta impropria. I punti con ultima coordinata
non nulla (quindi di tipo \([a,b,1]\)) sono detti punti
propri, i punti dela retta impropria (di tipo
\([\alpha,\beta,0]\)) sono detti impropri. Per definire
luoghi geometrici in \(\mathbb P^2\) si devono usare
polinomi omogenei nelle indeterminate \(X_0,X_1,X_2\)
affinché l'appartenenza ad un luogo geometrico non dipenda
dalle coordinate scelte per il punto. Data la retta affine
\(r:\ ax+by+c=0\), la retta proiettiva \(\bar r:\
aX_1+bX_2+cX_0=0\) è detta la chiusura proiettiva della
retta \(r\) è può essere ottenuta omogenizzando
l'equazione di \(r\) ponendo \(x=\frac{X_1}{X_0}\),
\(y=\frac{X_2}{X_0}\) e cancellando i denominatori. Data
una retta proiettiva \(\bar r:\ aX_1+bX_2+cX_0=0\), la sua
parte affine \(r\) può essere ottenuta ponendo \(X_0=1\)
ed il suo punto improprio è \(r_\infty[-b,a,0]\) che
rappresenta la direzione della retta \(r\). Due rette
affini parallele hanno (chiusure proiettive che hanno) il
punto improprio in comune, quindi la stessa direzione. Il
"punto all'infinito" \(r_\infty\) di una retta affine
\(r\) è il punto improprio della sua chiusura proiettiva
\(\bar r\). Due rette affini parallele si incontrano
all'infinito (nel loro punto improprio comune).
Esercizi
foglio 26: Piano proiettivo
LEZIONE 58
Argomenti: Esercitazione:
Trasformazioni del piano, circonferenze e sfere.
LEZIONE 59
Argomenti: Esercitazione: piano proiettivo.
LEZIONE 60
Argomenti: Il modello di \(\mathbb P^2\) come disco
con il bordo in cui il piano affine è la parte interna del
cerchio e la retta impropria è il bordo del cerchio. Una
conica proiettiva è l'insieme dei punti di \(\mathbb P^2\)
che annullano un polinomio omogeneo di secondo grado del
tipo: \(\mathscr C:\
a_{11}X_1^2+a_{22}X_2^2+2a_{12}X_1X_2+2a_{01}X_0X_1+2a_{02}X_0X_2+a_{00}X_0^2=0\),
con \(a_{ij}\in\mathbb R\) e non tutti nulli. Il polinomio
che definisce una conica proiettiva è una forma quadratica
nelle indeterminate \(X_0,X_1,X_2\) con matrice
(simmetrica) associata
\(A=\begin{pmatrix}a_{00}&a_{01}&a_{02}\\a_{10}&a_{11}&a_{12}\\a_{20}&a_{21}&a_{22}\end{pmatrix}\).
In termini di matrice associata l'equazione di \(\mathscr
C\) può essere scritta come \(\mathscr C: \
(X_0,X_1,X_2)A\begin{pmatrix}X_0\\X_1\\X_2\end{pmatrix}=0\).
Rango di una conica proiettiva. Coniche non degeneri
(\(\textrm{rk}\mathscr{C}=3\)), coniche degeneri
(\(\textrm{rk}\mathscr{C}<3\)), semplicemente degeneri
(\(\textrm{rk}\mathscr{C}=2\)), doppiamente degeneri
(\(\textrm{rk}\mathscr{C}=1\)). Cambiamenti di coordinate
proiettive. Data una matrice invertibile \(M\) di ordine
3, M definisce un cambiamento di coordinate dalle
"vecchie" \(X_0,X_1,X_2\) alle "nuove" \(X_0',X_1',X_2'\)
secondo le formule di trasformazione
\(\begin{pmatrix}X_0\\X_1\\X_2\end{pmatrix}=M\begin{pmatrix}X_0'\\X_1'\\X_2'\end{pmatrix}\)
e dalle vecchie alle nuove secondo le formule
\(\begin{pmatrix}X_0'\\X_1'\\X_2'\end{pmatrix}=M^{-1}\begin{pmatrix}X_0\\X_1\\X_2\end{pmatrix}\).
Coniche proiettive canoniche (conica vuota e conica reale
di rango 3, conica ridotta a un punto, conica unione di
due rette incidenti e conica unione di due rette
coincidenti). Teorema di classificazione delle coniche
proiettive: per ogni conica proiettiva è possibile trovare
un cambiamento di ccordinate proiettive che la trasforma
in una delle 5 forme canoniche proiettive. La
classificazione proiettiva delle coniche è meno fine della
classificazione affine (e di quella euclidea). Chiusura
proiettiva di una conica affine. La chiusura proiettiva
conserva il rango di una conica. Una conica proiettiva di
rango 3 ha una, due o nessuna intersezione con la retta
impropria \(X_0=0\). Una conica di rango 3 è detta di tipo
ellittico se non interseca la retta impropria, di tipo
parabolico se interseca la retta impropria in un solo
punto, di tipo iperbolico se interseca la retta impropria
in due punti distinti. Configurazione delle coniche di
rango 3 nel piano proiettivo a seconda del loro tipo.
Configurazione delle chiusure proiettive delle coniche
affini di rango 3. Motivazione della nomenclatura dei tipi
delle coniche proiettive.
Esercizi
Foglio 27: Coniche proiettive
LEZIONE 61
Argomenti: L'anello dei polinomi \(\mathbb
R[x,y]\). Polinomi omogenei dell'anello \(\mathbb
R[X_0,X_1,X_2]\). Legge di annullamento del prodotto tra
polinomi. Omogenizzazione rispetto ad \(X_0\) di un
polinomio di \(\mathbb R[x,y]\) (con la sostituzione
abituale \(x=\frac{X_1}{X_0}\),
\(y=\frac{X_2}{X_0}\)). Deomogenizzazione di un polinomio
omogeneo di \(\mathbb R[X_0,X_1,X_2]\) con la sostituzione
\(X_0=1,\ X_1=x,\ X_2=y\). Curve algebriche piane affini e
proiettive. Motivazione. Grado di una curva algebrica
(affine o proiettiva). Chiusura proiettiva di una curva
affine. Parte affine di una curva proiettiva.
L'omogenzzazione delle curve affini conserva il grado
delle curve. La deomogenizzazione delle curve proiettive
conserva il grado a patto che \(X_0\) non sia un fattore
del polinomio che definisce la curva proiettiva. La
chiusura proiettiva di una curva affine aggiunge alla
curva i suoi punti all'infinito. Una retta ed una curva
(affine o proiettiva) di grado \(n\) che non contiene la
retta hanno in comune al più \(n\) punti. La chiusura
proiettiva e la deomogenizzazione conservano i punti
propri di intersezione. Una curva ed una retta disgiunti
nel piano affine possono invece avere intersezioni nel
piano proiettivo. Derivate parziali. Gradiente di un
polinomio di più variabili. Le derivate parziali di un
polinomio omogeneo di grado \(n\) sono polinomi omogenei
di grado \(n-1\). Identità di Euler per
i polinomi omogenei. Un punto \(P\) di una curva (affine o
proiettiva) \(\mathscr C\) si dice regolare se in \(P\)
non si annulla il gradiente di \(\mathscr C\) (cioè se le
derivate parziali non sono contemporaneamente nulle in
\(P\)). Una curva si dice liscia se i suoi punti sono
tutti regolari. I punti singolari di una curva affine sono
i punti che annullano la curva ed il gradiente. I punti
singolari di una curva proiettiva sono i punti che
annullano il gradiente. Retta tangente ad una curva
algebrica in un suo punto regolare: motivazione.
Molteplicità di intersezione di una retta e di una curva
in un punto e metodi di calcolo.
Esercizi Foglio 28:
Polinomi di più variabili
LEZIONE 62
Argomenti: Teorema della retta tangente: data una
curva affine \(\mathscr C:\ f(x,y)=0\) ed un suo
punto regolare \(P(x_P,y_P)\), esiste ed è unica la retta
\(r\) che ha molteplicità di intersezione con \(\mathscr
C\) in \(P\) maggiore o uguale a 2; tale retta è detta la
retta tangente in \(P\) a \(\mathscr C\) ed ha equazione
data da \(r:\ \frac{\partial f}{\partial
x}(P)(x-x_P)+\frac{\partial f}{\partial y}(P)(y-y_P)=0\).
Configurazione della curva e della retta tangente in un
intorno del punto. I punti propri con molteplicità di
intersezione tra curva e retta tangente pari sono detti
punti di ondulazione, quelli con molteplicità di
intersezione dispari sono detti punti di inflessione.
Molteplicità di una curva in un suo punto. Punti semplici,
doppi, tripli etc. Punti multipli ordinari, cuspidi, punti
isolati. Tangenti principali in un punto di una curva.
Cono (o complesso) tangente ad una curva in un suo
punto. Un punto è regolare se e solo se è semplice, un
punto è singolare se e solo se è multiplo. Studio
dell'origine singolare. La molteplicità di una curva
nell'origine è data dal grado minimo che compare
nell'equazione della curva. Le tangenti principali ad una
curva nell'origine sono ottenute dall'annullamento dei
termini di grado minimo che compaiono nell'equazione della
curva. Affinità, isometrie e cambiamenti di
coordinate proiettive conservano le proprietà locali
(tangenza, singolarità, molteplicità). Determinazione del
centro di simmetria di una conica a centro.
LEZIONE 63
Argomenti: Se è data una curva proiettiva
\(\mathscr C:\ F(X_1,X_2,X_0)=0\) ed un suo punto regolare
\(P\), esiste ed è unica la retta \(r\) che ha
molteplicità di intersezione con \(\mathscr C\) in \(P\)
maggiore o uguale a 2; tale retta è detta la retta
tangente in \(P\) a \(\mathscr C\) ed ha equazione data da
\(r:\ \frac{\partial F}{\partial
X_1}(P)\,X_1+\frac{\partial F}{\partial
X_2}(P)\,X_2+\frac{\partial F}{\partial X_0}(P)\,X_0\). La
retta tangente alla chiusura proiettiva in un punto
proprio regolare coincide al finito con la retta tangente
affine. Si chiama asintoto di una curva affine ogni retta
affine la cui chiusura proiettiva è tangente principale in
un punto improprio della curva. Ricerca degli asintoti nei
punti impropri singolari usando cambi di coordinate
omogenee. Configurazione dei rami di una curva rispetto ai
suoi asintoti. Punti di cuspide all'infinito. Grafici di
curve algebriche piane.
Esercizi
Foglio 29: Curve algebriche piane
LEZIONE 64
Argomenti: Esercitazione in preparazione all'esame.