GEOMETRIA
F
acoltà di Ingegneria Civile ed Industriale
Sapienza Università di Roma
Corso di Laurea Triennale in Ingegneria Energetica (orario)
A.A. 2015/2016
AVVISI
- Il corso
è terminato. Gli studenti che intendono
sostenere l'esame di Geometria negli appelli
successivi a Settembre 2015 sono pregati di
aggiornarsi sulla pagina del
corso 2016/17.
- Video
sul Teorema di Ruffini.
Docente: prof. Antonio Cigliola
Esercitatore/tutor: prof.
Cigliola.
Ricevimento studenti
Valutazioni da parte degli studenti:
Frequentanti
Non
frequentanti
Orario delle lezioni:
Lunedì [eserc.]
12:00 - 13:30 Aula 8
Martedì
17:30 -
19:00 Aula 14
Mercoledì
8:30 -
10:00 Aula 15
Giovedì
17:30 -
19:00 Aula 14
Venerdì
8:30 - 10:00 Aula 11
Venerdì [eserc.]
15:45 - 17:15
Aula 4
Prequisiti:
Logica elementare. Teoria elementare degli insiemi. Insiemi
numerici. Principio di induzione. Equazioni e disequazioni.
Goniometria e trigonometria. Geometria Analitica
di base. (In generale, sono dati per scontati
tutti argomenti del Precorso di Matematica).
Programma di massima del corso:
Logica e algebra: Teoria elementare
degli insiemi. Funzioni astratte tra insiemi e proprietà.
Principio di Induzione. Gruppi astratti. Anelli di
polinomi.
Algebra lineare: Matrici.
Determinanti. Rango. Sistemi lineari. Spazi vettoriali.
Applicazioni lineari. Autovalori e autovettori.
Diagonalizzazione. Forme bilineari e quadratiche. Prodotto
scalare. Prodotto vettoriale. Operatori
simmetrici. Teorema spettrale.
Geometria: Geometria affine del piano e dello
spazio. Geometria euclidea del piano e dello spazio. Coniche
affini ed euclidee. Quadriche euclidee. Geometria proiettiva
del piano. Coniche proiettive. Curve algebriche
piane.
Programma
del corso AA 2015-16
Programma
2014/15
Programma
A.A. precedenti
Anni Accademici precedenti:
Pagina
del corso A.A. 2014/2015
Riepilogo delle
consegne A.A. 2015-2016:
Testi
- Esiti
Modalità d'esame:
L'esame comprende una prova scritta e di un colloquio
orale, entrambi obbligatori ed indipendenti.
La prova scritta consiste in cinque esercizi, più un
eventuale esercizio facoltativo. Il primo esercizio è
suddiviso in due parti: l'esercizio 1A comprende due
domande a risposta secca (2pt risp. esatta, 0 pt risp.
non data, -1pt risp. errata), l'esercizio 1B consta di
12 vero-falso (0,5pt risp. esatta, 0 pt risp. non data,
-0,25pt risp. errata). Il punteggio del primo esercizio
va da -5pt. a 10pt. Gli esercizi 2,3,4, e 5 valgono 6pt
ciascuno e possono contenere quesiti pratici o teorici.
Il sesto esercizio facoltativo conferisce bonus per il
risultato totale. La prova scritta si intende superata
se il punteggio totale conseguito nel primo esercizio è
strettamente positivo e se la somma dei punteggi dei
cinque esercizi (con l'eventuale bonus) è maggiore di
18. Il punteggio finale della prova scritta va da -5/34
a 34/34.
Superata la prova scritta, si ha accesso alla prova
orale. Essa consiste di un colloquio orale su argomenti
inerenti al corso (discusione sulla prova scritta,
dimostrazione e applicazione di enunciati studiati a
lezione, svolgimento di esercizi, presentazione di
modelli di quadriche rigate, presentazione degli
esercizi consegnati durante il corso) al termine della
quale si stabilisce l'esito finale dell'esame.
La prova scritta di Gennaio dà la possibilità di
sostenere la prova orale esclusivamente a Gennaio o a
Febbraio. La prova scritta di Giugno dà la possibilità
di sostenere la prova orale esclusivamente a Giugno o a
Luglio.
A discrezione del docente, potranno essere ammesse con
riserva all'orale prove scritte quasi sufficienti
(16-17/34).
Un esito finale negativo annulla ogni prova, scritta o
orale, già sostenuta.
La votazione finale non potrà essere in ogni caso
inferiore a 18 né superiore a 30 e lode.
Tracce d'esame:
Esame del 18 Gennaio 2016:
Prova
1
Prova
2
Prova
3
Prova
4
Prova
A.A.14/15
Prova
A.A. precedenti
Esame del 18 Febbraio
2016:
Prova
1
Prova
2 Prova
3
Prova
4
Prova
A.A.14/15
Prova
A.A. precedenti
Esame del 30 Marzo
2016:
Prova
1
Prova
2 Prova
A.A. 2014/2015
Prova
A.A. precedenti
Esame del 20 Giugno
2016:
Prova
1
Prova
2
Prova
A.A. 2014/2015
Esame del 17 Luglio
2016:
Prova
1
Prova
2 Prova
A.A. 2014/15
Esame del 12 Settembre
2016: Prova
1
Prova
2
Prova
A.A. 2014/2015
Materiale didattico consigliato:
È possibile utilizzare un qualsiasi manuale di algebra
lineare e geometria (Vaccaro-Piccolella, Anichini-Conti,
Capparelli-Del Frà ecc.)
DIARIO DELLE LEZIONI:
LEZIONE 1
Argomenti: Esercitazione di introduzione:
risoluzione elementare di sistemi lineari, metodo di
riduzione di Gauss-Jordan
(cenni).
LEZIONE 2
Argomenti: Presentazione
del corso. L'insieme \(\mathcal{M}_{m,n}(\mathbb{R})\)
delle matrici di tipo \(m\times n\) a coefficienti reali.
Notazioni e nomenclatura.Vettori riga e vettori colonna.
Matrice nulla. L'insieme \(\mathcal{M}_{n}(\mathbb{R})\)
delle matrici quadrate di ordine \(n\) a coefficienti
reali. Matrici diagonali. Matrice identica di ordine \(n\).
Trasposta di una matrice. Principio di identità tra
matrici. Somma di matrici dello stesso tipo. Definizione
astratta di gruppo. Esempi di gruppi additivi e
moltiplicativi. La struttura
\((\mathcal{M}_{m,n}(\mathbb{R}),+)\) è un gruppo
abeliano: l'addizione tra matrici è associativa e
commutativa, la matrice nulla è l'elemento neutro rispetto
alla somma, ogni matrice ha la sua matrice opposta.
LEZIONE 3
Argomenti: Moltiplicazione di un numero reale
per una matrice: proprietà fondamentali. L'operazione di
trasposizione conserva la somma tra matrici e il prodottto
di un numero reale con una matrice. Matrici simmetriche ed
antisimmetriche: proprietà. L'unica matrice sia simmetrica
che antisimmetrica è la matrice nulla. Teorema di
decomposizione unica in parte simmetrica ed
antisimmetrica: ogni matrice quadrata può essere scritta
in maniera unica come somma di una matrice simmetrica ed
una antisimmetrica. Prodotto di un vettore riga per un
vettore colonna. Prodotto riga per colonna di matrici.
LEZIONE 4
Argomenti: Prodotto riga per colonna di
matrici. In generale il prodotto riga per colonna non è
commutativo. Proprietà del prodotto riga per colonna.
Prese due matrici \(A\in M_{m,n}(\mathbb{R})\) e \(B\in
M_{n,p}(\mathbb{R})\), allora \((AB)^T=B^TA^T\). La
matrice identica è l'elemento neutro del prodotto. I
prodotti notevoli non valgono in generale per le matrici a
causa della non commutatività del prodotto riga per
colonna. La legge di annullamento del prodotto non vale
per le matrici. Matrici quadrate invertibili. Prese due
matrici invertibili \(A\) e \(B\), anche la matrice
\(AB\) è invertibile e si ha che
\((AB)^{-1}=B^{-1}A^{-1}\). Il gruppo lineare reale di
ordine \(n\) delle matrici invertibili,
\(GL_n(\mathbb{R})\). L'insieme \(\mathbb{R}^n\) delle
\(n\)-uple ordinate di numeri reali. Combinazioni lineari
di vettori riga e vettori colonna.Vettori linearmente
dipendenti e linearmente indipendenti.
Esercizi
Foglio n.1: Calcolo matriciale.
Esercizi
Foglio n.2: Combinazioni lineari.
LEZIONE 5
Argomenti: Esercitazione: calcolo matriciale, vettori
linearmente dipendenti e indipendenti.
Principio di induzione: esempi ed applicazioni al
calcolo matriciale. Un vettore riga (o
colonna) è linearmente dipendente se e solo
se è nullo. Due vettori riga (o colonna)
sono linearmente dipendenti se e solo se uno
dei due è multiplo dell'altro. Se in un
insieme di vettori riga (o colonna) uno di
essi è il vettore nullo, allora i vettori
sono linearmente dipendenti. Se in un
insieme di vettori riga (o colonna) due di
essi sono uguali, allora i vettori sono
linearmente dipendenti. Dei vettori (riga o
colonna) sono linearmente dipendenti se e
solo se uno di essi può essere scritto come
combinazione lineare degli altri.
LEZIONE 6
Argomenti: Determinanti di
matrici quadrati di ordine \(1\) e \(2\).
Sottomatrici complementari. Complementi algebrici. Determinanti.
Sviluppo del determinante rispetto alla prima riga.
Teorema di Laplace:
il determinante di una matrice può essere calcolato
sviluppandolo rispetto ad una qualsiasi riga o una
qualsiasi colonna. Proprietà dei determinanti:
\(\textrm{det}(0_n)=0\), \(\textrm{det}(I_n)=1\) e
\(\textrm{det}(A^T)=\textrm{det}(A)\). Se una matrice
ha una riga (o una colonna) nulla, il suo determinante è
zero. Il determinante di una matrice diagonale è il
prodotto degli elementi che sono sulla diagonale. Se in
una matrice si moltiplica una riga (o una colonna) per uno
scalare, il determinante della matrice resta moltiplicato
per lo stesso scalare. Il determinante è lineare per righe
(o per colonne). Il determinante non si distribuisce
rispetto alla somma di matrici. Scambiando due righe (o
due colonne) in una matrice, il determinante cambia segno.
Se una matrice ha due righe uguali (o due colonne uguali),
il suo determinante è nullo. Se una matrice ha due righe
(o due colonne) proporzionali, il suo determinante è
nullo. Sommando ad una riga (o una colonna) di una matrice
una combinazione lineare delle altre, il determinante non
cambia. Se in una matrice le righe (o le colonne) sono
linearmente dipendenti, il determinante è nullo.
Esercizi Foglio n.3: Determinanti.
LEZIONE 7
Argomenti: Esercitazione: calcolo di
determinanti. Teorema di Binet:
prese \(A\) e \(B\) due matrici quadrate dello stesso
ordine, allora \(\textrm{det}(AB)=\textrm{det}A \
\textrm{det}B\). Matrici invertibili. Teorema della
matrice inversa: una matrice è invertibile se e solo se ha
determinante diverso da zero. In particolare, l'inversa di
una matrice è data da
\(A^{-1}=\frac{1}{\textrm{det}A}(A^*)^T\), dove \(A^*\) è
la matrice aggiunta di \(A\) (la matrice che ha per
entrate, ordinatamente, i complementi algebrici degli
elementi della matrice \(A\)). Esempi di
calcolo di matrici inverse. Sottomatrici e minori di
una matrice. Rango di una
matrice. Una matrice ha rango zero se e solo se è la
matrice nulla.
LEZIONE 8
Argomenti: Il rango di una matrice \(A\) vale
\(r\) se e solo se la matrice contiene un minore non nullo
di ordine \(r\) e tutti i monori di \(A\) di ordine \(r+1\)
sono nulli. Minori orlati. Teorema di Kronecker:
il rango di una matrice vale \(r\) se e solo se la matrice
contiene un minore non nullo di ordine \(r\) e tutti i suoi
orlati di ordine \(r+1\) sono nulli. Una matrice quadrata è
invertibile se e solo se ha rango massimo. Equazioni lineari
in una o più incognite. Equazioni lineari determinate,
indeterminate e impossibili. Soluzione di un'equazione
lineare. Sistemi lineari di tipo \(m\times n\) a
coefficienti reali (con \(m\) equazioni ed \(n\)
incognite). Soluzione di un sistema lineare. Sistemi
determinati, indeterminati, impossibili. Scrittura
compatta di un sistema lineare: un sistema lineare si
scrive nella forma \(A\mathbf{X}=\mathbf{b}\), dove \(A\in
M_{m,n}(\mathbb{R})\) è la matrice dei coefficienti,
\(\mathbf{b}\in \mathbb{R}^m\) è la colonna dei termini
noti e \(\mathbf{X}=(x_1,x_2,\dots,x_n)^T\) la colonna
delle indeterminate. Sistemi omogenei.
Esercizi
Foglio n.4: Matrice inversa
Esercizi Foglio n.5: Rango
LEZIONE 9
Argomenti: Calcolo di determinanti di
ordine \(3\) con la regola di Sarrus.
Un sistema omogeneo non è mai
impossibile, ammette sempre la soluzione banale; inoltre,
se ammette una soluzione non banale, ne ammette infinite.
Le soluzioni di un sistema non omogeneo sono date dalla
somma di una (data) soluzione particolare e di una
qualsiasi soluzione del sistema omogeneo associato. Un
sistema lineare ammette una, nessuna o infinite soluzioni.
Sistemi lineari quadrati di ordine \(n\). Sistemi lineari
crameriani. Teorema di Cramer:
un sistema lineare quadrato con matrice dei coefficienti
\(A\) è determinato se e solo se \(\textrm{det}A\neq0\).
Calcolo della matrice inversa col metodo di Cramer.
Risoluzione di un sistema crameriano col metodo della
matrice inversa. Regola di Cramer per la
risoluzione di un sistema crameriano.
LEZIONE 10
Argomenti:
Un sistema lineare
omogeneo quadrato con matrice dei coefficienti
\(A\) è indeterminato se e solo se
\(\textrm{det}A=0\). Una matrice quadrata ha
rango massimo se e solo se le colonne (o le
righe) di \(A\) sono linearmente indipendenti.
Una matrice \(A\in M_{m,n}(\mathbb{R})\)
ha rango \(r\) se e solo se in \(A\) esistono
\(r\) righe (o colonne) linearmente indipendenti
e se \(r+1\) righe (o colonne) sono linearmente
dipendenti. In una matrice \(A\in
M_{m,n}(\mathbb{R})\) il rango indica il
massimo numero di righe (o colonne) linearmente
indipendenti. Sistemi compatibili ed
incompatibili. Teorema di Kronecker-Rouché-Capelli: un
sistema lineare \(A\mathbf{X}=\mathbf{b}\)
è compatibile se e solo se il rango della
matrice incompleta del sistema \(A\) e il rango
della matrice completa del sistema
\((A|\mathbf{b})\) sono uguali. In tal caso,
detto il rango \(r\), il sistema è determinato
se \(n=r\), è invece indeterminato con
\(\infty^{n-r}\) soluzioni, se \(r<n\).
LEZIONE 11
Argomenti: Esercitazione: Risoluzione di
sistemi lineari numerici e parametrici.
LEZIONE
12
Argomenti:
Un insieme
di vettori di \(\mathbb{R}^n\)
contiene al più \(n\) vettori
linearmente indipendenti. Presi
\(n\) vettori di \(\mathbb{R}^n\), questi
sono linearmente indipendenti se
e solo se la matrice che li ha per righe
(o colonne) ha determinante non nullo.
Spazi vettoriali reali. Esempi di spazi
vettoriali: \( M_{m,n}(\mathbb{R})\),
\(\mathbb{R}^n\).
Frecce orientate. Un vettore
applicato è individuato da un punto
di applicazione, una direzione, un
verso ed un modulo. L'insieme
dei vettori geometrici applicati nel
piano.
Vettori geometrici liberi.
Operazioni con i vettori geometrici:
somma e moltiplicazione con scalare
reale.
Vettore nullo. Vettori
equipollenti. Somma di due vettori
(con la regola del parallelogramma
o della poligonale) e
moltiplicazione con scalare.
Lo spazio vettoriale
reale dei vettori geometrici liberi:
\(\mathcal{V}^2\). Lo spazio
vettoriale reale \(\mathbb{R}[x]\)
dei polinomi a coefficienti reali
nell'indeterminata \(x\). Principio
di identità tra polinomi. Grado di un
polinomio. Il polinomio nullo non
ha grado definito.
Grado della somma e del prodotto
di polinomi. Lo spazio
vettoriale reale
\(\mathbb{R}^{[a,b]}\) delle
funzioni a valori reali con
dominio
\([a,b]\). Principio di
identità tra
funzioni. Operazioni tra
funzioni: somma e
moltiplicazione con scalare
reale definite puntualmente.
In uno spazio vettoriale \(V\) il
vettore nullo \(\mathbf{0}_V\) è unico;
il simmetrico di un vettore \(v\in V\) è
unico e lo si indica con
\(-v\), detto l'opposto
di \(v\). Legge di annullamento del
prodotto negli spazi vettoriali:
presi \(\lambda\in\mathbb{R}\) e
\(v\in V\), si ha che \(\lambda
v=\mathbf{0}_V\) se e solo se
\(\lambda=0_{\mathbb{R}}\) oppure
\(v=\mathbf{0}_V\).
Esercizi
Foglio n.6: Sistemi lineari
LEZIONE
13
Argomenti:
Preso un
vettore un vettore \(v\) di uno spazio
vettoriale \(V\), si ha che
\((-1)v=-v\). Combinazioni lineari.
Vettori linearmente dipendenti e
linearmente indipendenti. Un
vettore è linearmente dipendente
se e solo se è nullo. Due
vettori sono linearmente
dipendenti se e solo se sono
proporzionali. Dei vettori sono
linearmente dipendenti se e solo
se uno di essi è combinazione
lineare dei rimanenti. Se in un
insieme di vettori alcuni di
essi sono linearmente
dipendenti, allora tutti sono
linearmente dipendenti.
Sottospazi vettoriali. Dato lo
spazio vettoriale \(V\), gli
insiemi \(\{\mathbf{0}_V\}\) e
\(V\) sono sottospazi vettoriali
di \(V\). Un sottospazio
vettoriale contiene
necessariamente il vettore
nullo. Esempi di sottospazi
vettoriali: matrici quadrate
simmetriche
\(Sym_n(\mathbb{R})\),
antisimmetriche
\(ASym_n(\mathbb{R})\) e
diagonali
\(Diag_n(\mathbb{R})\).
L'insieme delle soluzioni di un
sistema lineare di tipo
\(m\times n\) è un sottospazio
vettoriale di \(\mathbb{R}^n\)
se e solo se il sistema è
omogeneo. Sia \(V\)
uno spazio vettoriale e
siano \(v_1,\ v_2,\,\dots,
v_n\) vettori di \(V\),
allora il sottoinsieme
delle combinazioni lineari
dei \(v_i\) è un
sottospazio vettoriale di
\(V\); esso è chiamato il
sottospazio generato dai
\(v_i\) ed è indicato con
\(\mathcal{L}(v_1,\
v_2,\,\dots, v_n)\). Retta
vettoriale e piano
vettoriale.
Tre vettori di \(\mathcal{V}^2\)
sono sempre linearmente
dipendenti.
Esercizi
Foglio n.7: Lineare
indipendenza.
Esercizi
Foglio n.8: Sottospazi
vettoriali.
LEZIONE 14
Argomenti: L'insieme
\(\mathbb{R}_{\leqslant
n}[x]\) dei polinomi
di grado al più \(n\)
con il polinomio nullo
è un sottospazio
vettoriale di
\(\mathbb{R}[x]\).
Spazi vettoriali
finitamente generati.
Lo spazio
\(\mathbb{R}[x]\) non
è finitamente
generato. Gli spazi
\(\mathbb{R}^n\) e
\(\mathbb{R}_{\leqslant
n}[x]\) sono
finitamente generati.
Dato \(V\) uno spazio
vettoriale e \(v_1,
v_2,\,\dots, v_n\)
vettori di \(V\),
preso
\(w\in\mathcal{L}(v_1,
v_2,\,\dots, v_n)\),
allora si ha
\(\mathcal{L}(v_1,
v_2,\,\dots, v_n,
w)=\mathcal{L}(v_1,
v_2,\,\dots, v_n)\).
Similmente, se
\(w_1,w_2, \dots,
w_m\in\mathcal{L}(v_1,
v_2,\,\dots, v_n)\),
allora
\(\mathcal{L}(v_1,
\dots, v_n, w_1, w_2,
\dots,
w_m)=\mathcal{L}(v_1,\dots,
v_n)\). Dati i vettori
\(v_1, v_2,\,\dots,
v_n\) linearmente
indipendenti di \(V\),
preso
\(w\not\in\mathcal{L}(v_1,
v_2,\,\dots, v_n)\),
allora i vettori
\(v_1, v_2,\,\dots,
v_n, w\) sono
linearmente
indipendenti. Una base
di uno spazio
vettoriale finitamente
generato è un sistema
di generatori
linearmente
indipendenti. Basi
canoniche di
\(\mathbb{R}^n\),
\(\mathbb{R}_{\leqslant
n}[x]\) e
\(M_{m,n}(\mathbb{R})\).
I vettori \(v_1,
v_2,\,\dots, v_n\)
sono una base di \(V\)
se e solo se ogni
vettore di \(V\) si
scrive in maniera
unica come
combinazione lineare
di \(v_1, v_2,\,\dots,
v_n\). Le due
condizioni per
definire una base sono
indipendenti (e vanno
verificate entrambe).
LEZIONE 15
Argomenti: Metodo
degli scarti
successivi: ogni
spazio vettoriale non
banale finitamente
generato ha almeno una
base. Dato uno spazio
vettoriale non
finitamente generato
\(V\), i vettori
\(v_1,\,v_2,\,\dots,\,v_n,\,\dots\)
costituiscono una base
di \(V\) se sono
generatori di \(V\) e
comunque scelti un
numero finito tra di
essi, questi risultano
linearmente
indipendenti. Una base
di \(\mathbb{R}[x]\) è
data
\(\left\{1,\,x,\,x^2,\,\dots,\,x^n,\,\dots\right\}\).
Lemma di Steinitz:
se \(\{v_1, v_2,\dots, v_n\}\) è una base di \(V\) e
\(w_1, w_2, \dots, w_m\) sono \(m>n\) vettori di \(V\)
allora i \(w_i\) sono linearmente dipendenti. Lemma di
scambio: se in una base si sostituisce un vettore con la
somma di questo vettore più una combinazione lineare dei
vettori rimanenti, si ottiene una nuova base. Tutte le
basi di uno spazio vettoriale finitamente generato hanno
la stessa cardinalità che è detta la dimensione di \(V\) e
si indica \(\dim V\). La dimensione di \(V\) indica il
numero massimo di vettori linearmente indipendenti che si
possono trovare in \(V\). La dimensione di \(V\) indica il
numero minimo di generatori di \(V\). Teorema del
completamento della base: Sia \(\{v_1, v_2,\dots, v_n\}\)
una base di \(V\) e siano \(w_1, w_2, \dots, w_m\), con
\(m<n\), vettori linearmente indipendenti di
\(V\); allora è possibile scegliere \(n-m\) vettori
\(v'_1, v'_2, \dots, v'_{n-m}\) tra i \(v_i\) tali
che \(\{w_1, w_2,\dots, w_m, v'_1, \dots,
v'_{n-m}\}\) sia una base di \(V\). Se \(V\) è uno spazio
vettoriale di dimensione \(n\), allora \(\{v_1, v_2,\dots,
v_n\}\) è una base di \(V\) se e solo se \(v_1, v_2,\dots,
v_n\) sono linearmente indipendenti, se e solo se \(v_1,
v_2,\dots, v_n\) sono generatori di \(V\).
Esercizi
Foglio n.9: Basi di spazi vettoriali.
LEZIONE 16
Argomenti: Esercitazione: Calcolo matriciale,
rango, determinanti, sistemi lineari.
LEZIONE 17
Argomenti: Coordinate di un vettore rispetto ad una
base. Operazioni tra vettori in termini delle loro
componenti rispetto ad una base. Siano
\(w_1,w_2,\dots,w_m\) vettori di uno spazio vettoriale \(
V\) di dimensione \(n\) e sia \(\mathcal B\) una base di
\(V\). Sia \(A\in M_{m,n}(\mathbb R)\) la matrice che ha
per righe le coordinate dei \(w_i\) rispetto a \(\mathcal
B\). Allora \(\textrm{rk} A=r\) indica il massimo numero
di vettori linearmente indipendenti tra i \(w_i\) ed \(r\)
vettori linearmente indipendenti sono quelli
corrispondenti alle righe di un qualsiasi minore non nullo
di \(A\) di ordine \(r\). Inoltre, i \(w_i\) sono
linearmente indipendenti se e solo se \(\textrm{rk} A=m\).
Siano \(\mathcal B\) e \(\mathcal B'\) basi di uno spazio
vettoriale \(V\) di dimensione finita; la matrice di
passaggio da \(\mathcal B\) a \(\mathcal B'\) è la matrice
che si ottiene scrivendo in colonna ordinatamente le
coordinate dei vettori di \(\mathcal B'\) in funzione di
quelli di \(\mathcal B\). Teorema del cambiamento di
coordinate nel passaggio da una base ad un'altra: siano
\(P\) la matrice di passaggio dalla base \(\mathcal B\)
alla base \(\mathcal B'\), \(P'\) la matrice di passaggio
dalla base \(\mathcal B'\) alla base \(\mathcal B\), \(X\)
la colonna delle coordinate di un vettore \(v\in V\)
rispetto alla base \(\mathcal B\) e \(X'\) la colonna
delle coordinate di \(v\) rispetto alla base \(\mathcal
B'\), allora si ha che \(P'=P^{-1}\), \(X'=P^{-1}X\) e
infine \(X=PX'\).
LEZIONE 18
Argomenti: Esercitazione: Basi e dimensione di
sottospazi vettoriali.
LEZIONE 19
Argomenti: Se \(V\) è uno spazio vettoriale
di dimensione finita e \(W\) è un sottospazio di \(V\)
allora \(\textrm{dim}W\leqslant\textrm{dim}V\). Inoltre
\(\textrm{dim}W=\textrm{dim}V\) se e solo se \(W=V\).
Equazioni cartesiane e parametriche di un sottospazio
vettoriale. Il numero di parametri necessari per dare le
equazioni parametriche di \(W\) è uguale alla dimensione
di \(W\). Se \(n=\textrm{dim}V\), il numero minimo di
equazioni cartesiane per descrivere \(W\) è detto
codimensione di \(W\) e
\(\textrm{codim}W=n-\textrm{dim}W\). In particolare, per
ogni sottospazio vettoriale \(W\) si ha
\(n=\textrm{dim}W+\textrm{codim}W\). L'intersezione di due
sottospazi vettoriali è un sottospazio vettoriale. In
generale, l'unione di due sottospazi vettoriali non è un
sottospazio vettoriale.
LEZIONE 20
Argomenti: La somma di due sottospazi
vettoriali è un sottospazio vettoriale ed è il più piccolo
contenente l'unione dei due sottospazi. Un sistema di
generatori per la somma dei sottospazi \(U\) e \(W\) è
dato dall'unione di una base di \(U\) e una base di \(W\);
per ottenere una base va poi applicato il metodo degli
scarti successivi. Equazioni cartesiane di \(U\cap W\)
sono date dal sistema contenente equazioni cartesiane di
\(U\) e di \(W\). Teorema di Grassmann:
Se \(U\) e \(W\) sono sottospazi vettoriali di dimensione
finita di uno spazio vettoriale, allora vale la formula di
Grassmann \(\textrm{dim}(U+W)+\textrm{dim}(U\cap
W)=\textrm{dim}U+\textrm{dim}W\). Dati due sottospazi
\(U\) e \(W\) si ha che \(U+W=U\) se e solo se \(U\cap
W=W\) se e solo se \(W\subseteq U\). Somma diretta di
due sottospazi. Formula di Grassmann per la somma diretta:
\(\textrm{dim}(U\oplus W)=\textrm{dim}U+\textrm{dim}W\).
Sottospazi complementari. In uno spazio vettoriale
finitamente generato ogni sottospazio ammette un
complemento diretto (che non è unico in generale). Teorema
della somma diretta: dati \(U\) e \(W\) sottospazi
vettoriali, si ha che \(U\) e \(W\) sono a somma diretta
se e solo se ogni vettore di \(U+W\) si scrive in maniera
unica come somma di un vettore di \(U\) e di un vettore di
\(W\). Siano \(T\), \(U\) e \(W\) sottospazi vettoriali,
siano \(\mathcal {B}_U=\{u_1,\dots, u_m\}\) una base di
\(U\) e \(\mathcal {B}_W=\{w_1,\dots, w_l\}\) una base di
\(W\), allora \(T=U\oplus W\) se e solo se \(\{u_1,\dots,
u_m,w_1,\dots,w_l\}\) è una base di \(T\).
Esercizi
Foglio n.10: Somma e intersezione di sottospazi
vettoriali.
LEZIONE 21
Argomenti: Geometria nel piano affine
\(\mathbb A^2(\mathbb R)\). Richiami sui vettori
applicati e liberi nel piano, equipollenza, lo
spazio vettoriale bidimensionale
\(\mathcal{V}^2\) dei vettori liberi del
piano.
Quinto postulato di Euclide.
Prima proprietà fondamentale degli spazi affini:
dato un vettore \(\stackrel{\longrightarrow}{AB}\)
ed un punto \(C\) nel piano, esiste ed è unico il
punto \(D\) tale che
\(\stackrel{\longrightarrow}{AB}\) e
\(\stackrel{\longrightarrow}{CD}\) siano
equipollenti. Seconda proprietà fondamentale degli
spazi affini: presi tre punti \(O,P,Q\) nel piano si
ha
\(\stackrel{\longrightarrow}{OP}+\stackrel{\longrightarrow}{PQ}=\stackrel{\longrightarrow}{OQ}\),
detta identità di Chasles.
Sistemi
di riferimento affine nel piano.
Coordinate affini di punti e vettori nel
piano. Operazioni tra vettori in termini
di coordinate. Presi
due punti del piano \(A\) e \(B\), le coordinate del
vettore \(\stackrel{\longrightarrow}{AB}\) sono date
dalla differenza delle coordinate del punto finale
\(B\) meno quelle del punto di applicazione \(A\);
più in generale si ha che \(\stackrel{\longrightarrow}{AB}=v\)
se e solo se \(B=A+v\)
. Una retta nel piano è univocamente individuata da
un suo punto e da un vettore ad essa parallelo.
Vettore direzionale e parametri direttori di una
retta. Equazione vettoriale di una retta: data una
retta \(r\), un punto \(P_0\in r\) ed un vettore
direzionale \({v}\) di \(r\), allora un punto \(P\)
del piano appartiene ad \(r\) se e solo se
\(\stackrel{\longrightarrow}{P_0P}=t\,{v}\), per
qualche \(t\in \mathbb R\). Equazioni parametriche
di una retta: data una retta \(r\), un punto
\(P_0(x_0,\,y_0)\in r\) ed un vettore direzionale
\({v}(l,\,m)\) di \(r\), allora equazioni
parametriche di \(r\) sono date da
\(\begin{cases}x=x_0+l\,t\\y=y_0+m\,t
\end{cases}\). Equazione cartesiana di una retta:
una retta nel piano è rappresentata da un'equazione
del tipo \(ax+by+c=0\), con \(a\) e \(b\) non
contemporaneamente nulli, e viceversa, ogni
equazione di questo tipo ha per grafico nel piano
una retta. La retta di
equazione \(ax+by+c=0\) ha per vettore direzionale il
vettore \((-b,a)\). Dati \(P_1(x_1,y_1)\) e
\(P_2(x_2,y_2)\) due punti distinti del piano, la retta
che li congiunge ha equazioni parametriche date da
\(\begin{cases}x=x_1+(x_2-x_1)\,t\\y=y_1+(y_2-y_1)\,t\end{cases}\)
ed equazione cartesiana data da
\(\begin{vmatrix}x-x_1&y-y_1\\x_2-x_1&y_2-y_1\end{vmatrix}=0\).
Condizione di allineamento di tre punti. Rette parallele,
rette coincidenti, rette parallele e distinte, rette
incidenti. Posizione reciproca di due rette nel piano:
siano date due rette \(r:\ ax+by+c=0\) e \(r':\
a'x+b'y+c'=0\), allora \(r\|r'\) se e solo se
\(\textrm{rk}\begin{pmatrix}a&b\\a'&b'\end{pmatrix}=1\);
in particolare sono parallele e coincidenti se e
solo se \(\textrm{rk}\begin{pmatrix}a&b&c\\a'&b'&c'\end{pmatrix}=1\),
sono parallele e distinte se e solo se
\(\textrm{rk}\begin{pmatrix}a&b\\a'&b'\end{pmatrix}=1\)
e
\(\textrm{rk}\begin{pmatrix}a&b&c\\a'&b'&c'\end{pmatrix}=2\);
infine \(r\) ed \(r'\) sono incidenti se
e solo se
\(\textrm{rk}\begin{pmatrix}a&b\\a'&b'\end{pmatrix}=\textrm{rk}\begin{pmatrix}a&b&c\\a'&b'&c'\end{pmatrix}=2\)
Esercizi
Foglio n.11: Piano affine.
LEZIONE
22
Argomenti: Data la retta \(r:\ ax+by+c=0\), un
vettore direzionale di \(r\) è il vettore
\(v_r=(-b,\,a)\). Esempi di geoemtria piana affine.
Vettori geometrici nello spazio. L'insieme \(\mathcal
V^3\) dei vettori liberi dello spazio fisico è uno spazio
vettoriale con le usuali operazioni tra frecce orientate.
Richiami sulle proprietà elementari dello spazio euclideo
tridimensionale. Punti allineati e punti complanari.
Vettori allineati e vettori complanari. Tre vettori di
\(\mathcal V^3\) sono linearmente dipendenti se e solo se
sono complanari. Lo spazio \(\mathcal V_O^3\) ha
dimensione tre. Lo spazio affine tridimensionale \(\mathbb
A^3(\mathbb R)\). Sistema di riferimento affine e
coordinate affini nello spazio. Coordinate di vettori
liberi ed applicati. Identità di Chasles nello spazio.
Equazione vettoriale di una retta: data una retta \(r\),
un punto \(P_0\in r\) ed un vettore direzionale \({v}\) di
\(r\), allora un punto \(P\) del piano appartiene ad \(r\)
se e solo se \(\stackrel{\longrightarrow}{P_0P}=t\,{v}\),
per qualche \(t\in \mathbb R\). Equazioni paramtriche di
una retta: una retta parallela al vettore \( v=(l,m,n)\) e
passante per il punto \(P_0=(x_0,y_0,z_0)\) ha equazioni
parametriche
\(\begin{cases}x=x_0+l\,t\\y=y_0+m\,t\\z=z_0+n\,t
\end{cases}\). Condizioni operative per l'allineamento di
tre punti e per la complanarità di quattro punti.
Equazione vettoriale di un piano: dato un piano \(\pi\),
un punto \(P_0\in \pi\) e due vettori non linearmente
indipendenti \(v\) e \(w\) \({v}\) paralleli a \(\pi\),
allora un punto \(P\) appartiene a \(\pi\) se e solo se
\(\stackrel{\longrightarrow}{P_0P}=t\,{v}+t'\,w\), per
qualche \(t,\,t'\in \mathbb R\). Equazioni parametriche di
un piano: il piano parallelo ai vettori \( v=(l,m,n)\) e
\( w=(l',m',n')\) e passante per il punto
\(P_0=(x_0,y_0,z_0)\) ha equazioni parametriche
\(\begin{cases}x=x_0+l\,t+l\,t'\\y=y_0+m\,t+m\,t'\\z=z_0+n\,t+n\,t'\end{cases}\).
Siano dati \(P_1(x_1,y_1,z_1)\),
\(P_2(x_2,y_2,z_2)\) e \(P_3(x_3,y_3,z_3)\) tre
punti non allineati dello spazio; il piano che li contiene
ha equazioni parametriche date da
\(\begin{cases}x=x_1+(x_2-x_1)\,t+(x_3-x_1)\,t'\\y=y_1+(y_2-y_1)\,t+(y_3-y_1)\,t'\\z=z_1+(z_2-z_1)\,t+(z_3-z_1)\,t'\end{cases}\).
LEZIONE 23
Argomenti: Esercitazione: Somma e intersezione di
sottospazi. Matrici di passaggio e cambiamento di
coordinate.
LEZIONE 24
Argomenti: Due rette sono parallele se e solo se
hanno vettori direzionali proporzionali. Rette parallele
sono complanari. Rette incidenti sono complanari.
Equazioni parametriche del piano parallelo a due rette
date e passante per un punto dato. Tutti e soli i piani
dello spazio sono rappresentati da un'equazione del tipo
\(ax+by+cz+d=0\), con \(a,b,c\) non contemporaneamente
nulli. Rappresentazione grafica di piani. Piani
coincidenti, piani paralleli e distinti, piani incidenti.
Teorema di classificazione delle posizioni reciproche di
due piani nello spazio: siano dati due piani \(\pi:\
ax+by+cz+d=0\) e \(\pi':\ a'x+b'y+c'z+d'=0\); allora
\(\pi\) e \(\pi'\) sono paralleli e distinti se e solo se
\(\textrm{rk}\begin{pmatrix}a&b&c\\a'&b'&c'\end{pmatrix}=1\)
e
\(\textrm{rk}\begin{pmatrix}a&b&c&d\\a'&b'&c'&d'\end{pmatrix}=2\);
\(\pi\) e \(\pi'\) sono coincidenti se e solo se
\(\textrm{rk}\begin{pmatrix}a&b&c&d\\a'&b'&c'&d'\end{pmatrix}=1\);
\(\pi\) e \(\pi'\) sono incidenti se e solo se
\(\textrm{rk}\begin{pmatrix}a&b&c\\a'&b'&c'\end{pmatrix}=2\).
Equazioni cartesiane di una retta nello spazio: tutte e
sole le rette dello spazio sono definite da un sistema
lineare di due equazioni in tre indeterminate del tipo
\(\begin{cases}ax+by+cz+d=0\\
a'x+b'y+c'z+d'=0\end{cases}\), con
\(\textrm{rk}\begin{pmatrix}a&b&c\\a'&b'&c'\end{pmatrix}=2\).
Teorema di classificazione delle posizioni reciproche tra
retta e piano nello spazio: dati un piano \(\pi:\
ax+by+cz+d=0\) ed una retta \(r:\
\begin{cases}a'x+b'y+c'z+d'=0\\
a''x+b''y+c''z+d''=0\end{cases}\), si ha che \(r\) e
\(\pi\) sono propriamente paralleli se e solo se
\(\textrm{det}\begin{pmatrix}a&b&c\\a'&b'&c'\\a''&b''&c''\end{pmatrix}=0\)
e
\(\textrm{rk}\begin{pmatrix}a&b&c&d\\a'&b'&c'&d'\\a''&b''&c''&d''\end{pmatrix}=3\);
si ha che \(r\subset\pi\) se e solo se
\(\textrm{rk}\begin{pmatrix}a&b&c&d\\a'&b'&c'&d'\\a''&b''&c''&d''\end{pmatrix}=2\);
risulta che \(r\) e \(\pi\) sono incidenti (in un solo
punto) se e solo se
\(\textrm{det}\begin{pmatrix}a&b&c\\a'&b'&c'\\a''&b''&c''\end{pmatrix}\neq0\).
Sottospazi affini. I sottospazi affini di \(\mathbb
A^3(\mathbb R)\) sono i punti, le rette e i piani che
hanno dimensione rispettivamente 0, 1 e 2. Dati due
sottospazi affini \(S\) e \(T\), il sottospazio \(S+T\),
detto sottosapzio congiungente, è il più piccolo
sottospazio affine che li contiene entrambi. Il
sottospazio che congiunge due punti è la retta che passa
per essi; il sottospazio congiungente una retta ed un
punto esterno è il piano che contiene entrambi; il
sottospazio congiungente due rette incidenti o parallelele
e distinte è il piano che le contiene; lo spazio
congiungente una retta ed un piano incidenti o
propriamente paralleli è tutto lo spazio \(\mathbb
A^3(\mathbb R)\). Formula di Grassmann affine: dati due
sottospazi affini \(S\) e \(T\) tali che \(S\cap
T\neq\emptyset\) allora vale la formula
\(\textrm{dim}\,S+\textrm{dim}\,T=\textrm{dim}(S\cap
T)+\textrm{dim}(S+T)\). La formula di Grassmann perde
significato nel caso in cui i sottospazi \(S\) e \(T\)
sono disgiunti. Due piani se si intersecano, hanno almeno
una retta in comune.
LEZIONE 25
Argomenti: I piani paralleli in senso lato si
distinguono in piani (propriamente) paralleli e piani
(paralleli e) coincidenti. Dato il piano \(\pi: \
ax+by+cz+d=0\), il vettore \(v=(a,b,c)\) è detto vettore
di giacitura di \(\pi\) e i coefficienti \(a,\,b,\,c\)
sono detti parametri giacitura. Piani paralleli hanno, a
meno di un fattore moltiplicativo non nullo, gli stessi
parametri di giacitura. Parametri direttori di una retta
in termini dei minori di ordine due della matrice
incompleta del sistema che la definisce. Un piano di
giacitura \((a,b,c)\) ed una retta di parametri direttori
\((l,m,n)\) sono paralleli se e solo se
\(al+bm+cn=0\). Rette sghembe. Teorema di
classificazione delle posizioni reciproche di due rette
nello spazio: date due rette \(r:\
\begin{cases}ax+by+cz+d=0\\ a'x+b'y+c'z+d'=0\end{cases}\)
e \(s:\ \begin{cases}a''x+b''y+c''z+d''=0\\
a'''x+b'''y+c'''z+d'''=0\end{cases}\) e prese le matrici
\(A=
\begin{pmatrix}a&b&c\\a'&b'&c'\\a''&b''&c''\\a'''&b'''&c'''\end{pmatrix}\)
e \(B=
\begin{pmatrix}a&b&c&d\\a'&b'&c'&d'\\a''&b''&c''&d''\\a'''&b'''&c'''&d'''\end{pmatrix}\),
si ha che \(r\) e \(s\) sono sghembe se e solo se
\(\textrm{det}B\neq0\), \(r\) e \(s\) sono incidenti
se e solo se \(\textrm{rk}B=\textrm{rk}A=3\), \(r\) e
\(s\) sono parallele se e solo se \(\textrm{rk}B=3\) e
\(\textrm{rk}A=2\), \(r\) e \(s\) sono coincidenti se e
solo se \(\textrm{rk}B=2\).
Esercizi
Foglio n.12: Spazio affine.
LEZIONE 26
Argomenti: Applicazioni tra insiemi. Applicazione
costante. Insieme immagine \(\textrm{Im}f\) di
un'applicazione \(f\). Immagine diretta di un sottoinsieme
del dominio. Controimmagine di un elemento e di un
sottoinsieme dell'insieme di arrivo. Applicazioni
iniettive, suriettive e biettive tra insiemi. Esempi.
Applicazioni lineari tra spazi vettoriali. Un'applicazione
lineare \(F:\ V\rightarrow W\) è tale che
\(F(\mathbf{0}_V)=\mathbf{0}_W\) e \(F(-v)=-F(v)\), per
ogni \(v\in V\). Le applicazioni lineari conservano le
combinazioni lineari: data un'applicazione lineare \(F:\
V\rightarrow W\) e il vettore \(v=\lambda_1
v_1+\dots+\lambda_k v_k\), allora \(F(v)=\lambda_1
F(v_1)+\dots+\lambda_k F(v_k)\). Due applicazioni lineari
sono uguali se e solo se assumono gli stessi valori sui
vettori di una base dello spazio di partenza.
Teorema fondamentale di esistenza e unicità
dell'applicazione lineare definita dai valori assunti sui
vettori di una base (o teorema di estensione): dati gli
spazi vettoriali \(V\) e \(W\), con \(V\) finitamente
generato, presi \(\{v_1,\dots, v_n\}\) una base di \(V\) e
\(\{w_1,\dots,w_n\}\) un sottinsieme di vettori qualsiasi
di \(W\), allora esiste ed è unica l'applicazione lineare
\(F:V\rightarrow W\) tale che
\(F(v_1)=w_1,\,\dots,\,F(v_n)=w_n\). Insieme immagine di
un'applicazione lineare. Se \(F:\ V\rightarrow W\) è
un'applicazione lineare, allora \(\textrm{Im} F\) è un
sottospazio vettoriale di \(W\); inoltre se \(V\) è
finitamente generato ed ha dimensione \(n\) allora \(\textrm{dim
Im}F\leqslant n\) e se \(\{v_1,\dots, v_n\}\) è una
base di \(V\), allora \(\{F(v_1),\,\dots,\,F(v_n)\}\) è un
sistema di generatori di \(\textrm{Im} F\).
LEZIONE 27
Argomenti: Esempi di applicazione del teorema di
estensione, di calcolo della controimmagine e
dell'immagine di vettori. L'immagine diretta di un
sottospazio del dominio sotto un'applicazione lineare è
un sottospazio dell'insieme d'arrivo. Controimmagine
di un vettore. In generale la controimmagine di un
vettore non è un sottospazio vettoriale del dominio.
Nucleo di un'applicazione lineare. Un'applicazione
lineare è iniettiva se e solo se il suo nucleo è
banale. Teorema del rango: siano \(V\) e \(W\) spazi
vettoriali, con \(V\) finitamente generato, e sia
\(F:\ V\rightarrow W\) un'applicazione lineare, allora
vale la formula della dimensione:
\(\textrm{dim}V=\textrm{dim Im}(F)+\textrm{dim
Ker}(F)\).
Omomorfismi, monomorfismi, epimorfismi,
endomorfismi, automorfismi di spazi vettoriali.
Esercizi
Foglio n.13:
Applicazioni
lineari.
LEZIONE
28
Argomenti:
Esercitazione: piano affine e spazio
affine.
LEZIONE
29
Argomenti:
Esercitazione: applicazioni
lineari, nucleo, immagine, teorema
fondamentale di estensione.
LEZIONE
30
Argomenti: Data
l'applicazione lineare \(F:\
V\rightarrow W\) tra due spazi
vettoriali finitamente generati,
si ha che \(F\) è iniettiva se e solo
se \(\textrm{dim Im}F=\textrm{dim}V\),
\(F\) è suriettiva se e solo
se \(\textrm{dim
Im}F=\textrm{dim}W\), infine \(F\) è biettiva se e solo
se \(\textrm{dim
Im}F=\textrm{dim}W=\textrm{dim}W\). Sia
\(F:\
V\rightarrow W\)
un'applicazione lineare e sia \(\textrm{dim}V=\textrm{dim}W\),
allora \(F\)
è iniettiva se e solo se \(F\) è
suriettiva, se e solo
se \(F\) è biettiva.
Sia \(F:
V\longrightarrow W\)
un'applicazione
lineare tra spazi
vettoriali di
dimensione finita, se
\(\textrm{dim}V>\textrm{dim}W\)
allora \(F\) non può
essere iniettiva, se
invece
\(\textrm{dim}W>\textrm{dim}V\)
allora \(F\) non può
essere suriettiva.
Matrice
associata ad
una applicazione lineare rispetto a due
basi. Formule di calcolo in
termini di coordinate e matrice associata.
Sia data un'applicazione lineare \(F:\
V\rightarrow W\) e sia \(A\) una matrice
associata ad \(F\), allora \(\textrm{codim
Ker}F=\textrm{dim Im}F=\textrm{rk}A\). Sia
data l'applicazione lineare \(F:\
V\rightarrow W\) tra due spazi vettoriali
finitamente generati e sia \(A\) una
matrice associata ad \(F\), si ha che
\(F\) è iniettiva se e solo se
\(\textrm{rk}A=\textrm{dim}V\), \(F\) è
suriettiva se e solo se
\(\textrm{rk}A=\textrm{dim}W\). Due spazi
vettoriali finitamente generati sono
isomorfi se e solo se hanno la stessa
dimensione. Tutti gli spazi vettoriali di
dimensione \(n\) sono isomorfi ad
\(\mathbb{R}^n\). Considerazioni sul
significato del concetto di isomorfismo.
LEZIONE 31
Argomenti: Equazioni di una
applicazione lineare ed equazione
matriciale. Composizione di applicazioni.
La composizione di applicazioni lineari è
un'applicazione lineare. Teorema di
composizione operatoria: date le
applicazioni tra spazi vettoriali f.g.
\(F:\ V\rightarrow W\) e \(G:\
W\rightarrow U\) con matrici associate
rispettivamente \(A\) e \(B\), allora
l'applicazione \(G\circ F:\ V\rightarrow
U\) ha come matrice associata la matrice
\(BA\). Date le applicazioni tra spazi
vettoriali f.g. \(F:\ V\rightarrow W\)
e \(G:\ W\rightarrow U\) allora si
ha \(\textrm{dim Im}(G\circ
F)\leqslant\min\{\textrm{dim Im}G,\
\textrm{dim Im}F\}\). Teorema di Kronecker
per il rango del prodotto di matrici: se
\(A\) e \(B\) sono due matrici allora
\(\textrm{rk}AB\leqslant\textrm{min}\{\textrm{rk}A,\
\textrm{rk}B\}\). Se si moltiplica una
matrice \(A\) a destra o a sinistra per
una matrice invertibile, allora il rango
di \(A\) resta invariato. Legge di
cambiamento della matrice associata ad una
applicazione lineare: sia \(F:\
V\rightarrow W\) un applicazione lineare
tra due spazi vettoriali f.g., siano
\(\mathcal B\) e \(\mathcal B'\) due basi
di \(V\) con matrice di passaggio \(P\) e
siano \(\overline{\mathcal B}\) e
\(\overline{\mathcal B}'\) due basi di
\(W\) con matrice di passaggio \(Q\),
siano poi \(A\) la matrice associata ad
\(F\) rispetto alle basi \(\mathcal B\) e
\(\overline{\mathcal B}\) ed \(A'\) la
matrice associata ad \(F\) rispetto alle
basi \(\mathcal B'\) e
\(\overline{\mathcal B}'\), allora si ha
\(A'=Q^{-1}AP\). Le matrici associate ad
una applicazione lineare hanno lo stesso
rango (che coincide con la dimensione
dell'immagine).
LEZIONE 32
Argomenti: Applicazioni invertibili.
Un'applicazione è invertibile se e
solo se è biettiva. Un'applicazione lineare
\(F\) tra due spazi vettoriali f.g.
è invertibile se e solo se le
matrici
associate
ad \(F\) sono invertibili; in
particolare la matrice di
\(F^{-1}\) è l'inversa
della matrice di \(F\) (a
patto di usare le stesse
basi). Endomorfismi
e automorfismi di uno spazio
vettoriale. Matrici associate ad un
endomorfismo. Matrici
simili. Le matrici associate
ad un endomorfismo sono simili tra loro,
hanno lo
stesso rango e lo stesso
determinante. Un
endomorfismo è
automorfismo se e solo se
tutte le sue matrici
associate sono
invertibili. Introduzione
alla diagonalizzazione:
motivazione e
applicazioni. Autovalori
e
autovettori
di un endomorfismo.
Autospazi. Gli autospazi di un
endomorfismo
sono sottospazi
vettoriali
di dimensione
maggiore o
uguale a 1.
Autovettori
associati ad
autovalori
distinti sono
linearmente
indipendenti.
Gli autospazi
(associati ad
autovalori
distinti) di
un
endomorfismo
sono a somma
diretta. Un
endomorfismo di uno spazio vettoriale di
dimensione \(n\) ha al più \(n\)
autovalori distinti. Ricerca di
autovalori e autovettori. Un numero
reale \(\lambda\) è autovalore per un
endomorfismo \(F\) se e solo verifica
l'equazione \(\textrm{det}(A-\lambda
I_n)=0\), dove \(A\) è una matrice
associata ad \(F\). Un vettore con
coordinate \(X\in\mathbb{R}^n\) è un
autovettore per \(F\) associato
all'autovalore \(\lambda\) se e solo
se le sue coordinate risolvono il
sistema lineare omogeneo \((A-\lambda
I_n)X=\mathbf{0}\). Matrice
caratteristica. Polinomio
caratteristico. Equazione
caratteristica. Equazione
secolare di Laplace. Teorema
di invarianza del polinomio
caratteristico: il
polinomio caratteristico di un endomorfismo \(F\)
non dipende dalla matrice di
\(F\) scelta per calcolarlo.
Matrici simili hanno lo stesso polinomio
caratteristico. Un endomorfismo non è
invertibile se e solo se ammette
l'autovalore nullo, in particolare
l'autospazio associato a 0 coincide con
il nucleo dell'endomorfismo.
Esercizi
Foglio n.14: Applicazioni lineari e
matrici associate.
LEZIONE 33
Argomenti: Esercitazione:
sottospazi vettoriali, spazio affine,
applicazioni lineari, autovalori e
autovettori.
LEZIONE 34
Argomenti: Un endomorfismo \(F\)
di uno spazio vettoriale f.g. \(V\) è
diagonalizzabile se e solo se \(V\)
ammette una base costituita da
autovettori per \(F\). Richiami
sui polinomi a coefficienti reali.
Teorema di Ruffini:
un polinomio \(f(x)\in\mathbb{R}[x]\) ha
per radice il numero
\(\alpha\in\mathbb{R}\) se e solo se
\(x-\alpha\) è uni divisore di \(f(x)\).
Si dice che la radice \(\alpha\) di
\(f(x)\) ha molteplicità \(m\) se e solo
se \((x-\alpha)^m\) è un divisore del
polinomio \(f(x)\) ma
\((x-\alpha)^{m+1}\) non è un divisore
di \(f(x)\). Teorema fondamentale
dell'Algebra (di Gauss):
ogni polinomio a coefficienti reali di
grado \(n\) ha esattamente \(n\) radici
in \(\mathbb{C}\), contando le
molteplicità. Un polinomio a
coefficienti reali di grado \(n\) ha al
più \(n\) radici reali. Test delle
radici razionali (di Newton):
se un polinomio a coefficienti interi
\(f(x)\in\mathbb{Z}[x]\) ha una radice
razionale \(a/b\), allora \(a\) è un
divisore del termine noto e \(b\) è un
divisore del coefficiente direttore di
\(f(x)\). Teorema di d'Alembert:
un polinomio a coefficienti reali di
grado dispari ha almeno una radice reale
ed ammette un numero dispari di radici
reali, pari al più al suo grado; un
polinomio a coefficienti reali di grado
pari o non ha radici reali oppure
ammette un numero pari di radici reali,
non superiore al suo grado. Molteplicità
algebrica \(\textrm{m.a.}(\lambda)\) e
molteplicità geometrica
\(\textrm{m.g.}(\lambda)\) di un
autovalore \(\lambda\). Un endomorfismo
diagonalizzabile ha autovalori tutti
reali (non necessariamente distinti). Se
\(\lambda\) è un autovalore di un
endomorfismo allora \(1\leqslant
\textrm{m.g.}(\lambda)\leqslant
\textrm{m.a.}(\lambda)\). Teorema
fondamentale della diagonalizzabilità:
un endomorfismo di uno spazio vettoriale
di dimensione finita è diagonalizzabile
se e solo se ammette autovalori tutti
reali e per ciascuno di questi
molteplicità geometrica e molteplicità
aritmetica coincidono. Se un
endomorfismo ammette autovalori distinti
allora è diagonalizzabile.
LEZIONE 35
Argomenti: Diagonalizzabilità di
matrici. Polinomio caratteristico,
autovalori, autovettori, autospazi di
una matrice quadrata. Una matrice
quadrata è diagonalizzabile se e solo se
essa è simile ad una matrice diagonale.
Esempi di diagonalizzazione di
applicazioni lineari e matrici. Teorema
di Cayley-Hamilton:
ogni matrice quadrata è radice del suo
polinomio caratteristico. Calcolo
dell'inversa di una matrice con il
polinomio caratteristico.
Esercizi
Foglio n.15: Diagonalizzazione di
applicazioni lineari.
Esercizi
Foglio n.16: Complementi sulle
matrici.
LEZIONE 36
Argomenti: Forme bilineari su uno
spazio vettoriale reale. Forma bilineare
nulla. Una forma bilineare \(b\) su uno
spazio vettoriale \(V\) è detta
simmetrica se per ogni \(v,w\in V\) si
ha che \(b(v,w)=b(w,v)\). Una forma
bilineare \(b\) su uno spazio vettoriale
\(V\) è antisimmetrica se e solo se per
ogni \(v,w\in V\) si ha che
\(b(v,w)=-b(w,v)\), se e solo
\(b(v,v)=0\). La forma nulla è l'unica
sia simmetrica che antisimmetrica. Il
determinante delle matrici quadrate di
ordine 2 è una forma bilineare
antisimmetrica. Il prodotto scalare
standard su \(\mathbb{R}^n\) è una forma
bilineare simmetrica. Il prodotto tra
numeri reali è una forma bilineare
simmetrica (commutativa) su
\(\mathbb{R}\). Matrice di Gram
associata ad una forma bilineare
rispetto ad una base. Formule di calcolo
in termini di coordinate e matrice
associata. Una forma bilineare è
simmetrica (risp. antisimmetrica) se e
solo se la matrice associata a \(b\) è
simmetrica (risp. antisimmetrica). Legge
di cambiamento della matrice associata
ad una forma bilineare: sia \(b\) una
forma bilineare su uno spazio f.g.
\(V\), siano \(\mathcal B\) e \(\mathcal
B'\) due basi di \(V\) con matrice di
passaggio \(P\), siano poi \(A\) la
matrice associata a \(b\) rispetto a
\(\mathcal B\) e \(A'\) la matrice
associata a \(b\) rispetto alla base,
allora si ha \(A'=P^{T}AP\). Matrici
congruenti. Le matrici associate ad una
stessa forma bilineare sono congruenti
tra loro. Rango di una forma bilineare.
Forme degeneri e non. Le matrici
associate ad una stessa forma bilineare
hanno tutte lo stesso rango.
LEZIONE 37
Argomenti: La simmetria e
l'antisimmetria sono invarianti per
congruenza. Il segno del determinante è
invariante per congruenza. Quadrato di
binomio generalizzato. Una forma
bilineare \(b\) su uno spazio \(V\) è
degenere se e solo esiste un vettore non
nullo \(v\) tale che \(b(v,w)=0\), per
ogni \(w\in V\), se e solo esiste un
vettore non nullo \(v\) tale che
\(b(w,v)=0\), per ogni \(w\in V\). Due
vettori \(v\) e \(w\) si dicono
ortogonali secondo una forma bilineare
simmetrica \(b\) se \(b(v,w)=0\) e si
scrive \(v\bot w\). Il vettore nullo è
ortogonale a tutti i vettori dello
spazio. Vettori isotropi (ortogonali a
sé stessi). Cono isotropo di una forma
bilineare simmetrica. Il cono isotropo
non è in generale un sottospazio
vettoriale, contiene il vettore nullo ed
è costituito da unione di rette. Il
sottospazio ortogonale \(S^\bot\) ad un
insieme di vettori \(S\subset V\) è
costituito da tutti i vettori di \(V\)
ortogonali a tutti i vettori di \(S\).
Il sottospazio ortogonale è un
sottospazio vettoriale. Il sottospazio
ortogonale \(W^\bot\) di un sottospazio
\(W\) f.g. è il sottospazio dei vettori
ortogonali a tutti i vettori di una base
di \(W\). Esempi di calcolo di
sottospazi ortogonali. Teorema di
Fourier: dato un vettore non isotropo
\(v\in V\), si ha che
\(V=v^\bot\oplus\mathcal{L}(v)\).
Coefficiente di Fourier di \(w\) secondo
un vettore non isotropo \(v\):
\(\frac{b(v,w)}{b(v,v)}\). Basi
ortogonali e basi diagonalizzanti.
Teorema di Gauss-Lagrange:
Una forma bilineare è diagonalizzabile
(rispetto ad una base ortogonale) se e
solo se è simmetrica.
Esercizi
Foglio n.17: Forme bilineari.
LEZIONE 38
Argomenti: Esercitazione: Forme
bilineari, sottospazi ortogonali,
diagonalizzazione di forme bilineari
simmetriche.
LEZIONE 39
Argomenti: Forma quadratica
associata ad una forma bilineare
simmetrica. Forma quadratica
nulla. Forma quadratica standard. Le
forme quadratiche sono funzioni omogenee
di secondo grado. Forma (bilineare)
polare di una forma quadratica. Formula
di polarizzazione: data una forma
quadratica \(Q\) su uno spazio
vettoriale \(V\), la forma bilineare
polare di \(Q\) è data da
\(b(v,w)=\frac12[Q(v+w)-Q(v)-Q(w)]\),
per ogni \(v,w\in V\). Matrice
asssociata ad una forma quadratica.
Regole di calcolo in termini di matrice
associata. Forme quadratiche diagonali.
Diagonalizzazione di forme quadratiche.
Legge di inerzia di Sylvester:
data una forma quadratica \(Q\) di rango
\(r\) su uno spazio vettoriale \(V\) di
dimensione finita, esistono un numero
intero positivo \(p\) ed una base
\(\left\{ v_1,\,\dots, v_n \right\}\) di
\(V\) rispetto a cui la forma \(Q\) ha
l'espressione
\(Q(x_1,\,\dots,\,x_n)=x_1^2+\dots+x_p^2-x_{p+1}^2-\dots-x_r^2\);
inoltre il numero \(p\) è indipendente
dalla base scelta e dipende solo dalla
forma \(Q\).
LEZIONE 40
Argomenti: Forma canonica di
Sylvester di una forma quadratica. Basi
di Sylvester. Indice di positività,
indice di negatività, segnatura di una
forma quadratica. Forme quadratiche (e
forme bilineari simmetriche) definite
positive, semidefinite positive,
definite negative, semidefinite
negative, indefinite. Forme quadratiche
canoniche su \(\mathbb{R}^2\) e su
\(\mathbb{R}^3\). Se una forma
quadratica ha cono isotropo banale, o è
definita positiva, o è definita
negativa. Teorema degli zeri per le
forme quadratiche: se una forma
quadratica \(Q\) assume valore positivo
su un vettore \(v\) e valore negativo su
un vettore \(w\), allora esiste un
vettore isotropo per \(Q\). Matrici
simmetriche definite positive,
semidefinite positive, definite
negative, semidefinite negative,
indefinite. Tutte le matrici simmetriche
definite positive di ordine \(n\) sono
congruenti alla matrice identica. Una
matrice simmetrica \(A\) è definita
positiva se e solo se esiste una matrice
invertibile \(M\) tale che \(A=M^TM\).
Calcolo della segnatura e
diagonalizzazione di forme quadratiche
col metodo di completamento dei quadrati
(metodo di Gauss-Lagrange). Minori
principali di una matrice quadrata.
Teorema di Jacobi-Sylvester (criterio
dei minori principali): una matrice
simmetrica è definita positiva se e solo
se tutti i suoi minori principali sono
strettamente positivi. Prodotti scalari.
Spazi vettoriali euclidei. Prodotto
scalare standard su \(\mathbb{R}^n\).
Norma (o lunghezza) di un vettore,
\(\parallel v\parallel=\sqrt{v\cdot
v}\). Diseguaglianza di Cauchy-Schwarz: dati
due vettori \(v\) e \(w\) si ha che
\(|v\cdot w|\leqslant\parallel
v\parallel \,\parallel w\parallel\).
Proprietà della norma: la norma assume
sempre valori positivi ed è nulla solo
per il vetore nullo; la norma è
positivamente omogenea di grado 1.
Diseguaglianza triangolare. Angolo
(convesso) compreso tra due vettori non
nulli. Detto \(\theta\) l'angolo
compreso tra due vettori non nulli \(v\)
e \(w\), si ha che \(v\cdot w=\parallel
v\parallel \,\parallel w\parallel
\cos\theta\). Teorema di Pitagora.
Teorema di Carnot.
Esercizi
Foglio n.18: Forme quadratiche.
LEZIONE 41
Argomenti: Versori.
Normalizzazione di vettori. Basi
ortogonali. Basi ortonormali. Dei
vettori non nulli e a due a due
ortogonali sono linearmente
indipendenti. Normalizzando i vettori di
una base ortogonale si ottiene una base
ortonormale. Procedimento ortogonale di
Gram-Schmidt.
Interpretazione geometrica del
coefficiente di Fourier e del
procedimento ortogonale di G.-S.
Complemento ortogonale di un sottospazio
vettoriale. Teorema di decomposizione
ortogonale: Dato un sottospazio
vettoriale non nullo \(W\subseteq\mathbb
R^n\), risulta che \(\mathbb R^n=W\oplus
W^\bot\); in particolare si ha che
\(\textrm{dim}W^\bot=n-\textrm{dim}W\).
Proiezione ortogonale di vettori
rispetto a un sottospazio.
Esercizi
Foglio n.19:
Spazi
vettoriali
euclidei
LEZIONE 42
Argomenti: Matrici ortogonali.
Una matrice ortogonale è invertibile.
Una matrice di ordine \(n\) è ortogonale
se e solo se le sue righe (colonne) sono
una base di ortonormale di \(\mathbb
R^n\). Le matrici ortogonali hanno
determinante uguale a \(\pm1\). Siano
\(\mathcal B\) una base ortonormale di
\(\mathbb R^n\), \(\mathcal B'\)
un'altra base di \(\mathbb R^n\) e sia
\(P\) la matrice di passaggio da
\(\mathcal B\) a \(\mathcal B'\); allora
la base \(\mathcal B'\) è ortonormale se
e solo se \(P\) è una matrice
ortogonale. Spazi euclidei.
Sistemi di riferimento cartesiano nel
piano euclideo. Distanza tra due punti.
Versore normale ad una retta.
Costruzione di un sistema di riferimento
cartesiano associato ad una retta.
Angolo (convesso) tra due rette
incidenti. Dati un punto
\(P(x_0,\,y_0)\) e la retta \(r:\
ax+by+c=0\), la distanza di \(P\) da
\(r\) vale
\(d(P,r)=\displaystyle\frac{|ax_0+by_0+c|}{\sqrt{a^2+b^2}}\).
Distanza tra rette parallele nel piano.
Circonferenza nel piano. Ortottica e
isottica di un segmento. Spazio euclideo
tridimensionale. Sistema di riferimento
cartesiano. Distanza tra due punti. Dato
il piano \(ax+by+cz+d=0\), il vettore di
giacitura di \(\pi\), \(v_\pi=(a,b,c)\),
è ortogonale al piano \(\pi\). Data una
retta \(r\) di vettore direzionale
\(v_r\) ed un piano \(\pi\) di giacitura
\(v_\pi\), si ha che \(r\) è parallela a
\(\pi\) se e solo se \(v_r\) e \(v_\pi\)
sono ortogonali, \(r\) è ortogonale a
\(\pi\) se e solo se \(v_r\) e \(v_\pi\)
sono paralleli (proporzionali).
Esercizi
Foglio n.20: Piano euclideo
LEZIONE 43
Argomenti: Esercitazione: spazi
vettoriali euclidei, proiezioni
ortogonali, piano euclideo.
LEZIONE 44
Argomenti: Due piani sono
perpendicolari se e solo se lo sono le
loro giaciture. Distanza di un punto da
un piano: dati un punto
\(P(x_0,\,y_0,\,z_0)\) e il piano
\(\pi:\ ax+by+cz+d=0\), la distanza di
\(P\) da \(\pi\) vale
\(d(P,\pi)=\displaystyle\frac{|ax_0+by_0+cz_0+d|}{\sqrt{a^2+b^2+c^2}}\).
Distanza di un punto da una retta.
Distanza di una retta da un piano.
Distanza tra due piani. Distanza tra due
rette parallele o incidenti. Proiezione
ortogonale di un punto su un piano, di
un punto su una retta e di una retta su
un piano. Prodotto vettoriale in
\(\mathbb R^3\). Il prodotto vettoriale
è bilineare antisimmetrico. Il prodotto
vettoriale di due vettori è nullo se e
solo se i due vettori sono linearmente
dipendenti. Prodotto misto di tre
vettori. Il prodotto misto è lineare
rispetto ai suoi argomenti e cambia
segno per ogni scambio dei vettori che
si moltiplicano. Il prodotto vettoriale
di due vettori è ortogonale ad entrambi
i fattori. Dati due vettori \(v\) e
\(w\) di \(\mathbb R^3\), si ha che
\(\parallel v\wedge w\parallel^2
=\parallel v\parallel ^2\,\,\parallel
w\parallel^2-(v\cdot w)^2 \). Dati due
vettori linearmente indipendenti \(v\) e
\(w\), si ha che \(\left\{v,w,v\wedge
w\right\}\) è una base di
\(\mathbb{R}^3\). Siano dati due vettori
non nulli \(v\) e \(w\) in \(\mathbb
R^3\) e sia \(v=a+b\) con \(a\)
parallelo a \(w\) e \(b\) perpendicolare
a \(w\), allora \(\parallel v\wedge
w\parallel = \parallel b\parallel
\,\parallel w\parallel\). Il modulo del
prodotto vettoriale di due vettori
eguaglia l'area del parallelogramma
sotteso dai due vettori. Dati tre punti
nello spazio \(A,B,C\), l'area del
triangolo \(ABC\) è data da \(\mathcal
A= \frac12
\parallel\vec{AB}\wedge\vec{AC}\parallel\).
Il prodotto misto di tre vettori nello
spazio dà il volume del parallelepipedo
sotteso ai tre vettori.
Esercizi
Foglio n.21: Prodotto vettoriale
LEZIONE 45
Argomenti: Teorema della
perpendicolare comune: Date due rette
sghembe \(r\) ed \(s\), esiste ed è
unica la retta \(r'\) perpendicolare sia
ad \(r\) che ad \(s\) ed incidente sia
\(r\) che \(s\), inoltre la distanza tra
i due punti di incidenza dà la distanza
tra le due rette sghembe. Sfere nello
spazio. Circonferenze nello spazio.
Calcolo del centro e del raggio di una
circonferenza nello spazio. Sfera per
quattro punti non complanari nello
spazio. Circonferenza passante per tre
punti non allineati nello spazio.
Dimensione "generalizzata" di un oggetto
geometrico. Endomorfismi simmetrici di
\(\mathbb R^n\). Siano dati due
endomorfismi \(F\) e \(G\) di
\(\mathbb R^n\) tali che \(F(v)\cdot
w=v\cdot G(w)\), per ogni
\(v,w\in\mathbb R^n\), allora la matrice
canonica di \(F\) è la trasposta della
matrice canonica di \(G\). Un
endomorfismo di \(\mathbb R^n\) è
simmetrico se e solo se la sua matrice
rispetto alla base canonica (o qualsiasi
base ortonormale) è una matrice
simmetrica. L'operatore di proiezione
ortogonale su un sottospazio è un
endomorfismo simmetrico. Autovettori
associati ad autovalori distinti di un
endomorfismo simmetrico sono ortogonali.
Un endomorfismo simmetrico trasforma
vettori ortogonali ad un autovettore in
vettori ortogonali allo stesso
autovettore. Teorema spettrale:
motivazione.
Esercizi
Foglio n.22: Spazio euclideo
Esercizi
Foglio n.23: Sfere e circonferenze
nello spazio
LEZIONE 46
Argomenti: Tereoma
spettrale (per endomorfismi simmetrici):
Ogni endomorfismo simmetrico di
\(\mathbb R^n\) è diagonalizzabile
rispetto ad una base ortonormale di suoi
autovettori. Teorema spettrale (per
matrici simmetriche): Ogni matrice
simmetrica è sia simile che congruente
ad una matrice diagonale, ovvero per
ogni matrice simmetrica \(A\) esistono
una matrice diagonale \(D\) ed una
matrice ortogonale \(M\) tali che
\(D=M^{-1}AM=M^{T}AM\). Se una matrice
simmetrica di ordine \(n\) \(A\) ha
\(r\) autovalori non nulli di cui \(p\)
positivi ed \(r-p\) negativi,
allora la matrice \(A\) ha rango \(r\) e
segnatura \(\textrm{sgn}(A)=(p,r-p)\).
Teorema di Harriot-Descartes
(regola dei segni di Cartesio): Sia
\(f(x)\in\mathbb R[x]\) un polinomio a
coefficienti reali non costante e che
non ha radici nulle (col termine noto
diverso da 0); allora il numero di
radici reali positive di \(f(x)\) non
supera il numero delle variazioni di
segno dei coefficienti di \(f(x)\)
(ordinati secondo le potenze decrescenti
della \(x\)) ed il numero di
radici reali negative di \(f(x)\) non
supera il numero delle variazioni di
segno dei coefficienti di \(f(-x)\)
(ordinati secondo le potenze decrescenti
della \(x\)). Se un polinomio
\(f(x)\in\mathbb R[x]\) ha solo radici
reali (non nulle), il numero delle
radici positive di \(f(x)\) è uguale al
numero delle variazioni di segno ed il
numero delle radici negative di \(f(x)\)
è uguale al numero delle permanenze di
segno dei coefficienti di \(f(x)\). Una
matrice simmetrica di rango massimo ha
segnatura \((p,q)\) se e solo se nel suo
polinomio caratteristico ci sono \(p\)
variazioni di segno e \(q\) permanenze
di segno. Un endomorfismo \(F\) di
\(\mathbb r^n\) è detto (operatore)
unitario o ortogonale se conserva il
prodotto scalare dei vettori, ovvero se
per ogni \(v,w\in\mathbb R^n\) si ha che
\(F(v)\cdot F(w)=v\cdot w\). Sia
\(F:\mathbb R^n\to\mathbb R^n\) un
endomorfismo, allora \(F\) è simmetrico
se e solo se conserva la norma (cioè
\(\parallel F(v)\parallel=\parallel
v\parallel\), per ogni vettore \(v\)),
se e solo se \(F\) trasforma basi
ortonormali in basi ortonormali, se e
solo se la matrice associata ad \(F\)
rispetto ad una base ortonormale è una
matrice ortogonale. Gli operatori
ortogonali sono invertibili. Se
\(\lambda\) è un autovalore di un
operatore ortogonale, allora si ha
\(\lambda=\pm1\). Una trasformazione
(lineare) del piano affine è
un'applicazione \(f:\mathbb A^2\to
\mathbb A^2\) tale che per ogni punto
\(P(x,y)\) si abbia
\(f(x,y)=(ax+by+c,\,\,a'x+b'y+c')\);
inoltre ad una trasformazione lineare si
associa la matrice
\(A=\begin{pmatrix}a&b\\a'&b'\end{pmatrix}\)
ed il vettore \(v=(c,c')\). Una
trasformazione costante del tipo
\(f(x,y)=(x_0,\,y_0)\) fa implodere
tutto il piano nel punto \((x_0,y_0)\).
La trasformazione identica
\(f(x,y)=(x,y)\) lascia fissi tutti i
punti, ha matrice associata identica e
vettore associato nullo. Una traslazione
è di tipo \(f(x,y)=(x+c,\,\,y+c')\), ha
matrice associata identica e vettore
associato \((c,c')\).
Esercizi
Foglio n.24: Teorema spettrale
Esercizi
Foglio n.25: Regola dei segni di
Cartesio
LEZIONE 47
Argomenti: Esercitazione:
geoemtria dello spazio, teorema
spettrale.
LEZIONE 48
Argomenti: Proiezione sull'asse
\(x\): \(\Pi_x(x,y)=(x,0)\). Rotazione
attorno all'origine di un angolo
\(\vartheta\):
\(\rho_\vartheta(x,y)=(\cos\vartheta\,x-\sin\vartheta\,y;\
\sin\vartheta\,x+\cos\vartheta\,y)\). Dilatazioni.
Simmetria centrale rispetto ad un punto
\(C=(x_C,\,y_C)\):
\(\sigma_C(x,y)=(2x_C-x,\,\,2y_C-y)\).
La simmetria centrale rispetto a \(C\) è
una rotazione di \(180^\circ\) attorno
al punto \(C\). Simmetria rispetto
all'asse \(x\):
\(\sigma_x(x,y)=(x,\,-y)\).
Interpretazione geometrica di autovalori
ed autovettori di omomorfismi di
\(\mathbb R^2\). Un'affinità è una
trasformazione lineare del piano con
amtrice associata invertibile.
Un'isometria è un'affinità con matrice
associata ortogonale. Se \(f\) è
un'isometria, allora conserva le
distanze e le lunghezze, cioè
\(\parallel
\stackrel{\longrightarrow}{f(P)f(Q)}\parallel=\parallel\stackrel{\longrightarrow}{PQ}
\parallel\), per ogni coppia di punti
\(P\) e \(Q\) del piano. La composizione
di affinità è un'affinità. La
composizione di isometrie è
un'isometria. Teorema di Chasles
(cenni): le isometrie del piano sono
rotazioni e traslazioni, con
determinante uguale ad 1, simmetrie
assiali e glissosimmetrie, con
determinante uguale a -1. Equazioni del
cambiamento di riferimento cartesiano:
dati due sistemi di riferimento
cartesiani \(\left\{O,
{\bf{i}},{\bf{j}}\right\}\) e
\(\left\{O',
{\bf{i'}},{\bf{j'}}\right\}\), siano
\(O'=(x_{O'},y_{O'})\) le coordinate di
\(O'\) rispetto al primo sistema di
riferimento, e sia
\(M=\begin{pmatrix}m_{11}&m_{12}\\m_{21}&m_{22}\end{pmatrix}\)
la matrice (ortogonale) di passaggio
dalla base
\(\left\{{\bf{i}},{\bf{j}}\right\}\)
alla base
\(\left\{{\bf{i'}},{\bf{j'}}\right\}\),
preso un punto \(P\) che ha coordinate
\(P(x,y)\) nel primo sistema di
riferimento e \(P(x',y')\) nel secondo,
si ha che
\(\begin{cases}x=m_{11}x'+m_{12}y'+x_{O'}\\y=m_{21}x+m_{22}y'+y_{O'}
\end{cases}\) e
\(\begin{cases}x'=m_{11}(x-x_{O'})+m_{21}(y-y_{O'})\\y=m_{12}(x-x_{O'})+m_{22}(y-y_O')\end{cases}\).
Una conica è un insieme dei punti del
piano le cui coordinate \((x,y)\)
verificano un'equazione di secondo grado
di tipo: \(\mathscr C:
a_{11}x^2+a_{22}y^2+2a_{12}xy+2a_{01}x+2a_{02}y+a_{00}=0\),
con \(a_{ij}\in\mathbb R\) e
\(a_{11},a_{12},a_{22}\) non
contemporaneamente nulli. Matrice
(simmetrica) associata ad una conica:
data la conica \(\mathscr C\) di
equazione come sopra, la matrice
associata a \(\mathscr C\) è la matrice
simmetrica
\(A=\begin{pmatrix}a_{00}&a_{01}&a_{02}\\a_{10}&a_{11}&a_{12}\\a_{20}&a_{21}&a_{22}\end{pmatrix}\),
in cui \(a_{01}=a_{10},\ a_{02}=a_{20},\
a_{21}=a_{12}\). Se \(A\) è la matrice
associata alla conica \(\mathscr C\),
allora si ha che \(\mathscr C\) ha
equazione: \(\mathscr
C:(1,x,y)A\begin{pmatrix}1\\x\\y\end{pmatrix}=0\).
Rango di una conica. Coniche non
degeneri, coniche degeneri,
semplicemente degeneri e doppiamente
degeneri. Matrice e forma quadratica
associata ad una conica:
\(Q=\begin{pmatrix}a_{11}&a_{12}\\a_{21}&a_{22}\end{pmatrix}\)
e
\(Q(x,y)=a_{11}x^2+a_{22}y^2+2a_{12}xy\).
Tipo di una conica: coniche di tipo
ellittico, iperbolico e parabolico. Sia
\(f\) un'isometria del piano euclideo,
sia
\(f^{-1}(x,\,y)=M\begin{pmatrix}x\\y\end{pmatrix}+\begin{pmatrix}c_1\\c_2\end{pmatrix}\),
con
\(M=\begin{pmatrix}m_{11}&m_{12}\\m_{21}&m_{22}\end{pmatrix}\),
la trasformazione inversa di \(f\), sia
data la matrice
\(\bar{M}=\begin{pmatrix}1&0&0\\c_1&m_{11}&m_{12}\\c_2&m_{21}&m_{22}\end{pmatrix}\),
allora presa la conica \(\mathscr C\)
con matrice associata \(A\) e matrice
quadratica \(Q\) e dette \(A'\) la
matrice associata alla trasformata
\(f(\mathscr C)\) di \(\mathscr C\)
sotto l'azione di \(f\) e \(Q'\) la
matrice quadratica di \(f(\mathscr C)\),
si ha che \(A'=\bar{M}^TA\,\bar M\) e
\(Q'=M^TQ\,M\). Teorema di invarianza:
data una conica \(\mathscr C\) con
matrice associata \(A\) e matrice
quadratica \(Q\), se \(\mathscr C'\) è
la trasformata di \(\mathscr C\) sotto
l'azione di un'isometria e \(A'\) e
\(Q'\) sono le matrici associate ad
essa, si ha che \(\textrm{rank}
A=\textrm{rank} A'\), \(\textrm{det}
Q=\textrm{det} Q'\), \(\textrm{sgn}
Q=\textrm{sgn} Q'\). Il tipo e il rango
di una conica sono invarianti euclidei
(per effetto di isometrie).
Esercizi
Foglio n.26: Affinità e isometrie
LEZIONE 49
Argomenti: Le nove forme
canoniche delle coniche euclidee.
Classificazione delle forme canoniche
per rango, tipo e grafico (per
distinguere le ellissi e le parabole
semplicemente degeneri reali dalle
corrispettive con grafico vuoto).
Teorema di riduzione in forma canonica:
ogni conica euclidea è isometrica (o
congruente) ad una soltanto delle nove
forme canoniche, ovvero si può sempre
trovare un'isometria che trasforma la
conica data nella sua forma canonica ed
esiste un sistema di riferimento
cartesiano in cui la conica assume
l'equazione canonica. Il centro di
simmetria di una conica euclidea a
centro è dato dalle soluzioni del
sistema lineare \(\begin{cases}
a_{11}x+a_{12}y+a_{10}=0\\a_{12}x+a_{22}y+a_{20}=0
\end{cases}\). Gli assi di simmetria di
una conica a centro sono dati dalle
rette parallele agli autospazi di \(Q\)
passanti per il centro di simmetria. Gli
asintoti di un'iperbole sono le rette
passanti per il centro di simmetria e
parallele alle rette che si ottengono
fattorizzando la parte omogenea di
secondo grado \(Q(x,y)\) della conica.
Il vertice di una parabola può essere
calcolato come punto di tangenza tra la
parabola e la retta parallela
all'autospazio dell'autovalore non nullo
di \(Q\). L'asse di simmetria di una
parabola è la retta parallela
all'autospazio associato all'autovalore
nullo e passante per il vertice della
parabola. Decomposizione di coniche
degeneri che sono unione di rette.
Tecniche di fattorizzazione dei polinomi
di secondo grado in \(\mathbb R[x,y]\).
LEZIONE 50
Argomenti: Esercitazione: studio
di coniche generali e degeneri.
Fattorizzazione di polinomio di secondo
grado a coefficienti reali in due
indeterminate.
Esercizi
Foglio n.27: Coniche euclidee
LEZIONE 51
Argomenti: Le nove forme
canoniche affini delle coniche.
Classificazione affine delle coniche nel
piano affine. Teorema di riduzione in
forma canonica: ogni conica affine è
affinemente equivalente ad una soltanto
delle nove forme canoniche affini,
ovvero si può sempre trovare un'affinità
che trasforma la conica data nella sua
forma canonica. La classificazione
affine delle coniche è meno fine della
classificazione euclidea: le coniche
affini sono (essenzialmente) nove.
Quadriche nello spazio euclideo
(tridimensionale). Matrice associata e
matrice quadratica di una quadrica.
Rango di una quadrica. Forme canoniche
delle quadriche euclidee. Quadriche di
rango 4 e di rango 3. Ellissoide a punti
reali. Ellissoide immaginario.
Iperboloide iperbolico (a una falda).
Iperboloide ellittico (a due falde).
Paraboloide ellittico. Paraboloide
iperbolico (a sella). Cono (doppio o
quadrico) a punti reali e cono a punti
immaginari. Cilindri ellittici,
parabolici e iperbolici. Sezioni di
quadriche con piani paralleli ai piani
coordinati \(xy\), \(xz\) e \(yz\).
Quadriche rigate. Piani tangenti ad una
quadrica (cenni). Punti ellittici,
iperbolici, parabolici su una quadrica.
Il cono quadrico contiene le coniche a
punti reali (tranne la coppia di rette
parallele). Generazione meccanica di un
iperboloide a sella (per scorrimento del
vertice di una parabola lungo il profilo
di un'altra). Analisi del modello di un
cono, di un iperboloide iperbolico e di
un paraboloide iperbolico. Esempi di
riduzione in forma canonica.
Esercizi
Foglio n.28: Coniche affini
Esercizi
Foglio n.29: Quadriche
LEZIONE 52
Argomenti: Gruppi (finiti o
infiniti) di isometrie nel piano
(cenni). Gruppo diedrale del triangolo
equilatero. Le isometrie del piano nelle
arti figurative (arte islamica,
Caravaggio, Borromini). Trasformazioni
geometriche utilizzate nelle
composizioni musicali di J.S. Bach
(canone, ripetizione, trasposizione,
inversione, retrogradazione del tema
principale). Spazio quadridimensionale
di Minkowski
\(\mathbb M^4\): un evento è una
quaterna di numeri reali
\((x,\,y,\,z,\,t)\), dove \(x,y,z\) sono
le coordinate spaziali e \(t\) è la
coordinata temporale. Metrica indefinita
in \(\mathbb M^4\): la distanza tra due
eventi è data da
\(\sqrt{(x_P-x_Q)^2+(y_P-y_Q)^2+(z_P-z_Q)^2-c^2(t_P-t_Q)^2}\).
Meccanica newtoniana e meccanica
relativistica a confronto. La distanza
spaziale e la distanza temporale
tra due eventi non sono assoluti nello
spazio di Minkowski (dipendono dal
sistema di riferimento). Cono isotropo
(cono di luce) in \(\mathbb M^4\). Linea
di universo. Futuro, passato, presente,
altrove assoluto. Assioma della
relatività: la velocità della luce è la
massima possibile. Lo scandalo del dogma
mariano. Introduzione agli spazi
proiettivi: motivazione. Il piano
proiettivo reale \(\mathbb P^2({\mathbb
R})\) è l'insieme delle terne non nulle
di numeri reali definite a meno di un
fattore moltiplicativo non nullo.
Coordinate omogenee \(P[x_1,x_2,x_0]\)
di un punto \(P\in \mathbb P^2\). Una
retta proiettiva in \(\mathbb P^2\) è
l'insieme dei punti che verificano una
equazione lineare omogenea a
coefficienti reali nelle tre
indeterminate \(X_1,X_2,X_0\) del tipo
\(aX_1+b_2+cX_0=0\). La definizione di
retta è ben posta. Per due punti
distinti di \(\mathbb P^2\) passa una e
una sola retta proiettiva. Due rette
distinte in \(\mathbb P^2\) si
intersecano in un unico punto (in
\(\mathbb P^2\) non esistono rette
parallele).
LEZIONE 53
Argomenti: Esercitazione:
geometria dello spazio, coniche,
quadriche.
LEZIONE 54
Argomenti: Immersione naturale
(iniettiva) del piano affine nel piano
proiettivo: ogni punto \(P(x_P,y_P)\)
del piano affine si identifica con il
punto proiettivo \(\bar P[x_P,y_P,1]\).
A meno di identificazioni, il piano
proiettivo è unione del piano affine e
dei punti che giacciono sulla retta
\(X_0=0\), detta la retta impropria. I
punti con ultima coordinata non nulla
(quindi di tipo \([a,b,1]\)) sono detti
punti propri, i punti dela retta
impropria (di tipo \([\alpha,\beta,0]\))
sono detti impropri. Per definire luoghi
geometrici in \(\mathbb P^2\) si devono
usare polinomi omogenei nelle
indeterminate \(X_0,X_1,X_2\) affinché
l'appartenenza ad un luogo geometrico
non dipenda dalle coordinate scelte per
il punto. Data la retta affine \(r:\
ax+by+c=0\), la retta proiettiva \(\bar
r:\ aX_1+bX_2+cX_0=0\) è detta la
chiusura proiettiva della retta \(r\) è
può essere ottenuta omogenizzando
l'equazione di \(r\) ponendo
\(x=\frac{X_1}{X_0}\),
\(y=\frac{X_2}{X_0}\) e cancellando i
denominatori. Data una retta proiettiva
\(\bar r:\ aX_1+bX_2+cX_0=0\), la sua
parte affine \(r\) può essere ottenuta
ponendo \(X_0=1\) ed il suo punto
improprio è \(r_\infty[-b,a,0]\) che
rappresenta la direzione della retta
\(r\). Due rette affini parallele hanno
(chiusure proiettive che hanno) il punto
improprio in comune, quindi la stessa
direzione. Il "punto all'infinito"
\(r_\infty\) di una retta affine \(r\) è
il punto improprio della sua chiusura
proiettiva \(\bar r\). Due rette affini
parallele si incontrano all'infinito. Il
modello di \(\mathbb P^2\) come disco
con il bordo in cui il piano affine è la
parte interna del cerchio e la retta
impropria è il bordo del cerchio.
Proiezioni prospettiche (cenni)
nell'arte rinascimentale italiana. Una
conica proiettiva è l'insieme dei punti
di \(\mathbb P^2\) che annullano un
polinomio omogeneo di secondo grado del
tipo: \(\mathscr C:\
a_{11}X_1^2+a_{22}X_2^2+2a_{12}X_1X_2+2a_{01}X_0X_1+2a_{02}X_0X_2+a_{00}X_0^2=0\),
con \(a_{ij}\in\mathbb R\) e non tutti
nulli. Il polinomio che definisce una
conica proiettiva è una forma quadratica
nelle indeterminate \(X_0,X_1,X_2\) con
matrice (simmetrica) associata
\(A=\begin{pmatrix}a_{00}&a_{01}&a_{02}\\a_{10}&a_{11}&a_{12}\\a_{20}&a_{21}&a_{22}\end{pmatrix}\).
In termini di matrice associata
l'equazione di \(\mathscr C\) può essere
scritta come \(\mathscr C: \
(X_0,X_1,X_2)A\begin{pmatrix}X_0\\X_1\\X_2\end{pmatrix}=0\).
Rango di una conica proiettiva. Coniche
non degeneri
(\(\textrm{rk}\mathscr{C}=3\)), coniche
degeneri
(\(\textrm{rk}\mathscr{C}<3\)),
semplicemente degeneri
(\(\textrm{rk}\mathscr{C}=2\)),
doppiamente degeneri
(\(\textrm{rk}\mathscr{C}=1\)).
Esercizi
Foglio n.30: Piano proiettivo reale
LEZIONE 55
Argomenti: Cambiamenti di
coordinate proiettive. Data una matrice
invertibile \(M\) di ordine 3, M
definisce un cambiamento di coordinate
dalle "vecchie" \(X_0,X_1,X_2\) alle
"nuove" \(X_0',X_1',X_2'\) secondo le
formule di trasformazione
\(\begin{pmatrix}X_0\\X_1\\X_2\end{pmatrix}=M\begin{pmatrix}X_0'\\X_1'\\X_2'\end{pmatrix}\)
e dalle vecchie alle nuove secondo le
formule
\(\begin{pmatrix}X_0'\\X_1'\\X_2'\end{pmatrix}=M^{-1}\begin{pmatrix}X_0\\X_1\\X_2\end{pmatrix}\).
Coniche proiettive canoniche (conica
vuota e conica reale di rango 3, conica
ridotta a un punto, conica unione di due
rette incidenti e conica unione di due
rette coincidenti). Teorema di
classificazione delle coniche
proiettive: per ogni conica proiettiva è
possibile trovare un cambiamento di
ccordinate proiettive che la trasforma
in una delle 5 forme canoniche
proiettive. La classificazione
proiettiva delle coniche è meno fine
della classificazione affine (e di
quella proiettiva). Una conica
proiettiva di rango 3 ha una, due o
nessuna intersezione con la retta
impropria \(X_0=0\). Una conica di rango
3 è detta di tipo ellittico se non
interseca la retta impropria, di tipo
parabolico se interseca la retta
impropria in un solo punto, di tipo
iperbolico se interseca la retta
impropria in due punti distinti.
Configurazione delle coniche di rango 3
nel piano proiettivo a seconda del loro
tipo.
Chiusura proiettiva di una conica affine.
Configurazione delle chiusure proiettive delle coniche
affini di rango 3. Motivazione della nomenclatura dei tipi
delle coniche proiettive. Esempio di chiusura proiettiva
di un'ellissi affine (ottenuta omogenizzando l'equazione
della conica rispetto ad \(X_0\)) che è di tipo ellittico,
parabolico o iperbolico a seconda che la retta
all'infinito sia \(X_0=0\), \(X_1=0\) o
\(X_2=0\). Modello di \(\mathbb P^2\) come sfera nello
spazio con identificazione antipodale.
LEZIONE 56
Argomenti: Il modello sferico di \(\mathbb
P^2\) verifica le proprietà del piano proiettivo (passaggio
per due punti, intersezione di rette). Il piano affine come
immagine proiettata dal centro della sfera della superficie
di una sfera (con identificazione antipodale).
Configurazione delle coniche affini e delle loro chiusure
proiettive nel modello sferico di \(\mathbb P^2\). Geometrie
non-euclidee (cenni): geometria ellittica e geometria
iperbolica. L'avvento delle geoemetrie non-euclidee nell
XVIII secolo e lo "scontro ideologico" con la filosofia
kantiana. Esercitazione: coniche affini e coniche
proiettive.
Esercizi
Foglio n.31: Coniche proiettive
LEZIONE 57
Argomenti: L'anello dei polinomi \(\mathbb R[x,y]\).
Polinomi omogenei dell'anello \(\mathbb R[X_0,X_1,X_2]\).
Operazioni con i polinomi. Il prodotto di polinomi omogenei
è un polinomio omogeneo di grado la somma dei gradi dei
fattori. Curve algebriche piane affini e proiettive.
Motivazione. Grado di una curva algebrica (affine o
proiettiva). Legge di annullamento del prodotto tra
polinomi. Omogenizzazione rispetto ad \(X_0\) di un
polinomio di \(\mathbb R[x,y]\) (con la sostituzione
abituale \(x=\frac{X_1}{X_0}\),
\(y=\frac{X_2}{X_0}\)). Chiusura proiettiva di una curva
affine. Deomogenizzazione di un polinomio omogeneo di
\(\mathbb R[X_0,X_1,X_2]\) con la sostituzione \(X_0=1\).
Parte affine di una curva proiettiva. L'omogenzzazione delle
curve affini conserva il grado delle curve. La
deomogenizzazione delle curve proiettive conserva il grado a
patto che \(X_0\) non sia un fattore del polinomio che
definisce la curva proiettiva. La chiusura proiettiva di una
curva affine aggiunge alla curva i suoi punti all'infinito.
Derivate parziali. Gradiente di un polinomio di più
variabili. Le derivate parziali di un polinomio omogeneo di
grado \(n\) sono polinomi omogenei di grado \(n-1\). Un
punto \(P\) di una curva (affine o proiettiva) \(\mathscr
C\) si dice regolare se in \(P\) non si annulla il gradiente
di \(\mathscr C\) (cioè se le derivate parziali non sono
contemporaneamente nulle in \(P\)). Una curva si dice liscia
se i suoi punti sono tutti regolari. Le rette e le coniche
di rango 3 sono curve lisce. Retta tangente ad una curva
algebrica in un suo punto regolare. Le tangenti (diverse
dalla retta impropria \(X_0=0\)) nei punti regolari impropri
di una curva sono chiamate asintoti.
LEZIONE 58
Argomenti: Identità di Euler per
i polinomi omogenei. Retta tangente ad una curva in un punto
regolare. Molteplicità di intersezione di una retta e di una
curva in un punto e metodi di calcolo. Teorema della retta
tangente: data una curva affine \(\mathscr C:\
f(x,y)=0\) ed un suo punto regolare \(P(x_P,y_P)\), esiste
ed è unica la retta \(r\) che ha molteplicità di
intersezione con \(\mathscr C\) in \(P\) maggiore o uguale a
2; tale retta è detta la retta tangente in \(P\) a
\(\mathscr C\) ed ha equazione data da \(r:\ \frac{\partial
f}{\partial x}(P)(x-x_P)+\frac{\partial f}{\partial
y}(P)(y-y_P)=0\). Similmente, se è data una curva proiettiva
\(\mathscr C:\ F(X_1,X_2,X_0)=0\) ed un suo punto regolare
\(P\), esiste ed è unica la retta \(r\) che ha molteplicità
di intersezione con \(\mathscr C\) in \(P\) maggiore o
uguale a 2; tale retta è detta la retta tangente in \(P\) a
\(\mathscr C\) ed ha equazione data da \(r:\ \frac{\partial
F}{\partial X_1}(P)\,X_1+\frac{\partial F}{\partial
X_2}(P)\,X_2+\frac{\partial F}{\partial X_0}(P)\,X_0\). La
retta tangente alla chiusura proiettiva in un punto proprio
regolare coincide al finito con la retta tangente affine.
Configurazione della curva e della retta tangente in un
intorno del punto. I punti propri con molteplicità di
intersezione tra curva e retta tangente pari sono detti
punti di ondulazione, quelli con molteplicità di
intersezione dispari sono detti punti di inflessione.
Configurazione delle curva in un intorno dei suoi asintoti a
seconda della molteplicità di intersezione. Studio di curve
lisce con punti impropri regolari e della configurazione nei
pressi degli asintoti.
LEZIONE 59
Argomenti: Punti singolari: analisi qualitativa.
Punti isolati. Punti multipli in cui si intrecciano più rami
della curva. Complesso tangente. I punti isolati hanno
complesso tangente vuoto (non contiene alcuna retta). I nodi
hanno due tangenti distinte. Le cuspidi due tangenti
coincidenti. I punti tripli ordinari hanno tre tangenti
distinte. I punti singolari di una curva affine sono i punti
che annullano la curva ed il gradiente. I punti singolari di
una curva proiettiva sono i punti che annullano il
gradiente. Il complesso tangente ad una curva nell'origine è
dato dall'annullamento dei termini di grado minimo del
polinomio che definisce la curva. Punti singolari impropri
dell'asse \(x\) e dell'asse \(y\). Il complesso tangente del
punto improprio dell'asse \(x\) è dato dal'annullamento del
coefficiente della potenza massima di \(x\) che compare nel
polinomio. Il complesso tangente del punto improprio
dell'asse \(y\) è dato dal'annullamento del coefficiente
della potenza massima di \(y\) che compare nel polinomio.
Studio della configurazione della curva nell'origine e nei
punti impropri degli assi quando sono singolari. Simmetrie
fondamentali delle curve piane. Grafici di curve algebriche.
Versiera dell'Agnesi.
Lemniscata di Bernoulli.
Scifoide. Parabole divergenti di Newton. Curve ellittiche
(cenni).
Esercizi
Foglio n.32: Curve algebriche piane
LEZIONE 60
Argomenti: Esercitazione in preparazione alla prova
scritta.
LEZIONE 61
Argomenti: Esercitazione in preparazione alla prova
scritta.