GEOMETRIA
Facoltà
di Ingegneria Civile ed Industriale
Università degli studi di Roma La Sapienza
Corso di
Laurea Triennale in Ingegneria Energetica
(orario)
A.A. 2014/2015
AVVISI
- Il corso
è terminato. Gli studenti che intendono
sostenere l'esame di Geometria negli appelli
successivi a Settembre 2015 sono pregati di
aggiornarsi sulla pagina del
corso 2015/16.
Ricevimento
studenti
Valutazione del corso da parte degli studenti frequentanti
e non
frequentanti.
Orario
delle lezioni:
Martedì
17:30 - 19:00 Aula 15
Mercoledì 8:30 -
10:00 Aula 15
Giovedì 17:30 -
19:00 Aula 15
Venerdì 8:30 -
10:00 Aula 15
Esercitatore/tutor:
Dott. Valerio Dose
Prerequisiti:
Logica elementare. Teoria
elementare degli insiemi. Insiemi numerici.
Principio di induzione. Equazioni e
disequazioni. Goniometria e trigonometria.
Geometria Analitica di base. (In generale,
sono dati per scontati tutti argomenti del
Precorso di Matematica).
Programma
di massima del corso:
Algebra
lineare: Matrici. Determinanti. Rango.
Sistemi lineari. Spazi vettoriali.
Applicazioni lineari. Autovalori e
autovettori. Diagonalizzazione. Prodotto
scalare. Prodotto vettoriale. Operatori
simmetrici. Teorema spettrale.
Geometria: Geometria
piana affine ed euclidea. Geometria dello
spazio affine ed euclidea. Coniche. Curve
algebriche piane.
Programma
definitivo (degli
enunciati in corsivo non è stata data dimostrazione
a lezione)
Programma
A.A. 2013/2014
Modalità d'esame:
La prova finale d'esame consta di una prova scritta e
di una prova orale, ciascuna con valutazione indipendente
dall'altra. Entrambe le prove possono vertere sia su
esercizi di natura pratica (esercizi in senso classico)
che di natura teorica (dimostrazione di asserti).
La prova scritta è costituita da cinque esercizi: il primo
vale dieci punti, gli altri sei punti ciascuno (per un
totale di \(34\) punti). Si è ammessi alla prova orale
solo se la prova scritta è almeno sufficiente, \(\geqslant
{18}/{34}\). La prova orale può essere sostenuta in un
qualsiasi appello della stessa sessione di esame (sessione
invernale, sessione estiva, sessione autunnale). Un voto
per la prova scritta \(\geqslant {24}/{34}\) consente di
ripetere la prova orale nel successivo appello della
stessa sessione in cui è stata sostenuta la prova scritta.
Finita la sessione d'esame, le prove scritte vengono
distrutte. La votazione finale non potrà in ogni caso
essere inferiore a \(18\) né superiore a \(30\) e lode. Si
ricorda che il giudizio della commissione è insindacabile.
Prove
d'esame:
Esame del 4 Novembre
2014: Testo
(A.A Precedenti)
Esame del 21 Gennaio
2015: Prova
1
Prova
2
A.A.Precedenti
Esame del 20 Febbraio
2015:
Prova1
Prova2
Prova3
Prova4
Esame del 10 Aprile
2015:
Testo
(A.A. Precedenti)
Esame del 24 Giugno
2015:
Prova1
Prova2
A.A.
Precedenti
Esame del 14 Luglio
2015:
Prova1
Prova2
A.A.
Precedenti
Esame dell'11 Settembre
2015: Prova1
A.A.
Precedenti
Esame del 12 Novembre
2015: Prova1
Prova2
Diario delle lezioni:
LEZIONE
1
Argomenti:
Esercitazione: risoluzione elementare di
sistemi lineari. Metodo di Gauss-Jordan
(cenni).
LEZIONE 2
Argomenti: Presentazione del corso. L'insieme
\(\mathcal{M}_{m,n}(\mathbb{R})\) delle matrici di tipo
\(m\times n\) a coefficienti reali. Notazioni e
nomenclatura.Vettori riga e vettori colonna. Matrice
nulla. L'insieme \(\mathcal{M}_{n}(\mathbb{R})\) delle
matrici quadrate di ordine \(n\) a coefficienti reali.
Matrici diagonali. Matrice identica di ordine \(n\).
Trasposta di una matrice. Principio di identità tra
matrici. Somma di matrici dello stesso tipo. La struttura
\((\mathcal{M}_{m,n}(\mathbb{R}),+)\) è un gruppo:
l'addizione tra matrici è associativa e commutativa, la
matrice nulla è l'elemento neutro rispetto alla somma,
ogni matrice ha la sua matrice opposta. Definizione
astratta di gruppo. Esempi di gruppi additivi e
moltiplicativi.
LEZIONE 3
Argomenti: Moltiplicazione di uno scalare per
una matrice: proprietà fondamentali. Matrici simmetriche
ed antisimmetriche: proprietà. L'unica matrice sia
simmetrica che antisimmetrica è la matrice nulla. Teorema
di decomposizione unica in parte simmetrica ed
antisimmetrica: ogni matrice quadrata può essere scritta
in maniera unica come somma di una matrice simmetrica ed
una antisimmetrica. Prodotto di un vettore riga per un
vettore colonna. Prodotto riga per colonna di matrici. In
generale il prodotto riga per colonna non è commutativo.
LEZIONE 4
Argomenti: Proprietà del prodotto riga per
colonna. Prese due matrici \(A\in M_{m,n}(\mathbb{R})\) e
\(B\in M_{n,p}(\mathbb{R})\), allora \((AB)^T=B^TA^T\). La
matrice identica è l'elemento neutro del prodotto. I
prodotti notevoli non valgono in generale per le matrici a
causa della non commutatività del prodotto riga per
colonna. La legge di annullamento del prodotto non vale
per le matrici. Matrici quadrate invertibili. Il gruppo
(non abeliano) lineare reale di ordine \(n\) delle matrici
invertibili, \(GL_n(\mathbb{R})\). L'insieme
\(\mathbb{R}^n\) delle \(n\)-uple ordinate di numeri
reali. Combinazioni lineari di vettori riga e vettori
colonna. Vettori linearmente dipendenti e linearmente
indipendenti.
ESERCIZI 1
LEZIONE 5
Argomenti: Esercitazione: calcolo matriciale.
LEZIONE 6
Argomenti: Combinazioni lineari di vettori riga e
di vettori colonna. Dipendenza lineare e indipendenza
lineare in \(\mathbb{R}^n\). Un vettore riga (o colonna) è
linearmente dipendente se e solo se è nullo. Due vettori riga (o colonna)
sono linearmente dipendenti se e solo se uno dei due è
multiplo dell'altro. Se in un insieme di vettori riga (o
colonna) uno di essi è il vettore nullo, allora i vettori
sono linearmente dipendenti. Se in un insieme di vettori
riga (o colonna) due di essi sono uguali, allora i vettori
sono linearmente dipendenti. Dei vettori (riga o colonna)
sono
linearmente dipendenti se e solo se uno di essi può essere
scritto come combinazione lineare degli altri.
Determinanti di matrici quadrati di ordine \(1\) e \(2\).
Calcolo di determinanti di ordine \(3\) con la regola di Sarrus.
Sottomatrici complementari. Complementi algebrici.
LEZIONE 7
Argomenti: Determinanti. Sviluppo del determinante
rispetto alla prima riga. Teorema di Laplace:
il determinante di una matrice può essere calcolato
sviluppandolo rispetto ad una qualsiasi riga o una
qualsiasi colonna. Proprietà dei determinanti:
\(\textrm{det}(0_n)=0\), \(\textrm{det}(I_n)=1\) e
\(\textrm{det}(A^T)=\textrm{det}(A)\). Se una matrice
ha una riga (o una colonna) nulla, il suo determinante è
zero. Il determinante di una matrice diagonale è il
prodotto degli elementi che sono sulla diagonale. Se in
una matrice si moltiplica una riga (o una colonna) per uno
scalare, il determinante della matrice resta moltiplicato
per lo stesso scalare. Il determinante è lineare per righe
(o per colonne). Il determinante non si distribuisce
rispetto alla somma di matrici. Scambiando due righe (o
due colonne) in una matrice, il determinante cambia segno.
Se una matrice ha due righe uguali (o due colonne uguali),
il suo determinante è nullo. Se una matrice ha due righe
(o due colonne) proporzionali, il suo determinante è
nullo. Sommando ad una riga (o una colonna) di una matrice
una combinazione lineare delle altre, il determinante non
cambia. Se in una matrice le righe (o le colonne) sono
linearmente dipendenti, il determinante è nullo.
LEZIONE 8
Argomenti: Teorema di Binet:
prese \(A\) e \(B\) due matrici quadrate dello stesso
ordine, allora \(\textrm{det}(AB)=\textrm{det}A \
\textrm{det}B\). Matrici invertibili. Se \(A\) e \(B\)
sono due matrici quadrate invertibili dello stesso ordine
allora \((AB)^{-1}=(B)^{-1}(A)^{-1}\). Teorema della
matrice inversa: una matrice è invertibile se e solo se ha
determinante diverso da zero. In particolare, l'inversa di
una matrice è data da
\(A^{-1}=\frac{1}{\textrm{det}A}(A^*)^T\), dove \(A^*\) è
la matrice aggiunta di \(A\) (la matrice che ha per
entrate, ordinatamente, i complementi algebrici degli
elementi della matrice \(A\)). Rango di una matrice. Una
matrice ha rango zero se e solo se è la matrice nulla.
Sottomatrici e minori di una matrice. Il rango di una
matrice \(A\) vale \(r\) se e solo se la matrice contiene
un minore non nullo di ordine \(r\) e tutti i monori di
\(A\) di ordine \(r+1\) sono nulli. Minori orlati. Teorema
di Kronecker:
il rango di una matrice vale \(r\) se e solo se la
matrice contiene un minore non nullo di ordine \(r\) e
tutti i suoi orlati di ordine \(r+1\) sono nulli. Una
matrice quadrata è invertibile se e solo se ha rango
massimo.
ESERCIZI 2
LEZIONE 9
Argomenti: Esercitazione: calcolo di determinanti e
rango di matrici.
LEZIONE 10
Argomenti: Equazioni lineari in una o più
incognite. Equazioni lineari determinate, indeterminate e
impossibili. Soluzione di un'equazione lineare. Sistemi
lineari di tipo \(m\times n\) a coefficienti reali (con
\(m\) equazioni ed \(n\) incognite). Soluzione di un
sistema lineare. Sistemi determinati, indeterminati,
impossibili. Scrittura compatta di un sistema lineare: un
sistema lineare si scrive nella forma
\(A\mathbf{X}=\mathbf{b}\), dove \(A\in
M_{m,n}(\mathbb{R})\) è la matrice dei coefficienti,
\(\mathbf{b}\in \mathbb{R}^m\) è la colonna dei termini
noti e \(\mathbf{X}=(x_1,x_2,\dots,x_n)^T\) la colonna
delle indeterminate. Sistemi omogenei. Un sistema omogeneo
non è mai impossibile, ammette sempre la soluzione banale;
inoltre, se ammette una soluzione non banale, ne ammette
infinite. Le soluzioni di un sistema non omogeneo sono
date dalla somma di una (data) soluzione particolare e di
una qualsiasi soluzione del sistema omogeneo associato. Un
sistema lineare ammette una, nessuna o infinite soluzioni.
Sistemi lineari quadrati di ordine \(n\). Sistemi lineari
crameriani. Teorema di Cramer:
un sistema lineare quadrato con matrice dei coefficienti
\(A\) è determinato se e solo se \(\textrm{det}A\neq0\).
Calcolo della matrice inversa col metodo di Cramer.
Risoluzione di un sistema crameriano col metodo della
matrice inversa.
LEZIONE 11
Argomenti: Regola di Cramer per la risoluzione di
un sistema crameriano. Un sistema lineare omogeneo
quadrato con matrice dei coefficienti \(A\) è
indeterminato se e solo se \(\textrm{det}A=0\). Una
matrice quadrata ha rango massimo se e solo se le colonne
(o le righe) di \(A\) sono linearmente indipendenti. Una
matrice \(A\in M_{m,n}(\mathbb{R})\) ha rango \(r\)
se e solo se in \(A\) esistono \(r\) righe (o colonne)
linearmente indipendenti e se \(r+1\) righe (o colonne)
sono linearmente dipendenti. In una matrice \(A\in
M_{m,n}(\mathbb{R})\) il rango indica il massimo
numero di righe (o colonne) linearmente indipendenti.
Sistemi compatibili ed incompatibili. Teorema di
Kronecker-Rouché-Capelli:
un sistema lineare \(A\mathbf{X}=\mathbf{b}\) è
compatibile se e solo se il rango della matrice incompleta
del sistema \(A\) e il rango della matrice completa del
sistema \((A|\mathbf{b})\) sono uguali. In tal caso, detto
il rango \(r\), il sistema è determinato se \(n=r\), è
invece indeterminato con \(\infty^{n-r}\) soluzioni, se
\(r<n\).
LEZIONE 12
Argomenti: Esercitazione: risoluzione di sistemi
lineari applicando i teoremi di Cramer e Rouché-Capelli.
Un insieme di vettori di \(\mathbb{R}^n\) contiene al più
\(n\) vettori linearmente indipendenti. Struttura di
spazio vettoriale sull'insieme delle matrici a
coefficienti reali. L'insieme \(\mathcal{V}_O^2\) dei
vettori del piano applicati nel punto \(O\). Somma e
prodotto con scalare di vettori applicati in un punto.
Struttura di spazio vettoriale sull'insieme dei vettori
applicati in un punto.
ESERCIZI 3
LEZIONE 13
Argomenti: Esercitazione: calcolo della matrice
inversa col metodo di Cramer; discussione e risoluzione di
sistemi lineari parametrici. Spazi vettoriali reali.
Esempi di spazi vettoriali: \( M_{m,n}(\mathbb{R})\),
\(\mathbb{R}^n\), \(\mathcal{V}_O^2\) e l'insieme
\(\mathbb{R}[x]\) dei polinomi a coefficienti reali
nell'indeterminata \(x\). In uno spazio vettoriale \(V\)
il vettore nullo \(\mathbf{0}_V\) è unico, il simmetrico
di un vettore \(v\in V\) è unico, lo si indica con \(-v\)
ed è detto l'opposto di \(v\). In particolare si ha che
\((-1)v=-v\).
LEZIONE 14
Argomenti: Legge di annullamento del prodotto
negli spazi vettoriali. Combinazioni lineari. Vettori
linearmente dipendenti e linearmente indipendenti. Un
vettore è linearmente dipendente se e solo se è nullo. Due
vettori sono linearmente dipendenti se e solo se sono
proporzionali. Dei vettori sono linearmente dipendenti se
e solo se uno di essi è combinazione lineare dei
rimanenti. Se in un insieme di vettori alcuni di essi sono
linearmente dipendenti, allora tutti sono linearmente
dipendenti. Sottospazi vettoriali. Dato lo spazio
vettoriale \(V\), gli insiemi \(\{\mathbf{0}_V\}\) e \(V\)
sono sottospazi vettoriali di \(V\). Un sottospazio
vettoriale contiene necessariamente il vettore nullo.
Esempi di sottospazi vettoriali: matrici quadrate
simmetriche \(Sym_n(\mathbb{R})\), antisimmetriche
\(ASym_n(\mathbb{R})\) e diagonali \(Diag_n(\mathbb{R})\).
L'insieme \(\mathbb{R}_{\leqslant n}[x]\) dei polinomi di
grado al più \(n\) con il polinomio nullo è un sottospazio
vettoriale di \(\mathbb{R}[x]\). L'insieme delle soluzioni
di un sistema lineare di tipo \(m\times n\) è un
sottospazio vettoriale di \(\mathbb{R}^n\) se e solo se il
sistema è omogeneo.
LEZIONE 15
Argomenti: Sia \(V\) uno spazio vettoriale e siano
\(v_1,\ v_2,\,\dots, v_n\) vettori di \(V\), allora il
sottoinsieme delle combinazioni lineari dei \(v_i\) è un
sottospazio vettoriale di \(V\); esso è chiamato il
sottospazio generato dai \(v_i\) ed è indicato con
\(\mathcal{L}(v_1,\ v_2,\,\dots, v_n)\). Retta vettoriale
e piano vettoriale. Spazi vettoriali finitamente generati.
Lo spazio \(\mathbb{R}[x]\) non è finitamente generato.
Gli spazi \(\mathbb{R}^n\) e \(\mathbb{R}[x]\) sono
finitamente generati. Dato \(V\) uno spazio vettoriale e
\(v_1, v_2,\,\dots, v_n\) vettori di \(V\), preso
\(w\in\mathcal{L}(v_1, v_2,\,\dots, v_n)\), allora si ha
\(\mathcal{L}(v_1, v_2,\,\dots, v_n, w)=\mathcal{L}(v_1,
v_2,\,\dots, v_n)\). Similmente, se \(w_1,w_2, \dots,
w_m\in\mathcal{L}(v_1, v_2,\,\dots, v_n)\), allora
\(\mathcal{L}(v_1, \dots, v_n, w_1, w_2, \dots,
w_m)=\mathcal{L}(v_1,\dots, v_n)\). Dati i vettori \(v_1,
v_2,\,\dots, v_n\) linearmente indipendenti di \(V\),
preso \(w\not\in\mathcal{L}(v_1, v_2,\,\dots, v_n)\),
allora i vettori \(v_1, v_2,\,\dots, v_n, w\) sono
linearmente indipendenti. Una base di uno spazio
vettoriale è un sistema di generatori linearmente
indipendenti. I vettori \(v_1, v_2,\,\dots, v_n\) sono una
base di \(V\) se e solo se ogni vettore di \(V\) si scrive
in maniera unica come combinazione lineare di \(v_1,
v_2,\,\dots, v_n\). Coordinate di un vettore rispetto ad
una base. Operazioni tra vettori in termini delle loro
componenti rispetto ad una base. Metodo degli scarti
successivi: ogni spazio vettoriale non banale finitamente
generato ha almeno una base.
LEZIONE 16
Argomenti: Basi canoniche di
\(\mathbb{R}^n\), \(\mathbb{R}_{\leqslant n}[x]\) e
\(M_{m,n}(\mathbb{R})\). Lemma di Steinitz:
se \(\{v_1, v_2,\dots, v_n\}\) è una base di \(V\) e
\(w_1, w_2, \dots, w_m\) sono \(m>n\) vettori di \(V\)
allora i \(w_i\) sono linearmente dipendenti. Lemma di
scambio: se in una base si sostituisce un vettore con la
somma di questo vettore più una combinazione lineare dei
vettori rimanenti, si ottiene una nuova base. Tutte le
basi di uno spazio vettoriale finitamente generato hanno
la stessa cardinalità che è detta la dimensione di \(V\) e
si indica \(\dim V\). La dimensione di \(V\) indica il
numero massimo di vettori linearmente indipendenti che si
possono trovare in \(V\). La dimensione di \(V\) indica il
numero minimo di generatori di \(V\). Teorema del
completamento della base: Sia \(\{v_1, v_2,\dots, v_n\}\)
una base di \(V\) e siano \(w_1, w_2, \dots, w_m\), con
\(m<n\), vettori linearmente indipendenti di
\(V\); allora è possibile scegliere \(n-m\) vettori
\(v'_1, v'_2, \dots, v'_{n-m}\) tra i \(v_i\) tali
che \(\{w_1, w_2,\dots, w_m, v'_1, \dots,
v'_{n-m}\}\) sia una base di \(V\). Se \(V\) è uno spazio
vettoriale di dimensione \(n\), allora \(\{v_1, v_2,\dots,
v_n\}\) è una base di \(V\) se e solo se \(v_1, v_2,\dots,
v_n\) sono linearmente indipendenti, se e solo se \(v_1,
v_2,\dots, v_n\) sono generatori di \(V\).
ESERCIZI 4
LEZIONE 17
Argomenti: Esercitazione: spazi e sottospazi
vettoriali.
LEZIONE 18
Argomenti: Siano \(w_1,w_2,\dots,w_m\) vettori di
uno spazio vettoriale \( V\) di dimensione \(n\) e sia
\(\mathcal B\) una base di \(V\). Sia \(A\in
M_{m,n}(\mathbb R)\) la matrice che ha per righe le
coordinate dei \(w_i\) rispetto a \(\mathcal B\). Allora
\(\textrm{rk} A=r\) indica il massimo numero di vettori
linearmente indipendenti tra i \(w_i\) ed \(r\) vettori
linearmente indipendenti sono quelli corrispondenti alle
righe di un qualsiasi minore non nullo di \(A\) di ordine
\(r\). Inoltre, i \(w_i\) sono linearmente indipendenti se
e solo se \(\textrm{rk} A=m\). Siano \(\mathcal B\) e \(\mathcal B'\)
basi di uno spazio vettoriale \(V\) di dimensione finita;
la matrice di passaggio da \(\mathcal B\) a \(\mathcal
B'\) è la matrice che si ottiene scrivendo in
colonna ordinatamente le coordinate dei vettori di
\(\mathcal B'\) in funzione di quelli di
\(\mathcal B\). Teorema del cambiamento di
coordinate nel passaggio da una base ad un'altra: siano
\(P\) la matrice di passaggio dalla base \(\mathcal B\)
alla base \(\mathcal B'\), \(P'\) la matrice di passaggio
dalla base \(\mathcal B'\) alla base \(\mathcal B\), \(X\)
la colonna delle coordinate di un vettore \(v\in V\)
rispetto alla base \(\mathcal B\) e \(X'\) la colonna
delle coordinate di \(v\) rispetto alla base \(\mathcal
B'\), allora si ha che \(P'=P^{-1}\), \(X'=P^{-1}X\) e
infine \(X=PX'\).
LEZIONE 19
Argomenti: Se \(V\) è uno spazio vettoriale di
dimensione finita e \(W\) è un sottospazio di \(V\) allora
\(\textrm{dim}W\leqslant\textrm{dim}V\). Inoltre
\(\textrm{dim}W=\textrm{dim}V\) se e solo se \(W=V\).
Equazioni cartesiane e parametriche di un sottospazio
vettoriale. Il numero di parametri necessari per dare le
equazioni parametriche di \(W\) è uguale alla dimensione
di \(W\). Se \(n=\textrm{dim}V\), il numero di equazioni
cartesiane per descrivere \(W\) è detto codimensione di
\(W\) e \(\textrm{codim}W=n-\textrm{dim}W\). In
particolare, per ogni sottospazio vettoriale \(W\) si ha
\(n=\textrm{dim}W+\textrm{codim}W\). L'intersezione di due
sottospazi vettoriali è un sottospazio vettoriale. In
generale, l'unione di due sottospazi vettoriali non è un
sottospazio vettoriale. La somma di due sottospazi
vettoriali è un sottospazio vettoriale ed è il più piccolo
contenente l'unione dei due sottospazi. Teorema di Grassmann:
Se \(U\) e \(W\) sono sottospazi vettoriali di uno spazio
di dimensione finita, allora vale la formula di Grassmann
\(\textrm{dim}(U+W)+\textrm{dim}(U\cap
W)=\textrm{dim}U+\textrm{dim}W\).
LEZIONE 20
Argomenti: La somma di due sottospazi vettoriali è
il più piccolo sottospazio vettoriale contenente l'unione
dei due sottospazi. Somma diretta di due sottospazi.
Formula di Grassmann per la somma diretta:
\(\textrm{dim}(U\oplus W)=\textrm{dim}U+\textrm{dim}W\).
Sottospazi supplementari. In uno spazio vettoriale
finitamente generato ogni sottospazio ammette un
supplemento (che non è unico in generale). Teorema della
somma diretta: dati \(T\), \(U\) e \(W\) sottospazi
vettoriali, si ha che \(T=U\oplus W\) se e solo se ogni
vettore di \(T\) si scrive in maniera unica come somma di
un vettore di \(U\) e di un vettore di \(W\). Siano \(T\),
\(U\) e \(W\) sottospazi vettoriali, siano \(\mathcal
{B}_U=\{u_1,\dots, u_m\}\) una base di \(U\) e \(\mathcal
{B}_W=\{w_1,\dots, w_l\}\) una base di \(W\), allora
\(T=U\oplus W\) se e solo se \(\{u_1,\dots,
u_m,w_1,\dots,w_l\}\) è una base di \(T\). Somma e somma
diretta di un numero finito di sottospazi. Esercitazione:
base, dimensione, equazioni parametriche e cartesiane di
un sottospazio vettoriale.
ESERCIZI 5
LEZIONE 21
Argomenti: Esercitazione: Somma e
intersezione di sottospazi vettoriali.
LEZIONE 22
Argomenti: Geometria nel piano affine \(\mathbb
A^2(\mathbb R)\). Vettori applicati nel piano. Frecce
orientate. Un vettore applicato è individuato da un punto
di applicazione, una direzione, un verso ed un modulo.
Vettore nullo. Vettori equipollenti. Quinto postulato di
Euclide. Prima proprietà fondamentale degli spazi affini:
dato un vettore \(\stackrel{\longrightarrow}{AB}\) ed un
punto \(C\) nel piano, esiste ed è unico il punto \(D\)
tale che \(\stackrel{\longrightarrow}{AB}\) e
\(\stackrel{\longrightarrow}{CD}\) siano equipollenti. Lo
spazio vettoriale \(\mathcal{V}^2_O\) dei vettori
applicati in uno stesso punto \(O\) del piano. Operazioni
in \(\mathcal{V}^2_O\): somma di due vettori (con la
regola del parallelogramma) e moltiplicazione con scalare.
Un vettore \(\stackrel{\longrightarrow}{OA}\) è
linearmente dipendente se e solo se \(A=O\). Due vettori
applicati in \(O\) sono dipendenti se e solo se sono
paralleli. Lo spazio vettoriale \(\mathcal{V}^2_O\) ha
dimensione due e le sue basi sono costituite da coppie di
vettori non paralleli applicati in \(O\). Sistemi di
riferimento affine nel piano. Coordinate affini di punti e
vettori nel piano. Operazioni tra vettori in termini di
coordinate. Seconda proprietà fondamentale degli spazi
affini: presi tre punti \(O,P,Q\) nel piano si ha
\(\stackrel{\longrightarrow}{OP}+\stackrel{\longrightarrow}{PQ}=\stackrel{\longrightarrow}{OQ}\).
Presi due punti del piano \(A\) e \(B\), le coordinate del
vettore \(\stackrel{\longrightarrow}{AB}\) sono date dalla
differenza delle coordinate del punto finale \(B\) meno
quelle del punto di applicazione \(A\). Una retta nel
piano è automaticamente individuata da un suo punto e da
un vettore ad essa parallelo. Vettore direzionale e
parametri direttori di una retta. Equazione vettoriale di
una retta: data una retta \(r\), un punto \(P_0\in r\) ed
un vettore direzionale \(\vec{v}\) di \(r\), allora un
punto \(P\) del piano appartiene ad \(r\) se e solo se
\(\stackrel{\longrightarrow}{OP}=\stackrel{\longrightarrow}{OP_0}+t\,\vec{v}\),
per qualche \(t\in \mathbb R\). Equazioni parametriche di
una retta: data una retta \(r\) un punto
\(P_0(x_0,\,y_0)\in r\) ed un vettore direzionale
\(\vec{v}(l,\,m)\) di \(r\), allora equazioni parametriche
di \(r\) sono date da
\(\begin{cases}x=x_0+l\,t\\y=y_0+m\,t
\end{cases}\). Equazione cartesiana di una retta: una
retta nel piano è rappresentata da un'equazione del tipo
\(ax+by+c=0\), con \(a\) e \(b\) non contemporaneamente
nulli, e viceversa, ogni equazione di questo tipo ha per
grafico nel piano una retta.
LEZIONE 23
Argomenti: Dati \(P_1(x_1,y_1)\) e \(P_2(x_2,y_2)\)
due punti distinti del piano, la retta che li congiunge ha
equazioni parametriche date da
\(\begin{cases}x=x_1+(x_2-x_1)\,t\\y=y_1+(y_2-y_1)\,t\end{cases}\)
ed equazione cartesiana data da
\(\begin{vmatrix}x-x_1&y-y_1\\x_2-x_1&y_2-y_1\end{vmatrix}=0\).
Condizione di allineamento di tre punti. Rette parallele,
rette coincidenti, rette parallele e distinte, rette
incidenti. Posizione reciproca di due rette nel piano.
Fasci di rette nel piano: fasci propri (stellati) e fasci
impropri (rigati). Il fascio di tutte le rette parallele
al vettore \(\vec{v}=(l,m)\) ha equazione
\(\mathscr{F}_{\vec{v}}:\ mx-ly+k=0\), con \(k\in\mathbb
R\). Il fascio di tutte le rette passanti per il punto
\(P_0(x_0,y_0)\) ha equazione \(\mathscr{F}_{P_0}:\
\lambda(x-x_0)+\mu(y-y_0)=0\), con \(\lambda,\mu\in\mathbb
R\). Il piano contiene \(\infty^2\) punti ed \(\infty^2\)
rette. Le rette parallele ad un vettore dato sono
\(\infty^1\) e le rette passanti per un punto fissato del
piano sono \(\infty^1\). Esercitazione: rette e punti nel
piano affine.
ESERCIZI 6
LEZIONE 24
Argomenti: Vettori geometrici nello spazio.
L'insieme \(\mathcal V_O^3\) dei vettori dello spazio
applicati nel punto \(O\) è uno spazio vettoriale.
Richiami sulle proprietà elementari dello spazio fisico
tridimensionale. Punti allineati e punti complanari.
Vettori allineati e vettori complanari. Tre vettori di
\(\mathcal V_O^3\) sono linearmente dipendenti se e solo
se sono complanari. Lo spazio \(\mathcal V_O^3\) ha
dimensione tre. Lo spazio affine tridimensionale \(\mathbb
A^3(\mathbb R)\). Sistema di riferimento affine e
coordinate affini nello spazio. Coordinate di vettori
liberi ed applicati. Una retta parallela al vettore \(\vec
v=(l,m,n)\) e passante per il punto \(P_0=(x_0,y_0,z_0)\)
ha equazioni parametriche
\(\begin{cases}x=x_0+l\,t\\y=y_0+m\,t\\z=z_0+n\,t
\end{cases}\). Due rette sono parallele se e solo se hanno
vettori direzionali proporzionali. Dati
\(P_1(x_1,y_1,z_1)\) e \(P_2(x_2,y_2,z_2)\) due punti
distinti nello spazio, la retta che li congiunge ha
equazioni parametriche
\(\begin{cases}x=x_1+(x_2-x_1)\,t\\y=y_1+(y_2-y_1)\,t\\z=z_1+(z_2-z_1)\,t\end{cases}\).
Condizione di allineamento di tre punti.
LEZIONE 25
Argomenti: Condizioni operative per l'allineamento
di tre punti e per la complanarità di quattro punti.
Equazione vettoriale di un piano. Siano dati
\(P_1(x_1,y_1,z_1)\), \(P_2(x_2,y_2,z_2)\) e
\(P_3(x_3,y_3,z_3)\) tre punti non allineati dello spazio;
il piano che li contiene ha equazioni parametriche date da
\(\begin{cases}x=x_1+(x_2-x_1)\,t+(x_3-x_1)\,t'\\y=y_1+(y_2-y_1)\,t+(y_3-y_1)\,t'\\z=z_1+(z_2-z_1)\,t+(z_3-z_1)\,t'\end{cases}\)
ed equazione cartesiana data da
\(\begin{vmatrix}x-x_1&y-y_1&z-z_1\\x_2-x_1&y_2-y_1&z_2-z_1\\
x_3-x_1&y_3-y_1&z_3-z_1 \end{vmatrix}=0\). Il
piano parallelo ai vettori \(\vec v=(l,m,n)\) e \(\vec
w=(l',m',n')\) e passante per il punto
\(P_0=(x_0,y_0,z_0)\) ha equazioni parametriche
\(\begin{cases}x=x_0+l\,t+l\,t'\\y=y_0+m\,t+m\,t'\\z=z_0+n\,t+n\,t'\end{cases}\).
Tutti e soli i piani dello spazio sono rappresentati da
un'equazione del tipo \(ax+by+cz+d=0\), con \(a,b,c\) non
contemporaneamente nulli. Rappresentazione grafica di
piani. Piani paralleli, piani coincidenti, piani paralleli
e distinti, piani incidenti. Due piani se si intersecano,
hanno almeno una retta in comune.
LEZIONE 26
Argomenti: Parametri di giacitura di un piano.
Piani paralleli hanno, a meno di un fattore moltiplicativo
non nullo, gli stessi parametri di giacitura. Equazioni
cartesiane di una retta. Parametri direttori di una retta
in termini dei minori di ordine due della matrice
incompleta del sistema che la definisce. Posizione
reciproca di un piano e di una retta nello spazio:
caratterizzazione. Un piano di giacitura \((a,b,c)\) ed
una retta di parametri direttori \((l,m,n)\) sono
paralleli se e solo se \(al+bm+cn=0\).
LEZIONE 27
Argomenti: Rette sghembe. Posizione reciproca di
due rette nello spazio: classificazione. Esercitazione:
geometria nello spazio affine. Applicazioni tra insiemi.
Applicazione costante. Applicazioni iniettive, suriettive
e biettive tra insiemi.
ESERCIZI 7
LEZIONE 28
Argomenti: Applicazioni lineari tra spazi
vettoriali. Un'applicazione lineare \(F:\ V\rightarrow W\)
è tale che \(F(\mathbf{0}_V)=\mathbf{0}_W\) e
\(F(-v)=-F(v)\), per ogni \(v\in V\). Due applicazioni
lineari sono uguali se e solo se assumono gli stessi
valori sui vettori di una base dello spazio di partenza.
Matrice associata ad un'applicazione lineare rispetto ad
una base dello spazio di partenza e ad una base dello
spazio di arrivo. Insieme immagine di un'applicazione
lineare. Se \(F:\ V\rightarrow W\) è un'applicazione
lineare, allora \(\textrm{Im}(F)\) è un sottospazio
vettoriale di \(W\) generato dalle immagini dei vettori di
una base di \(V\) e se \(A\) è una matrice associata ad
\(F\), allora \(\textrm{dim Im}(F)=\textrm{rk}A\).
LEZIONE 29
Argomenti: Esercitazione: geometria affine dello
spazio. Applicazioni lineari: matrici associate e immagine
di un'applicazione lineare.
LEZIONE 30
Argomenti: Equazioni di un'applicazione lineare.
Formula del cambiamento della matrice associata ad
un'applicazione lineare per cambiamenti di base. Teorema
fondamentale di esistenza ed unicità dell'applicazione
lineare definita sui valori di una base. Immagine diretta
di un sottospazio. Controimmagine di un vettore. Nucleo di
un'applicazione lineare. Data un'applicazione lineare
\(F:\ V\rightarrow W\), si ha che \(\textrm{Ker}(F)\) è un
sottospazio vettoriale di \(V\), inoltre se \(A\) è una
matrice associata ad \(F\), allora \(\textrm{Ker}(F)\) è
definito dal sistema omogeneo associato ad \(A\) e
\(\textrm{codim Ker}(F)=\textrm{rk}A\). Teorema del rango:
data un'applicazione lineare \(F:\ V\rightarrow W\), con
\(V\) finitamente generato, allora vale la formula della
dimensione: \(\textrm{dim}V=\textrm{dim Im}(F)+\textrm{dim
Ker}(F)\) (con dimostrazione sia del caso generale che nel
caso in cui anche \(W\) è finitamente generato).
LEZIONE 31
Argomenti: Un'applicazione lineare \(F:
V\longrightarrow W\) è iniettiva se e solo se
\(\textrm{Ker}(F)=\{\mathbf{0}_V\}\). Sia \(F:
V\longrightarrow W\) un'applicazione lineare tra spazi
vettoriali di dimensione finita e sia \(A\) una matrice
associata ad \(F\), allora \(F\) è iniettiva se e solo se
\(\textrm{rk}A=\textrm{dim}V\) ed è suriettiva se e solo
se \(\textrm{rk}A=\textrm{dim}W\). Sia \(F:
V\longrightarrow W\) un'applicazione lineare tra spazi
vettoriali di dimensione finita, se
\(\textrm{dim}V>\textrm{dim}W\) allora \(F\) non può
essere iniettiva, se invece
\(\textrm{dim}W>\textrm{dim}V\) allora \(F\) non può
essere suriettiva. Isomorfismi di spazi vettoriali. Due
spazi vettoriali sono isomorfi se e solo se hanno la
stessa dimensione. Ogni spazio vettoriale di dimensione
\(n\) è isomorfo a \(\mathbb R^n\).
ESERCIZI 8
LEZIONE 32
Argomenti: Esercitazione: applicazioni lineari di
spazi vettoriali. Se \(V\) e \(W\) sono spazi vettoriali
di dimensione finita uguale, allora un'applicazione
lineare \(F: V\longrightarrow W\) è iniettiva se e solo se
è suriettiva, se e solo se è biunivoca. Endomorfismi di
uno spazio vettoriale. Matrice associata ad un
endomorfismo di uno spazio vettoriale di dimensione finita
rispetto ad una base. Matrici simili. Due matrici simili
hanno lo stesso rango e lo stesso determinante. Due
matrici associate ad uno stesso endomorfismo sono
associate tra loro. Automorfismi di uno spazio vettoriale.
Un endomorfismo di uno spazio vettoriale di dimensione
finita è un automorfismo se e solo se ogni matrice ad esso
associata è invertibile. Introduzione alla
diagonalizzazione di applicazioni lineari: motivazione.
Autovalori ed autovettori di un endomorfismo. Autospazi e
molteplicità geometrica di un autovalore. Autovettori
associati ad autovalori distinti sono linearmente
indipendenti. La somma di autospazi associati ad
autovalori distinti è una somma diretta. Ogni endomorfismo
di uno spazio vettoriale di dimensione finita \(n\) ha al
più \(n\) autovalori distinti.
LEZIONE 33
Argomenti: Esercitazione: applicazioni lineari tra
spazi vettoriali.
LEZIONE 34
Argomenti: Un endomorfismo ha \(0\) come autovalore
se e solo se non è iniettivo, inoltre
\(E(0)=\textrm{Ker}(F)\). Endomorfismi diagonalizzabili.
Un endomorfismo \(F\) di uno spazio vettoriale finitamente
generato \(V\) è diagonalizzabile se e solo se esiste una
base di \(V\) di autovettori per \(F\). Richiami su
polinomi: radici, test delle radici razionali di Newton,
teorema di Ruffini, regola di Ruffini, molteplicità di una
radice. Ricerca di autovalori ed autovettori. Un numero
reale \(\lambda\) è autovalore per un endomorfismo \(F\)
se e solo verifica l'equazione \(\textrm{det}(A-\lambda
I_n)=0\), dove \(A\) è una matrice associata ad \(F\). Un
vettore con coordinate \(X\in\mathbb{R}^n\) è un
autovettore per \(F\) associato all'autovalore \(\lambda\)
se e solo se le sue coordinate risolvono il sistema
lineare omogeneo \((A-\lambda I_n)X=\mathbf{0}\).
Equazione caratteristica (secolare) e polinomio
caratteristico. Il polinomio caratteristico è un
invariante dell'endomorfismo \(F\) (non dipende dalla
matrice scelta per calcolarlo). Molteplicità algebrica di
un autovalore.
LEZIONE 35
Argomenti: Un endomorfismo diagonalizzabile ha
autovalori tutti reali (non necessariamente distinti). Se
\(\lambda\) è un autovalore di un endomorfismo allora
\(1\leqslant \textrm{mg}(\lambda)\leqslant
\textrm{ma}(\lambda)\). Se un endomorfismo ammette
autovalori distinti allora è diagonalizzabile. Teorema
fondamentale della diagonalizzabilità: un endomorfismo di
uno spazio vettoriale di dimensione finita è
diagonalizzabile se e solo se ammette autovalori tutti
reali e per ciascuno di questi molteplicità geometrica e
molteplicità aritmetica coincidono. Diagonalizzabilità di
matrici. Polinomio caratteristico, autovalori,
autovettori, autospazi di una matrice quadrata. Una
matrice quadrata è diagonalizzabile se e solo se essa è
simile ad una matrice diagonale. Esercitazione:
diagonalizzabilità di endomorfismi e di matrici quadrate.
ESERCIZI 9
LEZIONE 36
Argomenti: Esercitazione: diagonalizzazione di
endomorfismi, automorfismi. Prodotto scalare standard in
\(\mathbb{R}^n\). Spazi vettoriali euclidei.
Il prodotto scalare è bilineare, simmetrico e definito
positivo. Norma di un vettore di \(\mathbb{R}^n\). La
norma dei vettori di \(\mathcal{V}_O^2\) e
\(\mathcal{V}_O^3\) rappresenta la loro lunghezza
(modulo).
LEZIONE 37
Argomenti: Vettori ortogonali. Diseguaglianza di Cauchy-Schwarz.
Coseno dell'angolo compreso tra due vettori non nulli.
Interpretazione geometrica dell'ortogonalità tra vettori
in termini dell'angolo tra essi compreso. La norma di un
vettore è positiva, non degenere e positivamente omogenea.
Diseguaglianza triangolare. Teorema di Pitagora.
Teorema di Carnot.
Identità del parallelogramma. Versori. Versore (positivo)
associato ad un vettore. Basi ortogonali. Basi
ortonormali. Normalizzazione di una base ortogonale.
Ortogonalizzazione di una base: procedimento ortogonale di
Gram-Schmidt.
LEZIONE 38
Argomenti: Se \(m\) vettori di \(\mathbb{R}^n\)
sono non nulli e a due a due ortogonali, allora
\(m\leqslant n\) e i vettori sono linearmente
indipendenti. Proiezione ortogonale di un vettore non
nullo sulla direzione di un vettore non nullo.
Coefficienti di Fourier.
Interpretazione geometrica del procedimento ortogonale di
Gram-Schmidt. Complemento ortogonale di un sottospazio
vettoriale. Il complemento ortogonale \(W^{\bot}\) di un
sottospazio vettoriale \(W\) è costituito dai vettori
ortogonali ad i vettori di una base di \(W\), inoltre
\(W^{\bot}\) è esso stesso un sottospazio e \(W\cap
W^{\bot}=\{\mathbf 0\}\). Se \(W\) è un sottospazio non
banale di \(\mathbb{R}^n\), allora ogni vettore
\(v\in\mathbb{R}^n\) si scrive in maniera unica come
\(v=w+w'\), dove \(w\in W\) e \(w'\in W^{\bot}\); in
particolare \(\mathbb{R}^n=W\oplus W^{\bot}\) e
\(\textrm{dim}W^{\bot}=\textrm{codim}W\). Proiezione
ortogonale di un vettore su un sottospazio.
Interpretazione geometrica.
ESERCIZI 10
LEZIONE 39
Argomenti: Matrici ortogonali. Una matrice
ortogonale è invertibile e la sua inversa coincide con la
sua trasposta. Una matrice ortogonale ha il determinante
uguale a \(\pm1\). Le colonne (e le righe) di una matrice
ortogonale di ordine \(n\) costituiscono una base
ortogonale di \(\mathbb R^n\). La matrice di passaggio da
una base ortonormale ad un'altra base ortonormale di
\(\mathbb R^n\) è una matrice ortogonale. Endomorfismi
simmetrici di \(\mathbb R^n\). Se \(F\) e \(G\) sono due
endomorfismi di \(\mathbb R^n\) tali che per ogni coppia
di vettori \(v,w\in\mathbb R^n\) si abbia che \(F(v)\cdot
w=v\cdot G(w)\), allora le matrici associate ad \(F\) e
\(G\) rispetto alla base canonica sono l'una la trasposta
dell'altra. Un endomorfismo è simmetrico se e solo se la
sua matrice rispetto alla base canonica (o rispetto ad una
qualsiasi base ortonormale) è una matrice simmetrica.
L'operatore di proiezione ortogonale è un operatore
simmetrico. Un endomorfismo simmetrico ammette autovalori
tutti reali. Un endomorfismo simmetrico trasforma vettori
ortogonali ad un autovettore in vettori ortogonali allo
stesso autovettore. Autovettori di un endomorfismo
simmetrico associati ad autovalori distinti sono
ortogonali. Teorema spettrale: ogni endomorfismo
simmetrico è diagonalizzabile rispetto ad una base
ortonormale di autovettori.
LEZIONE 40
Argomenti: Teorema spettrale per le matrici: ogni
matrice simmetrica a coefficienti reali è simile ad una
matrice diagonale per mezzo di una matrice ortogonale.
Esercitazione: teorema spettrale, diagonalizzazione di
endomorfismi.
ESERCIZI 11
LEZIONE 41
Argomenti: Geometria euclidea piana. Riferimenti
cartesiani ortonormali nel piano. Coordinate cartesiane
ortogonali e versori ortonormali fondamentali. Distanza di
un punto dall'origine. Distanza tra due punti. Versori
direzionali di una retta. Versori perpendicolari associati
ad una retta. Criteri di perpendicolarità tra due rette
(sia date in equazioni cartesiane che in equazioni
parametriche). Angoli formati da due rette. Distanza di un
punto da una retta. Sistemi di riferimento cartesiano
ortonormale nello spazio. Coordinate cartesiane e versori
ortogonali nello spazio. Prodotto vettoriale in \(\mathbb
R^3\). Il prodotto vettoriale è bilineare ed
anticommutativo. Prodotto misto di tre vettori in
\(\mathbb R^3\). Il prodotto misto cambia segno se si
scambia l'ordine di due vettori. Il prodotto misto è nullo
se due dei tre vettori sono paralleli. Formula di Lagrange
per il calcolo del modulo del prodotto vettoriale. Siano
dati due vettori \(v,w\in\mathbb R^3\) e sia \(v=a+b\),
con \(a/\!\!/ w\) e \(b\bot w\); allora \(\|v\wedge
w\|=\|w\| \,\|b\|\). Il modulo del prodotto vettoriale di
due vettori è uguale all'area del parallelogramma
delimitato dai due vettori.
LEZIONE 42
Argomenti: Se \(v\) e \(w\) sono due vettori
linearmente indipendenti di \(\mathbb R^3\) allora
\(\{v,\,w,\, v\wedge w\}\) è una base di \(\mathbb R^3\).
Il prodotto misto (a meno del segno) di tre vettori
calcola il volume del paralellepipedo descritto dai tre
vettori. Formule per il calcolo dell'area di un triangolo
nel piano. Asse di un segmento. Circonferenza nel piano.
Esercitazione: geometria analitica del piano.
ESERCIZI 12
LEZIONE 43
Argomenti: Angolo tra due rette nello spazio.
Condizione di ortogonalità tra rette nello spazio.
Complemento ortogonale di una retta. Interpretazione
geometrica del vettore di giacitura di un piano.
Ortogonalità tra piani. Ortogonalità di una retta e di un
piano. Interpretazione geometrica della condizione di
parallelismo di una retta e di un pano nello spazio. Un
vettore direzionale di una retta data per mezzo di
equazioni cartesiane è dato dal prodotto vettoriale dei
vettori di giacitura dei piani che la definiscono.
Distanza tra due punti nello spazio. Distanza di un punto
da un piano. Distanza di un punto da una retta. Distanza
tra rette parallele nel piano. Distanza tra rette
parallele nello spazio. Distanza tra piani paralleli.
Distanza tra una retta ed un piano paralleli.
ESERCIZI 13
LEZIONE 44
Argomenti: Teorema delle perpendicolare comune.
Distanza tra due rette sghembe. Composizione di
applicazioni lineari. Teorema della composizione
operatoria. Endomorfismi invertibili e matrici
associate. Interpretazione geometrica di alcuni
endomorfismi di \(\mathbb R^2\): simmetria rispetto
all'asse \(x\). Gli autospazi di un endomorfismo indicano
le rette passanti per l'origine che restano invariate
sotto l'azione dell'endomorfismo. Correzione di un
esercizio assegnato (su endomorfismi e prodotto
vettoriale).
LEZIONE 45
Argomenti: Operatori ortogonali. Rotazioni attorno
all'origine. Classificazione degli operatori ortogonali su
\(\mathbb R^2\). Trasformazioni del piano euclideo.
Trasformazioni del tipo
\(f(x,y)=A\begin{pmatrix}x\\y\end{pmatrix}+\begin{pmatrix}a\\b\end{pmatrix}\),
con \(A\) matrice quadrata di ordine 2 e
\(\begin{pmatrix}a\\b\end{pmatrix}\in\mathbb R^2\).
Traslazioni. Rototraslazioni. Esempio di una
glissosimmetria ottenuta componendo la simmetria rispetto
all'asse \(x\) con la traslazione secondo un vettore
\(v\). Legge del cambiamento di coordinate cartesiane.
LEZIONE 46
Argomenti: Affinità ed isometrie nel piano (cenni).
Proiezione ortogonale sull'asse \(x\). Forme quadratiche
reali in due variabili. Matrice simmetrica associata ad
una forma quadratica. Espressione matriciale di una forma
quadratica. Teorema di diagonalizzazione delle forme
quadratiche: ogni forma quadratica può essere portata in
forma diagonale applicando un cambio di variabili
corrispondente ad una trasformazione ortogonale di
\(\mathbb R^2\). Curve algebriche piane. I polinomi a
coefficienti reali nelle indeterminate \(x\) ed \(y\)
formano un anello commutativo unitario, indicato con
\(\mathbb R[x,y]\), rispetto alle operazioni di somma e
prodotto definite nel calcolo letterale. Grado di un
polinomio in due variabili. Proprietà del grado. Legge di
annullamento del prodotto in \(\mathbb R[x,y]\). Conica
generale in due variabili. Matrice associata ad una
conica. Equazione matriciale di una conica. Rango di una
conica. Forma quadratica associata ad una conica. Esempi
di coniche. Teorema di classificazione delle forme
canoniche delle coniche reali euclidee (enunciato).
ESERCIZI 14
LEZIONE 47
Argomenti: Teorema di Kronecker per il rango
del prodotto di matrici: se \(A\) e \(B\) sono due matrici
allora
\(\textrm{rk}AB\leqslant\textrm{min}\{\textrm{rk}A,\
\textrm{rk}B\}\). Se si moltiplica una matrice \(A\) a
destra o a sinistra per una matrice invertibile, allora il
rango di \(A\) resta invariato. Teorema d'invarianza: data
una conica con matrice associata \(A\) e forma quadratica
associata \(Q\), se si applica una isometria al sistema di
riferimento fissato, allora \(\textrm{det}A\),
\(\textrm{det}Q\), \(\textrm{rk}A\) e \(\textrm{rk}Q\) non
cambiano. Invarianti metrici euclidei delle coniche piane
euclidee. Coniche non degeneri (con \(\textrm{rk}A=3\)),
coniche semplicemente degeneri (con \(\textrm{rk}A=2\)),
coniche doppiamente degeneri (con \(\textrm{rk}A=1\)).
Coniche di tipo ellittico (con \(\textrm{det}Q>0\)),
coniche di tipo iperbolico (con \(\textrm{det}Q<0\)),
coniche di tipo parabolico (con \(\textrm{det}Q=0\)).
Esempi di classificazione di coniche. Teorema di
riduzione: ogni conica piana può essere trasformata in una
delle seguenti coniche ridotte per mezzo di isometrie:
\(\lambda X^2+\mu Y^2+p=0\) se
\(\textrm{det}Q\neq0\), \(\mu Y^2+qx=0\), con
\(q\neq0\), se \(\textrm{det}Q=0\) e
\(\textrm{det}A\neq0\), \(\mu Y^2+r=0\) se
\(\textrm{det}Q=\textrm{det}A=0\); inoltre gli assi \(X\)
e \(Y\) del nuovo sistema di riferimento cartesiano sono
paralleli agli autospazi \(E(\lambda)\) ed \(E(\mu)\) di
\(Q\). Esempi di riduzione in forma canonica. Note di A. Savo sulle coniche euclidee.
ESERCIZI 15
LEZIONE 48
Argomenti:
Esercitazione:
geometria
analitica dello spazio, trasformazioni geometriche
del piano, coniche euclidee.
LEZIONE 49
Argomenti: Grafici di coniche nel piano
euclideo. Coniche a centro e coniche senza centro.
Le coniche a centro sono necessariamente di tipo
ellittico o iperbolico ed hanno due assi di
simmetria. Le coniche senza centro sono di tipo
parabolico con un solo asse di simmetria. Se una
conica \(\mathscr C\) è a centro, allora il suo
centro ha coordinate \(C=\left(\frac{\mathscr
A_{01}}{\textrm{det}Q},\,\frac{\mathscr
A_{02}}{\textrm{det}Q}\right)\) e i suoi assi di
simmetria sono orientati come gli autospazi della
matrice \(Q\). Se una conica non ha centro, il suo
asse di simmetria è parallelo all'autospazio
\(E(0)\), inoltre, se la conica è una parabola non
degenere, allora il vertice della parabola è dato
dall'intersezione tra la conica e la retta parallela
all'autospazio associato all'autovalore non nullo di
\(Q\) tangente a \(\mathscr C\). Esercitazione:
grafici e riduzione a forma canonica di coniche
euclidee.
Derivate parziali dei polinomi di due variabili.
Gradiente di un polinomio in due variabili.
LEZIONE 50
Argomenti: Se \(\mathscr C_1:\ p_1(x,y)=0\) e
\(\mathscr C_2:\ p_2(x,y)=0\) sono due curve
algebriche, allora anche \(\mathscr C_1\cup\mathscr
C_2\) e \(\mathscr C_1\cap\mathscr C_2\) sono curve
algebriche definite rispettivamente dai polinomi
\(p_1(x,y)\cdot p_2(x,y)\) e
\((p_1(x,y))^2+(p_2(x,y))^2\). Polinomi
irriducibili. Teorema di fattorizzazione unica dei
polinomi: ogni polinomio di \(\mathbb R[x,y]\) si
decompone in maniera essenzialmente unica come
prodotto di polinomi irriducibili. Curve
irriducibili. Ogni curva algebrica è unione di curve
algebriche irriducibili (dette le sue componenti
irriducibili). Una retta \(r\) ed una curva
algebrica \(\mathscr C\) irriducibile di grado
\(n\), con \(r\neq\mathscr C\), hanno al più \(n\)
punti comuni. Teorema di Bézout:
due curve algebriche distinte \(\mathscr C_1\) e
\(\mathscr C_2\) di gradi \(m\) ed \(n\) si
incontrano in al più \(mn\) punti. Punti regolari e
retta tangente ad una curva in un suo punto
regolare. Punti singolari. Curve lisce. Punti
isolati di una curva piana. Rami lineari di curve
piane. Complesso tangente (insieme delle rette
tangenti) ad una curva in un punto. Il complesso
tangente in un punto isolato è vuoto. Il complesso
tangente in un punto regolare è costituito dalla
retta tangente in quel punto. Teorema dell'origine
singolare: il complesso tangente nell'origine ad una
curva \(\mathscr C:\ p(x,y)=0\) è dato
dall'annullamento dei termini di grado minimo di
\(p(x,y)\).
LEZIONE 51
Argomenti: Date due curve algebriche
\(\mathscr C_1\) e \(\mathscr C_2\) i punti
singolari della curva \(\mathscr{C}_1\cup
\mathscr{C}_2\) sono dati da
\(\textrm{Sing}(\mathscr{C}_1\cup
\mathscr{C}_2)=\textrm{Sing}(\mathscr{C}_1)\cup\textrm{Sing}(\mathscr{C}_2)\cup
(\mathscr{C}_1\cap \mathscr{C}_2)\). Classificazione dei punti singolari in base
al numero di rami che passano per essi: punti doppi,
tripli, ecc.
Classificazione dei punti doppi: i punti isolati
hanno tangenti immaginarie, i nodi hanno due
tangenti reali e distinte, le cuspidi
hanno due tangenti reali e coincidenti. Cenni di
classificazione delle cuspidi. Asintoti. Metodi
di calcolo per gli asintoti verticali e non. Grafici
di curve algebriche piane. Versiera dell'Agnesi.
Lemniscata di Bernoulli.
Curva piriforme. Folium di Cartesio.
Trifoglio. Parabole (cubiche) divergenti
di Newton:
parabola semplice, parabola con ovale,
parabola nodata, parabola puntata,
parabola cuspidata.
ESERCIZI
16
Libro di testo adottato:
- Geometria,
A. Cigliola, La Dotta
Libro
di testo per i precorsi:
- SOS
Matematica, M. Chiricotto, A. Cigliola, I.
de Bonis, V. De Cicco, S. Marconi, La
Dotta, 2013. Errata Corrige
(in continuo aggiornamento)