GEOMETRIA
Facoltà di Ingegneria Civile ed Industriale
Sapienza Università di Roma
Corso di Laurea Triennale in Ingegneria Elettrotecnica (orario delle lezioni)
A.A. 2017/2018
Docente: prof. Antonio Cigliola
Esercitatore: Mario
Fordellone, Stefano Buccheri
Ricevimento
Orario delle lezioni:
Martedì
17:00 -
19:00 Aula 5
Mercoledì
10:00 - 11:00 Aula 10
[esercitazione]
Mercoledì
17:00 - 19:00 Aula 5
Giovedì
8:00 -
10:00 Aula 5
Venerdì
8:00
- 10:00 Aula 7
Prerequisiti: Logica
elementare. Teoria elementare degli insiemi. Insiemi numerici.
Principio di induzione. Equazioni e disequazioni. Goniometria
e trigonometria. Geometria Analitica di base. (In
generale, sono dati per scontati tutti argomenti del
Precorso di Matematica).
Programma di massima del corso:
Logica e algebra: Teoria elementare
degli insiemi. Funzioni astratte tra insiemi e proprietà.
Principio di Induzione. Gruppi astratti. Anelli di
polinomi.
Algebra lineare: Matrici.
Determinanti. Rango. Sistemi lineari. Spazi vettoriali.
Applicazioni lineari. Autovalori e autovettori.
Diagonalizzazione. Forme bilineari e quadratiche. Prodotto
scalare. Prodotto vettoriale. Operatori
simmetrici. Teorema spettrale.
Geometria: Geometria affine del piano e dello
spazio. Geometria euclidea del piano e dello spazio. Coniche
affini ed euclidee. Quadriche euclidee.
Programma
AA 2017/18
Programma anni accademici
precedenti
Modalità
d'esame:
L'esame comprende una prova scritta, un
colloquio orale e una prova pratica, tutti obbligatori.
- La prova scritta consiste in
cinque esercizi, più un eventuale esercizio
facoltativo. Il primo esercizio è suddiviso in due
parti: l'esercizio 1A comprende due domande a risposta
secca (2pt risp. esatta, 0 pt risp. non data, -1pt
risp. errata), l'esercizio 1B consta di 12 vero-falso
(0,5pt risp. esatta, 0 pt risp. non data, -0,25pt
risp. errata). Il punteggio del primo esercizio va da
-5pt. a 10pt. Gli esercizi 2,3,4, e 5 valgono da 0 a 6
punti ciascuno e possono contenere quesiti pratici o
teorici. Il sesto esercizio facoltativo conferisce
bonus. Il punteggio finale della prova scritta va da
-5/34 a 34/34. La prova scritta si intende superata se
la somma dei punteggi dei cinque esercizi (con
l'eventuale bonus) è maggiore di 18.
- Superata la prova scritta, si ha accesso
alla prova orale. Essa
consiste di un colloquio su argomenti inerenti al corso
(discusione della prova scritta, dimostrazione e
applicazione di enunciati studiati a lezione, svolgimento
di esercizi) al termine della quale si stabilisce l'esito
finale dell'esame.
- La prova pratica consiste nella presentazione
di (almeno) un modello di quadriche rigate.
Durante la prova scritta non è consentito l'uso
di alcun supporto elettronico (pc, tablet, cellulari,
orologi digitali, calcolatrici, etc.) o cartaceo (libri,
appunti, dispense, etc.). È possibile utilizzare la
tabella di classificazione delle quadriche fornita dal
docente. La prova scritta di Gennaio dà la possibilità di
sostenere la prova orale esclusivamente a Gennaio o a
Febbraio. La prova scritta di Giugno dà la possibilità di
sostenere la prova orale esclusivamente a Giugno o a
Luglio. Eccezionalmente
e a discrezione del docente, potranno essere ammesse con
riserva all'orale prove scritte quasi sufficienti
(<18). Un esito
finale negativo annulla ogni prova, scritta o orale, già
sostenuta. La
votazione finale non potrà essere in ogni caso inferiore a
18 né superiore a 30 e lode.
Tracce d'esame:
Libro di testo adottato e materiale didattico
consigliato:
Valutazioni del corso da parte degli
studenti: studenti
frequentanti
studenti
non frequentanti
DIARIO DELLE LEZIONI:
LEZIONE 1
Argomenti: Presentazione
del corso. L'insieme \(\mathcal{M}_{m,n}(\mathbb{R})\)
delle matrici di tipo \(m\times n\) a coefficienti
reali. Notazioni e nomenclatura.Vettori riga e vettori
colonna. Matrice nulla. L'insieme
\(\mathcal{M}_{n}(\mathbb{R})\) delle matrici quadrate
di ordine \(n\) a coefficienti reali. Matrici
diagonali. Matrice identica di ordine \(n\). Trasposta
di una matrice. Matrici triangolari superiori ed
inferiori. Principio di identità tra matrici. Somma di
matrici dello stesso tipo. L'addizione tra matrici è
associativa e commutativa, la matrice nulla è
l'elemento neutro rispetto alla somma, ogni matrice ha
la sua matrice opposta. Moltiplicazione di un numero
reale per una matrice: proprietà fondamentali.
L'operazione di trasposizione conserva la somma tra
matrici e il prodottto di un numero reale con una
matrice.
LEZIONE 2
Argomenti: Matrici simmetriche ed
antisimmetriche: proprietà. L'unica matrice sia
simmetrica che antisimmetrica è la matrice nulla.
Teorema di decomposizione unica in parte simmetrica ed
antisimmetrica: ogni matrice quadrata può essere
scritta in maniera unica come somma di una matrice
simmetrica ed una antisimmetrica. Prodotto di un
vettore riga per un vettore colonna. Prodotto riga per
colonna di matrici. In generale il prodotto riga per
colonna non è commutativo e non vale la legge di
annullamento del prodotto tra matrici. Proprietà del
prodotto riga per colonna. Prese due matrici \(A\in
M_{m,n}(\mathbb{R})\) e \(B\in M_{n,p}(\mathbb{R})\),
allora \((AB)^T=B^TA^T\). La matrice identica è
l'elemento neutro del prodotto.
LEZIONE 3
Argomenti: Esercitazione: calcolo matriciale.
Il principio di induzione matematica. Formula di Gauss
e formula di Fermat.
L'insieme \(\mathbb{R}^n\) delle \(n\)-uple ordinate
di numeri reali. Combinazioni lineari di vettori riga
e vettori colonna.Vettori linearmente dipendenti e
linearmente indipendenti.
Esercizi
foglio 1: Calcolo matriciale
LEZIONE 4
Argomenti: Un vettore riga (o colonna) è
linearmente dipendente se e solo se è nullo. Due
vettori riga (o colonna) sono linearmente dipendenti
se e solo se uno dei due è multiplo dell'altro. Se in
un insieme di vettori riga (o colonna) uno di essi è
il vettore nullo, allora i vettori sono linearmente
dipendenti. Se in un insieme di vettori riga (o
colonna) due di essi sono uguali, allora i vettori
sono linearmente dipendenti. Dei vettori (riga o
colonna) sono linearmente dipendenti se e solo se uno
di essi può essere scritto come combinazione lineare
degli altri. Determinanti di matrici quadrati di
ordine \(1\) e \(2\). Sottomatrici
complementari. Complementi algebrici. Determinanti.
Sviluppo del determinante rispetto alla prima riga.
Teorema di Laplace:
il determinante di una matrice può essere calcolato
sviluppandolo rispetto ad una qualsiasi riga o una
qualsiasi colonna.
Esercizi
foglio 2: Algebra lineare in \(\mathbb{R}^n\)
LEZIONE 5
Argomenti: Regola di Sarrus.
Proprietà dei determinanti:
\(\textrm{det}(0_n)=0\), \(\textrm{det}(I_n)=1\)
e \(\textrm{det}(A^T)=\textrm{det}(A)\). Se una
matrice ha una riga (o una colonna) nulla, il suo
determinante è zero. Il determinante di una matrice
triangolare è il prodotto degli elementi diagonali. Il
determinante di una matrice diagonale è il prodotto
degli elementi diagonali. Se in una matrice si
moltiplica una riga (o una colonna) per uno scalare,
il determinante della matrice resta moltiplicato per
lo stesso scalare. Il determinante è lineare per righe
(o per colonne). Scambiando due righe (o due colonne)
in una matrice, il determinante cambia segno. Se una
matrice ha due righe uguali (o due colonne uguali), il
suo determinante è nullo. Se una matrice ha due righe
(o due colonne) proporzionali, il suo determinante è
nullo. Sommando ad una riga (o una colonna) di una
matrice una combinazione lineare delle rimanenti, il
determinante non cambia. Se in una matrice le righe (o
le colonne) sono linearmente dipendenti, il
determinante è nullo. Teorema di Binet: prese \(A\) e
\(B\) due matrici quadrate dello stesso ordine, allora
\(\textrm{det}(AB)=\textrm{det}A \ \textrm{det}B\). Il
determinante non si distribuisce rispetto alla somma
di matrici. Matrici
quadrate invertibili. Prese due matrici invertibili \(A\) e
\(B\), anche la matrice \(AB\) è invertibile e si ha che
\((AB)^{-1}=B^{-1}A^{-1}\). Il gruppo lineare reale di ordine
\(n\) delle matrici invertibili, \(GL_n(\mathbb{R})\). Teorema
di Laplace per la matrice inversa: una matrice è invertibile
se e solo se ha determinante diverso da zero. In particolare,
l'inversa di una matrice è data da
\(A^{-1}=\frac{1}{\textrm{det}A}(A^*)^T\), dove \(A^*\) è la
matrice che ha per entrate, ordinatamente, i complementi
algebrici degli elementi della matrice \(A\). Esempi di
calcolo di matrici inverse. Sottomatrici e minori di una
matrice. Rango di una matrice.
Esercizi foglio 3:
Determinanti
Esercizi
foglio 4: Matrice inversa
LEZIONE 6 (dott. Fordellone)
Argomenti: Esercitazione sul calcolo
matriciale e dei determinanti. Testo
LEZIONE 7
Argomenti: Rango di una matrice. Una matrice
ha rango zero se e solo se è la matrice nulla. Se \(A\in
M_{m,n}(\mathbb{R})\), allora
\(\textrm{rk}A\leqslant\min\{m,\,n\}\) e se vale l'uguaglianza
si dice che \(A\) ha rango massimo. Una matrice quadrata ha
rango massimo se e solo se è invertibile. Il rango di una
matrice \(A\) vale \(r\) se e solo se la matrice contiene un
minore non nullo di ordine \(r\) e tutti i monori di \(A\) di
ordine \(r+1\) sono nulli. Minori orlati. Teorema di Kronecker:
il rango di una matrice vale \(r\) se e solo se la matrice
contiene un minore non nullo di ordine \(r\) e tutti i suoi
orlati di ordine \(r+1\) sono nulli. Equazioni lineari in una
o più incognite. Soluzione di un'equazione lineare. Sistemi
lineari di tipo \(m\times n\) a coefficienti reali (con \(m\)
equazioni ed \(n\) incognite). Soluzione di un sistema
lineare. Sistemi compatibili, determinati, indeterminati,
impossibili (o incompatibili). Scrittura compatta di un
sistema lineare: un sistema lineare si scrive nella forma
\(A\mathbf{X}=\mathbf{b}\), dove \(A\in M_{m,n}(\mathbb{R})\)
è la matrice incompleta, \(\mathbf{b}\in \mathbb{R}^m\) è la
colonna dei termini noti e
\(\mathbf{X}=(x_1,x_2,\dots,x_n)^T\) la colonna delle
indeterminate. Sistemi omogenei. Un sistema omogeneo non è mai
impossibile, ammette sempre la soluzione banale; inoltre, se
ammette una soluzione non banale, ne ammette infinite. Le
soluzioni di un sistema non omogeneo sono date dalla somma di
una (data) soluzione particolare e di una qualsiasi soluzione
del sistema omogeneo associato.
Esercizi foglio 5: Rango
LEZIONE 8
Argomenti: Un sistema lineare
ammette una, nessuna o infinite soluzioni. Sistemi lineari
quadrati di ordine \(n\). Teorema di Cramer:
un sistema lineare quadrato con
matrice dei coefficienti \(A\) è determinato se e solo se
\(\textrm{det}A\neq0\) (indipendentemente dalla colonna
dei termini noti). Risoluzione di un sistema crameriano
col metodo della matrice inversa. Regola di Cramer per la
risoluzione di un sistema crameriano. Un sistema lineare
omogeneo quadrato con matrice dei coefficienti \(A\) è
indeterminato se e solo se \(\textrm{det}A=0\). Una
matrice quadrata ha rango massimo se e solo se le colonne
(o le righe) di \(A\) sono linearmente indipendenti. Una
matrice \(A\in M_{m,n}(\mathbb{R})\) ha rango \(r\)
se e solo se in \(A\) esistono \(r\) righe (o colonne)
linearmente indipendenti e se \(r+1\) righe (o colonne)
comunque scelte sono linearmente dipendenti. In una
matrice \(A\in M_{m,n}(\mathbb{R})\) il rango indica
il massimo numero di righe (o colonne) linearmente
indipendenti.
LEZIONE 9
Agomenti: Teorema di Rouché-Capelli:
un sistema lineare \(A\mathbf{X}=\mathbf{b}\) è
compatibile se e solo se il rango della matrice incompleta
del sistema \(A\) e il rango della matrice completa del
sistema \((A|\mathbf{b})\) sono uguali. In tal caso, detto
\(r\) il rango, il sistema è determinato se \(n=r\), è
invece indeterminato con \(\infty^{n-r}\) soluzioni, se
\(r<n\). Esercizi vari sui
teoremi di Cramer e di Rouché-Capelli.
Esercizi foglio 6:
Sistemi lineari
LEZIONE 10
Argomenti: Un vettore applicato
è individuato da un punto di applicazione, una direzione,
un verso ed un modulo. L'insieme dei vettori geometrici
applicati nel piano. Vettori geometrici liberi. Vettore
nullo. Vettori equipollenti. Somma di due vettori (con la
regola del parallelogramma o della poligonale) e
moltiplicazione con scalare. Operazioni con i vettori
liberi: somma e moltiplicazione con scalare reale.
L'insieme dei vettori geometrici liberi del piano
\(\mathcal{V}_2\), della retta \(\mathcal{V}_1\) e
dello spazio fisico \(\mathcal{V}_3\). Definizione
astratta di gruppo abeliano.
Esempi di gruppi additivi. Spazi
vettoriali reali. Esempi di spazi vettoriali: \(
M_{m,n}(\mathbb{R})\), \(\mathbb{R}^n\), \(\mathcal{V}^2\).
Lo spazio vettoriale reale \(\mathbb{R}[x]\) dei polinomi
a coefficienti reali nell'indeterminata \(x\). Principio
di identità tra polinomi. In uno spazio vettoriale
\(V\) il vettore nullo \(\mathbf{0}_V\) è unico; il
simmetrico di un vettore \(v\in V\) è unico, lo si indica
con \(-v\) ed è detto l'opposto di \(v\). Legge di
annullamento del prodotto negli spazi vettoriali: presi
\(\lambda\in\mathbb{R}\) e \(v\in V\), si ha che \(\lambda
v=\mathbf{0}_V\) se e solo se \(\lambda=0_{\mathbb{R}}\)
oppure \(v=\mathbf{0}_V\).
LEZIONE 11 (dott. Fordellone)
Argomenti: Esercitazione: sistemi lineari. Testo
LEZIONE 12
Argomenti: Preso un vettore un vettore \(v\) di uno
spazio vettoriale \(V\), si ha che \((-1)v=-v\).
Combinazioni lineari. Vettori linearmente dipendenti e
linearmente indipendenti. Un
vettore è linearmente dipendente se e solo se è nullo.
Due vettori sono linearmente dipendenti se e solo se
sono proporzionali. Dei vettori sono linearmente
dipendenti se e solo se uno di essi è combinazione
lineare dei rimanenti. Se in un insieme di vettori
alcuni di essi sono linearmente dipendenti, allora
tutti sono linearmente dipendenti. Sottospazi
vettoriali. Dato lo spazio vettoriale \(V\), gli
insiemi \(\{\mathbf{0}_V\}\) e \(V\) sono sottospazi
vettoriali di \(V\). Un sottospazio vettoriale
contiene necessariamente il vettore nullo. Esempi di
sottospazi vettoriali: matrici quadrate simmetriche
\(S_n(\mathbb{R})\), antisimmetriche
\(A_n(\mathbb{R})\) e diagonali \(D_n(\mathbb{R})\).
L'insieme \(\mathbb{R}_{\leqslant n}[x]\) dei polinomi
di grado al più \(n\) con il polinomio nullo è un
sottospazio vettoriale di \(\mathbb{R}[x]\). L'insieme
delle soluzioni di un sistema lineare di tipo
\(m\times n\) è un sottospazio vettoriale di
\(\mathbb{R}^n\) se e solo se il sistema è omogeneo.
Esercizi foglio
7: Dipendenza lineare
LEZIONE 13
Argomenti: Sia \(V\) uno spazio vettoriale
e siano \(v_1,\ v_2,\,\dots, v_n\) vettori di \(V\),
allora il sottoinsieme costituito dalle combinazioni
lineari dei \(v_i\) è un sottospazio vettoriale di \(V\);
esso è chiamato il sottospazio generato dai \(v_i\) ed è
indicato con \(\mathcal{L}(v_1,\ v_2,\,\dots, v_n)\).
Retta vettoriale. Piano vettoriale. Spazi vettoriali
finitamente generati. Lo spazio \(\mathbb{R}[x]\) non è
finitamente generato. Gli spazi \(\mathbb{R}^n\),
\(\mathcal{M}_{m,n}(\mathbb{R})\) e
\(\mathbb{R}_{\leqslant n}[x]\) sono finitamente generati.
Dato lo
spazio vettoriale \(V\), gli insiemi
\(\{\mathbf{0}_V\}\) e \(V\) sono sottospazi
vettoriali di \(V\). Lo spazio \(\mathbb{R}[x]\)
non è finitamente generato. Dato \(V\) uno spazio
vettoriale e \(v_1, v_2,\,\dots, v_n\) vettori di
\(V\), preso \(w\in\mathcal{L}(v_1, v_2,\,\dots,
v_n)\), allora si ha \(\mathcal{L}(v_1, v_2,\,\dots,
v_n, w)=\mathcal{L}(v_1, v_2,\,\dots, v_n)\). Dati i
vettori \(v_1, v_2,\,\dots, v_n\) linearmente
indipendenti di \(V\), preso
\(w\not\in\mathcal{L}(v_1, v_2,\,\dots, v_n)\), allora
i vettori \(v_1, v_2,\,\dots, v_n, w\) sono
linearmente indipendenti.
Esercizi
foglio 8: Sottospazi vettoriali
LEZIONE 14
Argomenti: Una base di uno
spazio vettoriale finitamente generato è un sistema di
generatori linearmente indipendenti. Basi canoniche di
\(\mathbb{R}^n\), \(\mathbb{R}_{\leqslant n}[x]\) e
\(M_{m,n}(\mathbb{R})\). Le due condizioni per definire
una base sono indipendenti (e vanno verificate entrambe).
Metodo degli scarti successivi: ogni spazio vettoriale non
banale finitamente generato ha almeno una base. Esempi
vari.
LEZIONE 15
Argomenti: Lemma
di Steinitz:
se \(\{v_1, v_2,\dots, v_n\}\) è una base di \(V\) e
\(w_1, w_2, \dots, w_m\) sono \(m>n\) vettori di \(V\)
allora i \(w_i\) sono linearmente dipendenti. Lemma di
scambio: se in una base si sostituisce un vettore con la
somma di questo vettore più una combinazione lineare dei
vettori rimanenti, si ottiene una nuova base. Tutte le
basi di uno spazio vettoriale finitamente generato hanno
la stessa cardinalità che è detta la dimensione di \(V\) e
si indica \(\dim V\). La dimensione di \(V\) indica il
numero massimo di vettori linearmente indipendenti che si
possono trovare in \(V\). La dimensione di \(V\) indica il
numero minimo di generatori di \(V\). Se \(V\) è uno
spazio vettoriale di dimensione \(n\), allora \(\{v_1,
v_2,\dots, v_n\}\) è una base di \(V\) se e solo se \(v_1,
v_2,\dots, v_n\) sono linearmente indipendenti, se e solo
se \(v_1, v_2,\dots, v_n\) sono generatori di \(V\).
Coordinate di un vettore rispetto ad una base. Operazioni
tra vettori in termini delle loro componenti rispetto ad
una base.
LEZIONE 16
Argomenti: Esercitazione: dipendenza e indipendenza
lineare.
LEZIONE 17
Argomenti: Teorema del
completamento della base: Sia \(\{v_1, v_2,\dots, v_n\}\)
una base di \(V\) e siano \(w_1, w_2, \dots, w_m\), con
\(m<n\), vettori linearmente indipendenti di
\(V\); allora è possibile scegliere \(n-m\) vettori
\(v'_1, v'_2, \dots, v'_{n-m}\) tra i \(v_i\) tali
che \(\{w_1, w_2,\dots, w_m, v'_1, \dots,
v'_{n-m}\}\) sia una base di \(V\). Applicazioni
del completamento della base. Siano \(w_1,w_2,\dots,w_m\)
vettori di uno spazio vettoriale \( V\) di dimensione
\(n\) e sia \(\mathcal B\) una base di \(V\). Sia \(A\in
M_{m,n}(\mathbb R)\) la matrice che ha per righe le
coordinate dei \(w_i\) rispetto a \(\mathcal B\). Allora
\(\textrm{rk} A=r\) indica il massimo numero di vettori
linearmente indipendenti tra i \(w_i\) ed \(r\) vettori
linearmente indipendenti sono quelli corrispondenti alle
righe di un qualsiasi minore non nullo di \(A\) di ordine
\(r\). Inoltre, i \(w_i\) sono linearmente indipendenti se
e solo se \(\textrm{rk} A=m\). Esercitazione.
LEZIONE 18
Argomenti: Siano
\(\mathcal B\) e \(\mathcal B'\) basi di uno spazio
vettoriale \(V\) di dimensione finita; la matrice di
passaggio da \(\mathcal B\) a \(\mathcal B'\) è la
matrice che si ottiene scrivendo in colonna
ordinatamente le coordinate dei vettori di \(\mathcal
B'\) in funzione di quelli di \(\mathcal B\). Teorema
del cambiamento di coordinate nel passaggio da una
base ad un'altra: siano \(P\) la matrice di passaggio
dalla base \(\mathcal B\) alla base \(\mathcal B'\),
\(P'\) la matrice di passaggio dalla base \(\mathcal
B'\) alla base \(\mathcal B\), \(X\) la colonna delle
coordinate di un vettore \(v\in V\) rispetto alla base
\(\mathcal B\) e \(X'\) la colonna delle coordinate di
\(v\) rispetto alla base \(\mathcal B'\), allora si ha
che \(P'=P^{-1}\), \(X'=P^{-1}X\) e infine \(X=PX'\).
Equazioni
cartesiane e parametriche di un sottospazio
vettoriale. Il numero di parametri necessari per
dare le equazioni parametriche di \(W\) è uguale
alla dimensione di \(W\). Se \(n=\textrm{dim}V\),
il numero minimo di equazioni cartesiane per
descrivere \(W\) è \(n-\textrm{dim}W\). Esempi. Se
\(V\) è uno spazio vettoriale di dimensione
\(n\) e \(W\) è un sottospazio di \(V\), il
numero minimo di equazioni cartesiane
necessarie per descrivere \(W\) è detto
codimensione di \(W\) e
\(\textrm{codim}W=n-\textrm{dim}W\). In
particolare, per ogni sottospazio vettoriale
\(W\) si ha
\(n=\textrm{dim}W+\textrm{codim}W\).
Esercizi foglio 9: Basi e
dimensione
LEZIONE 19
Argomenti: Se
\(V\) è uno spazio vettoriale di
dimensione finita e \(W\) è un sottospazio
di \(V\) allora
\(\textrm{dim}W\leqslant\textrm{dim}V\).
Inoltre \(\textrm{dim}W=\textrm{dim}V\) se
e solo se \(W=V\). L'intersezione di due
sottospazi vettoriali è un sottospazio
vettoriale. Equazioni
cartesiane di \(U\cap W\) sono date dal sistema contenente
equazioni cartesiane di \(U\) e di \(W\). Esercitazione.
LEZIONE 20 (dott. Fordellone)
Argomenti: Esercitazione. Testo
LEZIONE 21
Argomenti: In generale,
l'unione di due sottospazi vettoriali non è un sottospazio
vettoriale. La somma di due sottospazi vettoriali è un
sottospazio vettoriale ed è il più piccolo contenente
l'unione dei due sottospazi. Un sistema di generatori per
la somma dei sottospazi \(U\) e \(W\) è dato dall'unione
di una base di \(U\) e una base di \(W\); per ottenere una
base va poi applicato il metodo degli scarti successivi. Teorema
di Grassmann: Se \(U\) e \(W\) sono sottospazi vettoriali
di uno spazio vettoriale di dimensione finita, allora vale
la formula di Grassmann
\(\textrm{dim}(U+W)+\textrm{dim}(U\cap
W)=\textrm{dim}U+\textrm{dim}W\). Esempi
di applicazione della formula di Grassmann. Dati due
sottospazi \(U\) e \(W\) si ha che \(U+W=W\) se e solo se
\(U\cap W=U\) se e solo se \(U\subseteq W\). Somma diretta
di due sottospazi. Formula di Grassmann per la somma
diretta: \(\textrm{dim}(U\oplus
W)=\textrm{dim}U+\textrm{dim}W\). Teorema della somma
diretta: dati \(U\) e \(W\) sottospazi vettoriali, si ha
che \(U\) e \(W\) sono a somma diretta se e solo se ogni
vettore di \(U+W\) si scrive in maniera unica come somma
di un vettore di \(U\) e di un vettore di \(W\). Siano
\(T\), \(U\) e \(W\) sottospazi vettoriali, siano
\(\mathcal {B}_U=\{u_1,\dots, u_m\}\) una base di \(U\) e
\(\mathcal {B}_W=\{w_1,\dots, w_l\}\) una base di \(W\),
allora \(T=U\oplus W\) se e solo se \(\{u_1,\dots,
u_m,w_1,\dots,w_l\}\) è una base di \(T\). Sottospazi
complementari. In uno spazio vettoriale finitamente
generato ogni sottospazio ammette un complemento diretto
(che non è unico in generale). Somma diretta di più
sottospazi vettoriali.
Esercizi
Foglio n.10: Somma e intersezione di sottospazi
vettoriali.
LEZIONE 22
Argomenti: Sistemi di riferimento affine nel piano.
Coordinate affini di punti e vettori nel piano. Operazioni
tra vettori in termini di coordinate. Presi due punti del
piano \(A\) e \(B\), le coordinate del vettore
\(\stackrel{\longrightarrow}{AB}\) sono date dalla
differenza delle coordinate del punto finale \(B\) meno
quelle del punto di applicazione \(A\); più in generale si
ha che \(\stackrel{\longrightarrow}{AB}=v\) se e solo se
\(B=A+v\) . Una retta nel piano è univocamente individuata
da un suo punto e da un vettore ad essa parallelo. Vettore
direzionale e parametri direttori di una retta. Equazione
vettoriale di una retta: data una retta \(r\), un punto
\(P_0\in r\) ed un vettore direzionale \({v}\) di \(r\),
allora un punto \(P\) del piano appartiene ad \(r\) se e
solo se \(\stackrel{\longrightarrow}{P_0P}=t\,{v}\), per
qualche \(t\in \mathbb R\). Equazioni parametriche di una
retta: data una retta \(r\), un punto \(P_0(x_0,\,y_0)\in
r\) ed un vettore direzionale \({v}(l,\,m)\) di \(r\),
allora equazioni parametriche di \(r\) sono date da
\(\begin{cases}x=x_0+l\,t\\y=y_0+m\,t
\end{cases}\). Equazione
cartesiana di una retta: una retta nel piano è
rappresentata da un'equazione del tipo \(ax+by+c=0\), con
\(a\) e \(b\) non contemporaneamente nulli, e viceversa,
ogni equazione di questo tipo ha per grafico nel piano una
retta. La retta di equazione \(ax+by+c=0\) ha per vettore
direzionale il vettore \((-b,a)\). Dati \(P_1(x_1,y_1)\) e
\(P_2(x_2,y_2)\) due punti distinti del piano, la retta
che li congiunge ha equazioni parametriche date da
\(\begin{cases}x=x_1+(x_2-x_1)\,t\\y=y_1+(y_2-y_1)\,t\end{cases}\)
ed equazione cartesiana data da
\(\begin{vmatrix}x-x_1&y-y_1\\x_2-x_1&y_2-y_1\end{vmatrix}=0\).
Condizione di allineamento di tre punti.
LEZIONE 23
Argomenti: Rette
parallele, rette coincidenti, rette parallele e distinte,
rette incidenti. Posizione reciproca di due rette nel
piano: siano date due rette \(r:\ ax+by+c=0\) e \(r':\
a'x+b'y+c'=0\), allora \(r\|r'\) se e solo se
\(\textrm{rk}\begin{pmatrix}a&b\\a'&b'\end{pmatrix}=1\);
in particolare sono parallele e coincidenti se e solo se
\(\textrm{rk}\begin{pmatrix}a&b&c\\a'&b'&c'\end{pmatrix}=1\),
sono parallele e distinte se e solo se
\(\textrm{rk}\begin{pmatrix}a&b\\a'&b'\end{pmatrix}=1\)
e
\(\textrm{rk}\begin{pmatrix}a&b&c\\a'&b'&c'\end{pmatrix}=2\);
infine \(r\) ed \(r'\) sono incidenti se e solo se
\(\textrm{rk}\begin{pmatrix}a&b\\a'&b'\end{pmatrix}=\textrm{rk}\begin{pmatrix}a&b&c\\a'&b'&c'\end{pmatrix}=2\).
La retta di equazione cartesiana \(ax+by+c=0\) ed una
retta di vettore direzionale \((l,m)\) sono parallelel se
e solo se \(al+bm=0\). Esercitazione di geoemetria piana
affine.
Esercizi Foglio n.11:
Piano affine.
LEZIONE 24
Argomenti: Richiami sulle
proprietà elementari dello spazio euclideo
tridimensionale. Punti allineati e punti complanari.
Vettori allineati e vettori complanari. Tre vettori di
\(\mathcal V^3\) sono linearmente dipendenti se e solo se
sono complanari. Lo spazio \(\mathcal V_O^3\) ha
dimensione tre. Lo spazio affine tridimensionale \(\mathbb
A^3(\mathbb R)\). Sistema di riferimento affine e
coordinate affini nello spazio. Coordinate di vettori
liberi ed applicati. I punti \(P_1,\ P_2,\ \dots,\ P_n\)
sono allineati (rispettivamente complanari) se e solo se
la matrice che ha per righe ordinatamente le coordinate
dei vettori \(\stackrel{\longrightarrow}{P_1P_2}\),
\(\dots\), \(\stackrel{\longrightarrow}{P_1P_n}\) ha
rango 1 (rispettivamente rango 2). Equazione vettoriale di
una retta: data una retta \(r\), un punto \(P_0\in r\) ed
un vettore direzionale \({v}\) di \(r\), allora un punto
\(P\) del piano appartiene ad \(r\) se e solo se
\(\stackrel{\longrightarrow}{P_0P}=t\,{v}\), per qualche
\(t\in \mathbb R\). Equazioni paramtriche di una retta:
una retta parallela al vettore \( v=(l,m,n)\) e passante
per il punto \(P_0=(x_0,y_0,z_0)\) ha equazioni
parametriche
\(\begin{cases}x=x_0+l\,t\\y=y_0+m\,t\\z=z_0+n\,t
\end{cases}\). Condizioni operative per l'allineamento di
tre punti e per la complanarità di quattro punti.
Equazione vettoriale di un piano: dato un piano \(\pi\),
un punto \(P_0\in \pi\) e due vettori non linearmente
indipendenti \(v\) e \(w\) \({v}\) paralleli a \(\pi\),
allora un punto \(P\) appartiene a \(\pi\) se e solo se
\(\stackrel{\longrightarrow}{P_0P}=t\,{v}+t'\,w\), per
qualche \(t,\,t'\in \mathbb R\). Equazioni parametriche di
un piano: il piano parallelo ai vettori \( v=(l,m,n)\) e
\( w=(l',m',n')\) e passante per il punto
\(P_0=(x_0,y_0,z_0)\) ha equazioni parametriche
\(\begin{cases}x=x_0+l\,t+l\,t'\\y=y_0+m\,t+m\,t'\\z=z_0+n\,t+n\,t'\end{cases}\).
Siano dati \(P_1(x_1,y_1,z_1)\),
\(P_2(x_2,y_2,z_2)\) e \(P_3(x_3,y_3,z_3)\) tre
punti non allineati dello spazio; il piano che li contiene
ha equazioni parametriche date da
\(\begin{cases}x=x_1+(x_2-x_1)\,t+(x_3-x_1)\,t'\\y=y_1+(y_2-y_1)\,t+(y_3-y_1)\,t'\\z=z_1+(z_2-z_1)\,t+(z_3-z_1)\,t'\end{cases}\).
LEZIONE 25
Argomenti: Tutti e soli i piani dello spazio
sono rappresentati da un'equazione del tipo
\(ax+by+cz+d=0\), con \(a,b,c\) non contemporaneamente
nulli. Equazioni cartesiane di una retta nello spazio:
tutte e sole le rette dello spazio sono definite da un
sistema lineare di due equazioni in tre indeterminate del
tipo \(\begin{cases}ax+by+cz+d=0\\
a'x+b'y+c'z+d'=0\end{cases}\), con
\(\textrm{rk}\begin{pmatrix}a&b&c\\a'&b'&c'\end{pmatrix}=2\).
Una retta di equazioni cartesiane \(r:\
\begin{cases}ax+by+cz+d=0\\ a'x+b'y+c'z+d'=0\end{cases}\)
ha come vettore direzionale il vettore
\(v_r=\left(\begin{vmatrix}b&c\\b'&c'\end{vmatrix},\
-\begin{vmatrix}a&c\\a'&c'\end{vmatrix},\
\begin{vmatrix}a&b\\a'&b'\end{vmatrix}\right)\).
Piani coincidenti, piani paralleli e distinti, piani
incidenti. I piani paralleli (in senso lato) si
distinguono in piani propriamente paralleli e piani
(paralleli e) coincidenti. Teorema di classificazione
delle posizioni reciproche di due piani nello spazio:
siano dati due piani \(\pi:\ ax+by+cz+d=0\) e \(\pi':\
a'x+b'y+c'z+d'=0\); allora \(\pi\) e \(\pi'\) sono
paralleli e distinti se e solo se
\(\textrm{rk}\begin{pmatrix}a&b&c\\a'&b'&c'\end{pmatrix}=1\)
e
\(\textrm{rk}\begin{pmatrix}a&b&c&d\\a'&b'&c'&d'\end{pmatrix}=2\);
\(\pi\) e \(\pi'\) sono coincidenti se e solo se
\(\textrm{rk}\begin{pmatrix}a&b&c&d\\a'&b'&c'&d'\end{pmatrix}=1\);
\(\pi\) e \(\pi'\) sono incidenti se e solo se
\(\textrm{rk}\begin{pmatrix}a&b&c\\a'&b'&c'\end{pmatrix}=2\).
Dato il piano \(\pi: \ ax+by+cz+d=0\), il vettore
\(v=(a,b,c)\) è detto vettore di giacitura di \(\pi\) e i
coefficienti \(a,\,b,\,c\) sono detti parametri giacitura.
Piani paralleli hanno, a meno di un fattore moltiplicativo
non nullo, gli stessi parametri di giacitura. Teorema di
classificazione delle posizioni reciproche tra retta e
piano nello spazio: dati un piano \(\pi:\
ax+by+cz+d=0\) ed una retta \(r:\
\begin{cases}a'x+b'y+c'z+d'=0\\
a''x+b''y+c''z+d''=0\end{cases}\), si ha che \(r\) e
\(\pi\) sono propriamente paralleli se e solo se
\(\textrm{det}\begin{pmatrix}a&b&c\\a'&b'&c'\\a''&b''&c''\end{pmatrix}=0\)
e
\(\textrm{rk}\begin{pmatrix}a&b&c&d\\a'&b'&c'&d'\\a''&b''&c''&d''\end{pmatrix}=3\);
si ha che \(r\subset\pi\) se e solo se
\(\textrm{rk}\begin{pmatrix}a&b&c&d\\a'&b'&c'&d'\\a''&b''&c''&d''\end{pmatrix}=2\);
risulta che \(r\) e \(\pi\) sono incidenti (in un solo
punto) se e solo se
\(\textrm{det}\begin{pmatrix}a&b&c\\a'&b'&c'\\a''&b''&c''\end{pmatrix}\neq0\).
Un piano di giacitura \((a,b,c)\) ed una retta di
parametri direttori \((l,m,n)\) sono paralleli se e solo
se \(al+bm+cn=0\).
LEZIONE 26
Argomenti: Due rette
sono parallele se e solo se hanno vettori direzionali
proporzionali. Rette parallele sono complanari. Rette
incidenti sono complanari. Rette sghembe. Teorema di
classificazione delle posizioni reciproche di due
rette nello spazio: date le rette \(r:\
\begin{cases}ax+by+cz+d=0\\
a'x+b'y+c'z+d'=0\end{cases}\) e \(s:\
\begin{cases}a''x+b''y+c''z+d''=0\\
a'''x+b'''y+c'''z+d'''=0\end{cases}\) e prese le
matrici \(A=
\begin{pmatrix}a&b&c\\a'&b'&c'\\a''&b''&c''\\a'''&b'''&c'''\end{pmatrix}\)
e \(B=
\begin{pmatrix}a&b&c&d\\a'&b'&c'&d'\\a''&b''&c''&d''\\a'''&b'''&c'''&d'''\end{pmatrix}\),
si ha che \(r\) e \(s\) sono sghembe se e solo se
\(\textrm{det}B\neq0\), \(r\) e \(s\) sono
incidenti se e solo se
\(\textrm{rk}B=\textrm{rk}A=3\), \(r\) e \(s\) sono
propriamente parallele se e solo se \(\textrm{rk}B=3\)
e \(\textrm{rk}A=2\), \(r\) e \(s\) sono coincidenti
se e solo se \(\textrm{rk}B=2\). Esercitazione.
Esercizi
Foglio n.12: Spazio affine
LEZIONE 27
Argomenti: Applicazioni lineari tra spazi
vettoriali. Un'applicazione lineare \(F:\ V\rightarrow W\)
è tale che \(F(\mathbf{0}_V)=\mathbf{0}_W\) e
\(F(-v)=-F(v)\), per ogni \(v\in V\). Le applicazioni
lineari conservano le combinazioni lineari: data
un'applicazione lineare \(F:\ V\rightarrow W\) e il
vettore \(v=\lambda_1 v_1+\dots+\lambda_k v_k\), allora
\(F(v)=\lambda_1 F(v_1)+\dots+\lambda_k F(v_k)\). Due
applicazioni lineari sono uguali se e solo se assumono gli
stessi valori sui vettori di una base dello spazio di
partenza. Applicazione nulla. Applicazione identica.
Restrizione di un'applicazione lineare ad un sottospazio
vettoriale. Applicazione lineare data dalla
moltiplicazione a sinistra per una matrice. La derivazione
è un'applicazione lineare definita sullo spazio dei
polinomi (o delle funzioni derivabili).
LEZIONE 28
Argomenti: Esercitazione: test di metà semestre.
LEZIONE 29
Argomenti: Esercitazione: svolgimento del test di
metà semestre.
LEZIONE 30
Argomenti: Teorema fondamentale di esistenza e
unicità dell'applicazione lineare definita dai valori
assunti sui vettori di una base (o teorema di estensione):
dati gli spazi vettoriali \(V\) e \(W\), con \(V\)
finitamente generato, presi \(\{v_1,\dots, v_n\}\) una
base di \(V\) e \(\{w_1,\dots,w_n\}\) un sottinsieme di
vettori qualsiasi di \(W\), allora esiste ed è unica
l'applicazione lineare \(F:V\rightarrow W\) tale che
\(F(v_1)=w_1,\,\dots,\,F(v_n)=w_n\). Esempi di
applicazione del teorema di estensione. Matrice associata
ad un'applicazione lineare rispetto a due basi.
LEZIONE 31
Argomenti: Formule di calcolo in termini di
coordinate e matrice associata. Teorema di
rappresentazione. Legge del cambiamento della matrice
associata. Insieme immagine di un'applicazione lineare. Se
\(F:\ V\rightarrow W\) è un'applicazione lineare, allora
\(\textrm{Im} F\) è un sottospazio vettoriale di \(W\). Se
\(F:\ V\rightarrow W\) è un'applicazione lineare, allora
\(\textrm{Im} F\) è un sottospazio vettoriale di \(W\);
inoltre se \(V\) è finitamente generato ed ha dimensione
\(n\) allora \(\textrm{dim Im}F\leqslant n\) e se
\(\{v_1,\dots, v_n\}\) è una base di \(V\), allora
\(\{F(v_1),\,\dots,\,F(v_n)\}\) è un sistema di generatori
di \(\textrm{Im} F\). L'immagine diretta di un sottospazio
del dominio sotto un'applicazione lineare è un sottospazio
dell'insieme d'arrivo.
LEZIONE 32
Argomenti: La dimensione dell'immagine di
un'applicazione lineare tra spazi vettoriali finitamente
generati eguaglia il rango della matrice associata.
Un'applicazione lineare \(F:\ V\rightarrow W\) è
suriettiva se e solo se \(\textrm{Im}F=W\), e se \(V\) e
\(W\) sono finitamente generati, \(F\) è suriettiva se e
solo se \(\textrm{rk}A=\textrm{codim Ker}F\).
Controimmagine di un vettore. La controimmagine sotto
un'applicazione lineare tra spazi vettoriali finitamente
generati è trovata risolvendo un sistema lineare. Nucleo
di un'applicazione lineare. Il nucleo di un'applicazione
lineare è un sottospazio vettoriale del dominio e se
dominio e insieme di arrivo sono finitamente generati, la
codimensione del nucleo è uguale al rango di una matrice
associata all'applicazione.
LEZIONE 33
Argomenti: Un'applicazione lineare è iniettiva se e
solo se il suo nucleo è banale. Teorema del rango: siano
\(V\) e \(W\) spazi vettoriali, con \(V\) finitamente
generato, e sia \(F:\ V\rightarrow W\) un'applicazione
lineare, allora vale la formula della dimensione:
\(\textrm{dim}V=\textrm{dim Im}(F)+\textrm{dim Ker}(F)\).
Esempi di applicazione del teorema del rango. Data
l'applicazione lineare \(F:\ V\rightarrow W\) tra due
spazi vettoriali finitamente generati, si ha che \(F\) è
iniettiva se e solo se \(\textrm{dim Im}F=\textrm{dim}V\),
\(F\) è suriettiva se e solo se \(\textrm{dim
Im}F=\textrm{dim}W\), infine \(F\) è biettiva se e solo se
\(\textrm{dim Im}F=\textrm{dim}W=\textrm{dim}W\). Sia
\(F:\ V\rightarrow W\) un'applicazione lineare e sia
\(\textrm{dim}V=\textrm{dim}W\), allora \(F\) è iniettiva
se e solo se \(F\) è suriettiva, se e solo se \(F\) è
biettiva. Sia \(F: V\longrightarrow W\) un'applicazione
lineare tra spazi vettoriali di dimensione finita, se
\(\textrm{dim}V>\textrm{dim}W\) allora \(F\) non può
essere iniettiva, se invece
\(\textrm{dim}W>\textrm{dim}V\) allora \(F\) non può
essere suriettiva. Sia data l'applicazione lineare \(F:\
V\rightarrow W\) tra due spazi vettoriali finitamente
generati e sia \(A\) una matrice associata ad \(F\), si ha
che \(F\) è iniettiva se e solo se
\(\textrm{rk}A=\textrm{dim}V\), \(F\) è suriettiva se e
solo se \(\textrm{rk}A=\textrm{dim}W\). Omomorfismi,
endomorfismi, automorfismi di spazi vettoriali.
LEZIONE 34
Argomenti: Due
spazi vettoriali finitamente generati sono isomorfi se
e solo se hanno la stessa dimensione. Tutti gli spazi
vettoriali di dimensione \(n\) sono isomorfi ad
\(\mathbb{R}^n\). Considerazioni sul significato del
concetto di isomorfismo. Composizione di applicazioni.
Esercitazione.
Esercizi
Foglio n.13: Applicazioni lineari
LEZIONE 35
Argomenti: Applicazioni invertibili.
Un'applicazione è invertibile se e solo se è biettiva. La
composizione di applicazioni lineari è un'applicazione
lineare. Teorema di composizione operatoria: date le
applicazioni tra spazi vettoriali f.g. \(F:\ V\rightarrow
W\) e \(G:\ W\rightarrow U\) con matrici associate
rispettivamente \(B\) e \(A\), allora l'applicazione
\(G\circ F:\ V\rightarrow U\) ha come matrice associata la
matrice \(AB\). Teorema di Kronecker per il rango del
prodotto di matrici: se \(A\) e \(B\) sono due matrici
allora
\(\textrm{rk}AB\leqslant\textrm{min}\{\textrm{rk}A,\
\textrm{rk}B\}\). Se si moltiplica una matrice \(A\) a
destra o a sinistra per una matrice invertibile, allora il
rango di \(A\) resta invariato. Le matrici associate ad
una applicazione lineare hanno lo stesso rango (che
coincide con la dimensione dell'immagine). Un'applicazione
lineare \(F\) tra due spazi vettoriali f.g. è invertibile
se e solo se le matrici associate ad \(F\) sono
invertibili; in particolare la matrice di \(F^{-1}\) è
l'inversa della matrice di \(F\) (a patto di usare le
stesse basi). Endomorfismi e automorfismi di uno spazio
vettoriale. Matrici associate ad un endomorfismo. Matrici
simili. Le matrici associate ad un endomorfismo sono
simili tra loro, hanno lo stesso rango e lo stesso
determinante. Un endomorfismo è automorfismo se e solo se
tutte le sue matrici associate sono invertibili.
Introduzione alla diagonalizzazione: motivazione e
applicazioni. Endomorfismi diagonalizzabili e basi
diagonalizzanti.
LEZIONE 36 (dott. Buccheri)
Argomenti: Esercitazione: Applicazioni lineari.
LEZIONE 37
Argomenti: Autovalori e autovettori di un
endomorfismo. Autospazi. Gli autospazi di un endomorfismo
sono sottospazi vettoriali di dimensione maggiore o uguale
a 1. Autovettori associati ad autovalori distinti sono
linearmente indipendenti. Un endomorfismo non è
invertibile se e solo se ammette l'autovalore nullo, in
particolare l'autospazio associato a 0 coincide con il
nucleo dell'endomorfismo. Ricerca di autovalori e
autovettori. Un numero reale \(\lambda\) è autovalore per
un endomorfismo \(F\) se e solo verifica l'equazione
\(\textrm{det}(A-\lambda I_n)=0\), dove \(A\) è una
matrice associata ad \(F\). Un vettore con coordinate
\(X\in\mathbb{R}^n\) è un autovettore per \(F\) associato
all'autovalore \(\lambda\) se e solo se le sue coordinate
risolvono il sistema lineare omogeneo \((A-\lambda
I_n)X=\mathbf{0}\). Matrice caratteristica. Polinomio
caratteristico. Equazione caratteristica. Equazione
secolare di Laplace. Teorema di invarianza del polinomio
caratteristico: il polinomio caratteristico di un
endomorfismo \(F\) non dipende dalla matrice di \(F\)
scelta per calcolarlo. Matrici simili hanno lo stesso
polinomio caratteristico.
LEZIONE 38
Argomenti: Molteplicità algebrica
\(\textrm{m.a.}(\lambda)\) e molteplicità geometrica
\(\textrm{m.g.}(\lambda)\) di un autovalore \(\lambda\).
Un endomorfismo diagonalizzabile ha autovalori tutti reali
(non necessariamente distinti). Se \(\lambda\) è un
autovalore di un endomorfismo allora \(1\leqslant
\textrm{m.g.}(\lambda)\leqslant \textrm{m.a.}(\lambda)\).
Teorema fondamentale della diagonalizzabilità: un
endomorfismo di uno spazio vettoriale di dimensione finita
è diagonalizzabile se e solo se ammette autovalori tutti
reali e per ciascuno di questi molteplicità geometrica e
molteplicità aritmetica coincidono. Se un endomorfismo
ammette autovalori distinti allora è diagonalizzabile.
LEZIONE 39
Argomenti: Esercitazione: Diagonalizzazione di
endomorfismi.
Esercizi
Foglio n.14: Diagonalizzazione di endomorfismi.
LEZIONE 40
Argomenti: Diagonalizzabilità di matrici. Polinomio
caratteristico, autovalori, autovettori, autospazi di una
matrice quadrata. Una matrice quadrata è diagonalizzabile
se e solo se essa è simile ad una matrice diagonale.
Esempi di diagonalizzazione di applicazioni lineari e
matrici. Spazi vettoriali euclidei. Prodotto scalare
standard su \(\mathbb{R}^n\). Norma (o lunghezza) di un
vettore, \(\parallel v\parallel=\sqrt{v\cdot v}\).
Diseguaglianza di Cauchy-Schwarz: dati due vettori \(v\) e
\(w\) si ha che \(|v\cdot w|\leqslant\parallel v\parallel
\,\parallel w\parallel\). Proprietà della norma: la norma
assume sempre valori positivi ed è nulla solo per il
vettore nullo; la norma è positivamente omogenea di grado
1. Diseguaglianza triangolare.
LEZIONE 41
Argomenti: Angolo (convesso) compreso tra due
vettori non nulli. Detto \(\theta\) l'angolo compreso tra
due vettori non nulli \(v\) e \(w\), si ha che \(v\cdot
w=\parallel v\parallel \,\parallel w\parallel
\cos\theta\). Teorema di Pitagora. Versori.
Normalizzazione di vettori. Basi ortogonali. Basi
ortonormali. Dei vettori non nulli e a due a due
ortogonali sono linearmente indipendenti. Normalizzando i
vettori di una base ortogonale si ottiene una base
ortonormale. Procedimento ortogonale di Gram-Schmidt.
Complemento ortogonale di un sottospazio vettoriale.
LEZIONE 42
Argomenti: Teorema di decomposizione ortogonale:
Dato un sottospazio vettoriale non nullo
\(W\subseteq\mathbb R^n\), risulta che \(\mathbb
R^n=W\oplus W^\bot\); in particolare si ha che
\(\textrm{dim}W^\bot=n-\textrm{dim}W\). Proiezione
ortogonale di vettori rispetto a un sottospazio.
Interpretazione geometrica del coefficiente di Fourier e
del procedimento ortogonale di G.-S. Esercitazione.
LEZIONE 43
Argomenti: Matrici ortogonali. Una matrice
ortogonale è invertibile. Una matrice di ordine \(n\) è
ortogonale se e solo se le sue righe (colonne) sono una
base di ortonormale di \(\mathbb R^n\). Le matrici
ortogonali hanno determinante uguale a \(\pm1\). Siano
\(\mathcal B\) una base ortonormale di \(\mathbb R^n\),
\(\mathcal B'\) un'altra base di \(\mathbb R^n\) e sia
\(P\) la matrice di passaggio da \(\mathcal B\) a
\(\mathcal B'\); allora la base \(\mathcal B'\) è
ortonormale se e solo se \(P\) è una matrice ortogonale.
Endomorfismi simmetrici di \(\mathbb R^n\). Un
endomorfismo di \(\mathbb R^n\) è simmetrico se e solo
se la sua matrice rispetto a una qualsiasi base
ortonormale è una matrice simmetrica. Un
endomorfismo simmetrico trasforma vettori ortogonali ad
un autovettore in vettori ortogonali allo stesso
autovettore.
Esercizi
Foglio n.15: Spazi vettoriali euclidei
LEZIONE 44 (dott. Buccheri)
Argomenti: Esercitazione.
LEZIONE 45 (dott. Buccheri)
Argomenti: Esercitazione.
LEZIONE 46
Argomenti: Tereoma spettrale (per endomorfismi
simmetrici): Ogni endomorfismo simmetrico di \(\mathbb
R^n\) è diagonalizzabile rispetto ad una base ortonormale
di suoi autovettori. Teorema spettrale (per matrici
simmetriche): Ogni matrice simmetrica è sia simile che
congruente ad una matrice diagonale, ovvero per ogni
matrice simmetrica \(A\) esistono una matrice diagonale
\(D\) ed una matrice ortogonale \(M\) tali che
\(D=M^{-1}AM=M^{T}AM\). Esercitazione.
Esercizi
Foglio 16: Teorema spettrale
LEZIONE 47
Argomenti: Prodotto vettoriale in \(\mathbb R^3\).
Il prodotto vettoriale è bilineare antisimmetrico. Il
prodotto vettoriale di due vettori è nullo se e solo se i
due vettori sono linearmente dipendenti. Prodotto misto di
tre vettori. Il prodotto misto è lineare rispetto ai suoi
argomenti e cambia segno per ogni scambio dei vettori che
si moltiplicano. Il prodotto vettoriale di due vettori è
ortogonale ad entrambi i fattori. Dati due vettori \(v\) e
\(w\) di \(\mathbb R^3\), si ha che \(\parallel v\wedge
w\parallel^2 =\parallel v\parallel ^2\,\,\parallel
w\parallel^2-(v\cdot w)^2 \). Dati due vettori linearmente
indipendenti \(v\) e \(w\), si ha che \(\left\{v,w,v\wedge
w\right\}\) è una base di \(\mathbb{R}^3\). Siano dati due
vettori non nulli \(v\) e \(w\) in \(\mathbb R^3\) e sia
\(v=a+b\) con \(a\) parallelo a \(w\) e \(b\)
perpendicolare a \(w\), allora \(\parallel v\wedge
w\parallel = \parallel b\parallel \,\parallel
w\parallel\). Il modulo del prodotto vettoriale di due
vettori eguaglia l'area del parallelogramma sotteso dai
due vettori. Dati tre punti nello spazio \(A,B,C\), l'area
del triangolo \(ABC\) è data da \(\mathcal A= \frac12
\parallel\vec{AB}\wedge\vec{AC}\parallel\). Il valore
assoluto del prodotto misto di tre vettori nello spazio dà
il volume del parallelepipedo sotteso ai tre vettori.
Esercizi
foglio 17: Prodotto vettoriale
LEZIONE 48 (dott. Buccheri)
Argomenti: Esercitazione.
LEZIONE 49
Argomenti: Sistemi di riferimento cartesiano nel
piano euclideo. Distanza tra due punti. Versore normale ad
una retta. i. Dati un punto \(P(x_0,\,y_0)\) e la retta
\(r:\ ax+by+c=0\), la distanza di \(P\) da \(r\) vale
\(d(P,r)=\displaystyle\frac{|ax_0+by_0+c|}{\sqrt{a^2+b^2}}\).
Distanza tra rette parallele nel piano. Circonferenza nel
piano. Esercitazione.
Esercizi foglio
18: Piano euclideo
LEZIONE 50
Argomenti: Spazio euclideo tridimensionale. Sistema
di riferimento cartesiano. Distanza tra due punti. Dato il
piano \(ax+by+cz+d=0\), il vettore di giacitura di
\(\pi\), \(v_\pi=(a,b,c)\), è ortogonale al piano \(\pi\).
Data una retta \(r\) di vettore direzionale \(v_r\) ed un
piano \(\pi\) di giacitura \(v_\pi\), si ha che \(r\) è
parallela a \(\pi\) se e solo se \(v_r\) e \(v_\pi\) sono
ortogonali, \(r\) è ortogonale a \(\pi\) se e solo se
\(v_r\) e \(v_\pi\) sono paralleli (proporzionali). Due
piani sono perpendicolari se e solo se lo sono le loro
giaciture. Distanza di un punto da un piano: dati un punto
\(P(x_0,\,y_0,\,z_0)\) e il piano \(\pi:\ ax+by+cz+d=0\),
la distanza di \(P\) da \(\pi\) vale
\(d(P,\pi)=\displaystyle\frac{|ax_0+by_0+cz_0+d|}{\sqrt{a^2+b^2+c^2}}\).
Distanza di un punto da una retta. Distanza di una retta
da un piano. Distanza tra due piani. Distanza tra due
rette complanari. Proiezione ortogonale di un punto su un
piano, di un punto su una retta. Distanza tra due rette
sghembe. Sfera e circonferenza nello spazio.
Esercizi foglio
19: Spazio euclideo
Esercizi foglio 20: Sfere e circonferenze
LEZIONE 51
Argomenti: Esercitazione: Geometria analitica del
piano e dello spazio.
LEZIONE 52
Argomenti: Una trasformazione (lineare) del piano
affine è un'applicazione \(f:\mathbb R^2\to \mathbb R^2\)
tale che per ogni punto \(P(x,y)\) si abbia
\(f(x,y)=(ax+by+c,\,\,a'x+b'y+c')\); inoltre ad una
trasformazione lineare si associa la matrice
\(A=\begin{pmatrix}a&b\\a'&b'\end{pmatrix}\) ed il
vettore \(v=(c,c')\). Una trasformazione costante del tipo
\(f(x,y)=(x_0,\,y_0)\) fa implodere tutto il piano nel
punto \((x_0,y_0)\). La trasformazione identica
\(f(x,y)=(x,y)\) lascia fissi tutti i punti, ha matrice
associata identica e vettore associato nullo. Una
traslazione è di tipo \(f(x,y)=(x+c,\,\,y+c')\), ha
matrice associata identica e vettore associato \((c,c')\).
Proiezione sull'asse \(x\): \(\Pi_x(x,y)=(x,0)\).
Rotazione attorno all'origine di un angolo \(\vartheta\):
\(\rho_\vartheta(x,y)=(\cos\vartheta\,x-\sin\vartheta\,y;\
\sin\vartheta\,x+\cos\vartheta\,y)\). Simmetria rispetto
all'asse \(x\): \(\sigma_x(x,y)=(x,\,-y)\).
Interpretazione geometrica di autovalori ed autovettori di
omomorfismi di \(\mathbb R^2\). Un'isometria è una
trasformazione lineare con matrice associata ortogonale.
Se \(f\) è un'isometria, allora conserva le distanze e le
lunghezze, cioè \(\parallel
\stackrel{\longrightarrow}{f(P)f(Q)}\parallel=\parallel\stackrel{\longrightarrow}{PQ}
\parallel\), per ogni coppia di punti \(P\) e \(Q\) del
piano. Trasformazioni di rette e curve per azione di una
trasformazione lineare. Una conica è un insieme dei punti
del piano le cui coordinate \((x,y)\) verificano
un'equazione di secondo grado di tipo: \(\mathscr C:
a_{11}x^2+a_{22}y^2+2a_{12}xy+2a_{01}x+2a_{02}y+a_{00}=0\),
con \(a_{ij}\in\mathbb R\) e \(a_{11},a_{12},a_{22}\) non
contemporaneamente nulli. Matrice (simmetrica) associata
ad una conica: data la conica \(\mathscr C\) di equazione
come sopra, la matrice associata a \(\mathscr C\) è la
matrice simmetrica
\(A=\begin{pmatrix}a_{00}&a_{01}&a_{02}\\a_{10}&a_{11}&a_{12}\\a_{20}&a_{21}&a_{22}\end{pmatrix}\),
in cui \(a_{01}=a_{10},\ a_{02}=a_{20},\ a_{21}=a_{12}\).
Se \(A\) è la matrice associata alla conica \(\mathscr
C\), allora si ha che \(\mathscr C\) ha equazione:
\(\mathscr
C:(1,x,y)A\begin{pmatrix}1\\x\\y\end{pmatrix}=0\). Rango
di una conica. Coniche non degeneri, coniche degeneri,
semplicemente degeneri e doppiamente degeneri. Matrice e
forma quadratica associata ad una conica:
\(Q=\begin{pmatrix}a_{11}&a_{12}\\a_{21}&a_{22}\end{pmatrix}\)
e \(Q(x,y)=a_{11}x^2+a_{22}y^2+2a_{12}xy\). Tipo di una
conica: coniche di tipo ellittico, iperbolico e
parabolico.
Esercizi
foglio 21: Trasformazioni geometriche
LEZIONE 53
Argomenti: Teorema di invarianza: data una conica
\(\mathscr C\) con matrice associata \(A\) e matrice
quadratica \(Q\), se \(\mathscr C'\) è la trasformata di
\(\mathscr C\) sotto l'azione di un'isometria e \(A'\) e
\(Q'\) sono le matrici associate ad essa, si ha che
\(\textrm{rank} A=\textrm{rank} A'\), \(\textrm{det}
Q=\textrm{det} Q'\), \(\textrm{sgn} Q=\textrm{sgn} Q'\).
Il tipo e il rango di una conica sono invarianti euclidei
(per effetto di isometrie). Le nove forme canoniche delle
coniche euclidee. Classificazione delle forme canoniche
per rango, tipo e grafico (per distinguere le ellissi e le
parabole semplicemente degeneri reali dalle corrispettive
con grafico vuoto). Teorema di riduzione in forma
canonica: ogni conica euclidea è isometrica (o congruente)
ad una soltanto delle nove forme canoniche, ovvero si può
sempre trovare un'isometria che trasforma la conica data
nella sua forma canonica. Esempi di riduzione in forma
canonica di coniche euclidee.
Esercizi foglio
22: Coniche euclidee
LEZIONE 54
Argomenti: Gruppi (finiti o infiniti) di isometrie
nel piano (cenni). Gruppo diedrale del triangolo
equilatero, del quadrato, del rettangolo. Le isometrie del
piano nelle arti figurative (arte islamica, Caravaggio,
Borromini, Escher, cristalli di neve). Trasformazioni
geometriche utilizzate nelle composizioni musicali di J.S.
Bach (canone, ripetizione, trasposizione, inversione,
retrogradazione del tema principale). Quadriche nello
spazio euclideo (tridimensionale). Forme canoniche delle
quadriche euclidee. Ellissoide a punti reali. Ellissoide
immaginario. Iperboloide iperbolico (a una falda).
Iperboloide ellittico (a due falde). Paraboloide
ellittico. Paraboloide iperbolico (a sella). Cono (doppio
o quadrico) a punti reali e cono a punti immaginari.
Cilindri ellittici, parabolici e iperbolici. Sezioni di
quadriche con piani paralleli ai piani coordinati \(xy\),
\(xz\) e \(yz\). Quadriche rigate. Il cono quadrico
contiene le coniche a punti reali (tranne la coppia di
rette parallele). Analisi del modello di un cono, di un
iperboloide iperbolico e di un paraboloide iperbolico.
LEZIONE 55
Argomenti: Esercitazione.
LEZIONE 56
Argomenti: Esercitazione in preparazione alla prova
scritta.