Corso GE110 - a.a. 2012/2013

DIARIO DELLE LEZIONI

Numero
Data
Argomenti svolti



 1
25/2
Organizzazione del corso. Introduzione agli argomenti.
 2
25/2
Matrici. Righe, colonne, la trasposta di una matrice. Lo spazio delle matrici. Somma di matrici, moltiplicazione di una matrice per un numero reale. Prodotto di matrici. Matrici notevoli: diagonali, triangolari, simmetriche, antisimmetriche, identità.
 3
27/2
Principali proprietà delle operazioni tra matrici: distributività, associatività del prodotto, trasposta del prodotto e della somma, la matrice identità è elemento neutro del prodotto.
 4
27/2 Matrici invertibili, proprietà dell'inversa di una matrice, gruppo lineare, matrici ortogonali, gruppo ortogonale. Sistemi di equazioni lineari: forma generale, soluzioni, sistemi omogenei, sistema omogeneo associato ad un dato sistema. Sistemi compatibili ed incompatibili. Le soluzioni di un sistema compatibile sono ottenute da una data soluzione sommando tutte le soluzioni del sistema omogeneo associato.
 5
4/3
Matrice di un sistema, matrice orlata, sistema in forma matriciale. Sistemi a gradini, caso quadrato e caso generale, loro soluzioni ed infinità.
 6
4/3
Metodo di eliminazione di Gauss-Jordan. Operazioni elementari sui sistemi e sulla matrice orlata. Esempi di sistemi compatibili ed incompatibili a seconda dell'output del metodo di eliminazione di Gauss-Jordan. Sistemi quadrati con matrice invertibile, esistenza ed unicità della soluzione. Matrici elementari e loro inverse. 
 7
 6/3
Una matrice è invertibile se e solo se è prodotto di matrici elementari. Calcolo della matrice inversa con operazioni elementari. Esempi di spazi vettoriali.
 8
 6/3
La struttura di spazio vettoriale. Altri esempi. I vettori geometrici. Prime conseguenze degli assiomi. L'importanza delle definizioni astratte (A Revolution in Mathematics? What Really Happened a Century ago and why it matters today, Notices AMS, gennaio 2012).
 9
 11/3
Altre conseguenze degli assiomi. Sottospazi. Esempi: il sottospazio generato da un vettore, un iperpiano per l'origine in \({\mathbb R^n}\), le soluzioni di un sistema lineare omogeneo. Intersezione e somma di sottospazi sono sottospazi. L'unione di sottospazi non è, in generale, un sottospazio.
10
 11/3
Il prodotto cartesiano di due spazi vettoriali. Combinazioni lineari, il sottospazio generato da un numero finito di vettori. Dipendenza ed indipendenza lineare, esempi.
11
13/3
Un vettore è linearmente dipendente se e solo se è nullo. Due vettori sono linearmente dipendenti se e solo se sono multipli (paralleli). Dei vettori sono linearmente dipendenti se e solo se uno è combinazione lineare degli altri. Se un insieme finito di vettori contiene il vettore nullo allora i vettori sono linearmente dipendenti. In un insieme finito di vettori linearmente indipendenti ogni sottoinsieme è costituito da vettori linearmente indipendenti. Generatori. Base finita di uno spazio vettoriale. Esempi, la base canonica di \({\mathbb R^n}\) e dello spazio delle matrici.
12
13/3
Spazi vettoriali che non hanno una base finita, lo spazio dei polinomi. Se uno spazio vettoriale ha \(n\) generatori allora ogni insieme di \(m > n\) vettori è costituito da vettori linearmente dipendenti. Due basi finite hanno lo stesso numero di elementi. Dimensione di uno spazio vettoriale con base finita. La dimensione di \(\{0\}\) è \(0\). Esempi, la dimensione di \({\mathbb R^n}\), dello spazio delle matrici e dello spazio dei polinomi di grado \(\leq d\).
13
18/3
Coordinate di un vettore rispetto ad una base finita di uno spazio vettoriale.  Esempi, la dimensione dello spazio dei vettori geometrici del piano e dello spazio delle soluzioni di un sistema lineare omogeneo. Se \(V\) è uno spazio vettoriale di dimensione \(n\) allora ogni insieme di \(n\) vettori linearmente indipendenti è una base di \(V\) ed ogni insieme di \(m\) vettori linearmente indipendenti è tale che \(m \leq n\) e può essere completato ad una base di \(V\).
14
18/3
Se \(V\) è uno spazio vettoriale di dimensione \(n\) e \(W\) è un sottospazio di \(V\), allora \(W\) ha dimensione finita, \(\dim W \leq n\) e vale uguale se e solo se \(W = V\). La formula di Grassmann.
15
20/3
Rango di un insieme di vettori, rango per righe e rango per colonne di una matrice, esempi. Il rango per righe coincide con il rango per colonne di una qualsiasi matrice.
16
20/3
Prime proprietà del rango. Il rango di un insieme di vettori (e quindi di una matrice) non cambia con operazioni elementari di tipo I, II o III.
\(r(AB) \leq \min\{r(A), r(B)\}\); \(r(AB) = r(B)\) se \(A\) è invertibile (o \(r(AB) = r(A)\) se \(B\) è invertibile). Una matrice \(n \times n\) è invertibile se e solo se ha rango \(n\). Sottomatrici. Il rango di una sottomatrice è al più il rango della matrice.
17
25/3
Esercizi di preparazione al primo esonero.
18 25/3 Esercizi di preparazione al primo esonero.
19
25/3 Esercizi di preparazione al primo esonero.
20
 4/4 Prima prova in itinere.
21
4/4
Prima prova in itinere.
22
4/4
Prima prova in itinere.
23
8/4
Il rango di una matrice è la massima dimensione delle sottomatrici invertibili. Il teorema di Kronecker-Rouché-Capelli. Richiami sui gruppi di permutazioni. Il determinante di una matrice quadrata. Esempi.
24
8/4
Prime proprietà del determinante: è lineare nelle righe (colonne), il determinate di una matrice è uguale a quello della sua trasposta, cambia segno se si scambiano due righe (colonne) ed è zero se ci sono due righe (colonne) uguali. Il determinate dell'identità è \(1\). Il determinante del prodotto di due matrici è uguale al prodotto dei determinanti (dimostrazione nella prossima lezione). Il determinante dell'inversa di una matrice è l'inverso del determinante. Una matrice quadrata di ordine \(n\) ha rango \(n\) se e solo se ha determinante non nullo.
25
10/4
Minori di una matrice. Il rango di una matrice è il massimo ordine dei suoi minori non nulli. Il determinante di una matrice è nullo se la matrice ha una riga (o colonna) nulla; il determinante di una matrice non cambia se si effettua un'operazione elementare di tipo III tra le righe (colonne). Il cofattore di un elemento di una matrice, la matrice cofattore di una matrice, esempi. 
26 10/4 La formula di Laplace nel caso dello sviluppo per righe (colonne) del determinante. Il prodotto di una matrice per la trasposta della matrice cofattore è uguale al prodotto dell'identità per il determinante della matrice (dimostrazione nella prossima lezione). Matrice inversa calcolata con la matrice cofattore (dimostrazione nella prossima lezione).
27 17/4 Il prodotto di una matrice per la trasposta della matrice cofattore è uguale al prodotto dell'identità per il determinante della matrice (dimostrazione). Matrice inversa calcolata con la matrice cofattore (dimostrazione). La regola di Cramer. Il principio dei minori orlati. Risoluzione di sistemi lineari con l'utilizzo del teorema di Kronecker-Rouché-Capelli, del principio dei minori orlati e della regola di Cramer.
28 17/4 Spazi affini, definizione, prime conseguenze degli assiomi, dimensione. Esempi di spazi affini: rette, piani, gli spazi affini di dimensione 0 sono i punti.
29 22/4
Spazi vettoriali come spazi affini su se stessi, \(n\)-spazio affine numerico. Sistemi di riferimento affini, coordinate. Sottospazi affini, giacitura, dimensione. Rette, piani, sottospazi generati da un numero finito di punti.
30
22/4
Un sottospazio affine è individuato dalla sua giacitura e da un suo qualsiasi punto. Un sottospazio affine è uno spazio affine sulla sua giacitura. Equazioni parametriche di sottospazi affini, rette e piani. Equazioni cartesiane di sottospazi vettoriali.
31
24/4
In uno spazio affine con riferimento affine fissato, l'insieme delle soluzioni di un sistema lineare, se non vuoto, è un sottospazio affine di codimensione pari al rango della matrice dei coefficenti del sistema. Viceversa ogni sottospazio affine è l'insieme delle soluzioni di un sistema lineare con matrice di rango pari alla codimensione del sottospazio.  Siano \(S\) e \(T\) due sottospazi affini in uno spazio affine \(A\) tali che \(S \parallel T, \dim S \leq \dim T\) e \(S \cap T \neq \emptyset\). Allora \(S \subseteq T\) e vale \(=\) se e solo se \(\dim S = \dim T\). Il quinto postulato di Euclide negli spazi affini.
32 24/4
Sottospazi affini sghembi ed incidenti. Siano \(S\) e \(T\) due sottospazi affini in uno spazio affine \(A\). Se \(S \cap T \neq \emptyset\) allora \(S \cap T\) è un sottospazio affine e \(\dim S + \dim T - \dim A \leq \dim S \cap T \leq \min\{\dim S, \dim T\}\). Siano \(S\) e \(T\) due sottospazi affini di rispettive giaciture \(W, U\) in uno spazio affine \(A\) su uno spazio vettoriale \(V\). Allora \(S \cap T \neq \emptyset\) e \(\dim S \cap T = \dim S + \dim T - \dim A\) se e solo se \(W+U=V\). Geometria in un piano affine, equazioni parametriche e cartesiane di rette. Siano \(r : Ax+By+C=0\) e \(r' : A'x+B'y+C'=0\) due rette. Allora possono accadere i seguenti casi: (1) \(r \parallel r'\) se e solo se \(\left| \matrix{A & B \cr A' & B' \cr } \right| = 0\); (2) Se \(r \parallel r'\) allora \(r \cap r' = \emptyset\) se e solo se \(\hbox{r}\pmatrix{A & B & C \cr A' & B' & C' \cr} = 2\); (3) Se \(r \not\parallel r'\) alllora \(r \cap r'\) è un punto. Questo accade se e solo se \(\left| \matrix{A & B \cr A' & B' \cr } \right| \neq 0\).
33
29/4
Geometria in uno spazio affine di dimensione tre, equazioni parametriche e cartesiane di rette e piani, giaciture, piano per tre punti non allineati. Siano \(p : Ax+By+Cz+D=0\) e \(p' : A'x+B'y+C'z+D'=0\) due piani. Allora possono accadere i seguenti casi: (1) \(p \parallel p'\) se e solo se \(\hbox{r} \pmatrix{A & B & C \cr A' & B' & C' \cr } = 1\); (2) Se \(p \parallel p'\) allora \(p \cap p' = \emptyset\) se e solo se \(\hbox{r}\pmatrix{A & B & C & D \cr A' & B' & C' & D' \cr} = 2\); (3) Se \(p \not\parallel p'\) allora \(p \cap p'\) è una retta. Questo accade se e solo se \(\hbox{r} \pmatrix{A & B & C \cr A' & B' & C' \cr } = 2\). In uno spazio affine di dimensione tre, siano \(r \)  una retta di equazioni parametriche \(x = a + lt, y=b+mt, z=c+nt\) e cartesiane \(Ax+By+Cz+D=0, A'x+B'y+C'z+D'=0\) e \(p\) un piano di equazione \(A''x+B''y+C''z+D''=0\). Allora possono accadere i seguenti casi: (1) \(r \parallel p\) se e solo se \(\left| \matrix{A & B & C \cr A' & B' & C' \cr A'' & B'' & C'' \cr } \right| = 0\) se e solo se \(A''l+B''m+C''n = 0\); (2) Se \(r \parallel p\) allora \(r \cap p = \emptyset\) se e solo se \(\hbox{r}\pmatrix{A & B & C & D \cr A' & B' & C' & D' \cr A'' & B'' & C'' & D'' \cr} = 3\); (3) Se \(r \not\parallel p\) allora \(r \cap p\) è un punto. Questo accade se e solo se \(\left|\matrix{A & B & C \cr A' & B' & C' \cr A'' & B'' & C'' \cr } \right| \neq 0\) se e solo se \(A''l+B''m+C''n \neq 0\).
34
29/4
Rette complanari. In uno spazio affine di dimensione tre due rette sono complanari se e solo se sono parallele o incidenti se e solo se non sono sghembe. In uno spazio affine di dimensione tre due rette di equazioni cartesiane \(Ax+By+Cz+D=0, A'x+B'y+C'z+D'=0\), ovvero passante per \(Q(a, b, c)\) e parallela a \(le_1+me_2+ne_3\) e \(A_1x+B_1y+C_1z+D_1=0, A'_1x+B'_1y+C'_1z+D'_1=0\) ovvero passante per \(Q_1(a_1, b_1, c_1)\) e parallela a \(l_1e_1+m_1e_2+n_1e_3\) sono complanari se e solo se \(\left|\matrix{A & B & C & D \cr A' & B' & C' & D' \cr A_1 & B_1 & C_1 & D_1 \cr A'_1 & B'_1 & C'_1 & D'_1 \cr} \right| = 0\) se e solo se \(\left|\matrix{a-a_1 & b-b_1 & c-c_1 \cr l & m & n \cr l_1 & m_1 & n_1 \cr } \right| = 0\).
35 6/5
Applicazioni lineari tra spazi vettoriali. Operatori lineari, funzionali lineari, isomorfismi. Esempi di applicazioni lineari tra spazi vettoriali: applicazione nulla, identità, coordinate, proiezioni. Spazi di applicazioni lineari: \(Hom(V,W), End(V), Aut(V)\). Lo spazio vettoriale duale di \(V\).
36 6/5
Se \(F:V \to W\) è un'applicazione lineare e \(v_1, \ldots, v_k \in V\) sono linearmente dipendenti allora anche  \(F(v_1), \ldots, F(v_k) \in W\) sono linearmente dipendenti. Sia \(\{e_1, \ldots, e_n\}\) una base di \(V\) e siano \(w_1, \ldots, w_n \in W\). Esiste un'unica applicazione lineare \(F:V \to W\) tale che \(F(e_i)=w_i\) per \(1 \leq i \leq n\). Nucleo ed immagine di un'applicazione lineare, rango e nullità. Un'applicazione lineare è iniettiva se e solo se ha nucleo \(\{0\}\). Il teorema del rango e nullità: sia \(F : V \to W\) un'applicazione lineare e sia \(V\) di dimensione finita. Allora anche il nucleo \(N(F)\) e l'immagine \(Im(F)\) hanno dimensione finita e \(\dim N(F) + \dim Im(F) = \dim V\).
37 8/5
Sia \(F : V \to W\) un'applicazione lineare e sia \(\dim V = \dim W\) finita. Allora \(F\) è iniettiva se e solo se è suriettiva se e solo se è un isomorfismo. Spazio vettoriale quoziente \(V/W\) di uno spazio vettoriale \(V\) modulo un sottospazio vettoriale \(W\). La mappa quoziente, \(\dim V/W = \dim V - \dim W\) se \(V\) ha dimensione finita. Il teorema dell'omomorfismo: sia \(F : V \to W\) un'applicazione lineare. Allora \(V/N(F) \cong Im(F)\) e c'è un isomorfismo \(F' : V/N(F) \to Im(F)\) tale che se \(p : V \to V/N(F)\) è la mappa quoziente e \(i : Im(F) \to W\) è l'inclusione, allora \(i \circ F' \circ p = F\).
38 8/5
Due spazi vettoriali di dimensione finita sono isomorfi se e solo se hanno la stessa dimensione. Struttura di spazio vettoriale su \(Hom(V,{\mathbb R})\). Isomorfismo tra uno spazio vettoriale \(V\) di dimensione finita ed il suo spazio duale, base duale.
39 13/5
Matrice \(M_{w,v}(F)\) associata ad un'applicazione lineare \(F:V \to W\) ed a due basi \(v = \{v_1, \ldots, v_n\}\) di \(V\) e \(w = \{w_1, \ldots, w_m\}\) di \(W\). La matrice associata ad \(F\) calcola \(F\): se \(A=M_{w,v}(F)\) e \(\{x_1, \ldots, x_n\}\) sono le coordinate di \(u \in V\) nella base \(v\), allora le coordinate di \(F(u) \in W\) nella base \(w\) sono date da \(Y = AX\) dove \(X = ^t\hskip -.15cm (x_1, \ldots, x_n), Y = ^t\hskip -.15cm (y_1, \ldots, y_m)\). Struttura di spazio vettoriale su \(Hom(V,W)\).
40
13/5
Siano \(V, W\) due spazi vettoriali e siano \(v = \{v_1, \ldots, v_n\}\) una base di \(V\) e \(w = \{w_1, \ldots, w_m\}\) una base di \(W\). L'applicazione \(M_{w,v}: Hom(V,W) \to M_{m,n}\) che associa ad \(F\) la sua matrice \(M_{w,v}(F)\) è un isomorfismo di spazi vettoriali. Matrice associata all'identità, ovvero matrice del cambio di base. La matrice associata ad \(F\) è invertibile se e solo se \(F\) è un isomorfismo.
41
15/5
Orientazione di spazi vettoriali. Il teorema di Kronecker-Rouché-Capelli rivisitato tramite le applicazioni lineari. Trasformata della matrice di un endomorfismo al variare della base, matrici simili, determinante di un endomorfismo.
42
15/5
Due matrici sono simili se e solo se sono le matrici di un opportuno endomorfismo in due basi. Diagonalizzazione di endomorfismi e di matrici, esempi.
43 20/5
Autovettori ed autovalori, esempi. Ad ogni autovettore è associato un unico autovalore. Autospazi.
44 20/5
Autovettori associati ad autovalori distinti sono linearmente indipendenti. Sia \(F\) un endomorfismo di uno spazio vettoriale \(V\) di dimensione finita; allora \(\lambda \in {\mathbb R}\) è un autovalore di \(F\) se e solo se \(F - \lambda Id_V\) non è un isomorfismo se e solo se \(\det(F - \lambda Id_V)=0\). Il polinomio caratteristico di un endomorfismo. Gli autovalori di un endomorfismo sono le radici del polinomio caratteristico. Sia \(F\) un endomorfismo di uno spazio vettoriale \(V\) di dimensione finita; allora la somma delle dimensioni degli autospazi di \(F\) è al più \(\dim V\) e vale uguale se e solo se \(F\) è diagonalizzabile.
45 22/5
Precisazioni sul teorema precedente. Sia \(F\) un endomorfismo di uno spazio vettoriale \(V\) di dimensione \(n\) con \(n\) autovalori distinti; allora \(F\) è diagonalizzabile. La molteplicità geometrica ed algebrica di un autovalore. La molteplicità geometrica di un autovalore è sempre al più la molteplicità algebrica e se vale la disuguaglianza stretta per almeno un autovalore, allora \(F\) non è diagonalizzabile.
46 22/5
Esempi di calcolo di autovalori, autovettori, dimensioni di autospazi e diagonalizzabilità. Questa è l'ultima lezione del corso. Si ricorda che mercoledì 29 maggio, ore 14, si terrà una lezione di preparazione al secondo esonero.
47 29/5 Esercizi di preparazione al secondo esonero, ore 14.
48
29/5 Esercizi di preparazione al secondo esonero.
49
29/5
Esercizi di preparazione al secondo esonero.
50
3/6
Seconda prova in itinere, ore 9.
51
3/6
Seconda prova in itinere.
52
3/6
Seconda prova in itinere.