Corso Matematica per Ingegneria Elettronica - a.a. 2020/2021
DIARIO delle LEZIONI
- 1-2 (02/10/20).
L'insieme \({\mathbb R}\) dei numeri reali e le loro proprieta' algebriche di campo. L'insieme \({\mathbb R}^n\) dei vettori di lunghezza n a coefficienti reali:
l'addizione vettoriale e la moltiplicazione scalare e loro proprieta' algebriche. Interpretazione geometrica di \({\mathbb R}^1=\mathbb R\), \({\mathbb R}^2\) e \({\mathbb R}^3\).
- 3-4 (06/10/20).
I sistemi lineari: il sistema lineare omogeneo \(\Sigma^{om}\) associato ad un sistema lineare \(\Sigma\) e lo spazio delle soluzioni \(Sol(\Sigma)\). Proposizione (senza dimostrazione): \(Sol(\Sigma)=Sol(\Sigma^{om})+\overline{c}\),
dove \(\overline{c}\) e' una soluzione del sistema lineare \(\Sigma\). Esempi ed esercizi.
- 5-6 (09/10/20).
La risoluzione dei sistemi lineari col metodo di sostituzione. Matrici: gli elementi \(A_{ij}\) di una matrice A, le righe \(A_i\) e le colonne \(A^j\) di una matrice A.
Matrici e sistemi lineari: la matrice \(M(\Sigma)\) dei coefficienti e la matrice completa \(M^{co}(\Sigma)\) di un sistema lineare \(\Sigma\); il sistema lineare \(\Sigma_{C=(A\vert \overline{b})}\) associato ad una matrice
A e ad un vettore \(\overline{b}\) aventi lo stesso numero di colonne.
- 7-8 (13/10/20).
Le tre trasformazioni elementari (per riga): matrice equivalenti \(A\sim_{eq} B\). Matrici ridotte e a scalini. L' algoritmo di riduzione (per righe) di Gauss: ogni matrice e' equivalente ad una matrice a scalini.
- 9-10 (16/10/20).
Esempi di algoritmo di Gauss. Il rango di una matrice A come il numero di righe diverse da zero di una matrice a scalini B equivalente ad A.
Proposizione: se C e D sono due matrici equivalenti, allora \(\Sigma_C\) e \(\Sigma_D\) sono equivalenti, ovvero sia \(Sol(\Sigma_C)=Sol(\Sigma_D)\).
- 11-12 (20/10/20).
Teorema di Rouche'-Capelli: un sistema \(\Sigma_{C=(A\vert \overline{b})}\) e' compatibile se e solo se r(C)=r(A); in tal caso il sistema \(\Sigma_C\) ha \(\infty^{q-r(A)}\)-soluzioni, dove q e' il numero di variabili.
Algoritmo di risoluzione di un sistema a scalini ed esempi. Lo spazio \(M_{p,q}\) delle matrici \(p \times q\) a coefficienti in \(\mathbb{R}\) come spazio vettoriale: la
somma di matrici e la moltiplicazione per uno scalare.
- 13-14 (23/10/20).
Il prodotto (righe per colonne) tra matrici e sue proprieta': associativita', bilinearita', elemento neutro. Esempi. Matrici invertibili. Proprieta': l' inverso destro e' uguale
all'inverso sinistro ed e' unico. Esempi: matrici quadrate di ordine 1 e 2.
- 15-16 (27/10/20).
Esempi: invertibilita' di matrici diagonali. Teorema (criterio di invertibilita'): una matrice quadrata \(A\in M_{n,n}\) e' invertibile se e solo se \(r(A)=n\). Corollario: una matrice quadrata A e'
invertibile se e solo se A puo' essere trasformata, tramite l'eliminazione di Gauss, in una matrice triangolare superiore con elementi non nulli sulla diagonale.
Algoritmo di Gauss-Jordan. Corollario: una matrice quadrata A e' invertibile se e solo se A puo' essere trasformata, tramite l'eliminazione di Gauss-Jordan, nella matrice identita'.
Teorema (Algoritmo di Gauss-Jordan per l'inversa): data una matrice \(A\in M_{n,n}\), se trasformiamo \((A\vert I_n)\) nella matrice \((I_n\vert B)\) tramite l'eliminazione di Gauss-Jordan, allora \(B=A^{-1}.\)
Esempi.
- 17-18 (30/10/20).
Il determinante come unica funzione \({\rm det}:M_n\to \mathbb R\) che e' multilineare sulle righe, antisimmetrica sulle righe e tale che \({\rm det}(I_n)=1\).
Corollari: se una matrice ha una riga nulla o due righe uguali, allora ha determinante nullo.
Il calcolo del determinante tramite l'algoritmo di Gauss-Jordan. Corollario: una matrice \(A\in M_n\) e' invertibile se e solo \({\rm det}(A)\neq 0.\)
Esercizi. Esempio: il determinante di una matrice di ordine due.
Formula di Laplace per il determinante: sviluppo lungo la riga i-esima \({\rm det}(A)=\sum_{k=1}^n (-1)^{i+k}A_{i,k} {\rm det}A(\hat{i}\vert \hat{k})\) oppure la colonna j-esima
\({\rm det}(A)=\sum_{k=1}^n (-1)^{k+j}A_{k,j} {\rm det}A(\hat{k}\vert \hat{j})\).
- 19-20 (03/11/20).
Esempi di determinanti: il determinante di matrici di ordine 2 e 3 (regola di Sarrus), matrici diagonali, matrici triangolari superiori o inferiori.
Teorema di Binet: \({\rm det}(A\cdot B)={\rm det}(A) {\rm det}(B)\). Formula per l'inversa: se A e' invertibile, allora \(A^{-1}=\frac{1}{{\rm det}(A)} A^*\), dove \(A^*=((A^*)_{i,j}:=(-1)^{i+j} {\rm det} A(\hat{j}\vert \hat{i}))\) e'
l'aggiunta di A.
- 21-22 (06/11/20).
Discussione delle soluzioni di un sistemi lineari \(\Sigma_{(A\vert \overline{b})}\) con matrice A quadrata di ordine n: se A e' invertibile allora esiste un'unica soluzione: se A non e' invertibile allora o il
sistema e' incompatibile oppure ha infinite soluzioni (e precisamente \(\infty^{n-{\rm rg}(A)}\)). Regola di Cramer per trovare l'unica soluzione di un sistema \(\Sigma_{(A\vert \overline{b})}\) con A invertibile.
Esempi. Spazi vettoriali: definizione ed esempi.
- 23-24 (10/11/20).
Sottospazi vettoriali. Sottospazi vettoriali di \({\mathbb R}^n\): forma cartesiana \(\text{Sol}_A\) e forma parametrica \(\text{Lin}(\overline v_1,\ldots, \overline v_n)\).
Come passare dalla forma cartesiana alla forma parametrica e dalla forma parametrica alla forma cartesiana. Esercizi.
- 25-26 (13/11/20).
Intersezione di sottospazi vettoriali: definizione e proprieta'. Come calcolare l'intersezione tra due sottospazi di \(\mathbb{R}^n\): \(\text{Sol}_A\cap \text{Sol}_B=\text{Sol}_{\begin{pmatrix} A\\B \end{pmatrix}}\).
Somma di sottospazi vettoriali: definizione e proprieta'.
- 27-28 (17/11/20).
Come calcolare la somma tra due sottospazi di \(\mathbb{R}^n\): \(\text{Lin}_A+ \text{Lin}_B=\text{Lin}_{\begin{pmatrix} A \vert B \end{pmatrix}}\).
Sistemi di vettori linearmente indipendenti. Proposizione: un sistema di vettori e' linearmente dipendente se e solo se uno dei vettori del sistema si scrive
come combinazione lineare degli altri vettori. Esempi: sistemi vettori linearmente indipendenti con uno o due elementi. Osservazioni: la lineare indipendenza e' invariante per
scambio dell'ordine e per sottoinsiemi. Criterio per la lineare indipendenza in \(\mathbb{R}^n\): un sistema di vettori \(\{\overline{v_1},\ldots, \overline{v}_k\}\) e' linearmente
indipendente se e solo se \(\text{rg}(\overline{v}_1\vert \ldots \vert \overline{v}_k)=k\) (\(\Rightarrow k\leq n\)).
- 29-30 (20/11/20).
Sistemi di vettori generanti e spazi vettoriali finitamente generati. Esempi: \(\mathbb{R}^n\) e' generato dal sistema di vettori
\(\{\overline{e}_1,\ldots, \overline{e}_n\}\);
\(M_{p,q}\) e' generato dal sistema di matrici \(\{E_{i,j}: 1\leq i\leq p, 1\leq j \leq q\}\); \(\mathbb{R}[T]_{\leq d}\) e' generato dal sistema dei polinomi \(\{1,T,T^2,\ldots, T^d\}\);
gli spazi vettoriali \(\mathbb{R}[T]\) e \(\text{Fun}(\mathbb{R}, \mathbb{R})\) non sono finitamente generati.
Osservazioni: la proprieta' di essere generante e' invariante per scambio dell'ordine e per soprainsiemi. Criterio per l'essere generante in \(\mathbb{R}^n\) (con dimostrazione):
un sistema di vettori \(\{\overline{v_1},\ldots, \overline{v}_k\}\) e' generante se e solo se \(\text{rg}(\overline{v}_1\vert \ldots \vert \overline{v}_k)=n\) (\(\Rightarrow k\geq n\)).
- 31-32 (24/11/20).
Proposizione (con dimostrazione): se \(\{v_1,\ldots, v_p\}\) e' un sistema di generatori di V e \(\{w_1,\ldots, w_q\}\) e' un sistema lineamente indipendente di V, allora \(q\leq p\).
Basi di uno spazio vettoriale. Teorema di Esistenza di Basi (con dimostrazione): (1) da ogni sistema di generatori si puo' estrarre una base; (2) ogni insieme linearmente
indipendente in uno spazio vettoriale finitamente generato si puo' completare ad una base. Corollario: ogni spazio vettoriale finitamente generato possiede una base.
Teorema sull'unicita' della cardinalita' delle basi (con dimostrazione): in uno spazio vettoriale finitamente generato, tutte le basi hanno la stessa cardinalita'.
- 33-34 (27/11/20).
La dimensione di uno spazio vettoriale. Corollario (con dimostrazionbe): in uno spazio vettoriale di dimensione n, un sistema di n vettori e' una base se e solo se e'
linearmente indipendente se e solo se e' generante. Esempio: come controllare che un sistema di n vettori in \(\mathbb{R}^n\) e' una base. Proposizione (con dimostrazione):
un sistema di vettori e' linearmente indipendente se e solo se ogni vettore nel loro span lineare si scrive in maniera unica come combinazione lineare dei vettori originari.
Esempi: basi canoniche in \(\mathbb{R}^n\), \(M_{m,n}\) e \(\mathbb{R}[T]\). Teorema sulla dimensione dei sottospazi vettoriali (con dimostrazione): se V e' uno spazio vettoriale di
dimensione finita e W un suo sottospazio, allora \(\text{dim}(W)\leq \text{dim}(V)\) e vale l'uguaglianza se e solo se \(W=V\).
- 35-36 (01/12/20).
Formula di Grassmann (con dimostrazione): \(\text{dim}(W_1+W_2)+\text{dim}(W_1\cap W_2)=\text{dim}(W_1)+\text{dim}(W_2)\). Algoritmi: come calcolare la dimensione e trovare una base di un
sottospazio \(W\leq \mathbb{R}^n\) dato in forma parametrica oppure in forma cartesiana. Esercizi.
- 37-38 (04/12/20).
Applicazioni (o omomorfismi) lineari. Teorema (con dimostrazione): un'applicazione lineare e' univocamente determinata dai valori che assume su una base del dominio.
Teorema (con dimostrazione): esiste un isomorfismo \(M_{m,n}\leftrightarrows \text{Hom}(\mathbb{R}^n, \mathbb{R}^m)\) ottenuta mandando una matrice A nell'applicazione lineare \(f_A\) definita
da \(f_A(\overline{v})=A\cdot \overline{v}\) e un'applicazione lineare \(f\) nella sua matrice canonica \(M(f)\). Esercizi.
- 39-40 (11/12/20).
Lemma (con dimostrazione per esercizio): lo spazio \(\text{Hom}(V,W)\) delle applicazioni lineari da \(V\) a \(W\) e' uno spazio vettoriale.
Lemma (con dimostrazione per esercizio): la composizione di applicazioni lineari e' ancora lineare ed l'operazione di composizione e' bilineare.
Applicazioni lineari iniettive, suriettive, biettive. Lemma (con dimostrazione): un'applicazione lineare e' un isomorfismo (cioe' ammette un'inversa) se e solo se e' biettiva.
Esempio: data \(A\in M_n\), l'applicazione lineare \(f_A\) e' un isomorfismo se e solo se \(A\) e' invertibile e vale che \(f_A^{-1}=f_{A^{-1}}\).
Il nucleo \(\text{ker}(f)\) e l'immagine \(\text{Im}(f)\) di un'applicazione lineare f. Lemma (con dimostrazione): un'applicazione lineare \(f:V\to W\) e' iniettiva
se e solo se \(\text{ker}(f)=\{0\}\), ed e' suriettiva se e solo se \(\text{Im}(f)=W\).
- 41-42 (15/12/20).
Il nucleo e l'immagine di applicazioni \(f_A:\mathbb{R}^n \to \mathbb{R}^m\): \(\text{ker}(f_A)=\text{Sol}_A\) e \(\text{Im}(f_A)=\text{Lin}_A\).
Proposizione (con dimostrazione): un'applicazione lineare e' iniettiva (risp. suriettiva, risp. biettiva) se e solo se f manda una base del dominio in un sistema di vettori
linearmente indipendenti (risp. generanti, risp. una base). Corollario 1 (con dimostrazione): data un'applicazione lineare \(f:V\to W\) tra spazi vettoriali finitamente generati, allora
se f e' iniettiva (risp. suriettiva, risp. biettiva) allora \(\text{dim}(V)\leq\) (risp. \(\geq\), \(=\)) \(\text{dim}(W)\).
Corollario 2 (con dimostrazione): data un'applicazione lineare \(f:V\to W\) tra spazi vettoriali finitamente generati tali che \(\text{dim}(V)=\text{dim}(W)\), f e' iniettiva se e solo
se f e' suriettiva se e solo se f e' un isomorfismo.
Teorema di Classificazione degli spazi vettoriali: due spazi vettoriali sono isomorfi se e solo se hanno la stessa dimensione.
Il rango \(\text{rg}(f)\) e la nullita' \(\text{null}(f)\) di un'applicazione lineare.
Teorema di Rango-Nullita' (con dimostrazione solo nel caso di spazi vettoriali numerici): data un'applicazione lineare \(f:V\to W\) vale che
\(\text{dim}(V)=\text{rg}(f)+\text{null}(f)\).
- 43-44 (18/12/20).
Il vettore delle coordinate \([]_{\mathcal{E}}\) rispetto ad una base \(\mathcal{E}\) di V. Proposizione (con dimostrazione):
l'applicazione delle coordinate \([]_\mathcal{E}:V\xrightarrow{\cong} \mathbb{R}^n\) e' un isomorfismo. Matrici di cambiamento di base .
Proprieta' (con dimostrazione): \([v]_{\mathcal{E}}=
M_{\mathcal E, \mathcal{F}}\cdot [v]_{\mathcal{F}}\); \(M_{\mathcal E, \mathcal{F}}^{-1}=M_{\mathcal{F}, \mathcal{E}}\); \(M_{\mathcal E, \mathcal{F}}=
M_{\mathcal E, \mathcal{G}}\cdot M_{\mathcal G, \mathcal{F}}\). Esercizi: matrici di cambiamento di base in \(\mathbb{R}^n\). La matrice di un'
applicazione lineare \(M_{\mathcal{F},\mathcal{E}}(f)\) rispetto ad una base \(\mathcal{E}\) del dominio e \(\mathcal{F}\) del codominio.
Caso particolare 1: data \(f:\mathbb{R}^n\to \mathbb{R}^m\), la matrice canonica \(M(f)\) e' la matrice di f rispetto alle basi canoniche del dominio e del
codominio.
- 45-46 (22/12/20).
Caso particolare 2: \(M_{\mathcal E, \mathcal{F}}=M_{\mathcal E, \mathcal{F}}(\text{id}_V)\). Proposizione (con dimostrazione):
\([f(v)]_{\mathcal F}=M_{\mathcal F, \mathcal E}.[v]_{\mathcal E}\);
l'applicazione \(M_{\mathcal E, \mathcal{F}}(-):\text{Hom}(V,W)\to M_{m,n}\) e' un isomorfismo; formula di composizione
\(M_{\mathcal G, \mathcal{E}}(g\circ f)=M_{\mathcal G, \mathcal{F}}(g)\cdot M_{\mathcal F, \mathcal{E}}(f)\); formula di cambiamento di base
\(M_{\mathcal F', \mathcal{E}}(f)=M_{\mathcal F', \mathcal{F}}\cdot M_{\mathcal F, \mathcal{E}}(f)\cdot M_{\mathcal E, \mathcal{E}'}\).
- 47-48 (08/12/20).
Operatori lineari (o endomorfismi) su uno spazio vettoriale V. La matrice \(M_{\mathcal B}(f)\) di un operatore \(f\in \text{End}(V)\) rispetto ad una base \({\mathcal B}\) di V. Formula di cambiamento di base (con
dimostrazione): \(M_{\mathcal C}(f)= M_{\mathcal C, \mathcal B}\cdot M_{\mathcal B}(f)\cdot M_{\mathcal B, \mathcal C}\). La relazione di similitudine tra matrici quadrate. Il problema della diagonalizzabilita'
degli operatori lineari. Autovalori e autovettori di un operatore lineare (e di una matrice quadrata): l'autospazio associato ad un autovalore. Proposizione (con dimostrazione): un operatore lineare e' diagonalizzabile se e solo
se esiste una base fatta di autovettori.
- 49-50 (12/12/20).
Primo criterio di diagonalizzabilita' (con dimostrazione): un operatore e' diagonalizzabile se e solo se la somma delle dimensioni dei suoi autospazi e' uguale alla dimensione dello spazio su cui e' definito.
Il polinomio caratteristico di una matrice quadrata e di un operatore.
- 51-52 (15/12/20).
Proposizione (con dimostrazione): il polinomio caratteristico di un operatore (risp. di una matrice quadrata) e' un polinomio monico di grado uguale alla dimensione dello spazio vettoriale (risp. all'ordine della matrice);
gli autovalori di un operatore (risp. di una matrice quadrata) sono le radici del suo polinomio caratteristico.
Esercizi su: autovalori, autospazi e diagonalizzabilita'.
- 53-54 (08/01/21).
Molteplicita' algebrica \(\text{alg}(\lambda)\) e geometrica \(\text{geo}(\lambda)\) di un autovalore \(\lambda\). Proposizione (con dimostrazione): \(1\leq \text{geo}(\lambda)\leq \text{alg}(\lambda)\).
Secondo criterio di diagonalizzabilita' (con dimostrazione): un operatore e' diagonalizzabilese e solo se il polinomio caratteristico ha solo fattori irriducibili lineari e la molteplicita' geometrica di ciascun autovalore e'
uguale alla molteplicita' geometrica. Esercizi sulla diagonalizzabilita' degli operatori.
- 55-56 (12/01/21).
Prodotti scalari. Esempi: il prodotto scalare standard su \({\mathbb R}^n\) e la restrizione del prodotto scalare standard ai sottospazi. Significato geometrico del prodotto scalare. Basi ortonormali di uno spazio
vettoriale munito di un prodotto scalare e loro proprieta'. Teorema (con dimostrazione): il procedimento di ortogonalizzazione di Gram-Schmidt. Esercizi sulle basi ortonormali. Digressione: la trasposizione di matrici e
sue proprieta'.
- 57-58 (15/01/21).
L'operatore aggiunto di un operatore e operatori autoaggiunti. Teorema spettrale (con dimostrazione): un operatore e' ortonormalmente diagonalizzabile se e solo se e' autoaggiunto. Esercizi sulla diagonalizzabilita' ortonormale
degli operatori.