ō
INGlezioni
Corso Matematica per Ingegneria Elettronica - a.a. 2020/2021
DIARIO delle LEZIONI
- 1-2 (28/09/20).
L'insieme \({\mathbb R}\) dei numeri reali e le loro proprieta' algebriche di campo.
- 3-4 (01/10/20).
L'insieme \({\mathbb R}^n\) dei vettori di lunghezza n a coefficienti reali:
l'addizione vettoriale e la moltiplicazione scalare e loro proprieta' algebriche. Interpretazione geometrica di \({\mathbb R}^1=\mathbb R\), \({\mathbb R}^2\)
e \({\mathbb R}^3\).
- 5-6 (05/10/20).
I sistemi lineari: il sistema lineare omogeneo \(\Sigma^{om}\) associato ad un sistema lineare \(\Sigma\) e lo spazio delle soluzioni \(Sol(\Sigma)\).
Proposizione: \(Sol(\Sigma)=Sol(\Sigma^{om})+\overline{c}\),
dove \(\overline{c}\) e' una soluzione del sistema lineare \(\Sigma\). La risoluzione dei sistemi lineari col metodo di sostituzione.
Esempi ed esercizi.
- 7-8 (08/10/20).
Matrici: gli elementi \(A_{ij}\) di una matrice A, le righe \(A_i\) e le colonne \(A^j\) di una matrice A.
Matrici e sistemi lineari: la matrice \(A(\Sigma)\) dei coefficienti e la matrice completa \(C(\Sigma)\) di un sistema lineare \(\Sigma\); il sistema lineare \(\Sigma_{C=(A\vert \overline{b})}\) associato ad una matrice A e ad un vettore \(\overline{b}\) aventi lo stesso numero di
colonne. Matrici a scalini.
- 9-10 (13/10/20).
Le tre trasformazioni elementari (per riga): matrice equivalenti \(A\sim_{eq} B\). Matrici ridotte e a scalini. L' algoritmo di riduzione (per righe) di Gauss:
ogni matrice e' equivalente ad una matrice a scalini.
- 11-12 (15/10/20).
Esempi di algoritmo di Gauss. Il rango di una matrice A come il numero di righe diverse da zero di una matrice a scalini B equivalente ad A.
Proposizione: se C e D sono due matrici equivalenti, allora \(\Sigma_C\) e \(\Sigma_D\) sono equivalenti, ovvero sia \(Sol(\Sigma_C)=Sol(\Sigma_D)\).
Metodo di risoluzione dei sistemi tramite l'algoritmo di Gauss. Esercizi.
- 13-14 (22/10/20).
Teorema di Rouche'-Capelli: un sistema \(\Sigma_{C=(A\vert \overline{b})}\) e' compatibile se e solo se r(C)=r(A); in tal caso il sistema \(\Sigma_C\) ha \(\infty^{q-r(A)}\)-soluzioni, dove q e' il numero di variabili.
Algoritmo di risoluzione di un sistema a scalini ed esempi.
Lo spazio \(M_{p,q}\) delle matrici \(p \times q\) a coefficienti in \(\mathbb{R}\) come spazio vettoriale: la somma di matrici e la moltiplicazione per uno scalare.
- 15-16 (26/10/20).
Il prodotto (righe per colonne) tra matrici e sue proprieta': associativita', bilinearita', elemento neutro. Esempi. Matrici invertibili. Proprieta':
l' inverso destro e' uguale all'inverso sinistro (senza dimostrazione) ed e' unico. Esempi: inversa di matrici di ordine 1.
- 17-18-19 (09/11/20).
Esempio: inverso di matrici di ordine 2.
Teorema (criterio di invertibilita', senza dimostrazione): una matrice quadrata \(A\in M_{n,n}\) e' invertibile se e solo se \(r(A)=n\). Corollario: una matrice quadrata A e'
invertibile se e solo se A puo' essere trasformata, tramite l'eliminazione di Gauss, in una matrice triangolare superiore con elementi non nulli sulla diagonale.
Algoritmo di Gauss-Jordan. Esempi. Corollario: una matrice quadrata A e' invertibile se e solo se A puo' essere trasformata, tramite l'eliminazione di Gauss-Jordan,
nella matrice identita'.
Teorema (Algoritmo di Gauss-Jordan per l'inversa, senza dimostrazione): data una matrice \(A\in M_{n,n}\), se trasformiamo \((A\vert I_n)\) nella matrice
\((I_n\vert B)\) tramite l'eliminazione di Gauss-Jordan, allora \(B=A^{-1}.\)
Esempi ed Esercizi.
- 20-21-22 (23/11/20).
Il determinante come unica funzione \({\rm det}:M_n\to \mathbb R\) che e' multilineare sulle righe, antisimmetrica sulle righe e tale che \({\rm det}(I_n)=1\).
Corollari: se una matrice ha una riga nulla o due righe uguali, allora ha determinante nullo.
Il calcolo del determinante tramite l'algoritmo di Gauss-Jordan oppure l'algoritmo di Gauss. Corollario: una matrice \(A\in M_n\) e' invertibile se e solo \({\rm det}(A)\neq 0.\)
Esercizi. Formula di Laplace per il determinante: sviluppo lungo la riga i-esima \({\rm det}(A)=\sum_{k=1}^n (-1)^{i+k}A_{i,k} {\rm det}A(\hat{i}\vert \hat{k})\) oppure la colonna j-esima
\({\rm det}(A)=\sum_{k=1}^n (-1)^{k+j}A_{k,j} {\rm det}A(\hat{k}\vert \hat{j})\). Esempio: il determinante di una matrice di ordine due.
Esempi di determinanti: il determinante di matrici di ordine 2, matrici triangolari superiori.
- 23-24 (25/11/20).
Teorema di Binet: \({\rm det}(A\cdot B)={\rm det}(A) {\rm det}(B)\). Formula per l'inversa: se A e' invertibile, allora \(A^{-1}=\frac{1}{{\rm det}(A)} {\rm adj}(A)\), dove \({\rm adj}(A)=({\rm adj}(A)_{i,j}:=(-1)^{i+j} {\rm det} A(\hat{j}\vert \hat{i}))\) e' l'aggiugata di A. Esempi: matrice inversa di una matrice di ordine 2.
Discussione delle soluzioni di un sistemi lineari \(\Sigma_{(A\vert \overline{b})}\) con matrice A quadrata di ordine n: se A e' invertibile allora esiste un'unica soluzione: se A non e' invertibile allora o il
sistema e' incompatibile oppure ha infinite soluzioni (e precisamente \(\infty^{n-{\rm rg}(A)}\)). Regola di Cramer per trovare l'unica soluzione di un sistema \(\Sigma_{(A\vert \overline{b})}\) con A invertibile.
Esercizi.
- 25-26 (26/11/20).
Spazi vettoriali. Esempi: lo spazio \({\mathbb R}^q\), lo spazio delle matrici, lo spazio vettoriale delle funzioni
reali (continue o derivabili), lo spazio dei polinomi in una variabile a coefficienti reali, spazi vettorali prodotto.
- 27-28 (30/11/20).
Sottospazi vettoriali. Sottospazi vettoriali di \({\mathbb R}^n\): forma cartesiana \(\text{Sol}_A\) e forma parametrica \(\text{Lin}(\overline v_1,\ldots, \overline v_n)\).
Come passare dalla forma cartesiana alla forma parametrica e dalla forma parametrica alla forma cartesiana. Esercizi.
- 29-30 (03/12/20).
Intersezione di sottospazi vettoriali: definizione e proprieta'. Come calcolare l'intersezione tra due sottospazi di \(\mathbb{R}^n\): \(\text{Sol}_A\cap \text{Sol}_B=\text{Sol}_{\begin{pmatrix} A\\B \end{pmatrix}}\). Somma di sottospazi vettoriali: definizione e proprieta'. Come calcolare la somma tra due sottospazi di \(\mathbb{R}^n\): \(\text{Lin}_A+ \text{Lin}_B=\text{Lin}_{\begin{pmatrix} A \vert B \end{pmatrix}}\). Esempi: sottospazi vettoriali di \(\mathbb{R}^2\) e \(\mathbb{R}^3\).
- 31-32-33 (07/12/20).
Sistemi di vettori linearmente indipendenti. Proposizione: un sistema di vettori e' linearmente dipendente se e solo se uno dei vettori del sistema si scrive
come combinazione lineare degli altri vettori. Esempi: sistemi vettori linearmente indipendenti con uno o due elementi. Lemma: la lineare
indipendenza e' invariante per scambio dell'ordine e per sottoinsiemi. Criterio per la lineare indipendenza in \(\mathbb{R}^n\):
un sistema di vettori \(\{\overline{v_1},\ldots, \overline{v}_k\}\) e' linearmente
indipendente se e solo se \(\text{rg}(\overline{v}_1\vert \ldots \vert \overline{v}_k)=k\) (\(\Rightarrow k\leq n\)).
Sistemi di vettori generanti. Esempi: \(\mathbb{R}^n\) e' generato dal sistema di vettori
\(\{\overline{e}_1,\ldots, \overline{e}_n\}\);
\(M_{p,q}\) e' generato dal sistema di matrici \(\{E_{i,j}: 1\leq i\leq p, 1\leq j \leq q\}\); \(\mathbb{R}[T]_{\leq d}\) e' generato dal sistema dei polinomi \(\{1,T,T^2,\ldots, T^d\}\).
Lemma: la proprieta' di essere generante e' invariante per scambio dell'ordine e per soprainsiemi. Criterio per l'essere generante in \(\mathbb{R}^n\) (con dimostrazione):
un sistema di vettori \(\{\overline{v_1},\ldots, \overline{v}_k\}\) e' generante se e solo se \(\text{rg}(\overline{v}_1\vert \ldots \vert \overline{v}_k)=n\) (\(\Rightarrow k\geq n\)).
- 34-35 (09/12/20).
Spazi vettoriali finitamente generati. Esempi: \(\mathbb{R}^n\), \(M_{p,q}\) e \(\mathbb{R}[T]_{\leq d}\) sono finitamente generati;
\(\mathbb{R}[T]\) e \(\text{Fun}(\mathbb{R}, \mathbb{R})\) non sono finitamente generati.
Lemma (di confronto): se \(\{v_1,\ldots, v_p\}\) e' un sistema di generatori di V e \(\{w_1,\ldots, w_q\}\) e' un sistema lineamente indipendente di V,
allora \(q\leq p\).
Basi di uno spazio vettoriale. Teorema di Esistenza di Basi (con dimostrazione): (1) da ogni sistema di generatori si puo' estrarre una base;
(2) ogni insieme linearmente indipendente in uno spazio vettoriale finitamente generato si puo' completare ad una base. Corollario: ogni spazio vettoriale
finitamente generato possiede una base.
Teorema sull'unicita' della cardinalita' delle basi: in uno spazio vettoriale finitamente generato, tutte le basi hanno la stessa cardinalita'.
La dimensione di uno spazio vettoriale. Esempi: \(\{\overline{e}_1,\ldots, \overline{e}_n\}\) formano una base (detta base canonica) di \(\mathbb{R}^n\);
le matrici elementari \(\{E_{i,j}: 1\leq i\leq p, 1\leq j \leq q\}\) formano una base di \(M_{p,q}\); i polinomi \(\{1,T,T^2,\ldots, T^d\}\) formano una base di
\(\mathbb{R}[T]_{\leq d}\).
- 36-37 (10/12/20).
Proposizione: in uno spazio vettoriale di dimensione n, un sistema di n vettori e' una base se e solo se e'
linearmente indipendente se e solo se e' generante. Proposizione: un sistema di vettori e' linearmente indipendente se e solo se ogni vettore nel loro span lineare
si scrive in maniera unica come combinazione lineare dei vettori originari. Corollario: un sistema di vettori e' una base se e solo se ogni elemento dello spazio
vettoriale si scrive in maniera unica come combinazione lineae dei vettori dati. Esempio: se \(\{v_i\}\) e' una base di V e \(\{w_j\}\) e' una base di W, allora
\(\{(v_i,w_j)\}\) e' una base di \(V\times W\).
Criterio per l'essere una base in \(\mathbb{R}^n\):
un sistema di vettori \(\{\overline{v_1},\ldots, \overline{v}_n\}\) in \(\mathbb{R}^n\) e' una base se e solo se \(\text{rg}(\overline{v}_1\vert \ldots \vert \overline{v}_n)=n\).
Teorema sulla dimensione dei sottospazi vettoriali: se V e' uno spazio vettoriale di
dimensione finita e W un suo sottospazio, allora \(\text{dim}(W)\leq \text{dim}(V)\) e vale l'uguaglianza se e solo se \(W=V\).
Formula di Grassmann: \(\text{dim}(W_1+W_2)+\text{dim}(W_1\cap W_2)=\text{dim}(W_1)+\text{dim}(W_2)\).
- 38-39-40 (14/12/20).
Come calcolare la dimensione e trovare una base di un sottospazio \(W\leq \mathbb{R}^n\) dato in forma parametrica oppure in forma cartesiana. Esercizi.
Applicazioni (o omomorfismi) lineari. Teorema: un'applicazione lineare e' univocamente determinata dai valori che assume su una base del dominio.
Lemma: una mappa tra spazi vettoriali e' un'applicazione lineare se e solo se preserva le combinazioni lineari.
- 41-42 (16/12/20).
Teorema: esiste una biezione \(M_{m,n}\leftrightarrows \text{Hom}(\mathbb{R}^n, \mathbb{R}^m)\) ottenuta mandando una matrice A nell'applicazione lineare \(f_A\) definita
da \(f_A(\overline{v})=A\cdot \overline{v}\) e un'applicazione lineare \(f\) nella sua matrice canonica \(M(f)\). Esercizi.
Definizione/Lemma: lo spazio \(\text{Hom}(V,W)\) delle applicazioni lineari da \(V\) a \(W\) e' uno spazio vettoriale rispetto alla somma di applicazioni
e alla moltiplicazione lineare tra uno scalare e un'applicazione lineare.
Corollario: le biezioni \(M_{m,n}\leftrightarrows \text{Hom}(\mathbb{R}^n, \mathbb{R}^m)\) sono isomorfismi di spazi vettoriali.
Definizione/Lemma: la composizione di applicazioni lineari e la sua bilinearita'.
Corollario: tramite le biezioni \(M_{m,n}\leftrightarrows \text{Hom}(\mathbb{R}^n, \mathbb{R}^m)\) la composizione di applicazioni lineari corrisponde al prodotto di matrici.
Applicazioni lineari iniettive, suriettive, biettive, isomorfismi. Lemma: un'applicazione lineare e' un isomorfismo (cioe' ammette un'inversa) se e solo se e' biettiva.
- 43-44 (17/12/20).
Corollario: tramite le biezioni \(M_{n}\leftrightarrows \text{Hom}(\mathbb{R}^n, \mathbb{R}^n)\), gli isomorfismi lineari corrispondono alle matrici invertibili e l'inverso di
un'applicazione lineare corrisponde all'inverso delle matrici.
Il nucleo \(\text{ker}(f)\) e l'immagine \(\text{Im}(f)\) di un'applicazione lineare f. Lemma: un'applicazione lineare \(f:V\to W\) e' iniettiva
se e solo se \(\text{ker}(f)=\{0\}\), ed e' suriettiva se e solo se \(\text{Im}(f)=W\).
Il nucleo e l'immagine di applicazioni \(f_A:\mathbb{R}^n \to \mathbb{R}^m\): \(\text{ker}(f_A)=\text{Sol}_A\) e \(\text{Im}(f_A)=\text{Lin}_A\).
Proposizione: un'applicazione lineare \(f_A:\mathbb{R}^n \to \mathbb{R}^m\) e' iniettiva se e solo se \({\rm rg}(A)=n\), e' suriettiva se e solo se \({\rm rg}(A)=m\),
e' un isomorfismo se e solo se \({\rm rg}(A)=n=m\). Esercizi.
- 45-46 (21/12/20).
Proposizione: un'applicazione lineare e' iniettiva (risp. suriettiva, risp. biettiva) se e solo se f manda una base del dominio in un sistema di vettori
linearmente indipendenti (risp. generanti, risp. una base). Corollario 1: data un'applicazione lineare \(f:V\to W\) tra spazi vettoriali finitamente generati,
allora se f e' iniettiva (risp. suriettiva, risp. biettiva) allora \(\text{dim}(V)\leq\) (risp. \(\geq\), \(=\)) \(\text{dim}(W)\).
Corollario 2: data un'applicazione lineare \(f:V\to W\) tra spazi vettoriali finitamente generati tali che \(\text{dim}(V)=\text{dim}(W)\), f e' iniettiva se e solo se
f e' suriettiva se e solo se f e' un isomorfismo.
Teorema di Classificazione degli spazi vettoriali: due spazi vettoriali sono isomorfi se e solo se hanno la stessa dimensione.
Il rango \(\text{rg}(f)\) e la nullita' \(\text{null}(f)\) di un'applicazione lineare.
Teorema di Rango-Nullita' (con dimostrazione solo nel caso di spazi vettoriali numerici): data un'applicazione lineare \(f:V\to W\) con \(V\) finitamente generato,
vale che \(\text{dim}(V)=\text{rg}(f)+\text{null}(f)\).
- 47-48-49 (11/01/22).
Il vettore delle coordinate \([]_{\mathcal{E}}\) rispetto ad una base \(\mathcal{E}\) di V. Esempio: il vettore delle coordinate di un vettore di \(\mathbb{R}^n\)
rispetto alla base canonica e' il vettore stesso.
Proposizione: l'applicazione delle coordinate \([]_\mathcal{E}:V\xrightarrow{\cong} \mathbb{R}^n\) e' un isomorfismo. Matrici di cambiamento di base .
Esempio: data una base \(\mathcal{F}=\{\overline f_1\ldots, \overline f_n\}\) di \(\mathbb{R}^n\), vale che \(M_{\mathcal{E}^{\rm can},\mathcal{F}}=(\overline f_1,\ldots, \overline f_n)\).
Proprieta': \([v]_{\mathcal{E}}=
M_{\mathcal E, \mathcal{F}}\cdot [v]_{\mathcal{F}}\); \(M_{\mathcal E, \mathcal{F}}^{-1}=M_{\mathcal{F}, \mathcal{E}}\); \(M_{\mathcal E, \mathcal{F}}=
M_{\mathcal E, \mathcal{G}}\cdot M_{\mathcal G, \mathcal{F}}\). Esercizi: matrici di cambiamento di base in \(\mathbb{R}^n\). La matrice di un'
applicazione lineare \(M_{\mathcal{F},\mathcal{E}}(f)\) rispetto ad una base \(\mathcal{E}\) del dominio e \(\mathcal{F}\) del codominio.
Caso particolare 1: data \(f:\mathbb{R}^n\to \mathbb{R}^m\), la matrice canonica \(M(f)\) e' la matrice di f rispetto alle basi canoniche del dominio e del
codominio. Caso particolare 2: \(M_{\mathcal E, \mathcal{F}}=M_{\mathcal E, \mathcal{F}}(\text{id}_V)\). Proposizione:
\([f(v)]_{\mathcal F}=M_{\mathcal F, \mathcal E}.[v]_{\mathcal E}\);
l'applicazione \(M_{\mathcal E, \mathcal{F}}(-):\text{Hom}(V,W)\to M_{m,n}\) e' un isomorfismo; formula di composizione
\(M_{\mathcal G, \mathcal{E}}(g\circ f)=M_{\mathcal G, \mathcal{F}}(g)\cdot M_{\mathcal F, \mathcal{E}}(f)\); formula di cambiamento di base
\(M_{\mathcal F', \mathcal{E}}(f)=M_{\mathcal F', \mathcal{F}}\cdot M_{\mathcal F, \mathcal{E}}(f)\cdot M_{\mathcal E, \mathcal{E}'}\).
Esercizi: matrici di applicazioni lineari \(f:\mathbb{R}^n\to \mathbb{R}^m\) rispetto a basi arbitrarie.
- 50-51 (13/01/22).
Operatori lineari (o endomorfismi) su uno spazio vettoriale V. Proprieta' di \(\text{End}(V)\): la struttura di spazio vettoriale e la composizione.
La matrice \(M_{\mathcal B}(f)\) di un operatore \(f\in \text{End}(V)\) rispetto ad una base \({\mathcal B}\) di V.
Proposizione: \([f(v)]_{\mathcal E}=M_{\mathcal E}.[v]_{\mathcal E}\);
l'applicazione \(M_{\mathcal E}(-):\text{End}(V)\to M_{n}\) e' un isomorfismo; formula di composizione
\(M_{\mathcal{E}}(g\circ f)=M_{\mathcal{E}}(g)\cdot M_{\mathcal{E}}(f)\); formula di cambiamento di base
\(M_{\mathcal{F}}(f)=M_{\mathcal E, \mathcal{F}}^{-1}\cdot M_{\mathcal{E}}(f)\cdot M_{\mathcal E, \mathcal{F}}\).
La relazione di similitudine tra matrici quadrate. Il problema della diagonalizzabilita' degli operatori lineari.
Esempi: potenze ed esponenziale di operatori diagonalizzabili.
- 52-53 (14/01/22).
Autovalori e autovettori di un operatore lineare: l'autospazio associato ad un autovalore. Proposizione: un operatore lineare e' diagonalizzabile se e solo
se esiste una base fatta di autovettori. Polinomio caratteristico di un operatore. Proposizione: le radici del polinomio caratteristico sono gli autovalori.
Esercizi.
- 54-55-56 (18/01/22).
Autovalori e autovettori di una matrice quadrata: l'autospazio associato ad un autovalore.
Polinomio caratteristico di una matrice quadrata. Lemma: matrici simili hanno lo stesso polinomio caratteristico.
Proposizione: (1) il polinomio caratteristico e' un polinomio monico di grado uguale all'ordine della matrice; (2)le radici del polinomio caratteristicosono gli autovalori.
Matrici diagonalizzabili. Lemma (senza dimostrazione): legame tra operatori e matrici diagonalizzabili.
Primo criterio di diagonalizzabilita': (1) la somma delle dimensioni degli autospazi di un operatore e' minore o uguale alla dimensione dello spazio su cui e' definito; (2)
un operatore e' diagonalizzabile se e solo se la somma delle dimensioni dei suoi autospazi e' uguale alla dimensione dello spazio su cui e' definito.
Il polinomio caratteristico di una matrice quadrata e di un operatore.
- 57-58 (20/01/22).
Fatto (senza dimostrazione): la decomposizione di un polinomio \(f(T)\in \mathbb{R}[T]\) in fattori irriducibili lineari e quadratici.
Molteplicita' algebrica \(\text{alg}(\lambda)\) e geometrica \(\text{geo}(\lambda)\) di un autovalore \(\lambda\).
Esercizi su: autovalori, autospazi e diagonalizzabilita'.
- 59-60 (21/01/22).
Proposizione: per ogni autovalore \(\lambda\) di un operatore (o di una matrice quadrata) vale che \(1\leq \text{geo}(\lambda)\leq \text{alg}(\lambda)\).
Secondo criterio di diagonalizzabilita': un operatore e' diagonalizzabilese e solo se il polinomio caratteristico ha solo fattori irriducibili lineari e la molteplicita' geometrica di ciascun
autovalore e' uguale alla molteplicita' algebrica. Esercizi su autovalori, autospazi e diagonalizzabilita' degli operatori.