Corso Matematica per Ingegneria Elettronica - a.a. 2022/2023
DIARIO delle LEZIONI
1-2 (27/09/22).
L'insieme \({\mathbb R}\) dei numeri reali e le loro proprieta' algebriche di campo.
3-4-5 (29/10/22).
L'insieme \({\mathbb R}^n\) dei vettori di lunghezza n a coefficienti reali:
l'addizione vettoriale e la moltiplicazione scalare e loro proprieta' algebriche. La definizione di spazio vettoriale.
Interpretazione geometrica di \({\mathbb R}^1=\mathbb R\), \({\mathbb R}^2\)
e \({\mathbb R}^3\).
6-7 (04/10/22).
I sistemi lineari: il sistema lineare omogeneo \(\Sigma^{om}\) associato ad un sistema lineare \(\Sigma\) e lo spazio delle soluzioni \(Sol(\Sigma)\).
Sistemi compatibili e incompatibili. Proposizione: \(Sol(\Sigma)=Sol(\Sigma^{om})+\overline{c}\),
dove \(\overline{c}\) e' una soluzione del sistema lineare \(\Sigma\).
8-9 (11/10/22).
La risoluzione dei sistemi lineari col metodo di sostituzione. Esempi ed esercizi.
10-11 (18/10/22).
Matrici: gli elementi \(A_{ij}\) di una matrice A, le righe \(A_i\) e le colonne \(A^j\) di una matrice A.
Matrici e sistemi lineari: la matrice \(A(\Sigma)\) dei coefficienti e la matrice completa \(C(\Sigma)\) di un sistema lineare \(\Sigma\); il sistema lineare \(\Sigma_{C=(A\vert \overline{b})}\) associato ad una matrice A e ad un vettore \(\overline{b}\) aventi lo stesso numero di colonne. Matrici a scalini. Esempi.
12-13-14 (20/10/22).
Le tre trasformazioni elementari (per riga). Matrici equivalenti \(A\sim_{eq} B\) e proprieta' di \(\sim_{eq}\). L' algoritmo di riduzione (per righe) di Gauss:
ogni matrice e' equivalente ad una matrice a scalini.
Esempi di algoritmo di Gauss. Il rango di una matrice A come il numero di pivots di una matrice a scalini B equivalente ad A.
15-16 (25/10/22).
Proposizione: se C e D sono due matrici equivalenti, allora \(\Sigma_C\) e \(\Sigma_D\) sono equivalenti, ovvero sia \(Sol(\Sigma_C)=Sol(\Sigma_D)\).
Algoritmo di Gauss per la trasformazione di un sistema in un sistema con matrice a scalini. La risoluzione dei sistemi lineare a scalini tramite sostituzione. Esercizi.
17-18-19 (27/10/22).
Teorema di Rouche'-Capelli: un sistema \(\Sigma_{C=(A\vert \overline{b})}\) e' compatibile se e solo se r(C)=r(A); in tal caso il sistema \(\Sigma_C\) ha \(\infty^{q-r(A)}\)-soluzioni, dove q e' il numero di variabili.
Lo spazio \(M_{p,q}\) delle matrici \(p \times q\) a coefficienti in \(\mathbb{R}\) come spazio vettoriale: la somma di matrici e la moltiplicazione per uno scalare.
Il prodotto (righe per colonne) tra matrici e sue proprieta': associativita', bilinearita', elemento neutro. Esempi. Matrici invertibili. Proprieta':
l' inverso destro e' uguale all'inverso sinistro (senza dimostrazione) ed e' unico.
20-21-22 (03/11/22).
Esempi: inversa di matrici di ordine 1 e ordine 2. Teorema (criterio di invertibilita' tramite rango, senza dimostrazione): una matrice quadrata \(A\in M_{n,n}\) e'
invertibile se e solo se \(r(A)=n\). Corollario: una matrice quadrata A e'
invertibile se e solo se A puo' essere trasformata, tramite l'eliminazione di Gauss, in una matrice triangolare superiore con elementi non nulli sulla diagonale.
Matrici triangolari superiori o inferiore, matrici diagonali e loro invertibilita'.
Algoritmo di Gauss-Jordan. Esempi. Corollario: una matrice quadrata A e' invertibile se e solo se A puo' essere trasformata, tramite l'eliminazione di Gauss-Jordan,
nella matrice identita' se e solo se e' equivalente alla matrice identita'.
23-24 (08/11/22).
Teorema (Algoritmo di Gauss-Jordan per l'inversa, senza dimostrazione): data una matrice \(A\in M_{n,n}\), se trasformiamo \((A\vert I_n)\) nella matrice
\((I_n\vert B)\) tramite l'eliminazione di Gauss-Jordan, allora \(B=A^{-1}.\)
Esempi ed Esercizi.
Il determinante come unica funzione \({\rm det}:M_n\to \mathbb R\) che e' multilineare sulle righe, antisimmetrica sulle righe e tale che \({\rm det}(I_n)=1\).
Corollari: se una matrice ha una riga nulla o due righe uguali, allora ha determinante nullo.
25-26 (10/11/22).
Il calcolo del determinante tramite l'algoritmo di Gauss-Jordan oppure l'algoritmo di Gauss. Esempi: il determinante di una matrice triangolare superiore.
Criterio di invertibilita' col determinante: una matrice \(A\in M_n\) e' invertibile se e solo \({\rm det}(A)\neq 0.\) Esercizi.
27-28 (15/11/22).
Formula di Laplace per il determinante: sviluppo lungo la riga i-esima \({\rm det}(A)=\sum_{k=1}^n (-1)^{i+k}A_{i,k} {\rm det}A(\hat{i}\vert \hat{k})\) oppure la
colonna j-esima \({\rm det}(A)=\sum_{k=1}^n (-1)^{k+j}A_{k,j} {\rm det}A(\hat{k}\vert \hat{j})\). Esempi: il determinante di una matrice di ordine due e di ordine tre
(regola di Sarrus). Esercizi.
Teorema di Binet: \({\rm det}(A\cdot B)={\rm det}(A) {\rm det}(B)\). Formula per l'inversa: se A e' invertibile, allora
\(A^{-1}=\frac{1}{{\rm det}(A)} {\rm adj}(A)\), dove \({\rm adj}(A)=({\rm adj}(A)_{i,j}:=(-1)^{i+j} {\rm det} A(\hat{j}\vert \hat{i}))\) e' l'aggiugata di A.
Esempi: matrice inversa di una matrice di ordine 2. Esercizi.
29-30-31 (17/11/22).
Discussione delle soluzioni di un sistemi lineari \(\Sigma_{(A\vert \overline{b})}\) con matrice A quadrata di ordine n: se A e' invertibile allora esiste un'unica soluzione:
se A non e' invertibile allora o il sistema e' incompatibile oppure ha infinite soluzioni (e precisamente \(\infty^{n-{\rm rg}(A)}\)).
Regola di Cramer per trovare l'unica soluzione di un sistema \(\Sigma_{(A\vert \overline{b})}\) con A invertibile. Esercizi.
Sottospazi vettoriali di uno spazio vettoriale. Esempi: sottospazi di \(\mathbb{R}^2\) e \(\mathbb{R}^3\) in forma geometrica.
Sottospazi vettoriali di \({\mathbb R}^n\) in forma cartesiana \(\text{Sol}_A\).
32-33 (22/11/22).
Lo span lineare \(\text{Lin}(\overline v_1,\ldots, \overline v_n)\). Esempi. Sottospazi vettoriali di \({\mathbb R}^n\) in
forma parametriza \(\text{Span}_A\). Come passare dalla forma cartesiana alla forma parametrica e dalla forma parametrica alla forma cartesiana.
Esercizi.
34-35-36 (24/11/22).
Intersezione di sottospazi vettoriali: definizione e proprieta'. Come calcolare l'intersezione tra due sottospazi di \(\mathbb{R}^n\): \(\text{Sol}_A\cap \text{Sol}_B=\text{Sol}_{\begin{pmatrix} A\\B \end{pmatrix}}\). Somma di sottospazi vettoriali: definizione e proprieta'. Come calcolare la somma tra due sottospazi di \(\mathbb{R}^n\): \(\text{Span}_A+ \text{Span}_B=\text{Span}_{\begin{pmatrix} A \vert B \end{pmatrix}}\). Esempi: sottospazi vettoriali di \(\mathbb{R}^2\) e \(\mathbb{R}^3\).
37-38 (29/11/22).
Sistemi di vettori linearmente indipendenti. Proposizione: un sistema di vettori e' linearmente dipendente se e solo se uno dei vettori
del sistema si scrive come combinazione lineare degli altri vettori. Esempi: sistemi vettori linearmente indipendenti con uno o due elementi.
Esempi in \(\mathbb{R}^2\) e \(\mathbb{R}^3\).
Lemma: la lineare indipendenza e' invariante per scambio dell'ordine e per sottoinsiemi. Criterio per la lineare indipendenza in \(\mathbb{R}^n\):
un sistema di vettori \(\{\overline{v_1},\ldots, \overline{v}_k\}\) e' linearmente indipendente se e solo se
\(\text{rg}(\overline{v}_1\vert \ldots \vert \overline{v}_k)=k\) (\(\Rightarrow k\leq n\)).
39-40-41 (01/12/22).
Sistemi di vettori generanti. Esempi: \(\mathbb{R}^n\) e' generato dal sistema di vettori \(\{\overline{e}_1,\ldots, \overline{e}_n\}\);
\(M_{p,q}\) e' generato dal sistema di matrici \(\{E_{i,j}: 1\leq i\leq p, 1\leq j \leq q\}\).
Lemma: la proprieta' di essere generante e' invariante per scambio dell'ordine e per soprainsiemi. Criterio per l'essere generante in \(\mathbb{R}^n\):
un sistema di vettori \(\{\overline{v_1},\ldots, \overline{v}_k\}\) e' generante se e solo
se \(\text{rg}(\overline{v}_1\vert \ldots \vert \overline{v}_k)=n\) (\(\Rightarrow k\geq n\)).
Spazi vettoriali finitamente generati. Esempi: \(\mathbb{R}^n\), \(M_{p,q}\) e \(\mathbb{R}[T]_{\leq d}\) sono finitamente generati;
lo spazio dei polinomi o delle funzioni continue non sono finitamente generati.
Basi di uno spazio vettoriale. Lemma: un sistema di vettori e' una base se e solo se ogni elemento dello spazio
vettoriale si scrive in maniera unica come combinazione lineae dei vettori dati.
Teorema di Esistenza di Basi (senza dimostrazione): (1) da ogni sistema di generatori si puo' estrarre una base;
(2) ogni insieme linearmente indipendente in uno spazio vettoriale finitamente generato si puo' completare ad una base. Corollario: ogni spazio vettoriale
finitamente generato possiede una base.
Teorema sull'unicita' della cardinalita' delle basi (senza dimostrazione): in uno spazio vettoriale finitamente generato, tutte le basi hanno la stessa cardinalita'.
La dimensione di uno spazio vettoriale. Esempi: \(\{\overline{e}_1,\ldots, \overline{e}_n\}\) formano una base (detta base canonica) di \(\mathbb{R}^n\);
le matrici elementari \(\{E_{i,j}: 1\leq i\leq p, 1\leq j \leq q\}\) formano una base di \(M_{p,q}\).
Proposizione: in uno spazio vettoriale di dimensione n, un sistema di n vettori e' una base se e solo se e'
linearmente indipendente se e solo se e' generante.
Criterio per l'essere una base in \(\mathbb{R}^n\):
un sistema di vettori \(\{\overline{v_1},\ldots, \overline{v}_n\}\) in \(\mathbb{R}^n\) e' una base se e solo se
\(\text{rg}(\overline{v}_1\vert \ldots \vert \overline{v}_n)=n\).
42-43 (06/12/22).
Teorema sulla dimensione dei sottospazi vettoriali: se V e' uno spazio vettoriale di
dimensione finita e W un suo sottospazio, allora \(\text{dim}(W)\leq \text{dim}(V)\) e vale l'uguaglianza se e solo se \(W=V\).
Formula di Grassmann: \(\text{dim}(W_1+W_2)+\text{dim}(W_1\cap W_2)=\text{dim}(W_1)+\text{dim}(W_2)\).
Come calcolare la dimensione e trovare una base di un sottospazio \(W\leq \mathbb{R}^n\) dato in forma parametrica oppure in forma cartesiana. Esercizi.
44-45 (15/12/22).
Applicazioni (o omomorfismi) lineari. Teorema: un'applicazione lineare e' univocamente determinata dai valori che assume su una base del dominio.
Lemma: una mappa tra spazi vettoriali e' un'applicazione lineare se e solo se preserva le combinazioni lineari.
Teorema: esiste una biezione \(M_{m,n}\leftrightarrows \text{Hom}(\mathbb{R}^n, \mathbb{R}^m)\) ottenuta mandando una matrice A nell'applicazione lineare
\(f_A\) definita da \(f_A(\overline{v})=A\cdot \overline{v}\) e un'applicazione lineare \(f\) nella sua matrice canonica \(M(f)\). Esercizi.
46-47 (20/12/22).
Definizione/Lemma: lo spazio \(\text{Hom}(V,W)\) delle applicazioni lineari da \(V\) a \(W\) e' uno spazio vettoriale rispetto alla somma di applicazioni
e alla moltiplicazione lineare tra uno scalare e un'applicazione lineare.
Corollario: le biezioni \(M_{m,n}\leftrightarrows \text{Hom}(\mathbb{R}^n, \mathbb{R}^m)\) sono isomorfismi di spazi vettoriali.
Definizione/Lemma: la composizione di applicazioni lineari e la sua bilinearita'.
Corollario: tramite le biezioni \(M_{m,n}\leftrightarrows \text{Hom}(\mathbb{R}^n, \mathbb{R}^m)\) la composizione di applicazioni lineari corrisponde al prodotto di matrici.
Applicazioni lineari iniettive, suriettive, biettive, isomorfismi. Lemma: un'applicazione lineare e' un isomorfismo (cioe' ammette un'inversa) se e solo se e' biettiva.
Corollario: tramite le biezioni \(M_{n}\leftrightarrows \text{Hom}(\mathbb{R}^n, \mathbb{R}^n)\), gli isomorfismi lineari corrispondono alle matrici invertibili e l'inverso di
un'applicazione lineare corrisponde all'inverso delle matrici.
48-49-50 (22/12/22).
Il nucleo \(\text{ker}(f)\) e l'immagine \(\text{Im}(f)\) di un'applicazione lineare f. Lemma: un'applicazione lineare \(f:V\to W\) e' iniettiva
se e solo se \(\text{ker}(f)=\{0\}\), ed e' suriettiva se e solo se \(\text{Im}(f)=W\).
Il nucleo e l'immagine di applicazioni \(f_A:\mathbb{R}^n \to \mathbb{R}^m\): \(\text{ker}(f_A)=\text{Sol}_A\) e \(\text{Im}(f_A)=\text{Lin}_A\).
Proposizione: un'applicazione lineare \(f_A:\mathbb{R}^n \to \mathbb{R}^m\) e' iniettiva se e solo se \({\rm rg}(A)=n\), e' suriettiva se e solo se \({\rm rg}(A)=m\),
e' un isomorfismo se e solo se \({\rm rg}(A)=n=m\). Esercizi.
Proposizione: un'applicazione lineare e' iniettiva (risp. suriettiva, risp. biettiva) se e solo se f manda una base del dominio in un sistema di vettori
linearmente indipendenti (risp. generanti, risp. una base). Corollario 1: data un'applicazione lineare \(f:V\to W\) tra spazi vettoriali finitamente generati,
allora se f e' iniettiva (risp. suriettiva, risp. biettiva) allora \(\text{dim}(V)\leq\) (risp. \(\geq\), \(=\)) \(\text{dim}(W)\).
Corollario 2: data un'applicazione lineare \(f:V\to W\) tra spazi vettoriali finitamente generati tali che \(\text{dim}(V)=\text{dim}(W)\), f e' iniettiva se e solo se
f e' suriettiva se e solo se f e' un isomorfismo.
Teorema di Classificazione degli spazi vettoriali: due spazi vettoriali sono isomorfi se e solo se hanno la stessa dimensione.
Il rango \(\text{rg}(f)\) e la nullita' \(\text{null}(f)\) di un'applicazione lineare.
Teorema di Rango-Nullita' (con dimostrazione solo nel caso di spazi vettoriali numerici): data un'applicazione lineare \(f:V\to W\) con \(V\) finitamente generato,
vale che \(\text{dim}(V)=\text{rg}(f)+\text{null}(f)\).
Il vettore delle coordinate \([]_{\mathcal{E}}\) rispetto ad una base \(\mathcal{E}\) di V. Esempio: il vettore delle coordinate di un vettore di \(\mathbb{R}^n\)
rispetto alla base canonica e' il vettore stesso.
Proposizione: l'applicazione delle coordinate \([]_\mathcal{E}:V\xrightarrow{\cong} \mathbb{R}^n\) e' un isomorfismo.
51-52 (10/01/23).
Matrici di cambiamento di base .
Esempio: data una base \(\mathcal{F}=\{\overline f_1\ldots, \overline f_n\}\) di \(\mathbb{R}^n\), vale che \(M_{\mathcal{E}^{\rm can},\mathcal{F}}=(\overline f_1,\ldots, \overline f_n)\).
Proprieta': \([v]_{\mathcal{E}}=M_{\mathcal E, \mathcal{F}}\cdot [v]_{\mathcal{F}}\); \(M_{\mathcal E, \mathcal{F}}^{-1}=M_{\mathcal{F}, \mathcal{E}}\); \(M_{\mathcal E, \mathcal{F}}=
M_{\mathcal E, \mathcal{G}}\cdot M_{\mathcal G, \mathcal{F}}\). Esercizi: matrici di cambiamento di base in \(\mathbb{R}^n\).
La matrice di un'applicazione lineare \(M_{\mathcal{F},\mathcal{E}}(f)\) rispetto ad una base \(\mathcal{E}\) del dominio e \(\mathcal{F}\) del codominio.
Caso particolare 1: data \(f:\mathbb{R}^n\to \mathbb{R}^m\), la matrice canonica \(M(f)\) e' la matrice di f rispetto alle basi canoniche del dominio e del
codominio. Caso particolare 2: \(M_{\mathcal E, \mathcal{F}}=M_{\mathcal E, \mathcal{F}}(\text{id}_V)\). Proposizione:
\([f(v)]_{\mathcal F}=M_{\mathcal F, \mathcal E}.[v]_{\mathcal E}\); l'applicazione \(M_{\mathcal E, \mathcal{F}}(-):\text{Hom}(V,W)\to M_{m,n}\) e' un isomorfismo; formula di composizione
\(M_{\mathcal G, \mathcal{E}}(g\circ f)=M_{\mathcal G, \mathcal{F}}(g)\cdot M_{\mathcal F, \mathcal{E}}(f)\); formula di cambiamento di base
\(M_{\mathcal F', \mathcal{E}}(f)=M_{\mathcal F', \mathcal{F}}\cdot M_{\mathcal F, \mathcal{E}}(f)\cdot M_{\mathcal E, \mathcal{E}'}\).
Esercizi: matrici di applicazioni lineari \(f:\mathbb{R}^n\to \mathbb{R}^m\) rispetto a basi arbitrarie.
53-54 (11/01/23).
Operatori lineari (o endomorfismi) su uno spazio vettoriale V. Proprieta' di \(\text{End}(V)\): la struttura di spazio vettoriale e la composizione.
La matrice \(M_{\mathcal B}(f)\) di un operatore \(f\in \text{End}(V)\) rispetto ad una base \({\mathcal B}\) di V.
Proposizione: \([f(v)]_{\mathcal E}=M_{\mathcal E}.[v]_{\mathcal E}\);
l'applicazione \(M_{\mathcal E}(-):\text{End}(V)\to M_{n}\) e' un isomorfismo; formula di composizione
\(M_{\mathcal{E}}(g\circ f)=M_{\mathcal{E}}(g)\cdot M_{\mathcal{E}}(f)\); formula di cambiamento di base
\(M_{\mathcal{F}}(f)=M_{\mathcal E, \mathcal{F}}^{-1}\cdot M_{\mathcal{E}}(f)\cdot M_{\mathcal E, \mathcal{F}}\).
La relazione di similitudine tra matrici quadrate. Il problema della diagonalizzabilita' degli operatori lineari.
Esempi: potenze di operatori diagonalizzabili.
Autovalori e autovettori di un operatore lineare: l'autospazio associato ad un autovalore. Proposizione: un operatore lineare e' diagonalizzabile se e solo
se esiste una base fatta di autovettori.
55-56-57 (12/01/23).
Polinomio caratteristico di un operatore. Proposizione: le radici del polinomio caratteristico sono gli autovalori.
Esercizi.
Primo criterio di diagonalizzabilita' (senza dimostrazione): (1) la somma delle dimensioni degli autospazi di un operatore e' minore o uguale alla dimensione dello
spazio su cui e' definito; (2) un operatore e' diagonalizzabile se e solo se la somma delle dimensioni dei suoi autospazi e' uguale alla dimensione dello spazio su cui e' definito.
Il polinomio caratteristico di una matrice quadrata e di un operatore.
Fatto: la decomposizione di un polinomio \(f(T)\in \mathbb{R}[T]\) in fattori irriducibili lineari e un polinomio senza radici.
Molteplicita' algebrica \(\text{alg}(\lambda)\) e geometrica \(\text{geo}(\lambda)\) di un autovalore \(\lambda\).
Esercizi su: autovalori, autospazi e diagonalizzabilita'.
Proposizione: per ogni autovalore \(\lambda\) di un operatore (o di una matrice quadrata) vale che \(1\leq \text{geo}(\lambda)\leq \text{alg}(\lambda)\).
Secondo criterio di diagonalizzabilita': un operatore e' diagonalizzabilese e solo se il polinomio caratteristico ha solo fattori irriducibili lineari e la molteplicita'
geometrica di ciascun autovalore e' uguale alla molteplicita' algebrica. Esercizi su autovalori, autospazi e diagonalizzabilita' degli operatori.