Corso Matematica per Ingegneria Elettronica - a.a. 2022/2023

DIARIO delle LEZIONI



  • 1-2 (27/09/22).  L'insieme \({\mathbb R}\) dei numeri reali e le loro proprieta' algebriche di campo.

  • 3-4-5 (29/10/22).  L'insieme \({\mathbb R}^n\) dei vettori di lunghezza n a coefficienti reali: l'addizione vettoriale e la moltiplicazione scalare e loro proprieta' algebriche. La definizione di spazio vettoriale. Interpretazione geometrica di \({\mathbb R}^1=\mathbb R\), \({\mathbb R}^2\) e \({\mathbb R}^3\).

  • 6-7 (04/10/22).  I sistemi lineari: il sistema lineare omogeneo \(\Sigma^{om}\) associato ad un sistema lineare \(\Sigma\) e lo spazio delle soluzioni \(Sol(\Sigma)\). Sistemi compatibili e incompatibili. Proposizione: \(Sol(\Sigma)=Sol(\Sigma^{om})+\overline{c}\), dove \(\overline{c}\) e' una soluzione del sistema lineare \(\Sigma\).

  • 8-9 (11/10/22).  La risoluzione dei sistemi lineari col metodo di sostituzione. Esempi ed esercizi.

  • 10-11 (18/10/22).  Matrici: gli elementi \(A_{ij}\) di una matrice A, le righe \(A_i\) e le colonne \(A^j\) di una matrice A. Matrici e sistemi lineari: la matrice \(A(\Sigma)\) dei coefficienti e la matrice completa \(C(\Sigma)\) di un sistema lineare \(\Sigma\); il sistema lineare \(\Sigma_{C=(A\vert \overline{b})}\) associato ad una matrice A e ad un vettore \(\overline{b}\) aventi lo stesso numero di colonne. Matrici a scalini. Esempi.

  • 12-13-14 (20/10/22).  Le tre trasformazioni elementari (per riga). Matrici equivalenti \(A\sim_{eq} B\) e proprieta' di \(\sim_{eq}\). L' algoritmo di riduzione (per righe) di Gauss: ogni matrice e' equivalente ad una matrice a scalini. Esempi di algoritmo di Gauss. Il rango di una matrice A come il numero di pivots di una matrice a scalini B equivalente ad A.

  • 15-16 (25/10/22).  Proposizione: se C e D sono due matrici equivalenti, allora \(\Sigma_C\) e \(\Sigma_D\) sono equivalenti, ovvero sia \(Sol(\Sigma_C)=Sol(\Sigma_D)\). Algoritmo di Gauss per la trasformazione di un sistema in un sistema con matrice a scalini. La risoluzione dei sistemi lineare a scalini tramite sostituzione. Esercizi.

  • 17-18-19 (27/10/22).  Teorema di Rouche'-Capelli: un sistema \(\Sigma_{C=(A\vert \overline{b})}\) e' compatibile se e solo se r(C)=r(A); in tal caso il sistema \(\Sigma_C\) ha \(\infty^{q-r(A)}\)-soluzioni, dove q e' il numero di variabili. Lo spazio \(M_{p,q}\) delle matrici \(p \times q\) a coefficienti in \(\mathbb{R}\) come spazio vettoriale: la somma di matrici e la moltiplicazione per uno scalare. Il prodotto (righe per colonne) tra matrici e sue proprieta': associativita', bilinearita', elemento neutro. Esempi. Matrici invertibili. Proprieta': l' inverso destro e' uguale all'inverso sinistro (senza dimostrazione) ed e' unico.

  • 20-21-22 (03/11/22).  Esempi: inversa di matrici di ordine 1 e ordine 2. Teorema (criterio di invertibilita' tramite rango, senza dimostrazione): una matrice quadrata \(A\in M_{n,n}\) e' invertibile se e solo se \(r(A)=n\). Corollario: una matrice quadrata A e' invertibile se e solo se A puo' essere trasformata, tramite l'eliminazione di Gauss, in una matrice triangolare superiore con elementi non nulli sulla diagonale. Matrici triangolari superiori o inferiore, matrici diagonali e loro invertibilita'. Algoritmo di Gauss-Jordan. Esempi. Corollario: una matrice quadrata A e' invertibile se e solo se A puo' essere trasformata, tramite l'eliminazione di Gauss-Jordan, nella matrice identita' se e solo se e' equivalente alla matrice identita'.

  • 23-24 (08/11/22).  Teorema (Algoritmo di Gauss-Jordan per l'inversa, senza dimostrazione): data una matrice \(A\in M_{n,n}\), se trasformiamo \((A\vert I_n)\) nella matrice \((I_n\vert B)\) tramite l'eliminazione di Gauss-Jordan, allora \(B=A^{-1}.\) Esempi ed Esercizi. Il determinante come unica funzione \({\rm det}:M_n\to \mathbb R\) che e' multilineare sulle righe, antisimmetrica sulle righe e tale che \({\rm det}(I_n)=1\). Corollari: se una matrice ha una riga nulla o due righe uguali, allora ha determinante nullo.

  • 25-26 (10/11/22).  Il calcolo del determinante tramite l'algoritmo di Gauss-Jordan oppure l'algoritmo di Gauss. Esempi: il determinante di una matrice triangolare superiore. Criterio di invertibilita' col determinante: una matrice \(A\in M_n\) e' invertibile se e solo \({\rm det}(A)\neq 0.\) Esercizi.

  • 27-28 (15/11/22).  Formula di Laplace per il determinante: sviluppo lungo la riga i-esima \({\rm det}(A)=\sum_{k=1}^n (-1)^{i+k}A_{i,k} {\rm det}A(\hat{i}\vert \hat{k})\) oppure la colonna j-esima \({\rm det}(A)=\sum_{k=1}^n (-1)^{k+j}A_{k,j} {\rm det}A(\hat{k}\vert \hat{j})\). Esempi: il determinante di una matrice di ordine due e di ordine tre (regola di Sarrus). Esercizi. Teorema di Binet: \({\rm det}(A\cdot B)={\rm det}(A) {\rm det}(B)\). Formula per l'inversa: se A e' invertibile, allora \(A^{-1}=\frac{1}{{\rm det}(A)} {\rm adj}(A)\), dove \({\rm adj}(A)=({\rm adj}(A)_{i,j}:=(-1)^{i+j} {\rm det} A(\hat{j}\vert \hat{i}))\) e' l'aggiugata di A. Esempi: matrice inversa di una matrice di ordine 2. Esercizi.

  • 29-30-31 (17/11/22).  Discussione delle soluzioni di un sistemi lineari \(\Sigma_{(A\vert \overline{b})}\) con matrice A quadrata di ordine n: se A e' invertibile allora esiste un'unica soluzione: se A non e' invertibile allora o il sistema e' incompatibile oppure ha infinite soluzioni (e precisamente \(\infty^{n-{\rm rg}(A)}\)). Regola di Cramer per trovare l'unica soluzione di un sistema \(\Sigma_{(A\vert \overline{b})}\) con A invertibile. Esercizi. Sottospazi vettoriali di uno spazio vettoriale. Esempi: sottospazi di \(\mathbb{R}^2\) e \(\mathbb{R}^3\) in forma geometrica. Sottospazi vettoriali di \({\mathbb R}^n\) in forma cartesiana \(\text{Sol}_A\).

  • 32-33 (22/11/22).  Lo span lineare \(\text{Lin}(\overline v_1,\ldots, \overline v_n)\). Esempi. Sottospazi vettoriali di \({\mathbb R}^n\) in forma parametriza \(\text{Span}_A\). Come passare dalla forma cartesiana alla forma parametrica e dalla forma parametrica alla forma cartesiana. Esercizi.

  • 34-35-36 (24/11/22).  Intersezione di sottospazi vettoriali: definizione e proprieta'. Come calcolare l'intersezione tra due sottospazi di \(\mathbb{R}^n\): \(\text{Sol}_A\cap \text{Sol}_B=\text{Sol}_{\begin{pmatrix} A\\B \end{pmatrix}}\). Somma di sottospazi vettoriali: definizione e proprieta'. Come calcolare la somma tra due sottospazi di \(\mathbb{R}^n\): \(\text{Span}_A+ \text{Span}_B=\text{Span}_{\begin{pmatrix} A \vert B \end{pmatrix}}\). Esempi: sottospazi vettoriali di \(\mathbb{R}^2\) e \(\mathbb{R}^3\).

  • 37-38 (29/11/22).  Sistemi di vettori linearmente indipendenti. Proposizione: un sistema di vettori e' linearmente dipendente se e solo se uno dei vettori del sistema si scrive come combinazione lineare degli altri vettori. Esempi: sistemi vettori linearmente indipendenti con uno o due elementi. Esempi in \(\mathbb{R}^2\) e \(\mathbb{R}^3\). Lemma: la lineare indipendenza e' invariante per scambio dell'ordine e per sottoinsiemi. Criterio per la lineare indipendenza in \(\mathbb{R}^n\): un sistema di vettori \(\{\overline{v_1},\ldots, \overline{v}_k\}\) e' linearmente indipendente se e solo se \(\text{rg}(\overline{v}_1\vert \ldots \vert \overline{v}_k)=k\) (\(\Rightarrow k\leq n\)).

  • 39-40-41 (01/12/22).  Sistemi di vettori generanti. Esempi: \(\mathbb{R}^n\) e' generato dal sistema di vettori \(\{\overline{e}_1,\ldots, \overline{e}_n\}\); \(M_{p,q}\) e' generato dal sistema di matrici \(\{E_{i,j}: 1\leq i\leq p, 1\leq j \leq q\}\). Lemma: la proprieta' di essere generante e' invariante per scambio dell'ordine e per soprainsiemi. Criterio per l'essere generante in \(\mathbb{R}^n\): un sistema di vettori \(\{\overline{v_1},\ldots, \overline{v}_k\}\) e' generante se e solo se \(\text{rg}(\overline{v}_1\vert \ldots \vert \overline{v}_k)=n\) (\(\Rightarrow k\geq n\)). Spazi vettoriali finitamente generati. Esempi: \(\mathbb{R}^n\), \(M_{p,q}\) e \(\mathbb{R}[T]_{\leq d}\) sono finitamente generati; lo spazio dei polinomi o delle funzioni continue non sono finitamente generati. Basi di uno spazio vettoriale. Lemma: un sistema di vettori e' una base se e solo se ogni elemento dello spazio vettoriale si scrive in maniera unica come combinazione lineae dei vettori dati. Teorema di Esistenza di Basi (senza dimostrazione): (1) da ogni sistema di generatori si puo' estrarre una base; (2) ogni insieme linearmente indipendente in uno spazio vettoriale finitamente generato si puo' completare ad una base. Corollario: ogni spazio vettoriale finitamente generato possiede una base. Teorema sull'unicita' della cardinalita' delle basi (senza dimostrazione): in uno spazio vettoriale finitamente generato, tutte le basi hanno la stessa cardinalita'. La dimensione di uno spazio vettoriale. Esempi: \(\{\overline{e}_1,\ldots, \overline{e}_n\}\) formano una base (detta base canonica) di \(\mathbb{R}^n\); le matrici elementari \(\{E_{i,j}: 1\leq i\leq p, 1\leq j \leq q\}\) formano una base di \(M_{p,q}\). Proposizione: in uno spazio vettoriale di dimensione n, un sistema di n vettori e' una base se e solo se e' linearmente indipendente se e solo se e' generante. Criterio per l'essere una base in \(\mathbb{R}^n\): un sistema di vettori \(\{\overline{v_1},\ldots, \overline{v}_n\}\) in \(\mathbb{R}^n\) e' una base se e solo se \(\text{rg}(\overline{v}_1\vert \ldots \vert \overline{v}_n)=n\).

  • 42-43 (06/12/22).  Teorema sulla dimensione dei sottospazi vettoriali: se V e' uno spazio vettoriale di dimensione finita e W un suo sottospazio, allora \(\text{dim}(W)\leq \text{dim}(V)\) e vale l'uguaglianza se e solo se \(W=V\). Formula di Grassmann: \(\text{dim}(W_1+W_2)+\text{dim}(W_1\cap W_2)=\text{dim}(W_1)+\text{dim}(W_2)\). Come calcolare la dimensione e trovare una base di un sottospazio \(W\leq \mathbb{R}^n\) dato in forma parametrica oppure in forma cartesiana. Esercizi.

  • 44-45 (15/12/22).  Applicazioni (o omomorfismi) lineari. Teorema: un'applicazione lineare e' univocamente determinata dai valori che assume su una base del dominio. Lemma: una mappa tra spazi vettoriali e' un'applicazione lineare se e solo se preserva le combinazioni lineari. Teorema: esiste una biezione \(M_{m,n}\leftrightarrows \text{Hom}(\mathbb{R}^n, \mathbb{R}^m)\) ottenuta mandando una matrice A nell'applicazione lineare \(f_A\) definita da \(f_A(\overline{v})=A\cdot \overline{v}\) e un'applicazione lineare \(f\) nella sua matrice canonica \(M(f)\). Esercizi.

  • 46-47 (20/12/22).  Definizione/Lemma: lo spazio \(\text{Hom}(V,W)\) delle applicazioni lineari da \(V\) a \(W\) e' uno spazio vettoriale rispetto alla somma di applicazioni e alla moltiplicazione lineare tra uno scalare e un'applicazione lineare. Corollario: le biezioni \(M_{m,n}\leftrightarrows \text{Hom}(\mathbb{R}^n, \mathbb{R}^m)\) sono isomorfismi di spazi vettoriali. Definizione/Lemma: la composizione di applicazioni lineari e la sua bilinearita'. Corollario: tramite le biezioni \(M_{m,n}\leftrightarrows \text{Hom}(\mathbb{R}^n, \mathbb{R}^m)\) la composizione di applicazioni lineari corrisponde al prodotto di matrici. Applicazioni lineari iniettive, suriettive, biettive, isomorfismi. Lemma: un'applicazione lineare e' un isomorfismo (cioe' ammette un'inversa) se e solo se e' biettiva. Corollario: tramite le biezioni \(M_{n}\leftrightarrows \text{Hom}(\mathbb{R}^n, \mathbb{R}^n)\), gli isomorfismi lineari corrispondono alle matrici invertibili e l'inverso di un'applicazione lineare corrisponde all'inverso delle matrici.

  • 48-49-50 (22/12/22).  Il nucleo \(\text{ker}(f)\) e l'immagine \(\text{Im}(f)\) di un'applicazione lineare f. Lemma: un'applicazione lineare \(f:V\to W\) e' iniettiva se e solo se \(\text{ker}(f)=\{0\}\), ed e' suriettiva se e solo se \(\text{Im}(f)=W\). Il nucleo e l'immagine di applicazioni \(f_A:\mathbb{R}^n \to \mathbb{R}^m\): \(\text{ker}(f_A)=\text{Sol}_A\) e \(\text{Im}(f_A)=\text{Lin}_A\). Proposizione: un'applicazione lineare \(f_A:\mathbb{R}^n \to \mathbb{R}^m\) e' iniettiva se e solo se \({\rm rg}(A)=n\), e' suriettiva se e solo se \({\rm rg}(A)=m\), e' un isomorfismo se e solo se \({\rm rg}(A)=n=m\). Esercizi. Proposizione: un'applicazione lineare e' iniettiva (risp. suriettiva, risp. biettiva) se e solo se f manda una base del dominio in un sistema di vettori linearmente indipendenti (risp. generanti, risp. una base). Corollario 1: data un'applicazione lineare \(f:V\to W\) tra spazi vettoriali finitamente generati, allora se f e' iniettiva (risp. suriettiva, risp. biettiva) allora \(\text{dim}(V)\leq\) (risp. \(\geq\), \(=\)) \(\text{dim}(W)\). Corollario 2: data un'applicazione lineare \(f:V\to W\) tra spazi vettoriali finitamente generati tali che \(\text{dim}(V)=\text{dim}(W)\), f e' iniettiva se e solo se f e' suriettiva se e solo se f e' un isomorfismo. Teorema di Classificazione degli spazi vettoriali: due spazi vettoriali sono isomorfi se e solo se hanno la stessa dimensione. Il rango \(\text{rg}(f)\) e la nullita' \(\text{null}(f)\) di un'applicazione lineare. Teorema di Rango-Nullita' (con dimostrazione solo nel caso di spazi vettoriali numerici): data un'applicazione lineare \(f:V\to W\) con \(V\) finitamente generato, vale che \(\text{dim}(V)=\text{rg}(f)+\text{null}(f)\). Il vettore delle coordinate \([]_{\mathcal{E}}\) rispetto ad una base \(\mathcal{E}\) di V. Esempio: il vettore delle coordinate di un vettore di \(\mathbb{R}^n\) rispetto alla base canonica e' il vettore stesso. Proposizione: l'applicazione delle coordinate \([]_\mathcal{E}:V\xrightarrow{\cong} \mathbb{R}^n\) e' un isomorfismo.

  • 51-52 (10/01/23).  Matrici di cambiamento di base . Esempio: data una base \(\mathcal{F}=\{\overline f_1\ldots, \overline f_n\}\) di \(\mathbb{R}^n\), vale che \(M_{\mathcal{E}^{\rm can},\mathcal{F}}=(\overline f_1,\ldots, \overline f_n)\). Proprieta': \([v]_{\mathcal{E}}=M_{\mathcal E, \mathcal{F}}\cdot [v]_{\mathcal{F}}\); \(M_{\mathcal E, \mathcal{F}}^{-1}=M_{\mathcal{F}, \mathcal{E}}\); \(M_{\mathcal E, \mathcal{F}}= M_{\mathcal E, \mathcal{G}}\cdot M_{\mathcal G, \mathcal{F}}\). Esercizi: matrici di cambiamento di base in \(\mathbb{R}^n\). La matrice di un'applicazione lineare \(M_{\mathcal{F},\mathcal{E}}(f)\) rispetto ad una base \(\mathcal{E}\) del dominio e \(\mathcal{F}\) del codominio. Caso particolare 1: data \(f:\mathbb{R}^n\to \mathbb{R}^m\), la matrice canonica \(M(f)\) e' la matrice di f rispetto alle basi canoniche del dominio e del codominio. Caso particolare 2: \(M_{\mathcal E, \mathcal{F}}=M_{\mathcal E, \mathcal{F}}(\text{id}_V)\). Proposizione: \([f(v)]_{\mathcal F}=M_{\mathcal F, \mathcal E}.[v]_{\mathcal E}\); l'applicazione \(M_{\mathcal E, \mathcal{F}}(-):\text{Hom}(V,W)\to M_{m,n}\) e' un isomorfismo; formula di composizione \(M_{\mathcal G, \mathcal{E}}(g\circ f)=M_{\mathcal G, \mathcal{F}}(g)\cdot M_{\mathcal F, \mathcal{E}}(f)\); formula di cambiamento di base \(M_{\mathcal F', \mathcal{E}}(f)=M_{\mathcal F', \mathcal{F}}\cdot M_{\mathcal F, \mathcal{E}}(f)\cdot M_{\mathcal E, \mathcal{E}'}\). Esercizi: matrici di applicazioni lineari \(f:\mathbb{R}^n\to \mathbb{R}^m\) rispetto a basi arbitrarie.

  • 53-54 (11/01/23).  Operatori lineari (o endomorfismi) su uno spazio vettoriale V. Proprieta' di \(\text{End}(V)\): la struttura di spazio vettoriale e la composizione. La matrice \(M_{\mathcal B}(f)\) di un operatore \(f\in \text{End}(V)\) rispetto ad una base \({\mathcal B}\) di V. Proposizione: \([f(v)]_{\mathcal E}=M_{\mathcal E}.[v]_{\mathcal E}\); l'applicazione \(M_{\mathcal E}(-):\text{End}(V)\to M_{n}\) e' un isomorfismo; formula di composizione \(M_{\mathcal{E}}(g\circ f)=M_{\mathcal{E}}(g)\cdot M_{\mathcal{E}}(f)\); formula di cambiamento di base \(M_{\mathcal{F}}(f)=M_{\mathcal E, \mathcal{F}}^{-1}\cdot M_{\mathcal{E}}(f)\cdot M_{\mathcal E, \mathcal{F}}\). La relazione di similitudine tra matrici quadrate. Il problema della diagonalizzabilita' degli operatori lineari. Esempi: potenze di operatori diagonalizzabili. Autovalori e autovettori di un operatore lineare: l'autospazio associato ad un autovalore. Proposizione: un operatore lineare e' diagonalizzabile se e solo se esiste una base fatta di autovettori.

  • 55-56-57 (12/01/23).  Polinomio caratteristico di un operatore. Proposizione: le radici del polinomio caratteristico sono gli autovalori. Esercizi. Primo criterio di diagonalizzabilita' (senza dimostrazione): (1) la somma delle dimensioni degli autospazi di un operatore e' minore o uguale alla dimensione dello spazio su cui e' definito; (2) un operatore e' diagonalizzabile se e solo se la somma delle dimensioni dei suoi autospazi e' uguale alla dimensione dello spazio su cui e' definito. Il polinomio caratteristico di una matrice quadrata e di un operatore. Fatto: la decomposizione di un polinomio \(f(T)\in \mathbb{R}[T]\) in fattori irriducibili lineari e un polinomio senza radici. Molteplicita' algebrica \(\text{alg}(\lambda)\) e geometrica \(\text{geo}(\lambda)\) di un autovalore \(\lambda\). Esercizi su: autovalori, autospazi e diagonalizzabilita'. Proposizione: per ogni autovalore \(\lambda\) di un operatore (o di una matrice quadrata) vale che \(1\leq \text{geo}(\lambda)\leq \text{alg}(\lambda)\). Secondo criterio di diagonalizzabilita': un operatore e' diagonalizzabilese e solo se il polinomio caratteristico ha solo fattori irriducibili lineari e la molteplicita' geometrica di ciascun autovalore e' uguale alla molteplicita' algebrica. Esercizi su autovalori, autospazi e diagonalizzabilita' degli operatori.