Loading [MathJax]/jax/output/HTML-CSS/jax.js
Corso Matematica per Ingegneria Elettronica - a.a. 2022/2023
DIARIO delle LEZIONI
1-2 (27/09/22).
L'insieme R dei numeri reali e le loro proprieta' algebriche di campo.
3-4-5 (29/10/22).
L'insieme Rn dei vettori di lunghezza n a coefficienti reali:
l'addizione vettoriale e la moltiplicazione scalare e loro proprieta' algebriche. La definizione di spazio vettoriale.
Interpretazione geometrica di R1=R, R2
e R3.
6-7 (04/10/22).
I sistemi lineari: il sistema lineare omogeneo Σom associato ad un sistema lineare Σ e lo spazio delle soluzioni Sol(Σ).
Sistemi compatibili e incompatibili. Proposizione: Sol(Σ)=Sol(Σom)+¯c,
dove ¯c e' una soluzione del sistema lineare Σ.
8-9 (11/10/22).
La risoluzione dei sistemi lineari col metodo di sostituzione. Esempi ed esercizi.
10-11 (18/10/22).
Matrici: gli elementi Aij di una matrice A, le righe Ai e le colonne Aj di una matrice A.
Matrici e sistemi lineari: la matrice A(Σ) dei coefficienti e la matrice completa C(Σ) di un sistema lineare Σ; il sistema lineare ΣC=(A|¯b) associato ad una matrice A e ad un vettore ¯b aventi lo stesso numero di colonne. Matrici a scalini. Esempi.
12-13-14 (20/10/22).
Le tre trasformazioni elementari (per riga). Matrici equivalenti A∼eqB e proprieta' di ∼eq. L' algoritmo di riduzione (per righe) di Gauss:
ogni matrice e' equivalente ad una matrice a scalini.
Esempi di algoritmo di Gauss. Il rango di una matrice A come il numero di pivots di una matrice a scalini B equivalente ad A.
15-16 (25/10/22).
Proposizione: se C e D sono due matrici equivalenti, allora ΣC e ΣD sono equivalenti, ovvero sia Sol(ΣC)=Sol(ΣD).
Algoritmo di Gauss per la trasformazione di un sistema in un sistema con matrice a scalini. La risoluzione dei sistemi lineare a scalini tramite sostituzione. Esercizi.
17-18-19 (27/10/22).
Teorema di Rouche'-Capelli: un sistema ΣC=(A|¯b) e' compatibile se e solo se r(C)=r(A); in tal caso il sistema ΣC ha ∞q−r(A)-soluzioni, dove q e' il numero di variabili.
Lo spazio Mp,q delle matrici p×q a coefficienti in R come spazio vettoriale: la somma di matrici e la moltiplicazione per uno scalare.
Il prodotto (righe per colonne) tra matrici e sue proprieta': associativita', bilinearita', elemento neutro. Esempi. Matrici invertibili. Proprieta':
l' inverso destro e' uguale all'inverso sinistro (senza dimostrazione) ed e' unico.
20-21-22 (03/11/22).
Esempi: inversa di matrici di ordine 1 e ordine 2. Teorema (criterio di invertibilita' tramite rango, senza dimostrazione): una matrice quadrata A∈Mn,n e'
invertibile se e solo se r(A)=n. Corollario: una matrice quadrata A e'
invertibile se e solo se A puo' essere trasformata, tramite l'eliminazione di Gauss, in una matrice triangolare superiore con elementi non nulli sulla diagonale.
Matrici triangolari superiori o inferiore, matrici diagonali e loro invertibilita'.
Algoritmo di Gauss-Jordan. Esempi. Corollario: una matrice quadrata A e' invertibile se e solo se A puo' essere trasformata, tramite l'eliminazione di Gauss-Jordan,
nella matrice identita' se e solo se e' equivalente alla matrice identita'.
23-24 (08/11/22).
Teorema (Algoritmo di Gauss-Jordan per l'inversa, senza dimostrazione): data una matrice A∈Mn,n, se trasformiamo (A|In) nella matrice
(In|B) tramite l'eliminazione di Gauss-Jordan, allora B=A−1.
Esempi ed Esercizi.
Il determinante come unica funzione det:Mn→R che e' multilineare sulle righe, antisimmetrica sulle righe e tale che det(In)=1.
Corollari: se una matrice ha una riga nulla o due righe uguali, allora ha determinante nullo.
25-26 (10/11/22).
Il calcolo del determinante tramite l'algoritmo di Gauss-Jordan oppure l'algoritmo di Gauss. Esempi: il determinante di una matrice triangolare superiore.
Criterio di invertibilita' col determinante: una matrice A∈Mn e' invertibile se e solo det(A)≠0. Esercizi.
27-28 (15/11/22).
Formula di Laplace per il determinante: sviluppo lungo la riga i-esima det(A)=∑nk=1(−1)i+kAi,kdetA(ˆi|ˆk) oppure la
colonna j-esima det(A)=∑nk=1(−1)k+jAk,jdetA(ˆk|ˆj). Esempi: il determinante di una matrice di ordine due e di ordine tre
(regola di Sarrus). Esercizi.
Teorema di Binet: det(A⋅B)=det(A)det(B). Formula per l'inversa: se A e' invertibile, allora
A−1=1det(A)adj(A), dove adj(A)=(adj(A)i,j:=(−1)i+jdetA(ˆj|ˆi)) e' l'aggiugata di A.
Esempi: matrice inversa di una matrice di ordine 2. Esercizi.
29-30-31 (17/11/22).
Discussione delle soluzioni di un sistemi lineari Σ(A|¯b) con matrice A quadrata di ordine n: se A e' invertibile allora esiste un'unica soluzione:
se A non e' invertibile allora o il sistema e' incompatibile oppure ha infinite soluzioni (e precisamente ∞n−rg(A)).
Regola di Cramer per trovare l'unica soluzione di un sistema Σ(A|¯b) con A invertibile. Esercizi.
Sottospazi vettoriali di uno spazio vettoriale. Esempi: sottospazi di R2 e R3 in forma geometrica.
Sottospazi vettoriali di Rn in forma cartesiana SolA.
32-33 (22/11/22).
Lo span lineare Lin(¯v1,…,¯vn). Esempi. Sottospazi vettoriali di Rn in
forma parametriza SpanA. Come passare dalla forma cartesiana alla forma parametrica e dalla forma parametrica alla forma cartesiana.
Esercizi.
34-35-36 (24/11/22).
Intersezione di sottospazi vettoriali: definizione e proprieta'. Come calcolare l'intersezione tra due sottospazi di Rn: SolA∩SolB=Sol(AB). Somma di sottospazi vettoriali: definizione e proprieta'. Come calcolare la somma tra due sottospazi di Rn: SpanA+SpanB=Span(A|B). Esempi: sottospazi vettoriali di R2 e R3.
37-38 (29/11/22).
Sistemi di vettori linearmente indipendenti. Proposizione: un sistema di vettori e' linearmente dipendente se e solo se uno dei vettori
del sistema si scrive come combinazione lineare degli altri vettori. Esempi: sistemi vettori linearmente indipendenti con uno o due elementi.
Esempi in R2 e R3.
Lemma: la lineare indipendenza e' invariante per scambio dell'ordine e per sottoinsiemi. Criterio per la lineare indipendenza in Rn:
un sistema di vettori {¯v1,…,¯vk} e' linearmente indipendente se e solo se
rg(¯v1|…|¯vk)=k (⇒k≤n).
39-40-41 (01/12/22).
Sistemi di vettori generanti. Esempi: Rn e' generato dal sistema di vettori {¯e1,…,¯en};
Mp,q e' generato dal sistema di matrici {Ei,j:1≤i≤p,1≤j≤q}.
Lemma: la proprieta' di essere generante e' invariante per scambio dell'ordine e per soprainsiemi. Criterio per l'essere generante in Rn:
un sistema di vettori {¯v1,…,¯vk} e' generante se e solo
se rg(¯v1|…|¯vk)=n (⇒k≥n).
Spazi vettoriali finitamente generati. Esempi: Rn, Mp,q e R[T]≤d sono finitamente generati;
lo spazio dei polinomi o delle funzioni continue non sono finitamente generati.
Basi di uno spazio vettoriale. Lemma: un sistema di vettori e' una base se e solo se ogni elemento dello spazio
vettoriale si scrive in maniera unica come combinazione lineae dei vettori dati.
Teorema di Esistenza di Basi (senza dimostrazione): (1) da ogni sistema di generatori si puo' estrarre una base;
(2) ogni insieme linearmente indipendente in uno spazio vettoriale finitamente generato si puo' completare ad una base. Corollario: ogni spazio vettoriale
finitamente generato possiede una base.
Teorema sull'unicita' della cardinalita' delle basi (senza dimostrazione): in uno spazio vettoriale finitamente generato, tutte le basi hanno la stessa cardinalita'.
La dimensione di uno spazio vettoriale. Esempi: {¯e1,…,¯en} formano una base (detta base canonica) di Rn;
le matrici elementari {Ei,j:1≤i≤p,1≤j≤q} formano una base di Mp,q.
Proposizione: in uno spazio vettoriale di dimensione n, un sistema di n vettori e' una base se e solo se e'
linearmente indipendente se e solo se e' generante.
Criterio per l'essere una base in Rn:
un sistema di vettori {¯v1,…,¯vn} in Rn e' una base se e solo se
rg(¯v1|…|¯vn)=n.
42-43 (06/12/22).
Teorema sulla dimensione dei sottospazi vettoriali: se V e' uno spazio vettoriale di
dimensione finita e W un suo sottospazio, allora dim(W)≤dim(V) e vale l'uguaglianza se e solo se W=V.
Formula di Grassmann: dim(W1+W2)+dim(W1∩W2)=dim(W1)+dim(W2).
Come calcolare la dimensione e trovare una base di un sottospazio W≤Rn dato in forma parametrica oppure in forma cartesiana. Esercizi.
44-45 (15/12/22).
Applicazioni (o omomorfismi) lineari. Teorema: un'applicazione lineare e' univocamente determinata dai valori che assume su una base del dominio.
Lemma: una mappa tra spazi vettoriali e' un'applicazione lineare se e solo se preserva le combinazioni lineari.
Teorema: esiste una biezione Mm,n⇆Hom(Rn,Rm) ottenuta mandando una matrice A nell'applicazione lineare
fA definita da fA(¯v)=A⋅¯v e un'applicazione lineare f nella sua matrice canonica M(f). Esercizi.
46-47 (20/12/22).
Definizione/Lemma: lo spazio Hom(V,W) delle applicazioni lineari da V a W e' uno spazio vettoriale rispetto alla somma di applicazioni
e alla moltiplicazione lineare tra uno scalare e un'applicazione lineare.
Corollario: le biezioni Mm,n⇆Hom(Rn,Rm) sono isomorfismi di spazi vettoriali.
Definizione/Lemma: la composizione di applicazioni lineari e la sua bilinearita'.
Corollario: tramite le biezioni Mm,n⇆Hom(Rn,Rm) la composizione di applicazioni lineari corrisponde al prodotto di matrici.
Applicazioni lineari iniettive, suriettive, biettive, isomorfismi. Lemma: un'applicazione lineare e' un isomorfismo (cioe' ammette un'inversa) se e solo se e' biettiva.
Corollario: tramite le biezioni Mn⇆Hom(Rn,Rn), gli isomorfismi lineari corrispondono alle matrici invertibili e l'inverso di
un'applicazione lineare corrisponde all'inverso delle matrici.
48-49-50 (22/12/22).
Il nucleo ker(f) e l'immagine Im(f) di un'applicazione lineare f. Lemma: un'applicazione lineare f:V→W e' iniettiva
se e solo se ker(f)={0}, ed e' suriettiva se e solo se Im(f)=W.
Il nucleo e l'immagine di applicazioni fA:Rn→Rm: ker(fA)=SolA e Im(fA)=LinA.
Proposizione: un'applicazione lineare fA:Rn→Rm e' iniettiva se e solo se rg(A)=n, e' suriettiva se e solo se rg(A)=m,
e' un isomorfismo se e solo se rg(A)=n=m. Esercizi.
Proposizione: un'applicazione lineare e' iniettiva (risp. suriettiva, risp. biettiva) se e solo se f manda una base del dominio in un sistema di vettori
linearmente indipendenti (risp. generanti, risp. una base). Corollario 1: data un'applicazione lineare f:V→W tra spazi vettoriali finitamente generati,
allora se f e' iniettiva (risp. suriettiva, risp. biettiva) allora dim(V)≤ (risp. ≥, =) dim(W).
Corollario 2: data un'applicazione lineare f:V→W tra spazi vettoriali finitamente generati tali che dim(V)=dim(W), f e' iniettiva se e solo se
f e' suriettiva se e solo se f e' un isomorfismo.
Teorema di Classificazione degli spazi vettoriali: due spazi vettoriali sono isomorfi se e solo se hanno la stessa dimensione.
Il rango rg(f) e la nullita' null(f) di un'applicazione lineare.
Teorema di Rango-Nullita' (con dimostrazione solo nel caso di spazi vettoriali numerici): data un'applicazione lineare f:V→W con V finitamente generato,
vale che dim(V)=rg(f)+null(f).
Il vettore delle coordinate []E rispetto ad una base E di V. Esempio: il vettore delle coordinate di un vettore di Rn
rispetto alla base canonica e' il vettore stesso.
Proposizione: l'applicazione delle coordinate []E:V≅→Rn e' un isomorfismo.
51-52 (10/01/23).
Matrici di cambiamento di base .
Esempio: data una base F={¯f1…,¯fn} di Rn, vale che MEcan,F=(¯f1,…,¯fn).
Proprieta': [v]E=ME,F⋅[v]F; M−1E,F=MF,E; ME,F=ME,G⋅MG,F. Esercizi: matrici di cambiamento di base in Rn.
La matrice di un'applicazione lineare MF,E(f) rispetto ad una base E del dominio e F del codominio.
Caso particolare 1: data f:Rn→Rm, la matrice canonica M(f) e' la matrice di f rispetto alle basi canoniche del dominio e del
codominio. Caso particolare 2: ME,F=ME,F(idV). Proposizione:
[f(v)]F=MF,E.[v]E; l'applicazione ME,F(−):Hom(V,W)→Mm,n e' un isomorfismo; formula di composizione
MG,E(g∘f)=MG,F(g)⋅MF,E(f); formula di cambiamento di base
MF′,E(f)=MF′,F⋅MF,E(f)⋅ME,E′.
Esercizi: matrici di applicazioni lineari f:Rn→Rm rispetto a basi arbitrarie.
53-54 (11/01/23).
Operatori lineari (o endomorfismi) su uno spazio vettoriale V. Proprieta' di End(V): la struttura di spazio vettoriale e la composizione.
La matrice MB(f) di un operatore f∈End(V) rispetto ad una base B di V.
Proposizione: [f(v)]E=ME.[v]E;
l'applicazione ME(−):End(V)→Mn e' un isomorfismo; formula di composizione
ME(g∘f)=ME(g)⋅ME(f); formula di cambiamento di base
MF(f)=M−1E,F⋅ME(f)⋅ME,F.
La relazione di similitudine tra matrici quadrate. Il problema della diagonalizzabilita' degli operatori lineari.
Esempi: potenze di operatori diagonalizzabili.
Autovalori e autovettori di un operatore lineare: l'autospazio associato ad un autovalore. Proposizione: un operatore lineare e' diagonalizzabile se e solo
se esiste una base fatta di autovettori.
55-56-57 (12/01/23).
Polinomio caratteristico di un operatore. Proposizione: le radici del polinomio caratteristico sono gli autovalori.
Esercizi.
Primo criterio di diagonalizzabilita' (senza dimostrazione): (1) la somma delle dimensioni degli autospazi di un operatore e' minore o uguale alla dimensione dello
spazio su cui e' definito; (2) un operatore e' diagonalizzabile se e solo se la somma delle dimensioni dei suoi autospazi e' uguale alla dimensione dello spazio su cui e' definito.
Il polinomio caratteristico di una matrice quadrata e di un operatore.
Fatto: la decomposizione di un polinomio f(T)∈R[T] in fattori irriducibili lineari e un polinomio senza radici.
Molteplicita' algebrica alg(λ) e geometrica geo(λ) di un autovalore λ.
Esercizi su: autovalori, autospazi e diagonalizzabilita'.
Proposizione: per ogni autovalore λ di un operatore (o di una matrice quadrata) vale che 1≤geo(λ)≤alg(λ).
Secondo criterio di diagonalizzabilita': un operatore e' diagonalizzabilese e solo se il polinomio caratteristico ha solo fattori irriducibili lineari e la molteplicita'
geometrica di ciascun autovalore e' uguale alla molteplicita' algebrica. Esercizi su autovalori, autospazi e diagonalizzabilita' degli operatori.