Loading [MathJax]/jax/output/HTML-CSS/jax.js
 

Corso Matematica per Ingegneria Elettronica - a.a. 2022/2023

DIARIO delle LEZIONI



  • 1-2 (27/09/22).  L'insieme R dei numeri reali e le loro proprieta' algebriche di campo.

  • 3-4-5 (29/10/22).  L'insieme Rn dei vettori di lunghezza n a coefficienti reali: l'addizione vettoriale e la moltiplicazione scalare e loro proprieta' algebriche. La definizione di spazio vettoriale. Interpretazione geometrica di R1=R, R2 e R3.

  • 6-7 (04/10/22).  I sistemi lineari: il sistema lineare omogeneo Σom associato ad un sistema lineare Σ e lo spazio delle soluzioni Sol(Σ). Sistemi compatibili e incompatibili. Proposizione: Sol(Σ)=Sol(Σom)+¯c, dove ¯c e' una soluzione del sistema lineare Σ.

  • 8-9 (11/10/22).  La risoluzione dei sistemi lineari col metodo di sostituzione. Esempi ed esercizi.

  • 10-11 (18/10/22).  Matrici: gli elementi Aij di una matrice A, le righe Ai e le colonne Aj di una matrice A. Matrici e sistemi lineari: la matrice A(Σ) dei coefficienti e la matrice completa C(Σ) di un sistema lineare Σ; il sistema lineare ΣC=(A|¯b) associato ad una matrice A e ad un vettore ¯b aventi lo stesso numero di colonne. Matrici a scalini. Esempi.

  • 12-13-14 (20/10/22).  Le tre trasformazioni elementari (per riga). Matrici equivalenti AeqB e proprieta' di eq. L' algoritmo di riduzione (per righe) di Gauss: ogni matrice e' equivalente ad una matrice a scalini. Esempi di algoritmo di Gauss. Il rango di una matrice A come il numero di pivots di una matrice a scalini B equivalente ad A.

  • 15-16 (25/10/22).  Proposizione: se C e D sono due matrici equivalenti, allora ΣC e ΣD sono equivalenti, ovvero sia Sol(ΣC)=Sol(ΣD). Algoritmo di Gauss per la trasformazione di un sistema in un sistema con matrice a scalini. La risoluzione dei sistemi lineare a scalini tramite sostituzione. Esercizi.

  • 17-18-19 (27/10/22).  Teorema di Rouche'-Capelli: un sistema ΣC=(A|¯b) e' compatibile se e solo se r(C)=r(A); in tal caso il sistema ΣC ha qr(A)-soluzioni, dove q e' il numero di variabili. Lo spazio Mp,q delle matrici p×q a coefficienti in R come spazio vettoriale: la somma di matrici e la moltiplicazione per uno scalare. Il prodotto (righe per colonne) tra matrici e sue proprieta': associativita', bilinearita', elemento neutro. Esempi. Matrici invertibili. Proprieta': l' inverso destro e' uguale all'inverso sinistro (senza dimostrazione) ed e' unico.

  • 20-21-22 (03/11/22).  Esempi: inversa di matrici di ordine 1 e ordine 2. Teorema (criterio di invertibilita' tramite rango, senza dimostrazione): una matrice quadrata AMn,n e' invertibile se e solo se r(A)=n. Corollario: una matrice quadrata A e' invertibile se e solo se A puo' essere trasformata, tramite l'eliminazione di Gauss, in una matrice triangolare superiore con elementi non nulli sulla diagonale. Matrici triangolari superiori o inferiore, matrici diagonali e loro invertibilita'. Algoritmo di Gauss-Jordan. Esempi. Corollario: una matrice quadrata A e' invertibile se e solo se A puo' essere trasformata, tramite l'eliminazione di Gauss-Jordan, nella matrice identita' se e solo se e' equivalente alla matrice identita'.

  • 23-24 (08/11/22).  Teorema (Algoritmo di Gauss-Jordan per l'inversa, senza dimostrazione): data una matrice AMn,n, se trasformiamo (A|In) nella matrice (In|B) tramite l'eliminazione di Gauss-Jordan, allora B=A1. Esempi ed Esercizi. Il determinante come unica funzione det:MnR che e' multilineare sulle righe, antisimmetrica sulle righe e tale che det(In)=1. Corollari: se una matrice ha una riga nulla o due righe uguali, allora ha determinante nullo.

  • 25-26 (10/11/22).  Il calcolo del determinante tramite l'algoritmo di Gauss-Jordan oppure l'algoritmo di Gauss. Esempi: il determinante di una matrice triangolare superiore. Criterio di invertibilita' col determinante: una matrice AMn e' invertibile se e solo det(A)0. Esercizi.

  • 27-28 (15/11/22).  Formula di Laplace per il determinante: sviluppo lungo la riga i-esima det(A)=nk=1(1)i+kAi,kdetA(ˆi|ˆk) oppure la colonna j-esima det(A)=nk=1(1)k+jAk,jdetA(ˆk|ˆj). Esempi: il determinante di una matrice di ordine due e di ordine tre (regola di Sarrus). Esercizi. Teorema di Binet: det(AB)=det(A)det(B). Formula per l'inversa: se A e' invertibile, allora A1=1det(A)adj(A), dove adj(A)=(adj(A)i,j:=(1)i+jdetA(ˆj|ˆi)) e' l'aggiugata di A. Esempi: matrice inversa di una matrice di ordine 2. Esercizi.

  • 29-30-31 (17/11/22).  Discussione delle soluzioni di un sistemi lineari Σ(A|¯b) con matrice A quadrata di ordine n: se A e' invertibile allora esiste un'unica soluzione: se A non e' invertibile allora o il sistema e' incompatibile oppure ha infinite soluzioni (e precisamente nrg(A)). Regola di Cramer per trovare l'unica soluzione di un sistema Σ(A|¯b) con A invertibile. Esercizi. Sottospazi vettoriali di uno spazio vettoriale. Esempi: sottospazi di R2 e R3 in forma geometrica. Sottospazi vettoriali di Rn in forma cartesiana SolA.

  • 32-33 (22/11/22).  Lo span lineare Lin(¯v1,,¯vn). Esempi. Sottospazi vettoriali di Rn in forma parametriza SpanA. Come passare dalla forma cartesiana alla forma parametrica e dalla forma parametrica alla forma cartesiana. Esercizi.

  • 34-35-36 (24/11/22).  Intersezione di sottospazi vettoriali: definizione e proprieta'. Come calcolare l'intersezione tra due sottospazi di Rn: SolASolB=Sol(AB). Somma di sottospazi vettoriali: definizione e proprieta'. Come calcolare la somma tra due sottospazi di Rn: SpanA+SpanB=Span(A|B). Esempi: sottospazi vettoriali di R2 e R3.

  • 37-38 (29/11/22).  Sistemi di vettori linearmente indipendenti. Proposizione: un sistema di vettori e' linearmente dipendente se e solo se uno dei vettori del sistema si scrive come combinazione lineare degli altri vettori. Esempi: sistemi vettori linearmente indipendenti con uno o due elementi. Esempi in R2 e R3. Lemma: la lineare indipendenza e' invariante per scambio dell'ordine e per sottoinsiemi. Criterio per la lineare indipendenza in Rn: un sistema di vettori {¯v1,,¯vk} e' linearmente indipendente se e solo se rg(¯v1||¯vk)=k (kn).

  • 39-40-41 (01/12/22).  Sistemi di vettori generanti. Esempi: Rn e' generato dal sistema di vettori {¯e1,,¯en}; Mp,q e' generato dal sistema di matrici {Ei,j:1ip,1jq}. Lemma: la proprieta' di essere generante e' invariante per scambio dell'ordine e per soprainsiemi. Criterio per l'essere generante in Rn: un sistema di vettori {¯v1,,¯vk} e' generante se e solo se rg(¯v1||¯vk)=n (kn). Spazi vettoriali finitamente generati. Esempi: Rn, Mp,q e R[T]d sono finitamente generati; lo spazio dei polinomi o delle funzioni continue non sono finitamente generati. Basi di uno spazio vettoriale. Lemma: un sistema di vettori e' una base se e solo se ogni elemento dello spazio vettoriale si scrive in maniera unica come combinazione lineae dei vettori dati. Teorema di Esistenza di Basi (senza dimostrazione): (1) da ogni sistema di generatori si puo' estrarre una base; (2) ogni insieme linearmente indipendente in uno spazio vettoriale finitamente generato si puo' completare ad una base. Corollario: ogni spazio vettoriale finitamente generato possiede una base. Teorema sull'unicita' della cardinalita' delle basi (senza dimostrazione): in uno spazio vettoriale finitamente generato, tutte le basi hanno la stessa cardinalita'. La dimensione di uno spazio vettoriale. Esempi: {¯e1,,¯en} formano una base (detta base canonica) di Rn; le matrici elementari {Ei,j:1ip,1jq} formano una base di Mp,q. Proposizione: in uno spazio vettoriale di dimensione n, un sistema di n vettori e' una base se e solo se e' linearmente indipendente se e solo se e' generante. Criterio per l'essere una base in Rn: un sistema di vettori {¯v1,,¯vn} in Rn e' una base se e solo se rg(¯v1||¯vn)=n.

  • 42-43 (06/12/22).  Teorema sulla dimensione dei sottospazi vettoriali: se V e' uno spazio vettoriale di dimensione finita e W un suo sottospazio, allora dim(W)dim(V) e vale l'uguaglianza se e solo se W=V. Formula di Grassmann: dim(W1+W2)+dim(W1W2)=dim(W1)+dim(W2). Come calcolare la dimensione e trovare una base di un sottospazio WRn dato in forma parametrica oppure in forma cartesiana. Esercizi.

  • 44-45 (15/12/22).  Applicazioni (o omomorfismi) lineari. Teorema: un'applicazione lineare e' univocamente determinata dai valori che assume su una base del dominio. Lemma: una mappa tra spazi vettoriali e' un'applicazione lineare se e solo se preserva le combinazioni lineari. Teorema: esiste una biezione Mm,nHom(Rn,Rm) ottenuta mandando una matrice A nell'applicazione lineare fA definita da fA(¯v)=A¯v e un'applicazione lineare f nella sua matrice canonica M(f). Esercizi.

  • 46-47 (20/12/22).  Definizione/Lemma: lo spazio Hom(V,W) delle applicazioni lineari da V a W e' uno spazio vettoriale rispetto alla somma di applicazioni e alla moltiplicazione lineare tra uno scalare e un'applicazione lineare. Corollario: le biezioni Mm,nHom(Rn,Rm) sono isomorfismi di spazi vettoriali. Definizione/Lemma: la composizione di applicazioni lineari e la sua bilinearita'. Corollario: tramite le biezioni Mm,nHom(Rn,Rm) la composizione di applicazioni lineari corrisponde al prodotto di matrici. Applicazioni lineari iniettive, suriettive, biettive, isomorfismi. Lemma: un'applicazione lineare e' un isomorfismo (cioe' ammette un'inversa) se e solo se e' biettiva. Corollario: tramite le biezioni MnHom(Rn,Rn), gli isomorfismi lineari corrispondono alle matrici invertibili e l'inverso di un'applicazione lineare corrisponde all'inverso delle matrici.

  • 48-49-50 (22/12/22).  Il nucleo ker(f) e l'immagine Im(f) di un'applicazione lineare f. Lemma: un'applicazione lineare f:VW e' iniettiva se e solo se ker(f)={0}, ed e' suriettiva se e solo se Im(f)=W. Il nucleo e l'immagine di applicazioni fA:RnRm: ker(fA)=SolA e Im(fA)=LinA. Proposizione: un'applicazione lineare fA:RnRm e' iniettiva se e solo se rg(A)=n, e' suriettiva se e solo se rg(A)=m, e' un isomorfismo se e solo se rg(A)=n=m. Esercizi. Proposizione: un'applicazione lineare e' iniettiva (risp. suriettiva, risp. biettiva) se e solo se f manda una base del dominio in un sistema di vettori linearmente indipendenti (risp. generanti, risp. una base). Corollario 1: data un'applicazione lineare f:VW tra spazi vettoriali finitamente generati, allora se f e' iniettiva (risp. suriettiva, risp. biettiva) allora dim(V) (risp. , =) dim(W). Corollario 2: data un'applicazione lineare f:VW tra spazi vettoriali finitamente generati tali che dim(V)=dim(W), f e' iniettiva se e solo se f e' suriettiva se e solo se f e' un isomorfismo. Teorema di Classificazione degli spazi vettoriali: due spazi vettoriali sono isomorfi se e solo se hanno la stessa dimensione. Il rango rg(f) e la nullita' null(f) di un'applicazione lineare. Teorema di Rango-Nullita' (con dimostrazione solo nel caso di spazi vettoriali numerici): data un'applicazione lineare f:VW con V finitamente generato, vale che dim(V)=rg(f)+null(f). Il vettore delle coordinate []E rispetto ad una base E di V. Esempio: il vettore delle coordinate di un vettore di Rn rispetto alla base canonica e' il vettore stesso. Proposizione: l'applicazione delle coordinate []E:VRn e' un isomorfismo.

  • 51-52 (10/01/23).  Matrici di cambiamento di base . Esempio: data una base F={¯f1,¯fn} di Rn, vale che MEcan,F=(¯f1,,¯fn). Proprieta': [v]E=ME,F[v]F; M1E,F=MF,E; ME,F=ME,GMG,F. Esercizi: matrici di cambiamento di base in Rn. La matrice di un'applicazione lineare MF,E(f) rispetto ad una base E del dominio e F del codominio. Caso particolare 1: data f:RnRm, la matrice canonica M(f) e' la matrice di f rispetto alle basi canoniche del dominio e del codominio. Caso particolare 2: ME,F=ME,F(idV). Proposizione: [f(v)]F=MF,E.[v]E; l'applicazione ME,F():Hom(V,W)Mm,n e' un isomorfismo; formula di composizione MG,E(gf)=MG,F(g)MF,E(f); formula di cambiamento di base MF,E(f)=MF,FMF,E(f)ME,E. Esercizi: matrici di applicazioni lineari f:RnRm rispetto a basi arbitrarie.

  • 53-54 (11/01/23).  Operatori lineari (o endomorfismi) su uno spazio vettoriale V. Proprieta' di End(V): la struttura di spazio vettoriale e la composizione. La matrice MB(f) di un operatore fEnd(V) rispetto ad una base B di V. Proposizione: [f(v)]E=ME.[v]E; l'applicazione ME():End(V)Mn e' un isomorfismo; formula di composizione ME(gf)=ME(g)ME(f); formula di cambiamento di base MF(f)=M1E,FME(f)ME,F. La relazione di similitudine tra matrici quadrate. Il problema della diagonalizzabilita' degli operatori lineari. Esempi: potenze di operatori diagonalizzabili. Autovalori e autovettori di un operatore lineare: l'autospazio associato ad un autovalore. Proposizione: un operatore lineare e' diagonalizzabile se e solo se esiste una base fatta di autovettori.

  • 55-56-57 (12/01/23).  Polinomio caratteristico di un operatore. Proposizione: le radici del polinomio caratteristico sono gli autovalori. Esercizi. Primo criterio di diagonalizzabilita' (senza dimostrazione): (1) la somma delle dimensioni degli autospazi di un operatore e' minore o uguale alla dimensione dello spazio su cui e' definito; (2) un operatore e' diagonalizzabile se e solo se la somma delle dimensioni dei suoi autospazi e' uguale alla dimensione dello spazio su cui e' definito. Il polinomio caratteristico di una matrice quadrata e di un operatore. Fatto: la decomposizione di un polinomio f(T)R[T] in fattori irriducibili lineari e un polinomio senza radici. Molteplicita' algebrica alg(λ) e geometrica geo(λ) di un autovalore λ. Esercizi su: autovalori, autospazi e diagonalizzabilita'. Proposizione: per ogni autovalore λ di un operatore (o di una matrice quadrata) vale che 1geo(λ)alg(λ). Secondo criterio di diagonalizzabilita': un operatore e' diagonalizzabilese e solo se il polinomio caratteristico ha solo fattori irriducibili lineari e la molteplicita' geometrica di ciascun autovalore e' uguale alla molteplicita' algebrica. Esercizi su autovalori, autospazi e diagonalizzabilita' degli operatori.