+ All Categories
Home > Documents > Algebra Linear Eta La Mini

Algebra Linear Eta La Mini

Date post: 11-Jul-2015
Category:
Upload: mranswer
View: 1,687 times
Download: 0 times
Share this document with a friend

of 185

Transcript

AppuntidiAlgebraLineareVittorinoTalaminiDICA-Universit`adiUdine,viadelleScienze208,33100Udine,ItalyE-mail: [email protected] luglio 20092PrefazioneIn questi appunti raccolgo il materiale trattato a lezione. Verranno riportatele denizioni, gli enunciati e le dimostrazioni dei Teoremi e delle Proposizio-niincontrate.Solopochiargomentiquipresentinonsonotrattatineitestioappunticon-sigliati perlostudio. Questi appunti nonvoglionoquindi sostituirei testiconsigliati maessereunriferimentocompletodei concetti fondamentali in-contratialezione. Inquestomodocredosiapi` usempliceemenodispersivalapreparazioneperlesameorale.Non viene svolto ne proposto alcun esercizio, e per gli esercizi o per gli appro-fondimenti teorici si rimanda ai vari testi o appunti citati nella bibliograa oa libri presenti nelle biblioteche universitarie o ad altro materiale scaricabiledainternet.Si user`a il nome Teorema solo per gli enunciati pi` u importanti, a mia discre-zione.Udine,2luglio2009VittorinoTalamini4Indice1 Spazivettoriali 91.1 Spazivettoriali. . . . . . . . . . . . . . . . . . . . . . . . . . 91.2 Sottospazivettoriali. . . . . . . . . . . . . . . . . . . . . . . 111.3 Combinazionilineari. . . . . . . . . . . . . . . . . . . . . . . 121.4 Dipendenzaeindipendenzalineare. . . . . . . . . . . . . . . 141.5 Basi,dimensioniecoordinate. . . . . . . . . . . . . . . . . . 151.6 Sommaeintersezionedisottospazi. . . . . . . . . . . . . . . 182 Matrici 232.1 Matrici. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232.2 Ilprodottodimatrici. . . . . . . . . . . . . . . . . . . . . . 262.3 Lamatriceinversa. . . . . . . . . . . . . . . . . . . . . . . . 282.4 Latraspostadiunamatrice. . . . . . . . . . . . . . . . . . . 292.5 Latracciadiunamatricequadrata. . . . . . . . . . . . . . . 312.6 IlDeterminante. . . . . . . . . . . . . . . . . . . . . . . . . . 322.7 Ilrangodiunamatrice. . . . . . . . . . . . . . . . . . . . . 372.8 ITeoremidiLaplace. . . . . . . . . . . . . . . . . . . . . . . 392.9 Calcolodellamatriceinversa. . . . . . . . . . . . . . . . . . 413 Sistemilineari 433.1 Primedenizioni. . . . . . . . . . . . . . . . . . . . . . . . . 433.2 MetododiriduzionediGauss-Jordan. . . . . . . . . . . . . . 443.3 IlTeoremadiRouche-Capelli. . . . . . . . . . . . . . . . . . 463.4 Sistemiomogenei. . . . . . . . . . . . . . . . . . . . . . . . . 473.5 FormuladiCramer. . . . . . . . . . . . . . . . . . . . . . . . 483.6 LamatriceinversaconGauss-Jordan. . . . . . . . . . . . . . 484 Applicazionilineari 514.1 Primedenizioni. . . . . . . . . . . . . . . . . . . . . . . . . 514.2 Applicazioniiniettiveesuriettive. . . . . . . . . . . . . . . . 524.3 Matricidiunapplicazionelineare. . . . . . . . . . . . . . . . 576 INDICE4.4 Lospaziodelleapplicazionilineari. . . . . . . . . . . . . . . 594.5 Cambiamentidibase.. . . . . . . . . . . . . . . . . . . . . . 614.6 Formelineariespazioduale. . . . . . . . . . . . . . . . . . . 645 Autovalorieautospazi 675.1 Endomorsmi.. . . . . . . . . . . . . . . . . . . . . . . . . . 675.2 Sottospaziinvarianti. . . . . . . . . . . . . . . . . . . . . . . 695.3 Autovalori,autovettorieautospazi. . . . . . . . . . . . . . . 695.4 Endomorsmidiagonalizzabili. . . . . . . . . . . . . . . . . . 716 Formebilineariequadratiche 796.1 Formebilineari. . . . . . . . . . . . . . . . . . . . . . . . . . 796.2 Formequadratiche. . . . . . . . . . . . . . . . . . . . . . . . 836.3 SpaziEuclidei. . . . . . . . . . . . . . . . . . . . . . . . . . 876.4 Normaedistanza. . . . . . . . . . . . . . . . . . . . . . . . . 886.5 Ilcomplementoortogonale.. . . . . . . . . . . . . . . . . . . 916.6 Basiortonormali. . . . . . . . . . . . . . . . . . . . . . . . . 926.7 Matriciortogonali. . . . . . . . . . . . . . . . . . . . . . . . 956.8 Diagonalizzazionedimatricirealisimmetriche. . . . . . . . . 1016.9 Diagonalizzazionesimultanea(I). . . . . . . . . . . . . . . . 1056.10 Diadi. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1066.11 Formecanoniche. . . . . . . . . . . . . . . . . . . . . . . . . 1086.12 Trasformazioni. . . . . . . . . . . . . . . . . . . . . . . . . . 1126.13 IlTeoremadidecomposizionepolare. . . . . . . . . . . . . . 1196.14 IldeterminantediGram. . . . . . . . . . . . . . . . . . . . . 1216.15 SpaziHermitiani. . . . . . . . . . . . . . . . . . . . . . . . . 1237 Coniche 1277.1 Intersezionifraconoepiano. . . . . . . . . . . . . . . . . . . 1277.2 Leequazionicartesianedelleconiche. . . . . . . . . . . . . . 1307.2.1 Equazionecartesianadellaparabola. . . . . . . . . . 1317.2.2 Equazionecartesianadellellisse. . . . . . . . . . . . . 1327.2.3 Equazionecartesianadelliperbole. . . . . . . . . . . 1357.3 Leequazionipolaridelleconiche. . . . . . . . . . . . . . . . 1387.4 Riduzioneallaformacanonica. . . . . . . . . . . . . . . . . . 1408 Quadriche 1478.1 Riduzioneallaformacanonica. . . . . . . . . . . . . . . . . . 1478.2 Lequadricheproprie. . . . . . . . . . . . . . . . . . . . . . . 1528.3 Diagonalizzazionesimultanea(II). . . . . . . . . . . . . . . . 160INDICE 79 Geometriaanaliticadellospazio 1639.1 Segmentiorientatievettorigeometrici. . . . . . . . . . . . . 1639.2 Operazioniconivettorigeometrici. . . . . . . . . . . . . . . 1649.3 Rappresentazionecartesianadeivettori. . . . . . . . . . . . 1699.4 Matriciassociateaiprodottivettoriali. . . . . . . . . . . . . 1739.5 CennidiAnalisiVettoriale. . . . . . . . . . . . . . . . . . . 1749.6 Segmenti. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1779.7 Rette. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1779.8 Piani. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1818 INDICECapitolo1Spazivettoriali1.1 Spazivettoriali.Denizione. Datouncorponumerico K, unospaziovettorialelinearesu K(oun K-spaziovettorialelineare) `euninsiemenonvuotoVsucuisono denite una operazione interna di somma: V V V, | (v, w) v+we unoperazione esterna dimoltiplicazioneperunoscalare del corpo K:KV V, | (, v) v,chesoddisfanolepropriet`a:1. (commutativit`adellasomma) x, y V, x + y= y + x;2. (associativit`adellasomma) x, y, z V, (x + y) + z= x + (y +z);3. (elementoneutroperlasomma) O V, | O + x = x, x V ;4. (oppostoperlasomma) x V, (x) V | x + (x) = O;5. (associativit`adelprodotto) , K, x V, ()x = (x);6. (distributivit`a in K del prodotto) , K, x V, (+)x = x+x;7. (distributivit`a in Vdel prodotto) K, x, y V, (x+y) = x+y;8. (elementoneutroperilprodotto)1x = x, x V .Si noti che, rispetto alla sola operazione interna di somma, Vha la strutturaalgebricadigruppocommutativo.10 SpazivettorialiDenizione. Glielementi vdiunospaziovettorialelinearevengonodettivettori.I casi pi` u importanti si hanno con K = R o K = C nel qual caso si ottengonoglispazivettorialirealioglispazivettorialicomplessi.Proposizione. InunospaziovettorialelineareV , lelementoneutroO`eunicoelelementoopposto(x)diunelementox V`eunico.Dimostrazione. SeOeO

fosserodueelementi neutri, allorasi avreb-be: O=O+ O

perch`eO

`eneutro, maancheO+ O

=O

, perch`eO`eneutro. Quindi OeO

coinciderebbero. Sex1ex2fosserodueoppo-sti dellelementox V , si avrebbe: O=x + x1=x + x2cheimplica:x1= x1 +O = x1 + (x +x2) = (x1 +x) +x2= O +x2= x2. Quindix1ex2coinciderebbero. Denizione. DatounospaziovettorialeV , lelementoneutroperlasom-ma,O V , `edettovettorenullodiV . Datounvettorex V ,ilvettore(x) Vtale che x+(x) = O `e detto vettoreopposto di x. Per quantovisto,siaOche(x)sonounivocamentedeterminati.Quandosi vuoleevidenziarecheO`elelementoneutrodi V si scriveOVanzicheO.Proposizione. Datoun K-spaziovettorialelineareV , K, v V , siha:O = O e 0v= ODimostrazione. Infatti, v V , O = (v v) = v v= v +(v) =Oe K,0v= ( )v= v v= v + (v) = O. In uno spazio vettoriale lineare vale quindi la legge di annullamento del pro-dotto: v = O= = 0oppurev = O.VittorinoTalamini 11Indichiamocon Knlinsiemedellen-pledinumeridi K:Kn=_______x1x2. . .xn____| x1, x2, . . . , xn K___.Percomodit`atipograca, quandononcreaconfusione, `eammessoscriverelen-pleorizzontalmenteanzicheverticalmente,cio`e: Kn= {(x1, x2, . . . , xn)| xi K}.In Knsi possono denire la somma fra n-ple ed il prodotto di una n-pla perunnumerodi Knelmodoseguente.Datix = (x1, x2, . . . , xn) Kn, y= (y1, y2, . . . , yn) Kn, K,sidenisconox + y= (x1 + y1, x2 +y2, . . . , xn + yn) e x = (x1, x2, . . . , xn)econquesteoperazioni Kn`eunospaziovettorialelinearesu K.Len-pledi Knpossonoquindiesserechiamatevettoridi Kn.1.2 Sottospazivettoriali.Denizione. Dato uno spazio vettoriale lineare V , un sottospaziovetto-riale Sdi V`e un sottoinsieme S Vche `e a sua volta uno spazio vettorialelineare.Siccome gli elementi di S, in quanto elementi di V , gi`a soddisfano le propriet`a1.8. della denizione di spazio vettoriale lineare, basta solo vericare che Ssia chiuso rispetto alla somma e al prodotto per uno scalare, cio`e che sianovericateleseguentipropriet`a:1. s + t S, s, t S;2. s S, K, s S.Ladenizionedatadisottospaziovettoriale `eequivalenteallaseguente:12 SpazivettorialiDenizione. Dato uno spazio vettoriale lineare V , un sottospaziovetto-rialeSdiV`eunsottoinsiemeS V taleche:s +t S, s, t S, , K.Infatti, leduecondizioni di chiusura1. e2. si ottengonoprendendo= = 1e = 0,rispettivamente.Proposizione. Perogni spaziovettorialelineareV , S= {O}`eunsotto-spaziovettorialediV(dettosottospaziobanale).Dimostrazione. Infatti,O + O = O,eperogni KsihaO = O.Ogni sottospazio vettoriale S Vcontiene quindi almeno lelemento neutroO V .1.3 Combinazionilineari.Denizione. Siano {v1, . . . , vk}uninsiemedi kelementi inun K-spaziovettoriale V . Una combinazione lineare di v1, . . . , vk `e un elemento v Vtalechev= 1v1 + . . . + kvk, 1, . . . , k K.Linsieme delle combinazioni lineari di v1, . . . , vk `e indicato con .Dunque:= {1v1 +. . . +kvk | 1, . . . , k K}.Proposizione. Linsiemedellecombinazionilineari< v1, . . . , vk>V `eunsottospaziovettorialediV .Dimostrazione. Perogni x, y < v1, . . . , vk>, valgonosviluppi del ti-po: x=x1v1+ . . . + xkvk, y =y1v1+ . . . + ykvk. Allora, , K,si ha: x + y =(x1v1+ . . . + xkvk) + (y1v1+ . . . + ykvk) =((x1+y1)v1 +. . . + (xk +yk)vk) = z1v1 +. . . +zkvk,dovesonostatiintrodottiVittorinoTalamini 13izi= xi + yi K. Quindix + y e `eunsottospaziodiV . Denizione. Lo spazio vettoriale S= si dice generato daivettoriv1, . . . , vk,equestivettorisonodettiigeneratoridiS.Proposizione. Le soluzioni di un sistema lineare omogeneo di m equazioniinnincognite,concoecientiin K,costituisconounsottospaziovettorialedi Kn.Dimostrazione. Siano s =(s1, . . . , sn) e t =(t1, . . . , tn) due soluzio-ni del sistemadatodi mequazioni innincognite. Facciamovedereches+t, , K, `e ancora una soluzione del sistema. Sia aj1x1+. . .+ajnxn=0, j {1, . . . , m}, unaequazione qualunque del sistema.Per ipotesi, aj1s1+. . .+ajnsn=aj1t1+. . .+ajntn=0. Sostituendos + t nellequazione, troviamoaj1(s1+ t1) + . . . + ajn(sn+ tn) =(aj1s1 + . . . + ajnsn) + (aj1t1 + . . . + ajntn)=0 + 0=0. Dunque,anches + tsoddisfalequazionej-ma, edallarbitrariet`adi j, linterosistema.Dunque, s, t Kn, soluzioni del sistema, e , K, anches + t`esoluzionedelsistema. Proposizione. Valgonoleseguentipropriet`a:=;se lelemento vk`e combinazione lineare degli elementi v1, . . . , vk1,allora= .Dimostrazione. Ovvia. Dunque, il sottospazio< v1, . . . , vk>`egeneratonel modopi` uecientepossibile da elementi non nulli tali che nessuno di essi sia una combinazionelinearedeglialtri.Ci`oportainmodonaturalealledenizionidelparagrafoseguente.14 Spazivettoriali1.4 Dipendenzaeindipendenzalineare.Denizione. kvettori v1, . . . , vkinunospaziovettorialeV , si diconoli-nearmente indipendenti se una loro combinazione lineare `e nulla se e solosetuttiicoecientisononulli:1v1 + . . . + kvk= O 1= . . . = k= 0.Proposizione. Sev1, . . . , vksonolinearmenteindipendenti,alloranessunodiessi `eilvettorenullo.Dimostrazione. Sefosseadesempiovk=O, lacombinazionelinearediv1, . . . , vk: 0v1 + . . . + 0vk1 + vk=0v1 + . . . + 0vk1 + O=0, =0,sarebbe nulla ma avrebbe i coecienti non tutti nulli. Di conseguenza, i vet-toriv1, . . . , vknonsarebberolinearmenteindipendenti,come`estatoinveceipotizzato.Proposizione. Gli elementi v1, . . . , vk V sonolinearmenteindipendentiseesolosenessunodi essi pu`oessereespressocomecombinazionelinearedeirimanenti.Dimostrazione. Supponiamo che vk= 1v1+. . .+k1vk1, con 1, . . . , k1 K. Allora1v1 + . . . + k1vk1 vk=O`eunacombinazionelinearediv1, . . . , vk, acoecienti nontutti nulli, ched`ail vettoreO V . Di conse-guenza v1, . . . , vknon sono linearmente indipendenti. Viceversa supponiamochev1, . . . , vksianolinearmentedipendentiesia1v1 + . . . + kvk= Ounacombinazione lineare nulla di v1, . . . , vk, a coecienti non tutti nulli. Suppo-niamo per esempio che k = 0. Allora vkpu`o essere espresso come combina-zione lineare dei rimanenti vettori nel modo: vk= 1k(1v1+. . .+k1vk1).

Corollario. Gli elementi v1, . . . , vk V sonolinearmentedipendenti seesolo se almeno uno di essi pu`o essere espresso come combinazione lineare deirimanenti.Dimostrazione. Ladimostrazione`econtenutanelladimostrazionedellaProposizioneprecedente. VittorinoTalamini 15Proposizione. Sev1, . . . , vk V sonolinearmenteindipendentialloracia-scun sottoinsieme proprio di {v1, . . . , vk} `e un insieme di vettori linearmenteindipendenti.Dimostrazione. Se fossero linearmente dipendenti i vettori di unsot-toinsiemepropriodi {v1, . . . , vk}, sarebberolinearmentedipendenti anchev1, . . . , vk. Corollario. Se v1, . . . , vkV sonolinearmente indipendenti, alloraunqualunquesottoinsiemeproprio {vi1, . . . , vih}di {v1, . . . , vk}generaunsot-tospaziopropriodi.Dimostrazione. Se {vi1, . . . , vih} `e un sottoinsieme proprio di {v1, . . . , vk},esistealmenounvettorein {v1, . . . , vk}nonfacentepartedi {vi1, . . . , vih}.Siaquestovk. Alloravknon`eesprimibilecomecombinazionelinearedi{vi1, . . . , vih}, perch`ei v1, . . . , vksonolinearmenteindipendenti. Dunque,vk/ elospaziovettoriale `eunsottospa-ziopropriodi. 1.5 Basi,dimensioniecoordinate.Denizione. UnospaziovettorialeV si dicenitamente generatoseesistonounnumeronitodi elementi generatori v1, . . . , vkV , tali cheV=.Denizione. Una base di uno spazio vettoriale V`e un insieme ordinato digeneratorilinearmenteindipendentidiV .Pur contenendo gli stessi elementi, due basi di uno spazio vettoriale sono daconsiderarsidistinteselordinedeglielementinon `elostesso.Proposizione. Ogni spazio vettoriale Vnitamente generato ammette unabase.Dimostrazione. Sia {v1, . . . , vk}uninsiemedi generatori di V . Sesonolinearmente indipendenti, sono una base di Ve la Proposizione `e dimostrata.Se non lo sono, almeno uno di essi `e combinazione lineare dei rimanenti. Lo16 Spazivettorialieliminiamo. Gli elementi cherestanogeneranoancoraV . Sesonolinear-menteindipendenti,sonounabasediV elaProposizione `edimostrata. Senonlosono, nepossiamoeliminareunaltroei rimanenti generanoancoraV . DopounnumeronitodipassiotteniamounabasediV . Inrealt`a, ogni spaziovettoriale, nitamentegeneratoono, ammetteunabase,maladimostrazionedelcasogenerale `ecomplicata.Proposizione. Se B= {v1, . . . , vn}`eunabasedi unospaziovettorialelineareV ,comunquepresin + 1vettoridiV sonolinearmentedipendenti.Dimostrazione. Sianow1, . . . , wn+1n +1vettoridiV . Supponiamosianotutti diversi daO, altrimenti nonabbiamonulladadimostrare. Siadataunalorocombinazionelinearenulla: 1w1 + . . . + n+1wn+1=Oconi K, i=1, . . . , n + 1. Ciascunodei wisi pu`oscriverecomecombinazionelinearedellabase B: wi=

nj=1aijvj. Inserendoleespressioni dei wisiottieneunacombinazionelinearenulladeivj:1n

j=1a1jvj +. . . +n+1n

j=1an+1,jvj=n

j=1(1a1j + . . . + n+1an+1,j) vj= Oche, perlindipendenzalinearedei vj, pu`overicarsi solosetutti i coe-cienti deivjsono nulli. Ne risulta ilsistema lineare omogeneo

n+1i=1iaij=0, j =1, . . . , n, di nequazioni inn + 1incognite1, . . . , jcheammettesicuramenteunasoluzioneconiinontuttinulli. Dunqueiwisonolinear-mentedipendenti. Proposizione. Tutte le basi di uno spazio vettoriale Vnitamente generatohannolostessonumerodielementi.Dimostrazione. Siano B= {v1, . . . , vn}e B

= {w1, . . . , wm}duebasi diV . Per laProposizioneprecedente, siccome B`eunabase, ei {wi}sonolinearmenteindipendenti deveesserem n; siccome B

`eunabase, ei{vi}sonolinearmenteindipendenti deveesseren m. Devequindi esserem = n. Denizione. SiaV unospaziovettorialedidimensionenita. Ladimen-sionediV`eilnumerodeglielementiinunaqualunquebasediV .VittorinoTalamini 17Teorema. (del completamentodi unabase). SiaV unospaziovetto-rialedidimensionen,siaU V unsottospaziodiV . Sia {u1, . . . , uk}unabase di U. Allora esistono vk+1, . . . , vn Vtali che {u1, . . . , uk, vk+1, . . . , vn}siaunabasediV .Dimostrazione. Se U =V , nonc`e niente dadimostrare. Sia alloraU V . Inquestocaso,esistevk+1 V\ . Poicheivettoriu1, . . . , uk, vk+1sono linearmente indipendenti, se V=,essi formanounabasedi V eabbiamonito. Altrimenti possiamotrovarevk+2 V \ . Poicheivettoriu1, . . . , uk, vk+1, vk+2sonolinearmente indipendenti, se questi generano V , cio`e se V=, abbiamo nito. Altrimenti, ripetendo lo stesso ragionamento, doponumeronitodipassiavremotrovatounabasediV ,icuiprimikelementisonolabasedatadiU. Gli elementi vk+1, . . . , vndel Teorema precedente possono essere scelti in in-nitimodi.Proposizione. SiaVuno spaziovettoriale didimensionen. UninsiemedinvettoridiV , {v1, . . . , vn},`eunabaseseesoloseognielementov V siscriveinmodounicocomecombinazionelinearedi v1, . . . , vn: v=x1v1 +. . . + xnvn, xi K.Dimostrazione. Sia {v1, . . . , vn} una base di Ve v V . Siccome V=, esistonox1, . . . , xn Ktalechev=x1v1+ . . . + xnvn. Sup-poniamoche si possascrivere v indue modi distinti: v =x1v1+. . .+xnvn=y1v1+. . .+ynvn, conxi, yiK. Questo equivale a dire che(x1y1)v1+. . .+(xnyn)vn= O, che a sua volta implica x1= y1, . . . , xn= ynpercheiv1, . . . , vnsonolinearmenteindipendenti.Supponiamoorache v V si possascriverevinununicomodocomecombinazionelinearediv1, . . . , vn. Allora,v1, . . . , vnsarebberolinearmentedipendenti se 1, . . . , n K tali che 1v1+. . .+nvn= O. Ma c`e un unicomodo per scrivere O Vcome combinazione lineare di v1, . . . , vn: quello contutti i coecienti nulli. Dunque i v1, . . . , vnsono linearmente indipendenti eformanounabase. Denizione. Inumeri x1, . . . , xnsonodettelecoordinatedellelementov= x1v1 + . . . + xnvn V nellabase B = {v1, . . . , vn}diV.18 SpazivettorialiFissataunabase B= {v1, . . . , vn}inunospaziovettorialeV didimensionensi ottienequindi unacorrispondenzabiunivocafraV e Knmediantelalegge:V Kn: v= x1v1 + . . . + xnvn (x1, . . . , xn).Questa corrispondenza rispetta le operazioni su V , nel senso che alla sommav+w degli elementi v= x1v1+. . . +xnvn e w = y1v1+. . . +ynvn corrispondelasommadellerispettiveennuple: (x1 + y1, . . . , xn + yn)eal prodottovdi v=x1v1 + . . . + xnvn V perunoscalare Kcorrispondelan-pla(x1, . . . , xn).Per ogni n, lospazioKn`e nitamente generato. Labase canonicadiKn`eformatadai vettori e1=(1, 0, . . . , 0), e2=(0, 1, 0, . . . , 0), . . . , en=(0, . . . , 0, 1). Quindi Knhadimensionen: dim(Kn) = n.1.6 Sommaeintersezionedisottospazi.SiaVunospaziovettorialedidimensionenitanesianoUeWsottospazidiV .Denizione. Il sottospazio intersezione di Ue W`e formato dagli elementidiV cheappartengonosiaaUcheaW:U

W= {v V | v Uev W}.Denizione. IlsottospaziosommadiUeW`eformatodaglielementidiVche si possono scrivere come somma di un elemento di Ue di un elementodiW:U+W= {v V | v= u + w, u U, w W}.SegueimmediatamentedalladenizionechesiaU

WcheU+Wsonoef-fettivamentesottospazivettorialidiV .Denizione. SevaleU

W=O,allorasidicecheU+ W`esommadi-rettadiUeWesiindicaconU W.VittorinoTalamini 19SiaU=eW=. AlloraU+ W`egeneratodallunionedellebasidiUediW: U+ W=< u1, . . . , uk, w1, . . . , wh>eU

W`eformatodaglielementidiV chesipossonoscriveresiacomecom-binazionilinearidiu1, . . . , uk,siacomecombinazionilinearidiw1, . . . , wh.Proposizione. (Formuladi Grassmann). SiaV unospaziovettorialedi dimensionenita. SianoU, Wsottospazi di V . AlloravalelaseguenterelazionefraledimensionidiU,V ,U+ V ,U

V :dim(U+ W) = dim(U) + dim(W) dim(U

W).Dimostrazione. Sianodim(U

W) =q, dim(U) =t e dim(W) =s.Sia {z1, . . . , zq}unabase di U

W(se q =0, allora {z1, . . . , zq} = ).Per il Teorema del completamento di una base, esistono t q elemen-ti uq+1, . . . , ut Utali che {z1, . . . , zq, uq+1, . . . , ut}formanounabasediU. Allostessomodo, esistonos q elementi wq+1, . . . , ws Wtali che{z1, . . . , zq, wq+1, . . . , ws} formano una base di W. Dalla denizione di U+Wsegue che U+W=< z1, . . . , zq, uq+1, . . . , ut, wq+1, . . . , ws>, ossiache{z1, . . . , zq, uq+1, . . . , ut, wq+1, . . . , ws}generanoU+ W. Dimostriamochesono anche linearmente indipendenti (cio`e formano una base di U +W). Siadunque 1z1+. . . +qzq+q+1uq+1+. . . +tut+

q+1wq+1+. . . +

sws= O,unacombinazionelinearedi {z1, . . . , zq, uq+1, . . . , ut, wq+1, . . . , ws}ched`ailvettorenullo, con1, . . . , t,

q+1, . . . ,

s K. Daquestacombinazionesiottiene:

q+1wq+1+. . . +

sws= (1z1+. . . +qzq +q+1uq+1+. . . +tut).Osserviamo che il vettore x =

q+1wq+1+. . .+

sws`e unelemento diW

U, inquanto pu`o essere espresso sia come combinazione lineare dielementi di Wche come combinazione lineare di elementi di U. Poiche{z1, . . . , zq}`e unabase di U

W, esistono1, . . . , qKtali che x=

q+1wq+1+ . . . +

sws= (1z1+ . . . + qzq+ q+1uq+1+ . . . + tut) =1z1 + . . . + qzq(*). Luguaglianzafragli ultimi duemembri della(*)siottieneunacombinazionelinearenulladellabase {z1, . . . , zq, uq+1, . . . , ut}:(1 + 1)z1 + . . . + (q + q)zq + q+1uq+1 + . . . + tut=O, equindi tuttii coecienti devonoesserenulli, inparticolare: q+1, . . . , t=0. Usandoquesto risultato, dalluguaglianza fra il secondo e il terzo membro della (*) siottieneunacombinazionelinearenulladellabase {z1, . . . , zq, wq+1, . . . , ws}:

q+1wq+1 +. . . +

sws + (1z1 +. . . +qzq) = O,equindituttiicoecientidevonoesserenulli: 1=. . . =q=

q+1=. . . =

s=0. Ci`oprovacheivettoriin {z1, . . . , zq, uq+1, . . . , ut, wq+1, . . . , ws}sonolinearmenteindi-pendentiesiccomegeneranoU+ W,formanounabasediU+ W. Quindi20 Spazivettorialidim(U+W) = t+sq= dim(U)+dim(W)dim(U

W) come richiesto. Denizione. Si deniscecomplementodi UinV esi indicaconUcunqualunquesottospaziodi V talecheV =U Uc. Intal casoUeUcsidiconosupplementari.Proposizione. PerognicomplementodiUinV siha:dim(V ) = dim(U) + dim(Uc).Dimostrazione. U

Uc= {O}, quindi dim(U

Uc)=0elaformuladiGrassmannd`aatesi. Sia {u1, . . . , uk}unabasedi Uesia {vk+1, . . . , vn}unsuoqualunquecom-pletamentoadunabasediV . AllorailsottospazioUc=< vk+1, . . . , vn>`euncomplementodi UinV . Percostruzionevalgonoinfatti lerelazioniV =U+ UceU

Uc= {O}.`Epossibilecomunquechescegliendocom-pletamenti diversi di unabasedi Uaunabasedi V si ottengalostessocomplementoUcdiUinV .Proposizione. Se v V= U Uc,allora vsi pu`o decomporre in un unicomodo come somma di un vettore di Ue di un vettore di Uc: ! v1 U, v2 Uc| v= v1 +v2. (Il simbolo ! si legge: esiste uno e uno solo. . . oppureesisteununico. . . ).Dimostrazione. Supponiamoperassurdocheesistanov1, u1 U, v2, u2 Uc| v=v1 + v2=u1 + u2. Allora: O=v v=(v1 + v2) (u1 + u2)=(v1u1) +(v2u2), quindi (v2u2) dovrebbe essere lopposto di (v1u1),che `e unicoedappartiene adU, come (v1 u1), ma(v2 u2)UceU

Uc= {O}. Quindi v2u2= v1u1= O, e quindi esiste un unico mododidecomporrev: v= v1 + v2. Se V= Kne i sottospazi U, Wsono dati rispettivamente dalle soluzioni di unsistema lineare omogeneo di m equazioni in n incognite e dalle soluzioni di unsistema lineare omogeneo di p equazioni in n incognite, cio`e se U= {x V|ai1x1 +. . . +ainxn= 0, i = 1, . . . , m} e W= {x V| bi1x1 +. . . +binxn=VittorinoTalamini 210, i=1, . . . , p}, dovelexisonolecomponenti di xrelativamenteadunadata base di V , allora il sottospazio U

W`e dato dalle soluzioni del sistemalineareomogeneodim+pequazioniinnincognite,unionedeiduesistemi:U

W= {x V | ai1x1 + . . . + ainxn=0, bj1x1 + . . . + bjnxn=0, i=1, . . . , m, j= 1, . . . , p}.22 SpazivettorialiCapitolo2Matrici2.1 Matrici.Denizione. Unamatricedi tipom nadelementi nel corpo K`eunatabelladimrigheedincolonnedinumeriin K:A =____a11a12. . . a1na21a22. . . a2n. . . . . . . . . . . .am1am2. . . amn____, aij K, i = 1, . . . , m, j= 1, . . . , n.Informacompatta, evidenziandocomunquegli elementi di matrice, si pu`oanchescrivere:A = (aij), aij K, i = 1, . . . , m, j= 1, . . . , n.Per convenzione, le matrici vengono indicate con le lettere maiuscole dellal-fabeto e linsieme della matrici di tipo mn con elementi in K sar`a indicatocon Kmn.Denizione. Lematriciditipo1 nvengonodettematriciriga. Quelledi tipom 1matrici colonna. Si usanoanchei termini vettori rigaevettoricolonna.Una matrice di tipo mn pu`o essere vista come un vettore riga di n vettoricolonna di m componenti (cio`e come un vettore di n vettori di Km), oppurecomeunvettorecolonnadi mvettori rigadi ncomponenti (cio`ecomeunvettore di m vettori di Kn). Questa osservazione permette di denire in modo24 Matricianalogo vettori di vettori di vettori, ecc., e quindi di denire entit`a a k indici:A=(ai1,i2,...,ik), ai1,i2,...,ik K, i1=1, . . . , n1, i2=1, . . . , n2, . . . , ik=1, . . . , nk, dovek`eunnumeronaturalequalsiasi.Un esempio importante di queste entit`a a n indici `e dato dal tensore di Ricciicuielementii1,i2,...,insonospecicatinellaseguentedenizione.Denizione. IlsimbolodiRiccianindici,i1,...,in, `elasegnaturadellapermutazione(i1, . . . , in)di(1, 2, . . . , n),valeadire:

i1,...,in=___+1 se(i1, . . . , in) `eunapermutazioneparidi(1, 2, . . . , n),1 se(i1, . . . , in) `eunapermutazionedisparidi(1, 2, . . . , n),0 altrimenti,cio`ese(i1, . . . , in)haalmenodueindiciuguali.Nellespressioneprecedentegli indici possonoassumerevalori fra1eneperpermutazionepari (dispari)si intendeunapermutazioneottenibileef-fettuandounnumeropari(dispari)ditrasposizioni(cio`ediscambi).Denizione. La matrice che ha tutti gli elementi nulli viene detta matricenullaevieneindicataconO.Denizione. Le matrici che hanno lo stesso numero n di righe e di colonnevengonodettequadrate. Ilnumerodirigheecolonnediunamatricequa-drata `edettoordinedellamatrice.Inumeripossonoessereconsideratidellematriciquadratediordine1. Nelcasodimatriciquadratesihannoaltredenizioniimportanti.Denizione. Unamatricequadratadi ordinen`edettadiagonaleseglieventuali elementi non nulli sono lungo la diagonale principale che collegaa11aann. Essahaquindilaformaseguente:D =____a110 . . . 00 a22. . . 0. . . . . . . . . . . .0 0 . . . ann____, aii K, i = 1, . . . , n.Denizione. Unamatricequadratadiordinen `edettamatriceunit`adiordinense `ediagonaleeglielementidiagonalisonotutti1. EssahaquindiVittorinoTalamini 25laformaseguente:In=____1 0 . . . 00 1 . . . 0. . . . . . . . . . . .0 0 . . . 1____.Senongeneraconfusionesi pu`otrascuraredi scriverelindicencheindicalordinedellamatriceunit`a.Denizione. Unamatricequadratadi ordinen`edettatriangolaresu-periore(otriangolareinferiore)seglieventualielementinonnullisonolungoladiagonaleoal di sopra(oal di sotto)di essa. Essahaquindi laformaseguente:S=____a11a12. . . a1n0 a22. . . a2n. . . . . . . . . . . .0 0 . . . ann____, aii K, i = 1, . . . , n.Denizione. DuematriciA = (aij)eB= (bij)sonodetteugualise:1. sonodellostessotipo;2. glielementidipostocorrispondentecoincidono: aij= bij, i, j.Nellinsieme delle matrici di tipo mn si possono denire alcune operazioni.Denizione. Si deniscesommadelleduematrici di KmnA=(aij)eB= (bij),lamatricedi Kmnseguente:A + B= (aij + bij).Denizione. Sidenisceprodottoperunoscalare KdellamatriceA = (aij) Kmn,lamatricedi Kmnseguente:A = (aij).Teorema. Linsieme Kmndotatodelledueoperazioni di sommadi ma-trici edi moltiplicazionedi unamatriceperunoscalaredi K`eunospaziovettorialesu K.26 MatriciDimostrazione. Kmn`echiusorispettoalledueoperazioni deniteeso-novericatetuttelepropriet`a1.8. delladenizionedi spaziovettorialelineare. Denizione. Labasecanonicaperlospaziovettoriale Kmn`eformatadamnmatrici di tipomnaventi unelementopari ad1etutti gli altri(mn1) elementi pari a zero. Kmnha quindi dimensione mn. Se indichiamoconE(ij)lamatricedellabasecanonicacheha1al posto(i, j). Allora, A Kmn:A =m

i=1n

j=1aijE(ij).Ovviegeneralizzazioni dellabasecanonicadataqui per lematrici (adueindici)sihannoperleentit`aaunnumeroqualsiasidiindici.Linsieme delle matrici triangolari superiori (inferiori) di ordine n `e un sotto-spaziovettorialedi Knn. Unasuabase `e {E(ij)}, i j= 1, . . . , n(i j).La sua dimensione `en(n+1)2. Linsieme delle matrici diagonali di ordine n so-no un sottospazio vettoriale di Knne un sottospazio vettoriale delle matricitriangolari superiori o inferiori. Una sua base `e {E(ii)}, i = 1, . . . , n. La suadimensione `en.2.2 Ilprodottodimatrici.Denizione. Il prodottodellamatriceA=(aij) KmnconlamatriceB= (bij) Knp`e la matriceC= (cij) Kmpicuielementi sono datida:cij=n

k=1aikbkj.Perlasuaparticolaredenizione,questotipodiprodottodimatricisidiceprodottorighepercolonne.Si possono quindi moltiplicare fra loro solo matrici particolari, precisamenteil primofattoredeveavereil numerodi colonnepari al numerodellerighedelsecondofattore. Lamatriceprodottoavr`ailnumerodirighedelprimofattoreeilnumerodicolonnedelsecondofattore.VittorinoTalamini 27Ingeneraleilprodottonon `ecommutativo: AB = BA,ecomunquelugua-glianzaAB=BApu`oesserevericatasoloseAeBsonoquadratedellostessoordine.Per il prodotto fra matrici non vale la propriet`a di annullamento del prodot-to: AB=OnonimplicacheoAoBsianolamatricenulla.`Everoper`ocheseA = OoppureB= OalloraancheAB= O.Proposizione. Valgonoleseguentipropriet`adelprodottodimatrici:1. Propriet`a associativa: (AB)C= A(BC), A Kmn, B Knp, C Kpq;2. Propriet`adistributivaadestra:A(B + C) = AB + AC, A Kmn, B, C Knp;3. Propriet`adistributivaasinistra:(A + B)C=AC+ BC, A, B Kmn, CKnp(`enecessarioenunciare entrambe le propriet`adistributive per lamancanzadellapropriet`acommutativadelprodotto);4. Lamatrice unit`aI `e lelementoneutrorispettoal prodotto, ossia:AIn= ImA = A, A Kmn.5. Il prodotto di due matrici diagonali, o di due matrici triangolari supe-riori,odiduematricitriangolariinferiori,`eancoraunamatricedellastessaformadeifattori.Dimostrazione. Propriet`aassociativa:((AB)C)ij=p

k=1(AB)ikckj=p

k=1_n

l=1ailblk_ckj=n

l=1ail_p

k=1blkckj_==n

l=1ail(BC)lj= (A(BC))ij, i = 1, . . . , m, j=. . . , q.Propriet`adistributivaadestra:(A(B+C))ij=n

k=1aik(B+C)kj=n

k=1aik(bkj+ckj) =n

k=1aikbkj+n

k=1aikckj== (AB)ij + (AC)ij= (AB + AC)ij, i = 1, . . . , m, j=. . . , p.Lapropriet`adistributivaasinistrasidimostrainmodoanalogo.La 4. e la 5. richiedono semplici veriche e vengono lasciate per esercizio. 28 Matrici2.3 Lamatriceinversa.Denizione. SiaA Knn. Adi diceinvertibileseesisteunamatriceX Knntaleche:AX= XA = I.La matrice Xcos` denita `e unica, in base al seguente Teorema, viene dettamatriceinversadiA,evieneindicataconA1.Teorema. SeesisteunamatriceinversadiA Knn,alloraessa `eunica.Dimostrazione. SeesistesseroX, X

Knntali cheAX=XA=I eAX

=X

A=I, allorasi avrebbe: X

=IX

=(XA)X

=X(AX

) =XI= X,cio`eXeX

coinciderebbero. Seunamatricenon`equadrata, adesempioA Kmn, sipossonosolode-nirelinversaadestraXdxelinversaasinistraXsxinmodochevalganolecondizioni: AXdx=ImeXsxA=In, doveIneImsonolematrici unit`adi ordinenemrispettivamente. Leinversedi matrici nonquadratesonoraramenteutilizzate.Teorema. SeA, B Knnsonoduematriciinvertibili,allora(AB)1= B1A1.Dimostrazione. Se(AB)1`elinversadiAB,deveessere(AB)(AB)1=I. Si haanche: I =AA1=AIA1=ABB1A1=(AB)(B1A1).Dunque: (AB)(AB)1=(AB)(B1A1). Moltiplicandoquestaequazionea sinistra per la matrice B1A1, ben denita per ipotesi, si ottiene la tesi. Proposizione. SeA Knn`eunamatriceinvertibile,allora(A1)1= A.Dimostrazione. BastaprendereB=A1nellequazioneI =BB1perdedurrelatesi. VittorinoTalamini 292.4 Latraspostadiunamatrice.Denizione. DataunamatriceA Kmnsi deniscetraspostadi A, elasi indicaconAT, lamatricedi Knmchesi ottienescambiandolerighecon le colonne della matrice A, in simboli se A = (aij) allora AT= (bij), conbij= aji, i = 1, . . . , m, j= 1, . . . , n.Siosservicheseunamatrice`equadrata,anchelasuatrasposta`eunama-tricequadratadellostessoordine.Proposizione. Valgono le seguenti propriet`a delloperazione di trasposizio-ne.1.(AT)T= A, A Kmn;2.(A +B)T= AT+ BT, A, B Kmn;3.(A)T= AT, A, Kmn, K;4.(AB)T= BTAT, A Kmn, B Knp;5.(A1)T= (AT)1, A Knninvertibile;Dimostrazione. 1. ((AT)T)ij= (AT)ji= Aij;2. ((A + B)T)ij= (A + B)ji= aji + bji= (AT)ij + (BT)ij;3. ((A)T)ij= (A)ji= aji= (AT)ij= (AT)ij;4. ((AB)T)ij= (AB)ji=

nk=1ajkbki=

nk=1(AT)kj(BT)ik==

nk=1(BT)ik(AT)kj= (BTAT)ij;5. Prendendo B= A1nella 4., si ottiene: I= IT= (AA1)T= (A1)TAT.Quindi(A1)T`elinversadiAT,cio`e: (A1)T= (AT)1. Denizione. DataunamatricequadrataA,sevalelarelazione:A = AT,30 MatriciA `edettasimmetrica;sevalelarelazione:A = AT,A`e detta antisimmetrica. Inaltri termini, una matrice A=(aij) `esimmetricase:aij= aji, i, j= 1, . . . , n,antisimmetricase:aij= aji, i, j= 1, . . . , n.Denizione. DataunamatricequadrataA, lematrici denitenel modoseguente:As=A + AT2, Aa=A AT2sono dette rispettivamente partesimmetrica e parteantisimmetrica diA.Proposizione. Leparti simmetricaeantisimmetricadi unamatricequa-drataAsonomatricisimmetricheeantisimmetricherispettivamente.Dimostrazione. BastavericarecheAs= (As)TecheAa= (Aa)T. Dalladenizionedi partesimmetricaeantisimmetricadi unamatrice, siottengonoimmediatamenteleseguentiformuledidecomposizione:A = As + Aa, AT= AsAa.Proposizione. Linversa di una matrice simmetrica (antisimmetrica) inver-tibile `eunamatricesimmetrica(antisimmetrica).Dimostrazione. SiaAunamatricesimmetrica(antisimmetrica). Allora,AT=A(AT= A) esi pu`oscrivere(AT)1=A1((AT)1= A1),masi haanche(AT)1=(A1)Tequindi confrontando: (A1)T=A1((A1)T= A1),quindiA1`esimmetrica(antisimmetrica). VittorinoTalamini 31Linsieme delle matrici simmetriche di ordine n `e un sottospazio vettoriale diKnn. Una sua base `e composta dan(n+1)2elementi, ad esempio dalle matriciE(ii), i=1, . . . , n, (E(ij) + E(ji)), i), k = dim(< C1, . . . , Cn>).Apriorihekpotrebberoesserediversi. Vedremofrapococheinvececoin-cidono.Proposizione. Le operazioni elementari sulle righe (colonne) non cambianoledimensioni dellospaziogeneratodallerighe(colonne), quindi del rangoperrighe(colonne)diA.Dimostrazione. Ovvia. Teorema. DataunamatriceA, il suorangoperrighecoincideconil suorangopercolonne.Dimostrazione. Ragioniamodapprimasullerighe. Conoperazioni ele-mentarisullerighesipu`otrasformareAinunamatriceascalaRchehaleprime h righe con almeno un elemento non nullo e le ultime mh righe chesonocompletamentenulle.38 MatriciPossiamoaquestopuntoestrarredaRunasottomatriceR

,ditipoh h,formataconleprimehrighedi Reconlecolonnedi Rchecontengonogli scalini. R

`eunamatricetriangolaresuperiorechehatutti gli elementidiagonalinonnulli. Ilsuodeterminante`equindiilprodottodeglielementidiagonali ed `e quindi diverso da zero. Daltronde qualunque sottomatrice diRditipo(h + 1) (h + 1)hacertamentealmenounarigacompletamentenullaequindihadeterminantenullo.Questi risultati valgono ovviamente anche per la matrice A: esiste un minorediAdiordinehnonnulloetuttiiminoridiAdiordine(h + 1)sononulli.(Si pu`o facilmente risalire alla sottomatrice non singolare di A tenendo contodegliscambidirighechehannoportatoAinR).Viceversa, conoperazioni elementari sullecolonnesi pu`otrasformareAinunamatriceascalaCchehaleprimekcolonneconalmenounelementonon nullo e le ultime nkcolonne che sono completamente nulle. PossiamoaquestopuntoestrarredaCunasottomatriceC

, di tipok k, formataconleprimekcolonnedi Celerighedi Cchecontengonogli scalini. C

`eunamatricetriangolarechehatutti gli elementi diagonali nonnulli. Ilsuodeterminante`equindi il prodottodegli elementi diagonali ed`equindidiversodazero. Daltrondequalunquesottomatricedi Cditipo(k + 1) (k +1) ha certamente almeno una colonna completamente nulla e quindi hadeterminantenullo.Questi risultati valgono ovviamente anche per la matrice A: esiste un minorediAdiordineknonnulloetuttiiminoridiAdiordine(k + 1)sononulli.(Si pu`o facilmente risalire alla sottomatrice non singolare di A tenendo contodegliscambidicolonnechehannoportatoAinC).Daquantofattovederesi capiscechedeveessereh=kaltrimenti c`eunacontraddizione, infatti le aermazioni: tutti i minori di A di ordine (h +1)sononullietutti i minori di Adi ordine(k + 1)sononullinonsonoincontraddizionesoloseh = k. Peril Teoremaprecedentenonhapi` usensodistinguereil rangoperrighedal rango per colonne. Il valore comune dei ranghi per righe e per colonne diunamatriceAvienechiamatosemplicementerangodellamatriceA. EssocoincideconladimensionedellospaziovettorialegeneratodallerighediAo,indierentemente,dallecolonnediA.UnovviocorollarioalTeoremaprecedente `eilseguente:Teorema. (di Kronecker). DataunamatriceA Kmn, seil valorecomunedeiranghiperrigheepercolonnediA `eh,alloraesisteunminoreVittorinoTalamini 39di A di ordine h non nullo e tutti i minori di ordine maggiore di h sono nulli.Inaltreparolehcoincideconil massimoordinedi unminorenonnullodiA.Dimostrazione. OvviaconseguenzadelladimostrazionedelTeoremapre-cedente. Diamoquindiquestadenizione.Denizione. Data una matrice A Kmn, il rango di A `e indierentemen-teugualealrangoperrighediA, alrangopercolonnediA, oalmassimoordinediunminorenonnullodiA.Teorema. SiaAunamatricequadratadiordinen. A `esingolareseesoloseilsuorango `eminoredin:rango(A) < ndet(A) = 0.Dimostrazione. OvviadalTeoremadiKronecker. 2.8 ITeoremidiLaplace.Denizione. SiaA=(aij) Knne Mijil minore di ordine (n 1)relativo allelemento aij, cio`e il determinante della sottomatrice di A ottenutatogliendo da A la riga i e la colonna j. Il numero Aij= (1)i+jMijsi chiamacofattoreocomplementoalgebricodellelementoaij.Teorema. (PrimoTeoremadiLaplace). Il determinante di una matricequadrataA=(aij) Knnsiottienesommandoiprodottifraglielementidi unariga(ocolonna) per i rispettivi cofattori, inoltretalecalcolonondipendedallariga(ocolonna) scelta(inpraticaconvienesceglierequellaconpi` uelementinulli). Informula:det(A) =n

k=1aikAik=n

k=1akiAki, i = 1, . . . , n,40 Matriciincuinelprimocalcolo`estatasceltalarigai-ma, enelsecondocalcololacolonnai-ma.Dimostrazione. Nellosviluppodi det(A), applicandolepropriet`aasso-ciativaedistributivadelleoperazioni inK, si possonoassociarei terminiche contengonolelementoai1, quelli che contengonolelementoai2, . . . ,quelli checontengonolelementoain, raccogliendointutti questi il fattorcomune(ai1, oai2, . . . , oain). Si noti chenessunelementoaij(coni s-satoejqualunque)pu`ocomparireinpi` udiunaassociazione. Siconsideriadesempioil fattoremoltiplicatoperaij. Esso`eformatodallasommadi(n 1)! termini, ciascunodei quali `eil prodottodi n 1elementi, presiunoperrigaeunopercolonna, dellasottomatricedi Aottenutatoglien-dodaAlarigai-maelacolonnaj-ma. Inpraticaquestofattoremolti-plicativocoincideconil determinantedi questasottomatrice, amenodelsegno. Questosegnovienedeterminatoimmaginandodispostareallultimoposto(cio`ealln-mo)larigai-maelacolonnaj-madi A. Questorichiede(n i) + (n j) = 2n (i +j)scambiequindifacomparireunsegnoparia: (1)2n(i+j)= (1)2n (1)(i+j)= 1 (1)+(i+j)= (1)i+j. Quindiaij, j= 1, . . . , n,vieneadesseremoltiplicatoperilsuocofattoreAij. Daquilatesi. Teorema. (SecondoTeoremadi Laplace). InunamatricequadrataA = (aij) Knnla somma dei prodotti degli elementi di una riga (colonna)pericofattoridiunaqualunquealtrariga(colonna) `ezero. Informula:n

k=1aikAjk=n

k=1akiAkj= 0, i = j= 1, . . . , n.Dimostrazione. Le formule date possono essere pensate come ottenute dalcalcolodidet(A

)utilizzandoilprimoTeoremadiLaplace,conA

ottenutadaAsostituendolariga(colonna)jdi Aconlariga(colonna)idi A, madet(A

) `enullopercheA

haduerighe(colonne)uguali. VittorinoTalamini 412.9 Calcolodellamatriceinversa.Teorema. Data una matrice non singolare A Knn, si consideri la matriceB=(bij)=(Aij) Knn, aventeordinatamentecomeelementi i cofattoridiA. LamatriceinversadiA `edatadallaseguenteformula:A1=1det(A)BT.Dimostrazione. SiaC=1det(A)BT,ilTeorema `edimostratoseAC= I,inaltriterminise(AC)ii= 1e(AC)ij= 0sei = j. Verichiamolo:(AC)ii=n

j=1aijcji=n

j=1aij_bijdet(A)_=1det(A)n

j=1aijAij=det(A)det(A)= 1,i = 1, . . . , n,perPrimoTeoremadiLaplace.(AC)ij=n

k=1aikckj=n

k=1aik_bjkdet(A)_=1det(A)n

k=1aikAkj= 0,i = j= 1, . . . , n,perilSecondoTeoremadiLaplace. Corollario. SeA Knn`enonsingolare,alloraA `einvertibile.Dimostrazione. SeA `enonsingolare,esisteA1,calcolataconlaformuladatanelTeoremaprecedente. Dunque, A Knn,sonoequivalentileseguentitreaermazioni:det(A) = 0 Ainvertibile rango(A) = n,det(A) = 0 Anoninvertibile rango(A) < n.42 MatriciCapitolo3Sistemilineari3.1 Primedenizioni.Denizione. Unsistemalinearedi mequazioni innincognite`erappe-sentabilenelseguentemodo:___a11x1 + a12x2 + . . . + a1nxn= b1a21x1 + a22x2 + . . . + a2nxn= b2. . . = . . .am1x1 + am2x2 +. . . +amnxn= bmGli aijsonoi coecienti delleincognitexjei bjsonodetti i termininoti. Supponiamochetutti i numeri aijebjsianodati eappartenenti alcorpogenericoK. Unasoluzionedel sistema`eunan-pladi valori delleincognitex1, . . . , xncherendonotuttelemequazionisoddisfatte.Denizione. Un sistema lineare `e detto compatibile (o possibile) se am-mettesoluzioni, incompatibile(oimpossibile)senonleammette. Unsistemacompatibile`edettodeterminatoseammetteunasolan-plasolu-zione,indeterminatoseneammettepi` udiuna.Ognisistemalinearepu`oessereriscrittoinformamatricialenelmodo:AX= BconA =____a11a12. . . a1na21a22. . . a2n. . .am1am2. . . amn____, X=____x1x2. . .xn____, B=____b1b2. . .bm____.44 SistemilineariDenizione. Datoil sistemalinearescrittoinformamatricialeAX=B,lematriciA, XeBsonodetterispettivamentematricedei coecienti,matriceovettore(colonna)delleincognite e matriceovettore(co-lonna)deitermininoti. La matrice (A | B), ottenuta aancando ad A ilvettoreBdeitermininoti,`edettamatricecompletadelsistemalineare.Dunque,seA `editipomn,(A | B) `editipom(n + 1).3.2 MetododiriduzionediGauss-Jordan.Denizione. Duesistemi lineari si diconoequivalenti seammettonolestessesoluzioni.Teorema. Duesistemilinearisonoequivalentiseesoloseluno `eottenutodallaltroeseguendolequattrooperazionisottoelencate:1. scambiaretradilorodueequazioni;2. moltiplicareunequazioneperunnumerodiversodazero;3. sostituireadunaequazionelasommadi sestessaconunaltraequa-zionemoltiplicataperunnumero;4. unaqualsiasicombinazionedelleoperazionisopraelencate.Dimostrazione. 1. Ovvia. 2. SiaA

X=B

il sistemachesi ottienesostituendoallai-maequazionedel sistemaAX=Blastessaequazionemoltiplicata per un coeciente = 0. Sia X= (x1, x2, . . . , xn) soluzione delsistemaAX=B. AlloraXlo`eanchedellai-maequazionedel sistemaesiha: ai1x1 + ai2x2 + . . . + ainxn= bi. MaalloraX`esoluzioneanchedellai-maequazionediA

X= B

,infatti: (ai1)x1 + (ai2)x2 +. . . + (ain)xn=(ai1x1+ai2x2+. . . +ainxn) = bi. E quindi X `e una soluzione di A

X= B

.Allo stesso modo si prova che seX`e una soluzione diA

X= B

,allora X`eunasoluzionediAX= B.3. SiaA

X=B

il sistemachesi ottienesostituendoallai-maequazio-nedel sistemaAX=Blastessaequazionesommataallaj-maequazionemoltiplicataperuncoeciente =0. SiaX=(x1, x2, . . . , xn)soluzionedel sistemaAX=B. AlloraXlo`eanchedellai-maedellaj-maequa-zionedel sistema. MaalloraX`esoluzioneanchedellai-maequazionediA

X=B

, infatti: (ai1 + aj1)x1 + (ai2 + aj2)x2 + . . . + (ain + ajn)xn=(ai1x1 + ai2x2 + . . . + ainxn) + (aj1x1 + aj2x2 + . . . + ajnxn) = bi + bj. EVittorinoTalamini 45quindiX`eunasoluzionediA

X= B

. AllostessomodosiprovacheseX`eunasoluzionediA

X= B

,alloraX`eunasoluzionediAX= B.4. Ovvioperquantovistoneipuntiprecedenti. PerilTeoremaprecedentesiottengonosistemiequivalentieettuandoqua-lunque successione di operazioni elementari sulle righe della matrice comple-taassociataalsistemalineare.Denizione. Ilmetododi riduzionedi Gauss-Jordanperunsistemalineare consiste nelleettuare operazioni elementari sulle righe della matricecompletanoaridurlaascala,conilprimoelementononnulloinunariga(corrispondente allo scalino) pari ad 1 e tutti gli altri elementi della matricedei coecienti uguali a0. (Gli unici elementi nonnulli dellamatricedeicoecienti di un sistema ridotto con il metodo di Gauss-Jordan sono quindigliscaliniesonougualiad1).`E ovvio che il sistema ridotto con il metodo di Gauss-Jordan `e equivalente aquelloiniziale. Essorisultaincompatibileseesolosecontienealmenoune-quazionedeltipo0 = b,conb = 0. Se`ecompatibile,tutteleequazionidelsistemaridottosonoindipendentielasuasoluzione `eimmediata: ilvettoredei termini noti riporta infatti i valori che devono assumere le varie incogni-tedeterminabili dalsistema(questepossonoeventualmenteesserefunzionilineari di altre incognite non determinabili dal sistema che avranno il signi-cato di parametri liberi. Il prossimo paragrafo chiarir` a questa precisazione).LimportanzadelmetododiriduzionediGauss-Jordan `esoprattuttodovu-taallafacilit`adi implementazioneinunprogrammadi calcoloeallasuavelocit`adiesecuzione.Denizione. Il metododi riduzionedi Gaussperunsistemalineare`eunaparzialeapplicazionedelmetododiriduzionediGauss-Jordanchesiferma alla riduzione a scala alla matrice dei coecienti, senza quindi riscala-re ad 1 gli scalini e senza annullare gli elementi della matrice dei coecientidiversidagliscalini.EntrambiimetodidiriduzionediGauss-JordanediGaussvengonoutiliz-zatipersemplicarelarisoluzionediunsistemalineare.Per maggior chiarezza sui due metodi di riduzione riporto un semplice esem-pionumerico.Sia dato un sistema lineare di due equazioni in due incognite e la corrispon-46 Sistemilinearidentematricecompleta:_3x14x2= 62x1 + x2= 7_3 4 62 1 7_.Per ridurre ascalalamatrice completasi esegue lasostituzione: R2R223R1,ottenendo:_3 4 6011311_Con questa operazione `e stata ottenuta la riduzione di Gauss. Continuandoperarrivareallariduzionedi Gauss-Jordansi devonoeettuareleseguentioperazioni: R1 13R1,R2 311R2,ottenendo:_1 4320 1 3_esuccessivamenteR1 R1 +43R2,ottenendo:_1 0 20 1 3_IsistemiridotticonimetodidiGaussediGauss-Jordansonoquindi:_3x14x2= 6113 x2= 11e_x1= 2x2= 3`EevidentecheilmetododiriduzionediGauss-Jordanforniscegi`alasolu-zionedelsistemapropostosenzabisognodiulterioripassaggi.Proposizione. Il numerodi righenonnulledi unsistemaridottoascalacoincideconilrangodellamatricecompleta.Dimostrazione. Ser`eil numerodi righenonnulledel sistemaridottoascala,esisteunminorediordinerdellamatricecompletanonnullo(quelloottenutodallasottomatricechehaglirscalinilungoladiagonaleprincipa-le), mentretutti i minori di ordinemaggioredi r(seesistono)sononulli.PerilTeoremadiKroneckerreguagliailrangodellamatricecompleta. 3.3 IlTeoremadiRouche-Capelli.Teorema. (di Rouche-Capelli). Unsistemalineare`ecompatibileseesoloseilrangodellamatricedeicoecienti `eugualealrangodellamatriceVittorinoTalamini 47completa. Siar questorangocomune, allorail sistema`edeterminatoser=n,indeterminatoserdim(W).Teorema. (delledimensioni). SiaL:VW`eunapplicazionelineareesiadim(V ) = n < +. Alloravaledim(V ) = dim(ker(L)) + dim(L(V )).Dimostrazione. Se ker(L) = {OV}, lapplicazione L`e iniettiva e dim(L(V )) =dim(V ), comerichiesto. Supponiamooraker(L) = {OV}. Sia {v1, . . . , vk}una base di ker(L) Ve siano vk+1, . . . , vn elementi di Vtali che {v1, . . . , vk,vk+1, . . . , vn}siaunabasedi V . SiaU=. AlloraV = < vk+1, . . . , vn>= ker(L) U. OsserviamoinnanzituttocheL(V ) =< L(v1), . . . , L(vk), L(vk+1), . . . , L(vn) >=< L(vk+1), . . . , L(vn) > .56 ApplicazionilineariDunque,ivettoriL(vk+1), . . . , L(vn)sonogeneratoridiL(V ). Facciamove-derechei vettori L(vk+1), . . . , L(vn)sonolinearmenteindipendenti inW:infattik+1L(vk+1) + . . . + nL(vn)=OW=L(k+1vk+1 + . . . + nvn)=OW=x =k+1vk+1+. . .+nvnker(L). Ma xU e siccomeker(L)

U= {OV}, deveesserex=OV . Magli elementi {vk+1, . . . , vn}sono linearmente indipendenti, e quindi k+1=. . . =n=0. Dun-que {L(vk+1), . . . , L(vn)}sonolinearmenteindipendentieformanounaba-sedi L(V ). Contandoledimensioni, troviamo: dim(V )=dim(ker(L)) +dim(L(V )). Proposizione. SiaL:VWunapplicazionelinearefraspazivettorialididimensionenita.1. Se L`e iniettiva e suriettiva (cio`e biiettiva) allora necessariamentedim(V ) = dim(W).2. Sedim(V ) = dim(W),alloraL `einiettivaseesolose `esuriettivaseesolose `ebiiettiva.Dimostrazione. 1. Liniettiva ker(L)= {OV} dim(ker(L))=0.Lsuriettiva L(V )=Wdim(L(V ))=dim(W). Latesi seguedalTeoremadelledimensioni.2. SeL`esuriettiva, L(V ) =Wedim(L(V )) =dim(W) =dim(V ). IlTeorema delle dimensioni d`a allora dim(ker(L)) = 0, cio`e ker(L) = OVe L `einiettiva e quindi biiettiva. Se L non `e suriettiva, L(V ) We dim(L(V )) 0, quindiker(L) = OVeLnon `einiettiva. Denizione. Unapplicazione lineare biiettiva fra spazi vettoriali di dimen-sionenitaL:VW`edettaunisomorsmo. SeWcoincideconV `edettaunautomorsmo.SiaVunospaziovettorialedidimensionenesia B = {v1, . . . , vn}unabasediV . Lapplicazionecheadognielementov V associalecoordinatedivin B:v= x1v1 + . . . + xnvn __x1. . .xn__VittorinoTalamini 57`eunisomorsmodiV con Kn.Teorema. Duespazi vettoriali sonoisomorseesolosehannolastessadimensione.Dimostrazione. SiaL: VWunisomorsmo. AlloraL`einiettivaesuriettiva,quindiker(L) = OV ,dim(ker(L)) = 0,dim(L(V )) = dim(W)eilTeoremadelledimensioni ci dicechedim(V )=dim(W). Viceversa, sianoentrambi V eWdi dimensionen. Alloraesistonoduebasi di nelementi,{vi}di V e {wi}di W. Unisomorsmochesi pu`odenire`eil seguente:L(vi) = wi, i = 1, . . . , n. 4.3 Matricidiunapplicazionelineare.SiaL: VW | L(v)=w, v V , unapplicazionelinearefraspazivettoriali di dimensionenita. Sianodim(V )=nedim(W)=m. Fissateunabase B= {v1, . . . , vn}inV eunabase B

= {w1, . . . , wm}inWsiottengono unidenticazione di Vcon Kne unidenticazione di Wcon Km,daterispettivamenteda:v= x1v1+. . .+xnvn X=__x1. . .xn__, w = y1w1+. . .+ymwm Y=__y1. . .ym__.L, vistacomeapplicazionelinearefra Kne Km, coincideconlamoltiplica-zionedeivettoridi KnperunaopportunamatriceA Kmn:X Y= AX.Teorema. DataunapplicazionelineareL:VWfraspazi vettoriali didimensionenitaeduebasi Be B

di V eWrispettivamente, v V ,siaw=L(v) WesianoX KneY Kmi rappresentativi di vewrelativamente alle basi Be B

rispettivamente, esiste ed `e unica una matriceA = (aij) Kmn,chemoltiplicataperilvettoreXrestituisceilvettoreY :L(v) = w AX= Y v V (oX Kn).Esplicitamente:__a11. . . a1n. . . . . . . . .am1. . . amn____x1. . .xn__=__y1. . .ym__.58 ApplicazionilineariLamatriceAdipendedallasceltadellebasi Be B

esichiamalamatricerappresentativadiLrispettoa Be B

.Dimostrazione. Le immagini L(v1), . . . , L(vn) della base Bsono vettori diWepossonoessereespressinellabase B

. Siano:Y1=__a11. . .am1__, . . . Yn=__a1n. . .amn__,i vettori di Kmrappresentativi di L(v1), . . . , L(vn)nellabase B

di W. Siav=x1v1+ . . . + xnvn V . PoicheL(v)=x1L(v1) + . . . xnL(vn)(perlalinearit`a di L), il vettore Y= x1Y1+. . . xnYndi Km, rappresentativo di L(v)in B

, `eilseguente:Y= x1__a11. . .am1__+. . . +xn__a1n. . .amn__=__a11x1+ . . . + a1nxn. . . + . . . + . . .am1x1+ . . . + amnxn__==__a11. . . a1n. . . . . . . . .am1. . . amn____x1. . .xn__.LamatricerappresentativadiLin Be B

`edunquelamatriceA =__a11. . . a1n. . . . . . . . .am1. . . amn__.

OsserviamocheAhanellesuecolonneivettoriYi, i = 1, . . . , n, Km,cherappresentanoi trasformati degli elementi dellabase Brelativamenteallabase B

.Proposizione. Data unapplicazione lineare L : V Wfra spazi vettorialididimensionenitaeduebasi Be B

diV eWrispettivamente, v V ,siaX Knil rappresentativodi vrelativamenteallabase BeA KmnlamatricerappresentativadiLrelativamenteallebasi Be B

,lecolonnediAgeneranolimmagineL(V ) W, rappresentatanellabase B

, il sistemaAX=Ohapersoluzioneil nucleoker(L) V di L, rappresentatonellabase B.VittorinoTalamini 59Dimostrazione. Ahaper colonnei vettori Yi Kmrappresentativi diL(vi)nellabase B

equesti generanolimmagineL(V )rappresentatanellabase B

. Il nucleodi LhaperimmagineOWche`erappresentatoin B

dalvettorenulloO Km. LequazioneAX=Ohaquindipersoluzioneivet-toriX KnchehannoperimmaginetramiteAilvettorenulloO Km. Proposizione. Data unapplicazione lineare L : V Wfra spazi vettorialididimensionenitaeduebasi Be B

diV eWrispettivamente, v V ,siaX Knilrappresentativodivrelativamenteallabase BeA KmnlamatricerappresentativadiLrelativamenteallebasi Be B

,ilrangordiA`elegatoalledimensionidiL(V )ediker(L)dalleseguentiformule:r = dim(L(V )) e n r = dim(ker(L)).Dimostrazione. r= dim(L(V ))discendeinmodoovviodallaProposizio-neprecedente. PerilTeoremadelledimensionisihaallora: dim(ker(L)) =dim(V ) dim(L(V )) = n r. LamatricerappresentativadellapplicazionenullaO : V W`erappresen-tatadallamatricenullaO Kmn. Lamatricerappresentativadellappli-cazioneidenticaId : V V`erappresentatadallamatriceunit`aI Knn.4.4 Lospaziodelleapplicazionilineari.Sianodatidue K-spazivettorialilineariV eW.Denizione. Siano L1, L2: V Wapplicazioni lineari e K. DeniamonellinsiemeditutteleapplicazionilinearifraV eWleseguentioperazionidisommaedimoltiplicazioneperunnumero:(L1 +L2)(v) = L1(v) + L2(v), (L1)(v) = L1(v).IntalmodolinsiemedelleapplicazionilinearidaV aWacquistalastrut-turaalgebricadi K-spaziovettorialelineare. QuestospaziovettorialevieneindicatoconL(V, W).SesupponiamoV eWdidimensionenitaeconsideriamoinessiduebasi:B = {v1, . . . , vn} e B

= {w1, . . . , wm} rispettivamente, le applicazioni lineari60 ApplicazionilineariL L(V, W)sonorappresentatedamatrici A Kmn. SianoA1eA2lematricicherappresentanoinquestebasileapplicazionilineariL1eL2. EevidentechelapplicazionelinearesommaL1+ L2elapplicazionelineareprodottoperunnumeroL1sonorappresentaterelativamenteallebasi BeB

dalle matrici somma A1+A2 e dalla matrice prodotto per un numero A1.Fra gli spazi vettoriali L(V, W) e Kmnviene cos` instaurata una applicazio-nelinearef:L(V, W) Kmntaleche L L(V, W), f(L)=A, doveA`elamatricecherappresentaLrelativamenteallebasi Be B

. Taleapplica-zionelineare `eevidentementeiniettivaesuriettiva,quindi `eunisomorsmofraglispazivettorialiL(V, W)e Kmn. Unaovviaconseguenza `eallorachedim(L(V, W))=dim(Kmn)=mnecheunabasedi L(V, W)`ecostituitadalleapplicazionilineari Lij=f1(E(ij)), i=1, . . . , m, j=1, . . . , n, doveleE(ij)formanolabasecanonicadi Kmn.`Estataquindidimostratala:Proposizione. SianoV eWdue K-spazi vettoriali lineari di dimensionenita n e m rispettivamente. Lo spazio vettoriale L(V, W) delle applicazionilinearidaV aWhadimensionenm. Se V , W, Usono spazi vettoriali di dimensione nita n, m, p, rispettivamentee B, B

, B

sonodellebasi inV , W, U, rispettivamente, per ogni LA L(V, W), LBL(W, U), esistelapplicazionecompostaL=LB LA L(V, U)taleche v V ,L(v) = LB(LA(v)) U. SeA KmneB KnpsonolematricirappresentativediLAediLBrelativamenteallebasiscelte,X, Y , Z i vettori di Kn, Km, Kprappresentativi di v, w = LB(v), u = LA(w),alloraL `erappresentatadallamatriceprodottoBA,infatti:L(v) = LB(w) = LB(LA(v)) Z= BY= B(AX) = (BA)XUncasoparticolare `equellodiUcoincidenteconV : U VeLBlapplica-zionelineareinversadiunisomorsmoLA. IntalcasosihaancheW Vesiha:v= LB(LA(v)) I= A1Ache prova il fatto che lapplicazione lineare inversa L1Adi LA `e rappresentatadallamatriceinversaA1diA.VittorinoTalamini 61Proposizione. IlrangodelprodottoABdiduematriciAeB`eminoreougualealminorefraidueranghidellematricimoltiplicate. Informula:rango(AB) min(rango(A), rango(B)).Dimostrazione. ImmaginiamocheAeBrappresentinodueapplicazionilineari LA:VWeLB:W U. Il rangodi AuguaglialadimensionedellimmagineLA(V ), il rangodi BuguaglialadimensionedellimmagineLB(W) ed il rango di BA uguaglia la dimensione dellimmagine LB(LA(V )).SiccomeLB(LA(V )) LB(W)siottiene: rango(BA) rango(B). Siccomedim(LB(LA(V ))) dim(LA(V ))si ottiene: rango(BA) rango(A). Met-tendoassiemeleduecondizionitrovatesiottienelatesi. LadimostrazioneappenafattapotrebbeessereprecisatameglionelcasodiLAoLBiniettive. Vediamoneunaconseguenzaimportante.Proposizione. Se A`e una matrice quadrata invertibile, allora: rango(AB) =rango(B), seB`eunamatricequadratainvertibile, allora: rango(AB) =rango(A).Dimostrazione. Se A`e invertibile, per la Proposizione precedente, rango(AB)rango(B) =rango(A1AB) rango(AB). Dunque: rango(AB) =rango(B). SeB`einvertibile,perlaProposizioneprecedente,rango(AB) rango(A) = rango(ABB1) rango(AB). Dunque: rango(AB) = rango(A).

4.5 Cambiamentidibase.Sianodati duespazi vettoriali lineari di dimensionenita: V eW, di basiB= {v1, . . . , vn}e B

= {w1, . . . , wm}rispettivamente. Relativamenteallebasi Be B

unapplicazionelineareL : V WvienerappresentatadaunamatriceABB . Cambiandolebasi, adesempiousando B1e B

1cisiaspettacheLvengarappresentatadaunamatricedierente: AB1B

1. Inquestopa-ragrafotroviamoillegamefralematricirappresentativeABB eAB1B

1.Se B= {v1, . . . , vn}e B1= {w1, . . . , wn}sonoduebasi distintedi V , ogniv V `erappresentatorelativamentealleduebasi dan-plegeneralmentediverse, infatti: v= x1v1+. . . +xnvn= y1w1+. . . +ynwne X= (x1, . . . , xn)eY =(y1, . . . , yn) rappresentanoinKnil vettorev V rispettivamenterelativamentea Bea B1.62 ApplicazionilineariDenizione. LamatricequadrataMBB1 Knncheapplicataal vettoreX, rappresentativo di v in B d`a il vettore Y , rappresentativo di v in B1 vienedettamatricedelcambiamentodibase. Dunque:Y= MBB1X.Teorema. La matrice del cambiamento di base, da una base B a una base B1`eunamatriceinvertibilechehapercolonneivettoridellabasedipartenzaBscrittinellabasediarrivo B1.Dimostrazione. La matrice del cambiamento di base pu`o essere vista comelamatricerappresentativadi unendomorsmodi V , incui il trasformatoL(v)diunvettorev V restainvariato,cio`ecomelamatricerappresenta-tiva dellapplicazione identit` a Id. Quindi MBB1`e la matrice rappresentativadellapplicazioneidentit` aId: VV relativamentealleduebasi Be B1.Come in ogni applicazione lineare, la sua matrice rappresentativa ha per co-lonne i vettori di Knche rappresentano nella base di arrivo B1i vettori dellabasedi partenza B. Nel casodel cambiamentodi baseleduebasi hannoentrambe n vettori linearmente indipendenti e quindi il rango di MBB1`e n equindiMBB1`einvertibile. Dunque, una qualunque matrice del cambiamento di base ha rango n, perchelimmaginediunabase Bdinelementi `eancoraunabase B

dinelementi(linearmente indipendenti). Viceversa, una qualunque matrice non singolareMpu`oessereinterpretatacomelamatricedi uncambiamentodi base: lecolonnediMrappresentanoivettoridellabase Bscrittinellabase B1.Proposizione. DataunamatricenonsingolareMcherappresentailcam-biamentodi basedallabase Ballabase B

, lamatricedel cambiamentodibaseinverso, cio`edallabase B

allabase B`erappresentatodallamatriceM1,inversadiM.Dimostrazione. SiaMlamatrice del cambiamentodi base dallabaseBallabase B

, eNlamatricedel cambiamentodi baseinverso. SiccomeLN LM= IdV , e anche LN LM= LNM, deve essere LNM= IdV . Siccomela matrice rappresentativa dellapplicazione IdVda Ba B `e la matrice unit`aI,deveessere: NM= I,quindiN= M1. VittorinoTalamini 63SiaL:VWunapplicazionelinearefraV eWesiano Be B

duebasidi V edi W. L`erappresentatarispettoallebasi Be B

daunamatriceABB Kmn, doven=dim(V )em=dim(W). PerottenerelamatricerappresentativadiLrispettoadaltreduebasi B1e B

1diV eW,convieneconsiderareilseguentediagrammacommutativo:ABB

V, B W, B

MB1B MB

B

1V, B1 W, B

1AB1B

1Daldiagrammasipu`ovederechelamatriceAB1B

1cherappresentaLfralebasi B1e B

1, passandoquindi dal latobassodel diagramma, si pu`oancheottenerepassandodagli altri trelati, precisamente, applicandoMB1B, cherappresentail cambiamentodi baseda B1a B, poi applicandoABB , cherappresentaLfralebasi Be B

, poi applicandoMB

B

1, cherappresentailcambiamentodibaseda B

a B

1. Informula:AB1B

1= MB

B

1ABB MB1Bchesipu`oanchescrivereneiseguentimodi:AB1B

1= M1B

1B

ABB MB1B= MB

B

1ABB M1BB1utili quando `e pi` u agevole calcolare MB

1B piuttosto che MB

B

1o MBB1piut-tostocheMB1B.Si osservi lordineconcui agisconolevariematrici elordineconcui sonoscritte nel diagramma commutativo. Le matrici che si incontrano per primepercorrendoildiagrammasonoquellecheagisconoperprimeequindisonoscritteperultimenellaformuladelprodotto.Proposizione. Tuttelematrici rappresentativedi unadataapplicazionelineareL : V Whannolostessorango.Dimostrazione. L(V )haunabenprecisadimensioned, quelladellospa-ziogeneratodai vettori L(vi), immagini di unabasedi V . Unamatrice64 ApplicazionilineariABB rappresentativadi Lrispettoaunaqualunquecoppiadi basi Bdi Ve B

di W, hapercolonnei generatori di L(V )relativamenteallabase B

.d=dim(L(V )) coincideconil rangodi ABB equindi nondipendedallasceltadelleduebasi.Unadimostrazionealternativasi haapplicandolultimaProposizionedelParagrafo4.4, infatti lamatricedi uncambiamentodi base`eunamatriceinvertibile, per cui AB1B

1= MB

B

1ABB MB1Be ABB hanno lo stesso rango. 4.6 Formelineariespazioduale.Supponiamoinquestoparagrafocheil codominioWdi unapplicazioneli-neare L : V Wcoincida con il campo numerico K, che va qui consideratocomeunospaziovettorialedidimensione1.Denizione. UnapplicazionelineareL : V K `edettaformalineare.Denizione. LospaziovettorialeL(V, K)delleformelinearisuV `edettospaziodualediV evieneindicatoconV.Proposizione. V eVsonoisomor.Dimostrazione. Per quanto vistonelParagrafo 4.4,ladimensionediV`eilprodottofran = dim(V )e1 = dim(K). DunqueV eVhannoentrambidimensionen. Quindisonoisomor. Un isomorsmo si costruisce in modo banale dando una legge biunivoca cheassociaadognielementodellabasediV unelementodellabasediV.Denizione. Labase {f1, . . . , fn}di V`edettabasedualedellabase{v1, . . . , vn}diV ,se: fi(vj) = ij.LisomorsmofraV eVindottodallabaseduale `eilseguente:v= x1v1 + . . . + xnvn V fv= x1f1 + . . . +xnfn V,VittorinoTalamini 65entrambi v efvsonoquindi rappresentati inKndallostessan-plaX=(x1, . . . , xn).66 ApplicazionilineariCapitolo5Autovalorieautospazi5.1 Endomorsmi.SiaV un K-spaziovettorialedi dimensionenesiaL: VV unendo-morsmo. Sia B= {v1, . . . , vn}unabasessatainV . LospazioV risultaidenticato a Kndallisomorsmo che associa ad ogni vettore v Vla n-plaX Kndellesuecoordinaterelativamenteallabase B. Analogamente, lospazioL(V, V )degliendomorsmidiVrisultaidenticatoallospazio Knndelle matrici quadrate di ordine n dallisomorsmo che associa ad ogni endo-morsmo L : V Vla matrice AL Knnche lo rappresenta relativamenteallabase B. LapplicazioneL, vistacomeapplicazioneda Kna Kn,`edatadalla moltiplicazione per una matrice quadrata AL Knnin modo tale che:L : V V AL: KnKnw = L(v) Y= ALX,doveXeY sonolen-plerappresentativedi vewrelativamenteallabaseB.CambiandobaseinVcambiaanchelarappresentazionematricialediL. SeA

L `e la rappresentazione matriciale di L rispetto alla base B

, le due matricirappresentativeALeA

Lsoddisfanolaformulaperil cambiamentodi basecheinquestocasodiventa:A

L= C1B

BALCB

B,doveCB

B`elamatricedel cambiamentodi basedallabase B

allabase B,cio`e la matrice che ha per colonne i vettori della base B

scritti nella base B.68 AutovalorieautospaziDenizione. DuematriciquadrateA,A

sidiconoconiugateosimiliseesisteunmatriceinvertibileCtalecheA

= C1AC.Dunque, duematrici rappresentativedi unostessoendomorsmosonoco-niugate. E ancheverochedataunaqualunque matrice invertibile C, `epossibilepensareCcomeunamatricedi uncambiamentodi baseinV elaformulaA

= C1ACmetteinrelazionelematricirappresentativediunendomorsmorelativamentealleduebasi.Proposizione. Larelazionediconiugazione `eunarelazionediequivalenzanellinsiemedellematriciquadrate.Dimostrazione. Bastafarvederechevalgonolepropriet`ariessiva, sim-metrica e transitiva. Ogni matrice quadrata A `e coniugata a se stessa, infattiA = I1AI,conIlamatriceunit`a. SeA

= C1AC,alloraA = CA

C1=C11A

C1, con C1= C1, quindi A `e coniugata ad A

se A

`e coniugata ad A.SeA

=C1ACeA

=C11A

C1, alloraA

=C11C1ACC1=C12AC2,con C2= CC1, quindi, se A

`e coniugata ad A

ed A

`e coniugata ad A alloraancheA

`econiugataadA. Linsiemedellematriciquadratesiripartisconoquindiinclassidiconiuga-zionedistinteeogni classecontienetuttelematrici rappresentativedi undatoendomorsmonellevariebasipossibili.SeAeA

sonoconiugate,valgonolerelazioni:det(A) = det(A

), tr(A) = tr(A

), rango(A) = rango(A

),facilmente ricavabili dalle propriet`adel determinante, dellatracciae delrango, che formalizzano quindi propriet`a associate allintera classe di coniu-gazione,cio`eallendomorsmocherappresentano. Altrepropriet`aassociateadundatoendomorsmosarannovistefrapoco.VittorinoTalamini 695.2 Sottospaziinvarianti.Denizione. Sia dato un endomorsmo f: V V . Un sottospazio U V`edettoinvarianteperlendomorsmofsef(u) U,u U. SeancheilcomplementareUc`einvarianteperf,allorafsidiceriducibile.Se f `e riducibile`e possibile trovare unabase di V incui lamatrice A,rappresentativa di fin quella base, `e diagonale a blocchi, in cui cio`e A `e deltipo:A =_A1OO A2_,conA1quadratadi ordinedim(U) eA2quadratadi ordinedim(Uc). InquestabaseivettoridiUhannonulleleultimedim(Uc)componenti,quellidiUchannonulleleprimedim(U)componenti.Denizione. Quandounamatrice`ediagonaleablocchi, comelamatriceAscrittasopra,sidicecheA `esommadirettadelleduematriciA1eA2.5.3 Autovalori,autovettorieautospazi.Denizione. Seesisteunabasedi V rispettoallaqualelamatricerap-presentativadiunendomorsmo `ediagonale,alloralendomorsmo `edettodiagonalizzabile.Unacaratterizzazionedegli endomorsmi diagonalizzabili `edatadallase-guenteProposizione:Proposizione. SiaL : V V unendomorsmodiun K-spaziovettorialeVdi dimensione n in se. La matrice AL, rappresentativa di L rispetto ad unabase B= {v1, . . . , vn}diV , `ediagonaleseesoloseesistono1, . . . , n KtalicheL(v1) = 1v1, . . . , L(v1) = nvn.Dimostrazione. Fissatalabase B= {v1, . . . , vn}di V , lecoordinatedeivettori di base {v1, . . . , vn} sono rappresentati in Kn, relativamente alla base70 AutovalorieautospaziB,dallabasecanonica:v1 e1=____10. . .0____, v2 e2=____01. . .0____, . . . , vn en=____00. . .1____,Come ogni applicazione lineare, la matrice AL, che rappresenta lendomor-smo L nella base B, ha per colonne le coordinate di {L(v1), . . . , L(vn)} nellabase B:AL=__a11. . . a1n. . . . . . . . .an1. . . ann__, dove L(vi) __a1i. . .ani__= ALeiSeL(vi)=ivi, i, allora, in Kn: ALei=iei, cheimplicaALdiagonaleconaii= i.Viceversa,sein BAL`eunamatricediagonale:AL=____10 . . . 00 2. . . 00 0 . . . 00 0 . . . n____,sihain Kn:ALe1= 1e1, . . . , ALen= nen,cherappresentanoin Kn,relativamenteallabase B= {v1, . . . , vn},leequa-zioni: L(vi) = ivi, i = 1, . . . , n. Denizione. Sia K. Si dice che `e un autovalore (in K) di L se esisteunvettorenonnullov V talecheL(v) = v.Intalcasov`edettounautovettorediLrelativoallautovalore.Utilizzando le denizioni di autovalore e di autovettore, la Proposizioneprecedentepu`oessereriformulatacomesegue:Proposizione. LendomorsmoL `ediagonalizzabileseesoloseesisteunabase di Vformata da autovettori di L. In una qualunque base di autovetto-ri,lamatricerappresentativadiL `eunamatricediagonalechehasullasuaVittorinoTalamini 71diagonaleprincipalegliautovaloridiL. Proposizione. Linsieme V Vdegli autovettori di L relativi ad un datoautovalore `eunsottospaziovettorialediV,invarianteperL.Dimostrazione. Sianov1, v2 V. Facciamovederecheperognia, b K,il vettore av1 +bv2appartiene ancora a V. Infatti, L(av1 +bv2) = aL(v1) +bL(v2) = av1+bv2= (av1+bv2). Quindi, v V, si ha L(v) = v V.QuindiV`eunsottospaziovettorialediV invarianteperL. Denizione. IlsottospazioVdiV formatodagliautovettoridiLrelativiallautovalore,V= {v V | L(v) = v}sichiamaautospaziodiLrelativoallautovalore.SiaL : V V unapplicazionelineare. LautospazioV0dellautovalore =0`eesattamenteilnucleodiL: V0= {v V | L(v) = 0v= OV} = ker(L).In particolare, L `e iniettiva (e quindi `e un automorsmo) se e solo se non ha = 0comeautovalore.5.4 Endomorsmidiagonalizzabili.Nontutti gli endomorsmi di unospaziovettorialesonodiagonalizzabili.La diagonalizzabilit`a dipende fortemente dal campo numerico K. Spesso unendomorsmoL : V V non `ediagonalizzabileseV`ereale,malo `eseV`ecomplesso. Nelseguitoper Kintenderemo Ro C.Volendodeterminare esplicitamente gli autovalori e gli autovettori di unendomorsmoL : V V ,procediamocomesegue.1. Fissiamounabase B= {v1, . . . , vn}inV , esiaAL=(aij), i, j =1, . . . , n,lacorrispondentematricerappresentativadiL. Determinia-motutti i K, peri quali esistonosoluzioni nonnulleX Kn,dellequazionevettorialeALX= X.RiscriviamotaleequazionecomeALX X=O, cio`ecome(AL I)X= O.Condizione necessaria e suciente anche il sistema lineare omogeneo72 Autovalorieautospazi(AL I)X=Oabbiasoluzioni nonnulle`echelamatricedei coef-cienti (AL I)siasingolare, ossiachedet(AL I)=0. Questodeterminate `eunpolinomiodigradonin,acoecientiin K,dettoilpolinomiocaratteristicodiAL:P(AL) = det(ALI) = (1)nn+ tr(AL)n1+ . . . + det(AL).(Il terminenotosi ottieneper=0equindi `edet(AL), il terminedi gradon 1si ottienesommandoi termini ottenuti moltiplicandoi provenienti dan 1elementi diagonali edil terminenotodellelementodiagonalerimanente.) LeradicidelpolinomiocaratteristicoP(AL) sono gli autovalori di L. Trattandosi di un endomorsmo di unK-spaziovettoriale, siamointeressati agli autovalori in Kdi L, ossiaalle radici in K di P(AL).`E in questo punto che interviene fortementeil campo numerico K, infatti, lequazione caratteristica P(AL) = 0pu`oammetteresoluzioniin Cenonin R. Torneremodoposuquestopunto.2. Perogniautovalorei,cio`eperogniradiceidellequazionecaratte-risticaP(AL) = 0,lautospaziocorrispondente `edatodaVi= {X Kn| (AL iI)X= O},cio`eVi= ker(AL iI). Percostruzione,la matrice (ALiI) ha rango minore di n (infatti det(ALiI) = 0)eilsistemacorrispondenteammettesoluzioninonnulle. Quindi,1 dim(Vi) = n rango(ALiI).Proposizione. SeA1eA2sonoconiugate, cio`erappresentanolostessoendomorsmo Lindue basi dierenti, allora hanno lo stesso polinomiocaratteristicoeglistessiautovalori.Dimostrazione. Se C `e la matrice invertibile che rappresenta il cambiamen-to di base, deve valere la formula: A1= C1A2C. Allora, P(A1) = det(A1I) = det(C1A2C C1C) = det(C1(A2I)C) = det(C1) det(A2I) det(C)=1det(C) det(A2 I) det(C)=det(A2 I)=P(A2). Quindii polinomi caratteristici di A1eA2coincidono: P(A1)=P(A2), elelororadici,chesonogliautovaloridiL,coincidono. Peril calcolodegli autovalori quindi nonhaimportanzalabasesceltaperil calcolo. La rappresentazione degli autovettori come vettori di Kndipendeinvecedallabasescelta.VittorinoTalamini 73Per la Proposizione precedente, `e lecito parlare di autovalori di una matriceAL,intendendo con ci`o gli autovalori dellendomorsmoL rappresentato daALin qualche base Bdi V . Analogamente, `e lecito parlare di autovettori diAL, intendendoconci`ogli autovettori di Lrappresentati nellastessabaseBincuiL `erappresentatodaAL. Sarebbeanchepi` uopportunoindicareilpolinomiocaratteristicoconilsimboloP(L)anzicheP(AL).Proposizione. Sianov1, . . . , vk, autovettori relativi adautovalori distinti1, . . . , k K. Allorav1, . . . , vk,sonolinearmenteindipendenti.Dimostrazione. Facciamounadimostrazioneper induzione. Sek =1c`eunsoloautovettorenonnullorelativoadunsoloautovaloreequesto`elinearmenteindipendente. Supponiamochek 1autovettori v1, . . . , vk1relativi adautovalori distinti 1, . . . , k1sianolinearmenteindipendenti eproviamocheanchekautovettorirelativiadautovaloridistintisonolinear-menteindipendenti. Supponiamoperassurdochegliautovettoriv1, . . . , vk,relativi ad autovalori distinti 1, . . . , k siano linearmente dipendenti. Allora 1, . . . , k K,nontuttinulli,taliche1v1 + 2v2 +. . . +kvk= O(*).Moltiplicandola(*)per1siottiene: 11v1 +12v2 +. . . +1kvk= O.Facendo invece agire su (*) lapplicazione L si ha: O = L(1v1+2v2+. . . +kvk) = 1L(v1) +2L(v2) +. . . +kL(vk) = 11v1+22v2+. . . +kkvk.Sottraendoledueequazioniottenutesiricava: (1 2)2v2 + . . . + (1k)kvk=O. Maquestaespressione`eunacombinazionelinearenulladik 1autovettorirelativiadautovaloridistinti,chesappiamoesserelinear-menteindipendenti perlipotesi induttiva, quindi tutti i coecienti dei visononulli. Ledierenze(i k)sonotuttediversedazeroperipotesi,quindi i=0, i =2, . . . , k. La(*)diventaallora1v1=O, esiccomev1 =O, deveessereanche1=0. Abbiamotrovatounassurdo, quindiv1, . . . , vksonolinearmenteindipendenti. Teorema. Sia Vun K-spazio vettoriale di dimensione n e sia L : V Vunendomorsmo di V . Se L ha n autovalori distinti, allora L `e diagonalizzabile.Dimostrazione. Inquestocaso, perlaProposizioneprecedente, esistononautovettori linearmenteindipendenti, equesti formanounabaseper lospazion-dimensionaleV . Sappiamogi`acheinunabasediautovettori L`erappresentatodaunamatricediagonale. Lacondizionedi averenautovalori distinti `esuciente, manonnecessa-riaperladiagonalizzabilit`adi L. Consideriamoperesempiolapplicazione74 Autovalorieautospaziidentit`aL(v)=v, perogni v V : Lhaununicoautovalore, =1, ed`echiaramentediagonalizzabile: inognibasediV ,lamatricerappresentativadiL `elamatriceunit`a.Denizione. LadimensionedellautospazioVisi chiamamolteplicit`ageometricadellautovalore i. Lamolteplicit`am(i) di icome radicedellequazione caratteristica P(AL) = 0 si chiama molteplicit`aalgebricadellautovalorei.Proposizione. Vale laseguente relazione fralamolteplicit`ageometricadim(V)elamolteplicit`aalgebricam()diunautovalore:1 dim(V) m()Dimostrazione. Supponiamodim(Vi) =k. Siano {v1, . . . , vk}vettorilinearmenteindipendentiinViesia B= {v1, . . . , vk, wk+1, . . . , wn}unlorocompletamentoadunabasediV . LamatricerappresentativadiLrispettoallabase B`eunamatricedellaformaAL=_iIkO _,dove Ik`e la matrice identit`a k k, O `e la matrice nulla di tipo (nk) kegli altri blocchi sono arbitrari, eccetto che per le loro dimensioni, che devonoesseretali darendereALquadratadi ordinen. Il polinomiocaratteristicodi AL`edellaformaP(AL)=(i )kq(), conq()polinomiodi gradon kin. Dunque,lamolteplicit`aalgebricadellautovalorei`ealmenok,eci`oimplica: dim(Vi) m(i). Teorema. Sia V unK-spazio vettoriale lineare di dimensione n. UnendomorsmoL : V V`ediagonalizzabileseesolose:1. Lequazionecaratteristicahansoluzioni inK(nonnecessariamentedistinte), cio`e esistono n autovalori in K(non necessariamente distinti).(Ogni autovalore distinto viene quindi contato un numero di volte pariallasuamolteplicit`aalgebrica);2. Per ogni autovalore di L, la dimensione dellautospazio V `e massima,ugualeallamolteplicit`aalgebricam()di,cio`e: dim(V) = m().VittorinoTalamini 75Dimostrazione. Seperogni i, m(i)=dim(Vi), esistonom(i)auto-vettori linearmenteindipendenti cheformanounabaseper Vi. Siccomen =

im(i), in quanto unequazione polinomiale di grado n non ha pi` u dinsoluzioni,`epossibiledeterminareunabase BdiV ,formata,adesempio,dallunionedellebasideisingoliautospaziVi(sappiamoinfattichevettoridi autospazi distinti sono linearmente indipendenti). La base Bdi V`e quin-diformatadaautovettoridiLedinessaL `erappresentatodaunamatricediagonale. `E quindi importante capire quando lequazione caratteristica P(AL) = 0 han soluzioni in K e quando per ogni soluzione la dimensione dellautospazioV`emassima,ugualeallamolteplicit`aalgebricam()di.Nelcampocomplesso,perilTeoremafondamentaledellalgebra,ogniequa-zionepolinomialedi gradon, quale`elequazionecaratteristica, haesatta-mentenradici complesse, nonnecessariamentetuttedistinte. Nel camporealeleradici dellequazionecaratteristicaP(AL) =0possonoessereinnumeroinferioreadn, anzi, possonononesistereaattosoluzioni reali diP(AL) = 0,ancheseicoecientidiP(AL)sonotuttireali.Se i coecienti di P(AL) sono reali, e ci`o succede sicuramente se AL `e reale,leradicinonrealisonosempreinnumeropari. Infatti,se `eunasoluzionediP(AL) = 0,anchelo `e,ci`olosivedeprendendoilcomplessoconiuga-todellequazionecaratteristica. Dunque, lesoluzioni complessecompaionosempreacoppie: , . Inparticolare, sen`edispari, il polinomioP(AL)haalmenounaradicereale, equindi unautovettore. Questo`eadesempioilcasodellospaziogeometricotridimensionale.Sia ALreale, un autovalore di ALe X = O un corrispondente autovettore.Dunque: ALX= X. Prendendoilcomplessoconiugatodellequazioneagliautovalori ALX= Xsi ottiene: ALX= X, in cui AL `e rimasta inalterataperche `e una matrice reale. Ci`o prova che X`e un autovettore di ALrelativoallautovalore. Quindi, nonsologli autovalori complessi di unamatricerealecapitanoacoppie,,anchegliautovettoricomplessidiunamatricereale capitano a coppie X,X, e autovettori complessi coniugati sono relativiadautovaloricomplessiconiugati.IlTeoremachesegue `edifondamentaleimportanza.Teorema. (Teoremaspettrale.) SiaAunamatricerealesimmetricadiordinen.76 Autovalorieautospazi1. Lequazione caratteristica P(A) = 0 ha n radici reali (non necessaria-mentedistinte), quindi Ahanautovalori reali (nonnecessariamentedistinti).2. Perogni autovalore, ladimensionedellautospazioV`eugualeallamolteplicit`aalgebricadi: dim(V) = m().3. Esisteunabasedi RnformatadaautovettoridiA,cio`eA`ediagona-lizzabile.Dimostrazione. 1. Dati duevettori arbitrari X, Y Rn, eseguendoilseguente calcolo: f(X, Y ) = XTAYsi ottiene un numero reale, infatti AY`eun vettore di Rne quindi XTAY`e una matrice di tipo 11, cio`e un numero.(Nella terminologia del prossimo capitolo f(X, Y ) si chiamer` a una forma bi-linearesimmetrica,ounprodottoscalare). DallasimmetriadiAseguechef(X, Y )=f(Y, X), infatti: f(Y, X)=f(Y, X)T, perch`eogninumerocoin-cideconilpropriotrasposto,equindi: f(Y, X) = f(Y, X)T= (YTAX)T=XTAT(YT)T=XTAY =f(X, Y ). SeX, YCn, anziche Rn, ripetendoil ragionamento, si trovaancoraf(X, Y )=f(Y, X), perchef(X, Y )`eunnumero(ingeneralecomplesso). Premessoci`o, siaunautovaloredi AeX =Ouncorrispondenteautovettore. Dunque: AX=X. Se`ecom-plesso, allora `e pure un autovalore, relativo allautovettore X: AX= X.Allora,essendo:f(X, X) = XTAX= XTX= XTXf(X, X) = XTAX= XTX= XTXesiccomef(X, X) = f(X, X),siottiene:XTX XTX= 0Se X =(z1, z2, . . . , zn), con zi=ai+ibi, ai, biR, sono le compo-nenti di X, che supponiamoingenerale unan-placomplessa, si ottiene:X=(z1, z2, . . . , zn), eXTX=XTX=z1z1+ z2z2+ . . . + znzn=(a21+b21)+(a22+b22)+. . .+(a2n+b2n)0, dunque, XTX`e reale e pu`oan-nullarsi seesoloseX`eil vettorenullo. Peripotesi X`eunautovettoredi A, quindi X=Oe XTX>0. Lequazione trovatadiventaquindi:0=XTX XTX=( )XTXedimplica( )=0, cheprovalarealt`adi . Dunque, tutti gli autovalori di Asonoreali edil punto1. `edimostrato.2. Lequazione caratteristica ha nradici, contando ognuna conla pro-priamolteplicit`aetuttequesteradici sonoreali peril punto1. Dunque,VittorinoTalamini 77

ki=1m(i)=n, dovem(i)`elamolteplicit`aalgebricadellautovalorei.Sefosse

ki=1 dimVi=n, ilTeoremaprecedenteassicurerebbeladiagona-lizzabilit`a di A. Questo si verica sempre nelle ipotesi di A reale simmetricama la dimostrazione risulta molto pi` u semplice e di utilit`a pratica dopo averintrodotto in Rnil prodotto scalare e una base ortonormale. Lasciamo quin-diinsospesoperilmomentoladimostrazionediquestopuntoconlintentodiritornarcipi` uavanti(nelparagrafo6.8).3. InbasealTeoremaprecedente, sevale1. e2., lapplicazioneL, rappre-sentatadallamatriceA, `ediagonalizzabile. Comedescrittonel paragrafoprecedente, la base in cui L `e rappresentata da una matrice diagonale `e for-matadagliautovettoridiL. `EfacilevericarecheseA`erealesimmetricaci si pu`olimitareaconsi-derare autovettori reali. Sia dato adesempio unautovettore complessoX=XR+ iXI, doveXR=Re(X)eXI=Im(X), relativoallautovalo-re(reale)diA. Sihaquindi: AX= XeAX= X= X. Sommandoe sottraendole due equazioni si ottiene: A(X+X) =(X+X), cio`e:2AXR=2XReA(X X)=(X X), cio`e: 2iAXI=2iXI. Lepar-ti reali eimmaginariedegli autovettori complessi relativi allautovalore,senonnulle, sonoautovettori reali di Arelativi allautovalore. Tutti gliautovettori di A, reali ocomplessi, sonoquindi combinazioni lineari, concoecientirealiocomplessi,diautovettorirealidiA.IlTeoremaseguente `edisemplicedimostrazioneeutileinmolticontesti.Teorema. SiaAunamatrice quadratadi ordine n, reale ocomplessa,esiano1, . . . , n, i suoi nautovalori nel campocomplesso(chepossonoeventualmenteessereconparteimmaginarianulla). IldeterminantediA`euguale al prodotto dei suoi n autovalori e la traccia di A `e uguale alla sommadeisuoinautovalori:det(A) =n

i=1i, tr(A) =n

i=1i.Dimostrazione. ConsideriamodapprimaunamatriceA Cnn. Lequa-zionecaratteristicaP(A) = 0hanradicicomplesseeilpolinomiocaratte-risticopu`oessereriscrittonellaformafattorizzata: P(A)=

ni=1( i),infatti unequazionealgebricadi gradonhasemprenradici complesse, secontiamo ognuna con la sua molteplicit`a (nellequazione scritta sopra, alcunifattori( i)possonocio`ecomparirepi` uvolte). Svolgendoilprodottosi78 Autovalorieautospazicapisce che il termine noto di P(A) si ottiene moltiplicando fra loro gli auto-valori: P(A) |=0=

ni=1i, e si capisce che il coeciente di n1in P(A) siottiene sommando fra loro gli autovalori: P(A) = n+(

ni=1i) n1+. . ..Daltraparteil terminenotodi P(A)si `evistoessereugualeal determi-nantediA: P(A) |=0=det(A),edcoecientedin1inP(A)si`evistoessereugualeallatracciadi A: P(A)=n+ tr(A)n1+ . . .. Dunque:det(A) =

ni=1ietr(A) =

ni=1i. SeA `ereale,ilpolinomiocaratteristi-co P(A) non si fattorizza necessariamente in n fattori reali di primo grado,perch`egliautovalorinonsonotuttireali,comunque,siccomegliautovaloricomplessi capitano sempre a coppie: ie i,il prodottoii= |i|2`e reale,e la somma i+i= 2Re(i) `e reale. Si ha quindi ancora: det(A) =

ni=1ie tr(A) =

ni=1i, perch`e ci`o `e vero lavorando nel campo complesso (i i checompaiono in queste formule possono quindi essere anche complessi), ma siadet(A), sia tr(A), sia il prodotto e la somma degli autovalori, sono in questocasonumerireali. Capitolo6Formebilineariequadratiche6.1 Formebilineari.Intuttoquestocapitoloper V si intender` aunospaziovettorialerealedidimensionenitan.Denizione. Unaformabilineare(reale)suV `eunaapplicazione:V V R,talecheperognix, x

, y, y

V eperogni Rsiabbia:1. (x + x

, y) = (x, y) + (x

, y);2. (x, y +y

) = (x, y) + (x, y

);3. (x, y) = (x, y) = (x, y).Il nome bilineare sta ad indicare che `e lineare sia nel primo che nel secondoargomento.Si potrebberodenire, senzasostanziali dierenze, leformebilineari suunK-spaziovettorialequalunqueV avaloriin K,emoltideglialtriargomentidescritti inquestocapitolosolopergli spazi reali. Gi`anel casodi V com-plessosonocomunquepi` uutili eimportanti leformehermitianepiuttostocheleformebilineari equesto`eunargomentovastochehosceltodi nontrattare,eccezionfattaperqualchebreveaccennonelParagrafo6.15.Fissataunabase B= {v1, . . . , vn}inV ,perognicoppiadivettorix, y Vvalgonoledecomposizioni: x=x1v1 + . . . + xnvn, y=y1v1 + . . . + ynvn, eperlepropriet`adibilinearit`adi,siha:(x, y) = (x1v1 + . . . + xnvn, y1v1 + . . . + ynvn) =80 Formebilineariequadratiche= x1y1(v1, v1) +. . . +x1yn(v1, vn) +x2y1(v2, v1) +. . . +xnyn(vn, vn) ==n

i,j=1xiyj(vi, vj). `equindicompletamentedeterminatadaivalori(vi, vj)cheassumesuglielementidiunabase BdiV .Denizione. Sia B = {v1, . . . , vn} una base di Ve una forma bilineare suV . Postoaij= (vi, vj) R,i, j= 1, . . . , n,lamatricereale: A = (aij)`edettalamatriceassociataallaformabilinearerelativamenteallabase BdiV .La conoscenza della matrice A, associata alla forma bilineare relativamenteadunabase Bdi V , permettequindi di calcolare(x, y), qualunquesianoivettorixeyinV . SeXT=(x1, . . . , xn), YT=(y1, . . . , yn)sonolen-plerappresentative in Rndei vettori x e ydi Vrispetto alla base Bdi V ,si ha:(x, y) = XTAY,infatti:XTAY= (x1, . . . , xn)____a11a12. . . a1na21a22. . . a2n. . . . . . . . . . . .an1an2. . . ann________y1y2. . .yn____== (x1, . . . , xn)____a11y1 + a12y2 + . . . + a1nyna21y1 + a22y2 + . . . + a2nyn. . .an1y1 + an2y2 + . . . + annyn____==n

i,j=1xiaijyj= (x, y).Denizione. Una forma bilineare si dice simmetrica se: (x, y) = (y, x),x, y V ,antisimmetricase: (x, y) = (y, x), x, y V .Proposizione. Lamatrice associataadunaformabilineare simmetrica(antisimmetrica) `eunamatricerealesimmetrica(antisimmetrica).VittorinoTalamini 81Dimostrazione. Se`eunaformabilinearesimmetrica, aij=(vi, vj)=(vj, vi)=aji, i, j=1, . . . , n. Se`eunaformabilineareantisimmetrica,aij= (vi, vj) = (vj, vi) = aji, i, j= 1, . . . , n. Se `eunaformabilinearesimmetricasiha:XTAY= (x, y) = (y, x) = YTAXSe `eunaformabilineareantisimmetricasiha:XTAY= (x, y) = (y, x) = YTAXQueste relazioni sono consistenti col fatto che per ogni numero a si ha a = aT,eXTAY`eunnumero.Teorema. SianoV unospaziovettorialereale, B, B

duebasidiV eA,A

lematriciassociatearispettoa Bea B

rispettivamente. SeCindicalamatricedelcambiamentodibaseda B

a B,risulta:A

= CTAC.Dimostrazione. DetteX= CX

,Y= CY

leequazionidelcambiamentodi base, si ha: (x, y) = XTAY= (CX

)TA(CY

) = XT(CTAC)Y

. Daltrapartesipu`oscrivere(x, y) = XTA

Y

e,dalconfrontodelledueespressio-ni, si ottiene XT(CTAC)Y

XTA

Y

oppure XT(CTAC A

)Y

= 0, perogniX

, Y

Rn,dacuiA

= CTAC. Si faccia particolarmente attenzione al fatto che nel Teorema precedente C`elamatricedelcambiamentodibaseda B

a B,percuiillegamefralen-plerappresentativein RndeivettoridiV`eX= CX

,enonilcontrario.Se A`e simmetrica, la matrice A

`e ancora simmetrica, infatti AT= (CTAC)T=CTAT(CT)T=CTAC=A

. Ci`o`econsistentecol fattocheentrambeAeA

rappresentano la stessa forma bilineare simmetrica. Inoltre, rango(A) =rango(A

),percheC`enonsingolare.Denizione. Dataunaformabilinearesimmetrica,duevettorix, y Vsidiconoortogonalirispettoase(x, y) = 0.82 FormebilineariequadraticheProposizione. Ilvettorenullo`eortogonaleaognivettore,rispettoaogniformabilinearesimmetrica.Dimostrazione. (v, O) = (v, w w) = (v, w) (v, w) = 0, v, w V . Proposizione. Sianou1, . . . , uk, vettori di unospaziovettorialeV su ResiaunaformabilinearesimmetricasuV . Sex V`eortogonalerispettoaatutti i vettori u1, . . . , uk, allorax`e ortogonale adogni vettore di< u1, . . . , uk>eviceversa.Dimostrazione. Infatti, se(x, ui) =0, i =1, . . . , k, allora, per ognivettorey , y =1u1+ . . . + kuk, coni R, esi ha:(x, y) = 1(x, u1) +. . . +k(x, uk) = 0. Viceversa, se (x, y) = 0 y , (x, 1u1 + . . . + kuk)=1(x, u1) + . . . + k(x, uk)=0,perognii R, i=1, . . . , k. Maquestosuccedeseesolose(x, ui)=0,perogni i=1, . . . , k, pervederlobastaprenderei=1, j=0, j =i,i, j= 1, . . . , k. Proposizione. Sia Uun sottoinsieme non vuoto di vettori diV . LinsiemeU

dei vettori di V ortogonali adogni vettoredi U, rispettoadunaformabilinearesimmetrica, cio`eU

= {x V | (x, y)=0, y U}, `eunsottospaziovettorialediV .Dimostrazione. v1, v2 U

e 1, 2 R, si ha(1v1+ 2v2, y) =1(v1, y) + 2(v2, y) = 0, y U. Dunque1v1 +2v2 U

. Denizione. DataunaformabilinearesimmetricasuV ,duesottospaziUeWdiV sidiconoortogonali rispettoaseesoltantoseognivettorediU`eortogonaleaognivettorediW.DataunaformabilinearesimmetricaeunsottospaziovettorialeW V ,seindichiamoconW

ilsottospazioortogonaleaWrispettoa, sihachein generale lintersezione W

W

non `e formata dal solo vettore nullo e non`edettoingeneralechelasommaW+ W

coincidaconV (v. Es. 22.10,p.305,di[4]).VittorinoTalamini 83Denizione. Data una forma bilineare simmetrica , si dice nucleo di ilsottospazio di Vformato dai vettori ortogonali a tutti i vettori di Vrispettoa e si indica con ker(). In simboli: ker() = {x V | (x, y) = 0, y V }.Denizione. Data una forma bilineare simmetrica , si dice che `edegenereseker() = {OV}enondegenereseker() = {OV}.Denizione. Ilrangodellaformabilinearesimmetrica `eilrangodiunaqualunquematriceassociataa.La denizione `e sensata perche il rango della matrice associata ad una formabilinearesimmetricanoncambiainseguitoacambiamentidibase.Proposizione. SiaunaformabilinearesimmetricaedAlamatricerea-le simmetricaadessaassociatarispettoadunadatabase di V . Alloradim(ker()) = dim(ker(A)) = n r,dove,n = dim(V ),r= rango(A). Inparticolare, `edegenereseesoltantosedet(A) = 0.Dimostrazione. Sia data la base B = {v1, . . . , vn} di V . Si cercano i vettorix V taliche(x, y) = 0,cio`e,taliche(x, vj) = 0,j= 1, . . . , n. Postox = x1v1 + . . . + xnvn,siottiene: 0 = (x, vj) = (x1v1 + . . . + xnvn, vj) =

ni=1xi(vi, vj)=

ni=1xiaij=

ni=1ajixi, j =1, . . . , n. Otteniamounsistema omogeneo, ATX= O, di n equazioni in n incognite, che ha soluzioninonnulleseesoltantoser e ilvettore v2 `e il vettore proiezione di vnel sottospazio W=< ek+1, . . . , en>.Ovviamente,v1 v2= 0.Proposizione. Sia Vuno spazio Euclideo di dimensione n, B = {e1, . . . , en}un base ortonormale di Ve L : V Vun endomorsmo di V , rappresentatodallamatriceA=(aij)relativamenteallabase B. Gli elementi di matriceaijsipossonootteneredalseguentecalcolo:aij= ei L(ej) = eTi Aej,incui nellultimopassaggioeiedejrappresentanolecorrispondenti n-pledellabasecanonicadi Rn.Dimostrazione. Infatti,Aej`elacolonnaj-madiA(rappresentanteL(ej)nella base B) e facendo il prodotto scalare con eifornisce lelemento i-mo diquestacolonna,cio`elelementoaijdiA. Proposizione. SiaV unospazioEuclideodi dimensionen. Uninsieme{v1, . . . , vn}dinvettoritaliche:1. vi = O,perognii = 1, . . . , n;2. vi vj= 0,perognii = j,i, j= 1, . . . , n,costituisceunabasediV .Dimostrazione. Occorre dimostrare che i vettori v1, . . . , vn sono linearmen-teindipendenti,cio`echelunicalorocombinazionelineareched`ailvettorenullo `e quella con i coecienti tutti nulli. Infatti, se si considera lequazionevettoriale: 1v1 + . . . + nvn=Oesi moltiplicanoscalarmenteentrambi imembri conogni vi, i =1, . . . , n, si haivi vi=0. Dallacondizione1.seguechevi vi = 0equindichei= 0,eci`operognii = 1, . . . , n,quindiivisonolin


Recommended