Linearna algebra (diplomski studij)

 

 

Poštovani i dragi kolege,

u nastalim okolnostima, nastavljamo s predavanjima držeći se naše knjige iz Linearne algebre. Potpuno je sigurno da svaki od Vas može i na takav način svladavati sav materijal. Nema nikakvih potreba za frustracije - studij na FER-u (kao i studij Matematike na PMF-u) uspješno su završavale i gluhonijeme osobe, pa čak i slijepe. Prema tome, možete sigurno i Vi.

Budući da je diplomski studij zapravo magistarski studij (te ga završavate s titulom "magistra" struke), onda će Vam dobro doći još jedno iskustvo samostalnog rada. Naravno, ja sam Vam i dalje na raspolaganju. Ako treba, možete se na ovom sučelju javiti s Vašim komentarom ili upitom. Molim da mi ne šaljete e-mailove na osobnu adresu, osim ako za to zbilja ima potrebe. Hvala.

Nastavak slijedi u Opširnijem sadržaju obavijesti, gdje je opisano gradivo predviđeno za PREDAVANJE 19. ožujka 2020. Molim, otvorite tu stranicu i pažljivo pogledajte.

 

Poštovani i dragi kolege,

nastavljamo s obradbom materijala iz knjige 
Linearna algebra (autori Andrea Aglić Aljinović, Neven Elezović i Darko Žubrinić).
Na zadnjem predavanju smo obradili odjeljak 1.2. Vektorski prostori nad općim poljima.

Budući da ćete sami čitati i proučavati sadržaj knjige, molim da čitate polako, tako da imate papir ili bilježnicu kraj sebe, te da izneseno provjeravate (dobro je imati i pomoćni papir kraj sebe, po kojem možete crtati, šarati i eksperimentirati do mile volje). Nove pojmove, koji su dolje označeni crnom bojom, trebalo bi usvojiti (tj. znati njihove definicije, osnovne primjere i tvrdnje).

PREDAVANJE 19. ožujka

Započinjemo s odjeljkom 1.3. Promjena baze spomenute knjige.
Ovdje je važno razmjeti pojam matrice prijelaza iz jedne baze u drugu.
Značajne su formule u (3), koje daju vezu imeđu koordinata zadanog vektora s obzirom na staru bazu, s koordinatama istog vektora s obzirom na novu bazu.
Molim pročitajte i dokaz formule (3).

U vezi tog rezultata, pogledajte detaljno Primjer 15, na samom kraju odjeljka 1.3.
Nacrtajte odgovarajuće vektore u Kartezijevom koordinatnom sustavu.

Prelazimo na odjeljak 1.4. Skalarni produkti i unitarni vektorski prostori.
On započinje skalarnim produktom u trodimenzionalnom prostoru V3, s definicijom koju znamo iz srednje škole. Svaki bi trebao znati formulu (7) u tom odjeljku, kao i njezino obrazloženje.

Pogledajte definiciju ortogonalnih vektora i ortonormiranih vektora.

Nakon toga prelazimo na definiciju skalarnog produkta u prostoru Rn (taj prostor je definiran redčanih vektora, ali se može na isti način definirati preko stupčanih vektora).
Definiciju skalarnog produkta dvaju vektora u (9), duljine (norme) vektora u (10) i okomitosti vektora u (11) treba dobro znati, kao i četiri osnovna svojstva skalarnog produkta.

Ortogonalnost vektora povlači njihovu linearnu nezavisnost - to bi trebao svaki znati (zajedno s dokazom, koji je vrlo jednostavan).

Iznimno je važna formula (13) o rastavu vektora x, po zadanoj ortogonalnoj bazi u Rn
Njen dokaz je jako jednostavan.

Sve to nam daje motivaciju za uvođenje tzv. unitarnog prostora - to je vektorski prostor sa skalarnim produktom. Primijetite "sitnu" razliku u slučaja kada imamo realan vektorski prostor (tj. realne koeficijente) u odnosu na slučaj kada imamo kompleksni vektorski prostor (tj. kompleksne koeficijente).

Imamo ponovno pojam okomitosti u slučaju unitarnih prostora, kao i definiciju ortogonalnog komplementa. Također definiramo normu zadanog vektora i udaljenost između dva zadana vektora.

Propozicija CSB (nejednakost Cauchy-Schwarz-Buniakowskog) vrijedi u bilo kojem unitarnom prostoru. Dokaz je vrlo jednostavan, svodi se na poznavanje svojstava kvadratne funkcije. Proučite dokaz.

Pogledajte Primjer 16. 

U unitarnom prostoru uvodimo pojam ortogonalne projekcije, koja se može eksplicite izračunati.

U unitarnom prostoru imamo mogućnost na prirodan način uvesti pojam ortogonalne baze, kao i ortonormirane baze.

U takvim bazama vrijedi formula za rastav vektora koja je potpuno ista kao i u slučaju X = Rn
Iz nje odmah izlazi i Besselova jednakost (koja predstavlja poopćenje Pitagorina poučka).

Pogledajte Primjer 18, u kojem je definiran pojam najbolje aproksimacije zadanog vektora x iz unitarnog prostora X, s pomoć vektora iz vektorskog podprostora E. Naravno, ta najbolja aproksimacija je ortogonalna projekcija vektora x na podprostor E, a u tekstu ćete naći kratak dokaz te tvrdnje.

Molim da u detalje pogledate Primjere 19, 20 i 21. Primjer 22 možete preskočiti (kao i prostor kvadratno sumabilnih sljedova prije njega).

 


 

Poštovani kolege,

nastavljamo s predavanjima iz Linearne algebre, prema knjizi Linearna algebra.

Započinjemo s odjeljkom 1.5. Normirani vektorski prostori, a nakon toga ulazimo u iznimno značajno poglavlje: 2. Linearni operatori. Molim pogledajte nastavak obavijesti. Hvala.

Srdačan pozdrav,

 

Predavanje 26. ožujka 2020.

Započinjemo s odjeljkom 1.5. Normirani vektorski prostori.

Ovdje se uvodi pojam normiranog vektorskog prostora, koji je vrlo jednostavan, ima samo tri aksioma norme vektora. Treći aksiom je poznata nejednakost trokuta.

Primijetite da je svaki unitaran prostor (tj. vektorski prostor sa skalarnim produktom) ujedno i normiran. Postoje međutim normirani prostori koji nisu unitarni (tj. čija norma se ne može dobiti preko niti kojeg skalarnog produkta).

Na taj način skup svih vektorskih prostora ima svoja dva podskupa: skup svih normiranih prostora, a ovaj pak sadrži skup svih unitarnih prostora.

U normiranom prostoru se uvodi pojam otvorene kugle (polumjera r, oko točke a). Ona ne sadrži svoje rubne točke. S druge strane, zatvorena kugla u normiranom prostoru sadrži svoje rubne točke. Skup svih rubnih točaka čini sferu.

Pojam ekvivalentnih norma možete preskočiti.

Svakako pogledajte primjere normiranih prostora u Rn

Najprije imamo standardnu Euklidsku normu, ili 2-normu, koje je generirana skalarnim produktom na Rn

Za bilo koji realan broj p veći ili jednak od 1, imamo odgovarajuću p-normu.  Tako je 1-norma nekog vektora iz Rn jednostavno zbroj apsolutnih vrijednosti njegovih komponenata. 

Definiramo i beskonačno-normu na Rn, kao maksimum svih apsolutnih vrijednosti komponenata vektora.

Naravno, zbunjuje to što imamo cijelo vrijeme isti skup Rn, a različite norme na njemu. To su sve različiti normirani prostori, iako je skup (vektorski prostor) Rn stalno isti. Međutim, na njemu gledamo različite norme, pa onada govorimo o različitim normiranim prostorima (iako na istom skupu).

Slično se definiraju Lebesugeovi prostori funkcija Lp(a,b) svih funkcija f : (a,b) -> R, koje su p-integrabilne. Njihova p-norma definira se s pomoću integrala. Henri Lebesgue (čitaj Anri Lebég), francuski matematičar, otkrio je te prostore na samom početku 20. st. 

Za p = 2 dobivamo prostor L2(a,b), koji je unitaran prostor, tj. njeova se norma može dobiti preko skalarnog produkta, izraženog preko integrala.

Hoelderovu nejednakost možete preskočiti. Nejednakost Minkowskog (tj. nejednakost trokuta) nije trivijalna, a ona je upravo potrebna kao treće svojstvo u definiciji normiranog prostora.

Prelazimo na 2. poglavlje.

2. Linearni operatori

Pojam linearnog operatora A : X -> Y, uvedenog u odjeljku 2.1., jedan je od najvažnijih u ovom kolegiju. Linearni operator je definiran svojstvom linearnosti. To je svojstvo ekvivalentno svojstvima aditivnosti i homogenosti. Pogledajte pažljivo Primjere 1, 2 i 3. Ovu definiciju mora svaki znati.

Osobito je važan Primjer 3, koje je u izvjesnom smislu i "jedini" primjer linearnog operatora. O tome govori Teorem 1.

U njegovu dokazu se linearnom operatoru A : X -> Y (između dva vektorska prostora nad istim poljem, obično R ili C) pridružuje matrica A na sljedeći način. Odaberemo jednu bazu u X i jednu bazu u Y. Bilo koji vektor prve baze preslikamo operatorom A u vektor u Y, pa ga rastavimo po njegovoj bazi. Koeficijenti u tom rastavu čine odgovarajući stupac u matrici A. Primijetite da ako prostori X i Y imaju dimenzije n i m, onda će matrica A imati tip m x n. Matrica A zove se matrica linearnog operatora A u odabranom paru baza u prostorima X i Y

Na taj se način proučavanje linearnih operatora svodi na proučavanje matrica.

Pogledajte Primjere 4 - 10 u tom odjeljku. Osobito su važni primjeri operatora simetrije ravnine s obzirom na x-os (i pripadajuće matrice simetrije), te operator rotacije ravnine za kut fi oko ishodišta (i pripadajuće matrice rotacije). U oba slučaja u ravnini uzimamo kanonsku bazu. Te dvije matrice bi svaki trebao znati.

U Teoremu 2 je pokazano da je svaki linearni operator A : X -> Y moguće zadati njegovim djelovanjem samo na bilo koju odabranu bazu u vektorskom prostoru X. Na bilo koji drugi vektor u X se djelovanje operatora A dobiva proširivanjem po linearnosti (iz definicije lienarnog operatora).

Ovime završavamo predavanje od 26. siječnja 2020.

------------------------------------------------------------------------------------------------------

S obzirom da smo od nedjelje 22. ožujka bogatiji za iskustvo potresa u Zagrebu, htio bih dodati još nekoliko riječi.

Potresima se bavi znanost koja se zove seizmologija. Najznačajnije otkriće u povijesti seizmologije je ostvareno 1909. g. u Zagrebu, kada je znameniti hrvatski znanstvenik Andrija Mohorovičić otkrio MOHO sloj (nazvan tako njemu u čast). Andrija Mohorovičić je rodom iz Voloskog (mići gradić kod Opatije). Ako Vas zanima više pojedinosti, možete ih vidjeti na mojoj mrežnoj stranici posvećenoj povijesti hrvatske znanosti:

www.croatianhistory.net/etf/et22a2.html

Meni se jako dopao video film jednog američkog fizičara (g. Khan, podrijetlom iz Irana), koji veoma lijepo objašnjava što je MOHO sloj na engleskom jeziku:

http://www.croatia.org/crown/articles/10499/1/Andrija-Mohorovicic-1857-1936-great-Croatian-scientist-discoverer-of-the-MOHO-discontinuity-in-Earths-crust.html

Pri kraju te mrežne stranice ćete vidjeti opis i na perzijskom jeziku, kao i na arapskom! Bit će Vam zabavno čuti kako predavači izgovaraju ime Andrije Mohorovičića.

 


 

Poštovani i dragi kolege,

nastavljamo s trećim predavanjem iz Linearne algebre. Započinjemo s Odjeljkom 2.2. Promjena baze. Slične matrice, koji se nalazi na kraju drugog poglavlja (Linearni operatori), a zatim nastavljamo s osnovnim primjerima linearnih operatora u ravnini. Molim pogledajte opširniji nastavak obavijesti. Hvala.

Srdačan pozdrav,

 

Poštovani i dragi kolege,


Započinjemo s odjeljkom 2.2. Promjena baze. Slične matrice.

Pretpostavimo da je zadan linearni operator A : X -> X. Primijetite da A djeluje na istom vektorskom prostoru, a ne među različitim vektorskim prostorima (X i Y). 

Ako u X odaberemo neku bazu e1,...,en, onda imamo pripadajuću matricu A tog linearnog operatora A (pritom uzimamo istu bazu i u polaznom prostoru X, kao i u dolaznom prostoru X).

Ako odaberemo drugu bazu u X, tj. e1',...,en', onda imamo pripadajuću matricu tog operatora A' tog istog linearnog operatora A.

Dakle, kvadratne matrice A i A' predstavljaju matrice istog linearnog operatora A : X -> X, s obzirom na dvije različite baze u X. Kakva je veza među tim matricama? Veza je vrlo jednostavna:

A' = T-1AT

pri čemu je T matrica prijelaza iz prve baze u drugu (podsjetimo se: prvi stupac matrice T dobije se tako da prvi vektor e1' druge baze rastavimo po prvoj bazi e1,...,en, te zatim odgovarajuće koeficijente u rastavu složimo u prvi stupac; slično za drugi stupac, itd.).
Ovo je sadržaj Teorema 3. Proučite i njegov dokaz, koji je iznenađujuće jednostavan.

Iz Binet-Cauchyjeva teorema odmah vidimo da matrice A i A' imaju istu determinantu.
Iz tog razloga onda možemo govoriti o determinanti linearnog operatora A.

Teorem 8 nas motivira da uvedemo pojam sličnosti među kvadratnim matricama (istog reda n). Za dvije kvadratne matrice A i B kažemo da su slične matrice, ako postoji regularna (tj. invertibilna) matrica T, takva da je

B = T-1AT

Matrica T zove se matricom sličnosti između matrica A i B. Timo smo dobili jednu relaciju na skupu svih kvadratnih matrica. Lako je vidjeti da je to relacija ekvivalencije.

Na primjer, ako je matrica A slična matrici B (s matricom sličnosti T), onda je i matrica B slična matrici A (s matricom sličnosti T-1). Doista, iz B = T-1AT slijedi  A = TBT-1=(T-1)-1BT-1. Time je dokazano da je ta relacija simetrična. Slično se dokazuje i tranzitivnost, a refleksivnost je trivijalna (u tom slučaju je matrica sličnosti jedinična matrica I).

Jedan od osnovnih zadaća linearne algebre je, za bilo koju zadanu kvadratnu matricu A pronaći njoj sličnu matricu B koja je što je moguće jednostavnijeg oblika (tj. što je moguće "bliža" dijagonalnoj matrici). Vidjet ćemo kasnije da je svaka simetrična matrica slična dijagonalnoj matrici.


Prelazimo na Odjeljak 2.3. Primjeri operatora u ravnini i prostoru.

Podsjetimo se da je djelovanje linearnog operatora A : X -> Y dovoljno zadati samo na nekoj bazi u polaznom prostoru X. Ovdje ćemo imati u svim primjerima operatore A : X -> X, pa odabirom baze u X odabiremo istu bazi i u polaznom i u dolaznom prostoru X. U prvoj grupi primjera imat ćemo X = V2 (dovdimenzionalna ravnina), s kanonskom bazom koju čine vektori i, j, a koju znamo iz srednje škole. 

Na primjer, ako je Ai = 2j i Aj = 2i - j, onda pripadajuća matrica A toga operatora ima u prvom stupcu brojeve 0 i 2 (jer je Ai = 0i + 2j), a u drugom stupcu 2 i -1.

U Primjeru 11 je obrađen operator homotetije  ravnine i njemu pripadajuća matrica homotetije (u kanonskoj bazi). Radi se o vodoravnom "istezanju" (ili "stezanju") ravnine s nekim zadanim faktorom lambda (ako je lambda negativan, onda je to istezanje sa zrcaljenjem s obzirom na y-os). Možete sami razmisliti kako bi izgledala matrica homotetije koje odgovara okomitom istezanju.

Naravno, ako je faktor lambda veći od 1, riječ je o rastezanju (ili dilataciji) ravnine, a ako je taj faktor između nula i jedan, onda je riječ o stezanju (ili kontrakciji) ravnine. Ako je faktor jednak -1, riječ je o zrcaljenju ravnine s obzirom na okomitu os.

Primjer 12 opisuje matricu operatora "dvostruke homotetije", tj. vodoravnog i okomitog istezanja (ili stezanja) istodobno.

Primjer 13 nam definira operator zakošenja u prostoru (ravnini) X = V2. Pogledajte kako je izvedena odgovarajuća matrica zakošenja.

Primjer 14 opisuje ortogonalnu projekciju na pravac u ravnini kroz ishodište i izvodi odgovarajuću matricu ortogonalne projekcije. Dana su dva izvoda matrice projekcije. Drugi možete preskočiti. Pogledate specijalan slučaj kada se radi o orogonalnoj projekciji na x-os, tj. kada je alfa = 0. Izvedite tu matricu izravno (dovoljno je vidjeti da je Ai = i = 1i + 0j, a Aj = 0 = 0i + 0j, pa prvi stupac pripadajuće matrice čine brojevi 1 i 0, a drugi 0 i 0).

Primjer 15 se odnosi na operator simetrije s obzirom na pravac (kroz ishodište). Dana su dva izvoda matrice tog operatora. Drugi možete preskočiti.

Primjer 16 preskačemo.

Primjer 17 daje na opis operatora ortogonalnog projiciranja na koordinatne pravce u trodimenzionalnom prostoru X = V3, kao i na koordinatne ravnine.

 


 

Poštovani i dragi kolege,

nastavljamo s predavanjima iz Linearne algebre. Glavni sadržaj je algebra linearnih operatora, pri čemu se misli da linearne operatore možemo komponirati (kao funkcije).

Molim pogledajte opširniji nastavk obavijesti.

 

Primjer 18. Operator rotacije u prostoru V3. Taj linearni operator A : V3 -> V3 rotira cijeli prostor oko z-osi (vertikalne osi) za zadani kut alfa. Njegovo djelovanje na vektore i i j je rotacija u (x,y)-ravnini, što je već obrađeno u Primjeru 8 u Odjeljku 2.1.
Vektor k rotacijom ostaje nepromijenjen, tj. A(k) = k. Komponente u rastavu tih vektor po bazi i, j , k slažemo u stupce, pa dobivamo matricu operatora rotacije za kut alfa.

Primjer 19, tj. Eulerove kutove, ne radimo.

 

Prelazimo na Odjeljak 2.4. Algebra operatora.

Ako imamo dva linearna operatora A : X -> Y i B : Y -> Z (koji su ulančani preko zajedničkog prostora Y), onda se može definirati njihova kompozicija BA : X -> Z, sa (BA)(x) = B(A(x)) (drugim riječima, element x pošaljem operatorom A u prostor Y, a zatim taj pošaljemo u Z djelovanjem operatora B).

Vrlo je lako vidjeti da je kompozicija linearnih operatora opet linearni operator (Teorem 4, pogledajte dokaz, koji ima samo dva redka).

Vrlo značajan Teorem 5 govori koja je matrica kompozicije operatora BA : X -> Z, ako znamo matrice operatora A : X -> Y i B : Y -> Z, s obzirom na zadane baze u vektorskim prostorim X, Y i Z. Ako te matrice označimo s A i B, onda kompoziciji BA odgovara matrica BA (primijetite da su matrice B i A ulančane, radi ulančanosti linearnih operatora A i B). Pogledajte i dokaz te tvrdnje.

Kao ilustraciju, pogledajte Primjere 20 i 21.

Svakom linearnom operatoru A : X -> Y pridružujemo dva pripadajuća podprostora. Jedan je jezgra od A, koja se definira kao skup svih rješenja jednadžbe A(x) = 0 (ne zaboravimo, 0 je nul-vektor u Y). Oznaka jezgre od A, ili nul-podprostora od A, je

Ker A (od engleskog kernel - jezgra). Česta je i oznaka N(A), tj. nul-podprostor.

Sliku tog operatora (tj. skup svih mogućih vrijednosti koje poprima operator A u prostoru Y) označavamo s Im(A) (od engl. image of A). U literaturi se za sliku linearnog operatora često susreće i oznaka R(A) (od engl. range of A).

Vrlo je lako vidjeti da su jezgra i slika linearnog operatora A : X -> Y vektorski podprostori od X i Y.

Dimenzije tih podrpostora zovu se defekt (dimenzija jezgre) i rang (dimenzija slike) linearnog operatora. Označavamo ih s d (defekt linearnog operatora) i r (rang linearnog operatora).

Nije teško vidjeti da je rang bilo kojeg linearnog operatora A : X -> Y jednak rangu matrice A operatora A u bilo kojem odabranom paru baza u prostorima X i Y.

Teorem 6 pokazuje da što je veći defekt linearnog operatora, to je manji rang, i obratno. Točnije, za svaki linearni operator A : X -> Y vrijedi da je

d + r = dim X.

Pritom je dim X dimenzija polaznog prostora X.

Proučite dokaz tog teorema (u njemu je defekt označen s k). Dokaz je vrlo prirodan - radi se samo ono što se i može raditi.

 

Opći oblik rješenja nehomogenog sustava.
Nehomogene linearne jednadžbe glasi Ax = b, gdje je A : X -> Y linearni operator, b zadani vektor u Y, i x nepoznanica iz X. Tu jednadžbu zovemo homogenom, ako je b = 0.

Opća rješenje nehomogene jednadžbe može se dobiti u dva koraka.

(a) Nađemo neko (na pr. samo jedno) rješenje nehomogene jednadžbe, nazovimo ga s xp. Zovemo ga partikularnim rješenjem  jednadžbe Ax = b (možemo zamisliti kao da smo to jedno rješenje nasumce pogodili).


(b) Nađemo opće rješenje homogene jednadžbe Ax = 0, tj. jezgru operatora A. U jezgri Ker A zatim nađemo neku bazu, na primjer e1,...,ek (pritom je k defekt operatora A). 

Onda je opće rješenje nehomogene jednadžbe Ax = b

x = xp + a1e1 + ... + akek.


Injektivnost i surjektivnost linearnog operatora A : X -> Y.

Podsjetimo se, za funkciju f : X -> Y kažemo da je injekcija, ako iz jednakosti f(x1) = f(x2) slijedi x1 = x2, za bilo koje x1 i x2 iz X.


Linearni operator A : X -> Y je injektivan onda i samo onda ako je Ker A = {0}, tj. ako je mu je jezgra trivijalna (ili što je isto, ako je defekt linearnog operatora jednak nula).
Pogledajte vrlo kratak dokaz te zanimljive tvrdnje.

Za linearni operator A : X -> Y kažemo da je izomorfizam, ako je bijektivan (tj. injekcija i surjekcija). Ako između dvaju vektorskih prostora X i Y postoji izomorfizam, onda kažemo da su ti prostori izomorfni. Izomorfni vektorski prostori imaju iste dimenzije. Izomorfni vektorski prostori se u  linearnoj algebri poistovjećuju (iako njihovi elementi mogu biti vrlo različitog karaktera).

Na primjer, vektorski prostori R4 (prostor vektora stupaca s četiri komponente), M2  (vektorski prostor kvadratnih matrica reda 2) i P3 (prostor polinoma stupnja najviše 3) su svi međusobno izomorfni. Na pr. možemo lako konstruirati izomorfizam A iz R4 u P3 tako da odaberemo kanonsku bazu e1e2e3e4 u R4 i kanonsku bazu p0, p1, p2, p3 u prostoru P3, te zatim definiramo A(e1) = p0, A(e2) = p1A(e3) = p2A(e4) = p3, te zatim proširimo A po linearnosti na A R4 -> P3.

 

Linearni operator A : X -> Y je izomorfizam onda i samo onda ako je odgovarajuća matrica A tog operatora regularna (u bilo kojem odabranom paru baza). Znači, ako je det A različito od nule, onda je linearni operator A regularan, i obratno.

Ako je A : X -> Y izomorfizam (tj. bijektivni linearni operator), onda je inverzni linearni operator A-1 : Y -> X (u smislu inverzne funkcije) također izomorfizam.

Doista, ako odaberemo neke dvije baze u X i Y, te ako je A matrica linearnog operatora A, a B matrica inverznog linearnog operatora A-1, onda, budući da je A-1A = idX (identitet na prostoru X, tj. idX(x) = x za sve x), iz Teorema 6 zaključujemo da je BA = I, gdje je I jedinična matrica (jediničnom operatoru, tj. identiteti na X, odgovara jedinična matrica I; vidi Primjer 4 u Odjeljku 2.1)Prema tome je = A-1.

 


 

Poštovani i dragi kolege,

Završili smo drugo poglavlje. Ne radimo odjeljak 2.5 (Minimalni polinom). Naravno, svakako pogledajte i jedan broj primjera i zadataka, koji prate bilo koje poglavlje. 
Prelazimo na Poglavlje 3. Vlastiti vektori i vlastite vrijednosti. Molim pogledajte nastavak ove obavijesti.

 

3. Vlastiti vektori i vlastite vrijednosti

U ovom poglavlju promatramo linearne operatore A : X -> X, tj. operatore koji preslikavaju prostor X u samoga sebe (a ne općenito A : X -> Y).

U Odjeljku 3.1., najvažnija je definicija vlastitog vektora i vlastite vrijednosti linearnog operatora, koju mora svaki dobro znati.

Ako je X realan vektorski prostor (tj. skalari su realni brojevi), onda su vlastiti vektori oni vektori v različiti od nul-vektora, koji su paralelni s vektorom Av. Drugim riječima, v je vlastiti vektor matrice A ako postoji broj λ takav da je

Av = λv,  gdje je v različit od nul-vektora.

Broj λ zove se vlastita vrijednost operatora A (koja pripada vlastitom vektoru v).
Ako je v vlastiti vektor od A, onda je jasno da je i vektor tv vlastiti vektor, za bilo koji skalar t različit od nula.

Gornju jednadžbu gledamo kao jednu jednadžbu s dvije nepoznanice, v i λ, uz uvjet da je v različit od nul-vektora.

Ukoliko je X vektorski prostor nad poljem kompleksnih brojeva, onda uzimamo algebarsku definiciju vlastite vrijednosti i vlastitog vektora, definiranu uvjetima Av = λv, za v različito od nul-vektora. Pritom λ može biti i kompleksan broj.

Ako umjesto linearnog operatora A : X -> X imamo kvadratnu matricu A reda n, onda se vlastiti vektor i pripadajuća vlastita vrijednost matrice definiraju na potpuno isti način.

Svakom linearnom operatoru A : X -> X možemo pridružiti matricu A tog operatora, u odabranoj bazi e1,...,en u X (podsjetimo se, prvi stupac matrice A dobijemo tako da vektor Ae1 rastavimo po toj bazi, pa onda koeficijente u rastavu stavimo u taj stupac; slično za ostale stupce). 
Pokazuje se da su vlastite vrijednosti matrice A iste kao i vlastite vrijednosti linearnog operatora A (tj. vlastite su vrijednosti neovisne o izboru baze u X, koja tu matricu A generira kao matricu zadanog operatora A).

Za proračun vlastitih vrijednosti matrice koristimo karakteristični polinom matrice A, koja se definirako kao 

k(λ) := det(λ I - A). 

To je dakle polinom n-tog stupnja u varijabli λ (općenito kompleksan broj), a uz najviši stupanj λn je vodeći koeficijent jednak 1. (U literaturi se često u definiciji karakterističnog polinoma matrice A uzima det(A - λ I); naravno, nultočke su iste, ali vodeći koeficijent je onda (-1)n). 

Karakteristični polinom matrice A linearnog operator A ne ovisi o izboru baze u X.

Naime, ako su A i A' matrice istog linearnog operatora A u dvije različite baze, onda je je A' = T-1AT (tj. A i A' su slične matrice), gdje je T matrica prijelaza iz prve baze u drugu. Onda je i λI - A' = T-1(λI - A)T, pa kad nađemo determinantu lijeve i desne strane, iz Binet-Cachyjeva teorema (koji kaže da je determinanta umnoška matrica jednaka umnošku njihovih determinantata) odmah izlazi det(λI - A') = det(λ I - A), tj. karakteristični polinomi matrica A' i A su isti. Posebno, iz toga onda slijedi da su i vlastite vrijednosti matrica A' i A iste (a i njihove algebarske kratnosti su iste).

Vlastite vrijednosti matrice A dobivaju se kao nultočke karakterističnog polinoma.
Dokaz je vrlo jednostavan. Ako je det(λ I - A) = 0, onda matrica λI - A nije invertibilna, pa postoji vektor v (vektor stupac s n komponenata) različit od nul-vektora, takav da je (λI - A)v = 0. Ta je jednadžba međutim ekvivalentna s Av =λ (uvjerite se).

Prema tome, budući da karakteristični polinom matrice A (a to je polinom je n-tog stupnja) ima po Gaussovu teoremu točno n nultočaka u skupu kompleksnih brojeva (ruzimajući u obzir i kratnost nultočaka), onda matrica A reda n ima točno n vlastitih vrijednosti. Kratnost vlastite vrijednosti λ (kao nultočke karakterističnog polinoma) zove se algebarska kratnost vlastite vrijednosti λ matrice A. Na primjer, ako za neku matricu A reda 5 imamo k(λ) = (λ-1)2(λ+2)3, onda je vlastita vrijednost λ1 = 1 algebarske kratnosti 2, a λ2 = -2 je algebarske kratnosti 3.

Za zadanu vlastitu vrijednost λ matrice A, skup svih rješenja jednadžbe Av = λ(uključujući i v = 0), tj. jednadžbe

(λI - A)v = 0,

je vektorski prostor, koji se zove vlastiti podprostor matrice A, koji pripada vlastitoj vrijednosti  λ (engl. eigenspace of λ). Primijetite da je to jezgra (odnosno nul-podprostor) matrice λI - A. Njegova se dimenzija zove geometrijska kratnost vlastite vrijednosti λ. Pokazuje se da je geometrijska kratnost bilo koje vlastite vrijednosti matrice A uvijek manja ili jednaka od njene algebarske kratnosti.

Skup svih vlastitih vrijednosti matrice zove se spektar matrice, s oznakom σ(A). Dakle, σ(A) = {λ1,...,λn} je općenito n-člani podskup skupa kompleksnih brojeva.

Na primjer, ako imamo zadanu matricu A koja je dijagonalna (ili čak gornja trokutasta), s nekim brojevima λ1,...,λn na dijagonali, onda su ti brojevi upravo vlastite vrijednosti matrice A. To dobivamo odmah preko karakterističnog polinoma, jer je on u ovom slučaju jednak produktu

k(λ) = det(λI - A) = (λ - λ1)...(λ - λn),

budući da je matrica λI - A također dijagonalna, s brojevima (λ - λ1),...,(λ - λn) na dijagonali. Dakle nultočke karaktarističnog polinoma k(λ) upravo brojevi λ1,...,λn na dijagonali gornje trokutaste matrice A, pa su onda to njene vlastite vrijednosti.

Ako je matrica A dijagonalna, te ako su svi brojevi na dijagonali λ1,...,λ1 međusobno različiti, onda je vlastiti podprostor od λ1 jednak L(e1)  (gdje je e1 prvi vektor kanonske baze), tj. vlastiti vektori od A koji pripadaju vlastitoj vrijednosti λ1 su oblika te1, gdje je t bilo koji skalar različit od nule. Algebarska i geometrijska kratnost od λ1 su obje jednake 1. Isto vrijedi i za ostale vektore.

Ako imamo dijagonalnu matricu A u kojoj se broj λ1 na dijagonali ponavlja više puta (na primjer, 3 puta na prva tri mjesta na dijagonali), onda je vlastiti podprostor od λ1 jednak L(e1,e2,e3). Vlastiti vektori su oblika t1et2et3e3, gdje brojevi t1, t2, t3 nisu svi istodobno nula. U ovom slučaju su geometrijska i algebarska kratnost jednake 3.


Ako imamo matricu A koje je matrica operatora zakošenja ravnine V2, s parametrom ε koji nije 0 (tj. A je kvadratna gornja trokutasta matrica reda 2, koja na dijagonali ima brojeve 1, 1, a iznad nje je ε), onda je karakteristični polinom te matrice k(λ) = (λ - 1)2, pa je λ1,2 = 1 jedina vlastita vrijednost, algebarske kratnosti 2. Međutim, njen vlastiti podprostor za λ = 1 je L(i) (gdje je i prvi vektor kanonske baze u V2) pa je geometrijska kratnost te vlastite vrijednosti jednaka jedan. Vrijedi upamtiti: kod operator zakošenja se algebarska i geometrijska kratnost vlastite vrijednosti 1 ne podudaraju: prva je jednaka 1, a druga 2.

Još jedan zanimljiv primjer je matrica A operatora rotacije ravnine oko ishodišta, za kut φ = π/2 radijana (tj. za 90 stupnjeva). Drugim riječima, matrica ima u prvom stupcu brojeve 0 i 1 (jer rotacijom vektora i nastaje vektor j = 0i + 1j), a u drugom stupcu brojeve -1 i u (jer rotacijom vektora j nastaje vektor -i = -1i + 0j).
Karakteristični polinom matrice rotacije je

k(λ) = det(λI - A) = λ2 + 1  (provjerite).

Prema tome su vlastite vrijednosti te matrice kompleksni brojevi i i -i, gdje je i imaginarna jedinica (tj. i2 = -1).
Zaključujemo da matrica A operatora rotacije za kut  φ = π/2 radijana (koja je matrica s relanim koeficijentima) nema realne vlastite vrijednosti. Razlog je jasan: ako bilo koji vektor v (različit od nulvektora) u ravnini V2 zarotiramo oko ishodišta za kut od φ = π/2 radijana, ta dva vektora ne mogu biti nikako paralelna. Prema tome, matrica A nema realnih vlastitih vrijednosti (ali ima dvije kompleksne vlastite vrijednosti: i i -i).

Ako dvaput primijenim rotaciju za kut φ = π/2 radijana, dobivamo rotaciju ravnine V2 za kut φ = π radijana (tj. za 180 stupnjeva), a to je isto što i zrcaljenje s obzirom na ishodište u V2. Taj operator bilo kojem vektoru v pridružuje vektor -v, pa je matrica tog operatora -I (gdje je I jedinična matrica reda 2). 
Vidjeli smo u Odjeljku 2.4 (Algebra operatora, Teorem 5) da kompoziciji dvaju linearnih operatora odgovara umnožak odgovarajućih matrica. Ovdje imamo kompoziciju dviju rotacija u ravnini V2, pa na temelju tog rezultata vidimo da vrijedi

A2 = -I.

Drugim riječima, matrica A (rotacije za kut φ = π/2 radijana) je "matrična imaginarna jedinica" (tj. "korijen" iz matrice -I). Uvjerite se u gornju jednakost i izravno, računajući A2 kao umnožak AA.


Prelazimo na Odjeljak 3.2. Dijagonalizacija operator. Matrične funkcije.

Cilj nam je vidjeti da je svaka kvadratnih matrica A slična gornjoj trokutastoj matrici. Drugim riječima, postoji regularna kvadratna matrica T (njeni stupci će se sastojati od vlastitih vektora matrice A), tako da je matrica T-1AT gornja trokutasta matrica T' (a na dijagonali matrice T'  = T-1AT bit će vlastite vrijednosti matrice A). 
Drugim riječima, ako matricu A gledamo kao linearni operator (recimo iz Cn u Cn), onda je u moguće naći bazu u prostoru Cn u kojoj će taj isti operator ima oblik gornje trokutaste matrice.

Ključni rezultat u tom smjeru je Teorem 1, koji kaže da međusobno različitim vlastitim vrijednostima matrice A odgovaraju vlastiti vektori koji su linearno nezavisni.

Dokaz (matematičkom indukcijom) je iznenađujuće jednostavan, ima svega par redaka. Pogledajte ga u knjizi.

Iz ovog teorema odmah zaključujemo da ako su sve vlastite vrijednosti matrice A međusobno različite, onda je ona slična dijagonalnoj.

Doista, ako su λ1λ2,..., λn sve vlastite vrijednosti od A, takve da su međusobno različite, onda su odgovarajući vlastiti vektori v1, v2,..., vn odlinearno nezavisni, pa čine bazu (naime, ima ih ukupno n, kolika je i dimenzija prostora). U toj bazi je

Av1 = λ1v1 = λ1v1 + 0v2 + ... + 0vn
Av2λ2v2 = 0v1 + λ2v2 + ... + 0vn
...
Avnλnvn = 0v1 + 0v2 + ... + λnvn.


Kada te dobivene koeficijente u rastavu poslažemo po stupcima, dobivamo matricu operatora A u novoj bazi v1,...,vn, u kojoj je matrica dijagonalna, tj. matrica D s brojevima λ1,...,λn na dijagonali.

Drugim riječima, za matricu prijelaza T = [v1,...,vn] (iz kanonske baze u novu bazu) u tom slučaju vrijedi

T-1AT = D.

Kažemo da smo matricu A dijagonalizirali.

Općenito, kažemo da se kvadratna matricu A može dijagonalizirali, ako postoji regularna matrica T takva da je T-1AT dijagonalna matrica.

Na temelju ove diskusije vidimo odmah i nešto općenitije: ako za neku kvadratnu matricu A reda n znamo da ima vlastite vektore v1,...,vn koji su linearno nezavisni, onda se matrica A može dijagonalizirati. Drugim riječima, za matricu T = [v1,...,vn] vrijedi T-1AT = D.

Vidjet ćemo kasnije da se svaka simetrična matrica može dijagonalizirati. Matrica operatora zakošenja se ne može dijagonalizirati.

Pogledajte algoritam za dijagonalizaciju matrice A  u Odjeljku 3.2, opisan uz uvjet da postoji baza koju čine vlastiti vektori te matrice.

Vrlo lako je vidjeti da se kvadratna matrica A može dijagonalizirati onda i samo onda ako postoji baza koju čine njeni vlastiti vektori (vidi Teorem 2). Pogledajte Primjere 5 i 6.

Na primjer, matrica operator rotacije za kut od φ = π/2 radijana se može dijagonalizirati, jer ima dvije vlastite vrijednosti i i -i, koje su međusobno različite. Naravno, matrica prijelaza T = [v1,v2], s kojom se obavlja dijagonalizacija, ima za koeficijente kompleksne brojeve (koji nisu realni).

Vrlo značajan Teorem 3 (Schurov teorem) kaže da je svaka kvadratna matrica A s kompleksnim koeficijentima slična gornjoj trokutastoj. Točnije, postoji regularna matrica T s kompleksnim koeficijentima, takva da je matrica

T' = T-1AT 

gornja trokutasta.

Dokaz tog teorema preskačemo.

Tvrdnja teorema nije točna ako za matricu T zahtijevamo da ima samo realne koeficijente. Protuprimjer je već spomenuta matrica A operatora rotacije za kut od φ = π/2 radijana (tj. za 90  stupnjeva). Ona se ne može svesti na gornju trokutastu formu uz pomoć niti koje realne matrice T, ali postoji matrica T = [v1,v2] s kompleksnim koeficijentima s pomoću koje se matrica A može čak i dijagonalizirati, jer su joj vlastite vrijednosti (i i -i) međusobno različite (vidi Teorem 1). Stupci v1 i v2 u matrici T su upravo vlastiti vektori (s kompleksnim koeficijentima) koji pripadaju tim vlastitim vrijednostima.

 


 

Poštovani i dragi kolege,

nastavljamo s predavanjem o vlastitim vektorima i vlastitim vrijednostima linearnih operatora A : X -> X i kvadratnih matrica A (3. poglavlje).

Molim pogledajte u nastavku ove obavijesti.

 

Na zadnjem predavanju je formuliran Teorem 3 (Schurov teorem) koji kaže da je svaka kvadratna matrica A slična gornjoj trokutastoj matrici (pri čemu za matricu sličnosti T moramo dopuštati općenito kompleksne brojeve). Točnije, postoji regularna matrica T takva da je matrica BT-1AT gornja trokutasta.

Taj teorem ima značajne posljedice. Kao što znamo od prije, slične matrice A i B imaju iste karakteristične polinome. Zato slične matrice imaju iste vlastite vrijednosti.

Nadalje, kao što znamo, svaka gornja trokutasta matrica B ima na dijagonali upravo svoje vlastite vrijednosti λ1,...,λn , pa su to ujedno i vlastite vrijednosti od A

Slične matrice imaju iste determinante (to slijedi odmah iz Binet-Cauchyjeva teorema), pa budući da gornja trokutasta matrica A ima determinantu jednaku umnošku dijagonalnih elemenata, zaključujemo da je

det A = λ1...λn.

Drugim riječima, determinanta matrice A jednaka je umnošku svih svojih vlastitih vrijednosti.

Odatle odmah slijedi da je matrica A regularna (invertibilna) onda i samo onda ako su sve njene vrijednosti  λ1,...,λn različite od nula.

Ili ekvivalentno tome, matrica A je singularna (neinvertibilna) onda i samo onda ako je barem jedna od vlastitih vrijednosti λ1,...,λn jednaka nula.

Budući da karakteristični polinom matrice A, definiran sa k(λ) = det (λI - A), ima kao nultočke vlastite vrijednosti λ1,...,λn , onda je k(λ) = (λ - λ1) ... (λ - λn), pa je slobodni koeficijent karakterističnog polinoma jednak

(-λ1)...(-λn) = (-1)ndet A,

Drugim riječima, slobodni koeficijent karakterističnog polinoma k(λ) matrice A  je do na predznak jednak determinanti matrice.

 

Prelazimo sada na matrični polinom. Pretpostavit ćemo radi jednostavnosti da je matrica A takva da je slična dijagonalnoj matrici D, s matricom sličnosti T, tj. T-1AT = D. Prema tome je

A = T D T-1.

Odatle slijedi da je A2 = AATDT-1TDT-1 = TD2T-1, i dalje induktivno, za svaku potenciju (prirodan broj) p:

Ap = T DT-1.

Općenitije, ako je P(λ) bilo koji polinom u varijabli λ, onda je na sličan način

P(A) = P(DT-1

Na primjer, ako je P(λ) = λ2 - 2λ + 5, onda definiramo P(A) = A2 - 2A + 5I. Nikako ne zaboraviti staviti jediničnu matricu I uz slobodni koeficijent, inače izraz postaje besmislen (matrica plus broj).

 

Pogledajte pažljivo Primjer 9,  u kojem treba izračunati matricu A1000, za jednu zadanu matricu A reda 2. 

To ćemo izračunati preko vlastitih vrijednosti i vlastitih vektora matrice A (radije nego računajući uzastopne produkte A, A2A, A3A, itd., dok malo po malo ne stignemo do željene potencije).

Karakteristični polinom k(λ) matrice A ima dvije međusobno različite vlastite vrijednosti λ1 = 1 i λ2 = 2. Iz tog razloga je (kao što znamo od prije) matrica A slična dijagonalnoj matrici D, s vlastitim vrijednostima 1 i 2 na dijagonali. Matricu prijelaza T ćemo naći tako da nađemo najprije odgovarajuće vlastite vektore v1 i v2. Oni će činiti stupce matrice T.

Kratak dio s Matričnim funkcijama možete preskočiti.

 

Prelazimo na odjeljak 3.3. Hamilton-Cayleyev teorem.

Neka je A bilo koja kvadratna matrica, reda n. Izračunajmo karakteristični polinom te matrice: k(λ) = det (λI - A). Kao što znamo, to je polinom n-tog stupnja u varijabli λ. Za taj polinom (kao i za bilo koji drugi) ima smisla računati matricu  k(A). 

Hamilton-Cayleyev teorem kaže da, ako je A zadana kvadratna matrica i k(λ) njen karakteristični polinom, onda je uvijek

k(A) = 0. 

Primijetimo da je nula na desnoj strani zapravo nul-matrica reda n (jer je k(A) matrica).

Ovu tvrdnju ćemo prihvatiti bez dokaza. Hamilton (Irac) i Cayley (Englez) su obojica nezavisno jedan od drugog došli to tog neočekivanog rezultata još u 19. st. Obojica su vrlo znameniti matematičari.

 

Pogledajte Primjer 11. Ovdje je zadana matrica A reda 3, a za njezin karakteristični polinom se dobije  

k(λ) = det (λI - A) = λ3 - 6λ2 + 12λ - 8.

Usput, podsjetimo se da je slobodni koeficijent karakterističnog polinoma u ovom slučaju različit od nula, pa je matrica A regularana. Štoviše, slobodni koeficijent je -8 = (-1)3det A, pa je det A = 8.

Evo što za ovu matricu kaže Hamilton-Cayleyev teorem: k(A) = 0, tj. 

A3 - 6A2 + 12A - 8I = 0. 

Primijetite da uz pomoć tog rezultata možemo vrlo lako izračunati inverznu matricu od A (a već smo vidjeli da je A regularna, tj. invertibilna). Dovoljno je gornu jednakost pomnožiti s A-1:

A2 - 6A + 12I - 8A-1 = 0,

tj. 

A-1 = 8-1(A2 - 6A + 12I).

Naravno, sa strane treba izračunati A= AA,  što je još uvijek puno manje posla nego računati devet algebarskih komplemenata od (kod izravnog proračuna A-1).

Također primijetite da se iz Hamilton-Cayeleyeva teorema u ovom primjeru lako računa i A3:

A3 = 6A2 - 12A + 8I.

Kako bismo računali A4? Samo prethodnu jednakost pomnođimo s A, i zatim za A3 koji se pojavi na desnoj strani upotrijebimo opet H-C teorem. Na taj način vidimo da se svaka pozitivna potencija od A može dobiti kao samo kvadratni polinom od A. Slično i za negativne potencije od A (samo u tom slučaju množimo s A-1).

 

Prelazimo na odjeljak 3.4. Nilpotentne matrice i Jordanova forma matrice (čitaj Žordánova, po francuskom matematičaru Jordanu - Žordánu).

Za kvadratnu matricu A kažemo da je nilpotentna, ako postoji neka potencija k takva da je Ak = 0. Primijetite da je 0 na desnoj strani nul-matrica.

Za matricu reda dva, primjer nilpotentne matrice je matrica N koja ima vrijednost 1 iznad glavne dijagonale, a na svim ostalim mjestima je jednaka nula. Primijetite da je ta matrica gornja trokutasta, s vlastitom vrijednošću nula na dijagonali (a ta je vlastita vrijednost je algebarske kratnosti dva). Za matricu N vrijedi N2 = 0, u što se možete za čas uvjeriti.

Za matricu reda tri, uzmimo matricu N koja ima na sporednoj dijagonali (tj. odmah iznad glavne dijagonale) vrijednosti jedan, a sve ostale vrijednosti su nula. Ta je matrica gornja trokutasta, a tri nule na glavnoj su onda  vlastite vrijednosti (0 je vlastita vrijednost algebarske kratnosti 3). Za tu matricu vrijedi da N2 ima sve vrijednosti nula, osima na drugoj sporednoj dijagonali, gdje su jedinice. Ako računmo N3 = N2N, dobijemo nul-matricu. Prema tome, N je nilpotentna.

Slično i za matricu reda četiri, koja ima jedinice na prvoj sporednoj  dijagonali, a ostalo su nule, vrijedi da je N4 = 0. Doista, matrica N2 ima jedinice na drugoj sporednoj dijagonali (a ostalo su nule), matrica N3 ima jedinice na trećoj sporednoj dijagonali, a N4 = 0.

Primijetite kako se uzastopnim potenciranjem takvih matrica jedinice u sporednoj dijagonali pomiču za jedan korak više prema gornjem desnom uglu matrice. To vrijedi i općenito.

 


 

Poštovani i dragi kolege,

nastavljamo s nilpotentnim matricama i sa Jordanovom formom matrice (Odjeljak 3.4.), a zatim prelazimo na Poglavlje 4 (Dijagonalizacija simetrične matrice). Molim pogledajte u nastavku ove obavijesti.

Nastavljamo s Odjeljkom 3.4.

Podsjećamo da se osnovni primjer nilpotentne matrice N (tj. matrica čija je neka potencija jednaka nul-matrici) dobiva tako da u N stavimo jedinice u prvoj sporednoj dijagonali (iznad glavne dijagonale), a na sva ostala mjesta nule. Zadnji puta smo vidjeli da je Nn = 0. Matrica Nk za k < n daje matricu koja će u k-toj sporednoj dijagonali imati jedinice, a ostala su mjesta su nula.

Matricu

J(λ) = λI + N

reda n, zovemo elementarnom Jordanovom klijetkom. Ona ima lambde na dijagonali, na sporednoj dijagonali jedinice, a svi ostali elementi su nula. Naravno, λ je vlastita vrijednost te matrice kratnosti n.

Propozicija 2 nam govori kako izgleda matrica P(J), tj. polinom od matrice, gdje je J elementarna Jordanova klijetka, a P(x) bilo koji polinom. Ta matrica je gornja trokutasta, s vrijednostima P(λ) na dijagonali, dok na prvu sporednu dijagonalu dolaze vrijednosti derivacije, P'(λ), na drugu sporednu dolaze brojevi P''(λ), itd. Pogledajte i dokaz te tvrdnje, koji se temelji na Taylorovom razvoju funkcije P(x) oko vrijednosti x = λ, a to je upravo Taylorov polinom.

U slučaju specijalnog polinoma P(x) = xk (gdje je ka prirodan broj), dobivamo (vidi Korolar 3) da matrica Jk na dijagonali ima vrijednosti λk, na prvoj sporednoj dijagonali vrijednosti λk-1, na drugoj λk-2, s odgovarajućim koeficijenti koji su binomni koeficijenti, koji su polinomi u k.

Iz ukupno r elementarnih Jordanovih klijetka J11),...,Jrr), može se izgraditi Jordanova matrica J, koja se dobije kao dijagonalna blok matrica, koja na dijagonali ima blokove J1,..., Jr. Matrica J ima na dijagonali brojeve λ1,...,λr (odgovarajućih kratnosti), na prvoj sporednoj dijagonali su jedinice (ne svuda), a na svim ostalim mjestima su nule. Dakle i ta matrica je gornja trokutasta. Za tu matricu kažemo da ima Jordanovu formu i zovemo ju Jordanovom matricom. Brojevi λ1,...,λr ne moraju biti svi međusobno različiti.

I za takvu Jordanovu matricu J se P(J) može lako izračunati, kao što je opisano nakon Korolara 3.

Najvažniji rezultat Odjeljka 3.4, koji navodimo bez dokaza, je Teorem 4 (Jordanov teorem), koji kaže da je svaka kvadratna matrica A slična nekoj Jordanovoj matrici J. Točnije, postoji matrica T s kompleksnim koeficijentima, takva da je

T-1AT = J.

Matrica J je određena jednoznačno do na poredak Jordanovih klijetka.

Jordanov teorem predstavlja dalekosežno poopćenje Schurova teorema (Schurove teorem kaže da je svaka kvadratna matrica slična gornjoj trokutastoj). 

Iz Jordanove forme (zapravo i iz Schurova teorema) odmah slijedi Teorem 5 o preslikavanju spektra matrice A. Podsjetimo se, spektar matrice A je skup njenih vlastitih vrijednosti λ1,...,λn; zapravo, bolje ga je gledati kao multiskup, tj. zajedno s kratnostima elemenata.


Teorem o preslikavanju spektra kaže ovo. Ako je A bilo koja kvadratna matrica i P(x) bilo koji polinom, onda matrica P(A) ima za vlastite vrijednosti brojeve P1),...,Pn), gdje su λ1,...,λn vlastite vrijednosti matrice A.

Dokaz ove tvrdnje je jednostavan. Po Schurovom teoremu je matrica A slična gornjoj trokutastoj matrici, koja na dijagonali ima vlastite vrijednosti λ1,...,λn. Matrica P(A) je onda slična gornjoj trokutastoj matrici, koja na dijagonali ima brojeve P1),...,Pn), a to su onda ujedno i vlastite vrijednosti te gornje trokutaste matrice. Budući da slične matrice imaju iste vlastite vrijednosti (jer su im isti karakteristični polinomi), onda iz toga slijedi da P(A) ima te iste vlastite vrijednosti (zajedno s njihovim algebarskim kratnostima). 

Primjere sa svođenjem matrice A na Jordanovu formu nećemo raditi.
Ovime završavamo Odjeljak 3.4., a time i Poglavlje 3.


Prelazimo sada na Poglavlje 4 (Dijagonalizacija simetrične matrice).

U Odjeljku 4.1. opisat ćemo Gramm-Schmidtov postupak ortogonalizacije vektora. Preskačemo Grammovu matricu i Teorem 1.

Pogledajte postupak ortogonalizacije. Cilj je od zadanih n linearno nezavisnih vektora x1,...,xn u unitarnom prostoru X (koji dakle ima svoj skalarni produkt) doći do n odgovarajućih vektora e1,...,en, koji su svi međusobno ortogonalni i različiti od nul-vektora, tako da ovi ortogonalni vektori razapinju isti podprostor u X kao i početni linearno nezavisni vektori.

Postupak Gramm-Schmidtove ortogonalizacije je jednostavan. 
Za e1 uzmemo x1.
Vektor e2 dobivamo tako da od x2 oduzmemo njegovu ortogonalnu projekciju na e1. (tj. na pravac L(e1))
Vektor e3 dobivamo tako da od x3 oduzmemo njegovu ortogonalnu projekciju na dvodimenzionalnu ravninu L(e1,e2).

Vektor e4 dobivamo tako da od x4 oduzmemo njegovu ortogonalnu projekciju na trodimenzionalnu ravninu L(e1,e2,e3).

Itd. na isti način.

Pogledajte Primjer 1

Teorem 2 nam kaže da se svaki ortogonalni skup vektora e1,...,ek različitih od nul-vektora (sadržanih u unitarnom prostoru X), može dopuniti do ortogonalne baze u X. Isto vrijedi ako riječi  ortogonalan zamijenimo s ortonormiran (tj. ortogonalan skup vektora koji su jedinični).

Dokaz slijedi odmah iz Gramm-Schmidtovog postupka ortogonalizacije, nakon što e1,...,ek dopunimo do neke baze e1,...,ek,ek+1,...,en u X.

QR-rastav matrice možete preskočiti (dakle i Teorem 3 i Primjer 2).

Pogledajte Primjer 3, u kojem s provodi ortogonalizacija linearno nezavisnog skupa funkcija 1, x, x2,..., u Lebesgueovom prostoru L2(-1,1), sa svojim uobičajenim skalarnim produktom (zadanim s pomoću integrala). Dobiveni polinomi zovu se Legendreovi polinomi (čitaj Ležándrovi). 

Prelazimo na Odjeljak 4.2. o simetričnim matricama.
Primjer 4 možete preskočiti.

Pogledajte jednakost (4), koja povezuje skalarni produkt vektora (u stupčanom prostoru Rn) s matričnim umnoškom:

(y)  = xTy.

Iz toga slijedi jednakost (5), koja kaže da za svaku kvadratnu matricu A reda n i vektore stupce x i y iz Rn, vrijedi

(Ax y) = (ATy).

Ovaj rezultat vrijedi čak i za pravokutne matrice A, vidi Lemu 1.

Posebno, ako je A simetrična matrica (tj. A = AT), onda za sve vektore stupce x i y vrijedi

(Ax y) = (Ay).


Teorem 4 kaže da svaka simetrična matrica ima sve vlastite vrijednosti realne.

Pogledajte vrlo kratak dokaz.

Teorem 5 kaže da ako je A simetrična matrica, onda su vlastiti vektori koji odgovaraju različitima vlastitim vrijednostima međusobno okomiti.

Pogledajte i dokaz tog teorema, koji je iznenađujuće jednostavan.

Ova dva teorema omogućit će nam da dokažemo da je svaka simetrična matrica A slična dijagonalnoj matrici D, koja na dijagonali ima vlastite vrijednosti od A. Za matricu sličnosti T je dovoljno uzeti T = [v1,...,vn], gdje su v1,...,vn vlastiti vektori koji odgovaraju vlastitim vrijednostima matrice A.

Za dokaz te tvrdnje treba nam pojam ortogonalne matrice, koji uvodimo u Odjeljku 4.3.

Za kvadratnu matricu S (s realnim koeficijentima) kažemo da je ortogonalna, ako su njezini stupci  ortonormirani vektori. Drugim riječima, vektori stupci su međusobno ortogonalni (s obzirom na skalarni produkt u Rn) i jedinični.

Teorem 6 kaže da ako je S ortogonalna matrica, onda je ona i invertibilna, i pritom je njezin inverz jednak transponiranoj matrici:

S-1 = ST.

Pogledajte iznenađujuće kratak dokaz tog teorema.
Nije teško vidjeti da vrijedi i obrat tog teorema: ako je SST = STS = I, onda je S ortogonalna matrica.

Odavde se vidi prilično nevjerojatna stvar: ako je matrica S ortogonalna po stupcima (tj. stupci su joj ortonormirani), onda je ona i ortogonalna po redcima (tj. redci su joj ortonormirani).


Iz ovog teorem i Binet-Cauchyjeva teorema odmah slijedi da je determinante ortogonalne matrice uvijek jednaka plus ili minus 1. Vidi Teorem 7.

Među matricama reda n = 2 postoje samo dva tipa ortogonalnih matrica:

(a) matrica operatora rotacije za kut φ oko ishodišta

(b) matrica operatora zrcaljenja u odnosu na pravac kroz ishodište koji s vodoravnom osi zatvara kut φ/2.

Među matricama reda n = 3, imamo više ortogonalnih matrica: na primjer bilo koja dijagonalna blok matrica, koja za jedan blok ima matricu opisanu u (a) ili (b), a na preostalom 1x1 bloku ima broj 1 ili -1. Na primjer, matrica operatora rotacije prostora V3 oko z-osi je ortogonalna matrica (pogledajte Primjer 18 u Odjeljku 2.3).

 


 

Poštovani i dragi kolege,

u ovom predavanja obrađujemo sljedeće teme: Dijagonalizacija simetrične matrice (nastavak) i matrične norme. Molim pogledajte u nastavku obavijesti.


Na kraju zadnjeg predavanja smo upoznali ortogonalne matrice: to su matrice čiji stupci su ne samo ortogonalni, nego i jedinični vektori stupci. Drugim riječima, stupci ortogonalne matrice su ortonormirani vektori (a ne samo ortogonlani, kao što naziv sugerira).

Inverz ortogonalne matrice S je transponirana matrica ST. Odatle slijedi da ako matrica S ima ortonormirana stupce, onda ima i ortonormirane redke!

Ortonormirane matrice čuvaju Euklidsku normu vektora, tj.

||Sx|| = ||x||.

Pogledajte dokaz pri kraju Odjeljka 4.3. (u jednom redku). Odatle odmah slijedi da ortogonalne matrice čuvaju i udaljenost među vektorima: ||Sx - Sy|| = ||x - y||. Kažemo još da je S izometrija.

U slučaju matrice rotacije ravnine V2, to je jasno: duljina vektora x se rotacijom ne mijenja; također, udaljenost vektora x i y se njihovom rotacijom (za odabrani kut φ) ne mijenja.

Zanimljivo je da je umnožak dviju ortogonalnih matrica istog reda opet ortogonalna matrica. Pogledajte vrlo kratak dokaz na samom kraju Odjeljka 4.3.


Prelazimo na Odjeljak 4.4. Dijagonalizacija simetrične matrice.

Kao što znamo, nije točno da se svaka kvadratna matrica A može dijagonalizirati (drugim riječima, da postoji regularna matrica T takva da je T-1AT dijagonalna). Na primjer, matrica operatora zakošenja (vidi Primjer 13 u Odjeljku 2.3.) se ne može dijagonalizirati.

Međutim, ako je matrica A simetrična onda se ona može dijagonalizirati. Štoviše, za svaku simetričnu matricu A postoji ortogonalna matrica S, takva da je S-1AS, tj. 

STAS

dijagonalna matrica.
Kažemo kraće da je svaka simetrična matrica ortogonalno slična dijagonalnoj matrici (kojoj su na dijagonali vlastite vrijednosti matrice A; znamo od prije da su sve one realne).

Budući da za S = [v1,...,vn] vrijedi Sv1 = λ1v1, ..., Svn = λnvn, vidimo da su vektori stupci matrice S ortonormirani vektori koji čine vlastite vektore simetrične matrice A.

Preskačemo dokaz tog teorema (Teorem 8). Reći ćemo samo da je dokaz vrlo sličan dokazu Schurova teorema (koji kaže da je svaka kvadratna matrica A slična gornjoj trokutastoj). U tom dokazu važnu ulogu ima i Gramm-Schmidtov postupak ortogonalizacije, zajedno s Teoremima 4 i 5.

Teorem o dijagonalizaciji simetrične matrice ima sljedeću posljedicu (Teorem 9), koji se zove i spektralni teorem:


Za svaku simetričnu matricu postoji ortonormirana baza e1,...,en (ne nužno kanonska) u Rn, takva da za sve vektore x u Rn vrijedi

Ax = λ1(x | e1) + ... + λn(x | en)

Pritom su λ1,...,λn vlastite vrijednosti simetrične matrice A.

Podsjetimo se da se skup svih vlastitih vrijednosti matrice A zove spektrom matrice.

Pogledajte Primjer 7, u kojem treba dijagonalizirati jednu konkretnu simetričnu matricu.
Primijetite da rješenje ide u tri koraka. 

(a) Prvi korak je izračunavanje vlastiti vrijednosti matrice A (tj. nalaženje nultočaka karakterističnog polinoma).

(b) Drugi korak se sastoji od nalaženja pripadajućih vlastitih vrijednosti. U tom koraku imamo u tom primjeru vlastitu vrijednost λ1 = 4, za koju nađemo pripadajući vlastiti vektor, te ga normiramo. To nam daje prvi vlastiti vektor e1, koji će ujedno biti i prvi stupac matrice S (s pomoću koje će matrica A biti dijagonalizirana). 

Druga vlastita vrijednost je λ2,3 = 1, koja je algebarske kratnosti 2 (za simetrične matrice je algebarska kratnost ista kao i geomtrijska kratnost, tj. dimenzija pripadajućeg vlastitog podprostora). Opći oblik vlastitog vektora e je u ovom slučaju linearna kombinacija dvaju vektora, nazovimmo ih s a i b. Ta dva vektora a i b možete ortogonalizirati Gramm-Schmidtovim postupkom (koji je vrlo kratak):

a' = a

b' = b - Pab

 Nakon ortogonalizacije, ova dva ortogonalna vlastita vektora treba još i normirati, tj. podijeliti s njihovom duljinom (da bismo dobili jedinične, tj. normirane vektore):

e2 = a' / ||a'||,  e3 = b' / ||b'||. 

Time dobivamo vektore e2 i e3, koji će činiti vektore stupce matrice S.
Primijetite da je vektor e1 (vlastiti vektor koji odgovara vlastitoj vrijednosti λ1 = 4), okomit i na e2 i na e3 (vlastiti vektori koji odgovaraju vlastitoj vrijednosti λ2 = 1). To je u skladu s Teoremom 3, koji kaže da za simetričnu matricu A, vlastiti vektori koji odgovaraju različitim vlastitim vrijednostima, moraju biti međusobno okomiti.


(c) Treći korak je jednostavan. Kada smo za λ1 i λ2,3 našli odgovarajuće ortonormirane vlastite vektore e1, e2 i e3, onda gradimo ortogonalnu matricu S = [e1,e2,e3], s pomoću koje se matrica A dijagonalizira:

STAS = D,

gdje je D dijagonalna matrica, s vlastitim vrijednostima 4, 1, 1 na dijagonali.


Prelazimo na Poglavlje 5.: Matrične norme, spektar i spektralni radius matrice.

Odjeljku 5.1. ćemo uvesti pojam operatorske norme i konvergencije (slijeda ili niza) matrica.

Ako imamo dva (konačnodimenzionalna) vektorska prostora X i Y (nad istim poljem, R ili C), možemo promatrati skup svih linearnih operatora A iz X u Y. Označimo taj skup s L(X,Y). Ako imamo dva takva linearna operatora A i B (iz X u Y), onda ih možemo zbrajati. Linearni operator A + B definiramo na sasvim prirodan način:

(A + B)(x) = A(x) + B(x).

(Primijetite da na desnoj strani imamo zbrajanje dvaju vektora u Y.) 
Također, za odabrani skalar λ i operator A (iz X u Y) možemo definirati operator lambda A:

A)(x) = λ A(x).

Primijetite da na desnoj strani imamo množenje skalara i vektora u Y.
Prema tome, na skupu L(X,Y) svih linearnih operatora iz X u Y, imamo definirane operacije zbrajanja i množenja sa skalarom. 

Vrlo je lako provjeriti da time skup L(X,Y) postaje vektorski prostor (tj. da je ispunjeno svih osam vrlo jednostavnih svojstava iz definicije vektorskog prostora). Primijetite da su elementi vektorskog prostora L(X,Y) linearni operatori, ili kraće, operatori (tj. njih gledamo kao "vektore" tog vektorskog prostora). Ako je X = Y, onda prostor L(X,X) označujemo kraće sa L(X).

Može se pokazati da je dimenzija prostora L(X,Y) jednaka umnošku dimenzija od X i Y, tj.

dim L(X,Y) = dim X dim Y.

U slučaju kada je X = Rn, Y = Rm, prostor L(Rn, Rm) je zapravo prostor svih matrica tipa m x n, jer svakom linearnom operatoru iz Rn u Rm odgovara matrica A tipa m x n (u paru kanonskih baza u Rn i Rm). U tom je slučaju

dim L(Rn, Rm) = mn.

Na vektorskom prostoru L(X,Y) možemo općenito definirati razne norme.
Jedna od njih je osobito važna. Ako su X i Y normirani prostori (svaki sa svojom zadanom normom), onda se na prostoru L(X,Y) može definirati tzv. operatorsko norma:

||A|| = sup ||Ax|| / ||x||  

gdje supremum uzimamo po svim vektorima x različitimo od nul-vektora. Pokazuje se da je taj supremum zapravo maksimum. Vrlo lako je vidjeti da je ta norma jednaka

||A|| = max ||Ax||

gdje maximum uzimamo po svim jediničnim vektorima x (s obzirom na normu u X). 

Kako u konkretnoj situaciji izračunati operatorsku normu lienarnog operatora (ili matrice) A?

Vrlo lako je vidjeti da je normu od A moguće definirati i na ovaj ekvivalentan način, koji se sastoji od sljedeća dva zahtjeva:

1. Norma ||Ax|| je manja ili jednaka od umnoška ||A|| i ||x||, za sve x;

2. ||A|| ima svojstvo minimalnosti: to je najmanji broj M za koji vrijedi da je norma ||Ax|| manja ili jednaka od umnoška M i ||x||, za sve x.

Uz pomoć ovog je vrlo lako je provjeriti da je operatorska doista norma (tj. da su ispunjena tri uvjeta iz definicije norme: pozitivnost, homogenost i nejednakost trokuta).

Operatorska norma ima i još jedno važno svojstvo. Ako su A i B sadržani u L(X) (drugim riječima, A i B su linearni operatori iz X u X), onda je dobro definiran linearni operator kompozicije AB, koji je također sadržan u L(X). Onda je norma ||AB|| manja ili jednaka od umnoška normi ||A|| i ||B||. Pogledajte vrlo kratak dokaz (u jednom redku).

Odatle matematičkom indukcijom odmah slijedi da za svaki prirodan broj broj k vrijedi da je norma ||Ak|| manja ili jednaka od ||A||k. Pritom Ak treba shvatiti kao k-struku kompoziciju operatora. Naravno, ako umjesto operatora A imamo matricu A, onda Ak predstavlja k-tu potenciju kvadratne matrice A.

Lienarni operatori iz realnog vektorskog prostora X u jednodimenzionalan vektorski prostor R zovu se linearni funkcionali (obično ih, umjesto s A, označjuemo s f). Vektorski prostor L(X,R) zove se dualni prostor od X, i označuje sa X'. Pokazuje se da, ako je X unitarni prostor (tj. vektorski prostor sa skalarnim produktom), onda za svaki linearni funkcional f u X' (tj. linearni operator iz X u R) postoji vektor a u X, takav da se f može reprezentirati s pomoću skalarnog produkta:

f(x) = (x | a).

To je sadržaj poznatog Rieszovog teorema o reprezenaticiji linearnog funkcionala.

Na primjer, lienarni funkcional f : R3 -> R definiran sa f(x1,x2,x3) = 2x1 + 3x2 - 5x3 je oblika f(x) = (x | a), pri čemu je x = (x1,x2,x3)T i a = (2,3,-5)T.

Nas najviše zanima situacija kada je X = Rn, Y = Rm. Vektorski prostor L(Rn, Rm) svih lienarnih operatora iz Rn u Rm možemo poistovjetiti s vektorskim prostorom Mmn svih matrica tipa m x n (jer svakom linearnom operatoru A odgovara matrica A tipa m x n, u odabranom paru kanonski baza). 

U Rn i Rm odaberemo max-norme (ili beskonačno-norme). Drugim riječima, u Rn je beskonačno norma od x jednaka maksimumu svih apsolutnih vrijednosti komponenata od x. Slično za vektore u Rm. Pitanje je čemu je jednaka odgovarajuća operatorska norma matrice A? Točnije, želimo izračunati ||A|| = max ||Ax||, gdje maksimum uzimamo po jediničnim vektorima x u Rn (jedinični s obzirom na beskonačno normu u Rn!), izražen s pomoću koeficijenata matrice A, ako je to moguće.

Tu ćemo normu također zvati beskonačno normom od A.

Pokazuje se da je beskonačno normu matrice A moguće dobiti ovako: pogledamo za bilo koje redak od A zbroj apsolutnih vrijednosti po tom redku, pa zatim uzmemo maksimum svih tih zbrojeva po redcima. Pogledajte dokaz nejednakosti "manje ili jednako", koji je vrlo kratak (u dva redka).

Ta se operatorska norma (beskonačno norma matrica A) često zove i max-norma matrice A po redcima, ili još kraće - redčanom normom od A.


Ako u Rn i Rm umjesto max-norme odaberemo 1-norme (tj. ||x||1 je zbroj apsolutnih vrijednosti komponenata od x), onda se na sličan način dobiva da je operatorska 1-norma matrica A jednaka maksimumu zbrojeva apsolutnih vrijednosti stupaca matrice A. Zato se ta operatorska norma zove i stupčanom normom od A.

Ako su A i B kvadratne matrice istog reda, onda za obje operatorske norme vrijedi (kao što znamo) da je norma ||AB|| manja ili jednaka od umnoška ||A|| i ||B||.

Budući da imamo definiranu normu na skupu matrica A tipa m x n, onda možemo definirati i udaljenost matrica A i B kao

d(A,B) = ||A - B||.

Za vježbu, pronađimo udaljenost između jedinične matrice reda 2 i matrice operatora rotacije za kut od π/2 radijana, s obzirom na redčanu normu. Naravno, najprije treba oduzeti te dvije matrice A i B, i onda izračunati redčanu normu te razlike. Budući da A - B ima u prvom redku brojeve 1 i 1, a u drugom 1 i -1, onda je maksimum zbroja apsolutnih vrijednosti po redcima te matrice jednak

||A - B|| = max {|1|+|1|, |1|+|-1|} = max {2, 2} = 2.

Znači, d(A,B) = 2, tj. udaljenost između matrica A i B iznosi 2.

 


 

Odjeljak 5.1.
Pretpostavimo da smo na prostoru pravokutnih matrica Mmn odabrali bilo koju normu, ne nužno operatorsku.

Za beskonačan slijed matrica (Ak) (tj. slijed istog tipa, A1, A2, A3,...) kažemo da konvergira prema matrici A kad k teži u beskonačno, ako slijed realnih brojeva ||Ak - A|| teži prema nuli kad k teži u beskonačno.  (Podsjetimo se da broj ||Ak - A|| interpretiramo kao udaljenost između matrica Ak i A.)

Pokazuje se da ova definicija ne ovisi o izboru norme, tj. granična matrica A je neovisna o izboru norme. To je posljedica toga što je vektoriski prostor Mmn konačno-dimenzionalan (točnije, dimenzije mn).

Pogledajte Primjer 1.

Pogledajmo pojam beskonačnog reda pravokutnih matrica (istog tipa). Kažemo da beskonačan red matrica 

A1 + A2 + A3 + ...

konvergira, ako slijed njegovih parcijalnih suma Sk := A1 + ... + Ak konvergira prema nekoj matrici S, kada k teži u beskonačno. U tom slučaju onda pišemo da je 

A1 + A2 + A3 + ...  =  ,

a matricu S zovemo sumom reda. Kao što vidimo, definicije su potpuno analogne kao i u Matematičkoj analizi 1, kada umjesto matrica imamo realne brojeve (tj. 1 x 1 matrice).

Pogledajte Primjer 2

Ako je A kvadratna matrica, onda se može definirati eksponencijalna matrica eA, putem formalnog razvoja u red potencija. On se dobije tako da funkciju ex razvijemo u red potencija oko nule, te umjesto x uvrstimo matricu A (pritom ne zaboravimo da umjesto slobodnog koeficijenta 1 stavljamo jediničnu matricu I).

Taj red potencija konvergira za bilo koju odabranu kvadratnu matricu A. Na taj način dolazimo do pojma eksponencijalne funkcije matrice.

Pogledajte Primjer 3 i osobito Primjer 4 (u digitalnoj inačici knjige, koja Vam je stavljena u repozitorij).

Primjer 4 je zanimljiv, jer pokazuje da je A matrica rotacije ravnine za kut od π/2 radijana oko ishodišta (tj. matrica koja u prvom redku ima 0 i -1, a u drugom 0 i 1), onda eksponencijalna matrica eAt predstavlja matricu rotacije ravnine za kut od t radijana, pri čemu je t bilo koji zadani realni broj. Drugim riječima, matrica eAt ima u prvom redku cos t i -sin t, a u drugom redku sin t i cos t. Pogledajte kratak dokaz te tvrdnje.

 

Prijeđimo na odjeljak 5.3. Spektralni radius i Neumannov red matrice A.

Podsjetimo se, spektar kvadratne matrice A reda n se definira kao skup od svih n vlastitih vrijednosti matrice A:

σ(A) := {λ1,..., λn}.

Prema tome, spektar matrice A je podskup kompleksne ravnine, koji se sastoji od n njenih vlastitih vrijednosti (točnije, riječ je o multiskupu, jer neke vlastite vrijednosti mogu imati svoju algebarsku kratnost):

σ(A) = {λ : k(λ) = 0 }.

gdje je k(λ) = det (λI - A) karakteristični polinom matrice A.

Spektralni radius kvadratne matrice A definira se kao maksimum apsolutnih vrijednosti svih vlastitih vrijednosti matrice:

r(A) := max {|λ1| ,..., |λn|}

Ili što je isto, spektrani radius r(A) je radius najmanjeg kruga oko ishodišta u kompleksnoj ravnini koji sadrži spektar σ(A) matrice A (tj. sve njene vlastite vrijednosti).

Pogledajte Teorem 1 i njegov dokaz (koji se temelji na uporabi Jordanova teorema). 
Teorem 1 kaže da je spektralni radius matrice A strogo manji od 1 onda i samo onda ako Ak konvergira prema nuli kad k teži u beskonačno.

Osnovni rezultat Odjeljka 5.2. je sadržan u Teoremu 2, koji kaže da ako je spektralni radius matrice A strogo manji od 1, onda je I - A regularna matrica, i njen inverz se može razviti u red potencija:

(I - A)-1 = I + A + A2 + ... ,

pri čemu je beskonačan red na desnoj strani konvergentan. Taj se red zove Neumannov red (pritom Neumann nije ista osoba kao von Neumann).
Pogledajte dokaz te tvrdnje, u kojem se koristi Teorem 1.


Ali svakako pogledajte Propoziciju 2, njen dokaz, kao i Primjer 5.

Propozicija 2 i njen dokaz, zajedno s Primjerom 5

(taj dio nedostaje u ovom PDF-u, na kraju str. 23, neposredno prije Odjeljka 5.4.).

 

Prijeđimo sada na Odjeljak 5.4. Spektralni radius i spektralna norma matrice.

Podsjetimo se, za kvadratnu matricu A s realnim koeficijentima kažemo da je simetrična, ako je AT = A. Općenitije, za kvadratnu matricu A s kompleksnim koeficijentima kažemo da je hermitska, ako je A* = A. Pritom se matrica A* iz A dobiva konjugiranjem svih njenih elementa  (tj. konjigiramo sve kompleksne brojeve aij koji ulaze u matricu A) i zatim transponiranjem dobivene matrice.

Pojmu pozitivnih i strogo pozitivnih realnih brojeva, u svijetu simetričnih kvadratnih matrica odgovaraju pojmovi pozitivno semidefinitne matrice A i pozitivno definitne matrice A, koje ćemo sada definnirati. Slično i u svijetu hermitskih matrica.

Ako je A simetrična matrica (ili općenitije, hermitska matrica), kažemo da je matrica A pozitivno semidefinitna (tj. pozitivno polu-definitna), ako vrijedi da je (Ax | x) veće ili jednako od nule za svaki vektor x iz Rn (ili u slučaju hermitske matrice, za svaki vektor x iz Cn).

Ako je (Ax | x) strogo veće od nula za sve vektore x različite od nul-vektora, kažemo da je simetrična matrica A pozitivno definitna.

Za bilo koju pravokutnu matricu A definiramo njezinu spektralnu normu (ili 2-normu) kao operatorsku normu generiranu Euklidskom normom.

Vrijedi vrlo zanimljiv Teorem 1, koji kaže da je spektralna norma bilo koje pravokutne matrice A (s kompleksnim koeficijentima) jednaka korijenu iz spektralnog radiusa matrice A*A

Primijetite da je matrica A*A uvijek kvadratna matrica, iako je A općenito pravokutna. Naime, ako je A tipa m x n, onda je A* tipa n x m, pa je A*A tipa n x n).

Pogledajte dokaz Teorema 1, koji je iznenađujuće jednostavan (a temelji se na uporabi spektralnog teorema za simetrične matrice, tj. Teorema 9 iz Odjeljka 4.4; sličan teorem vrijedi i za još općenitije - hermitske matrice s kompleksnim koeficijentima).

Iz Teorema 1 odmah slijedi Korolar 2, koji kaže da ako je A hermitska matrica (tj. A* = A), onda je spektralni radius matrice A jednak spektralnoj normi (ili 2-normi) od A.

Pogledajte Primjer 6.

 


 

Poštovani i dragi kolege,

nastavljamo s petim poglavljem i prelazimo na Odjeljak 5.5. posvećen stabilnim matricama.

Pogledajte nastavak ove obavijesti.

Prelazimo na Odjeljak 5.5. Stabilne matrice.
Za kvadratnu matricu A kažemo da je stabilna, ako sve njene vlastite vrijednosti leže lijevo od imaginarne osi kompleksne ravnine, tj. za svaku vlastitu vrijednost λ je njen realni dio (strogo) manji od 0. 

Osnovni rezultat je sadržan u Teoremu 1, koji kaže da je matrica A stabilna onda i samo onda ako eksponencijalna matrica eAt konvergira prema nul-matrici kada t teži u plus beskonačno.

Pogledajte i dokaz tog teorema, koji se temelji na primjeni Jordanova teorema.
Mala priprema za razumijevanje tog dokaza je bio i 2. zadatak iz 3. domaće zadaće.

Pogledajte Primjer 9 u Odjeljku 5.5. (u PDF-u), koji je koristan u teoriji dinamičkih sustava i u teoriji stabilnosti.


Prelazimo na Odjeljak 5.6. Geršgorinov teorem o krugovima.

Ako je zadana kvadratna matrica A reda n, s kompleksnim koeficijentima, onda joj najprije pridružujemo broj r1, koji predstavlja zbroj apsolutnih vrijednosti svih elemenata matrice A u prvom redku, osim prvog elementa. Slično, r2 je zbroj apsolutnih vrijednosti svih elemenata matrice A u drugom redku, osim drugog elementa, itd. do rn. Kao što vidite, zbrajanjem apsolutnih vrijednosti po redcima, preskačemo dijagonalne elemente matrice A.

Definiramo i-ti Geršgorinov krug Di, kao skup svih kompleksnih brojeva z koji su od dijagonalnog elementa aii udaljeni najviše za ri. Matrici A pridružujemo na taj način n Geršgorinovih krugova, gdje je i = 1,...,n.

Za matricu A kažemo da je dijagonalno dominantna, ako je apsolutna vrijednost od aii veća od ri, tj. od zbroja apsolutnih vrijednosti svih ostalih elemenata u i-tom redku, za svaki i.

Geršgorin je 1931. g. dokazao da se sve vlastite vrijednosti bilo koje kvadratne matrice A nalaze u uniji svih njenih Geršgorinovih krugova D1,...,Dn. To je sadržaj Teorema 1.

Pogledajte dokaz Teorema 1, koji je iznenanđujuće jednostavan i elegantan.

Iz tog teorema odmah imamo zanimljiv zaključak, sadržan u Korolaru 2: (a) Ako je matrica A dijagonalno dominantna, onda je ona regularna. (c) Ako su povrh toga svi dijagonalni elementi aii negativni, onda je A matrica stabilna.

Dokaz tog korolara je jednostavan. Iz uvjeta Korolara (a), tj. iz dijagonalne dominantnosti matrice A, slijedi da kompleksni broj 0 nije sadržan u Di, niti za koji i (jer u suprotnom matrica A ne bi bila dijagonalno dominantna). Prema tome, kompleksni broj 0 nije sadržan niti u uniji Geršgorinovih krugova. Iz Teorema 1 slijedi onda niti koja vlastita vrijednost ne može biti nula. Budući da je determinanta det A jednaka umnošku vlastitih vrijednosti matrice A, onda je taj umnožak različit od nula, pa je matrica A regularna.

Da bismo dokazali tvrdnju pod (c), primijetite da je središte Geršgorinova kruga Di upravo u aii, koji je po pretpostavci negativan. Radi toga je cijeli krug Di sadržan lijevo od imaginarne osi (nacrtajte sliku), pa je dakle i unija svih Geršgorinovih krugova lijevo od imaginarne osi. Iz Geršgorinova Teorema 1 dobivamo da je spektar matrice A (tj. skup svih njenih vlastitih vrijednosti) lijevo od imaginarne osi. Time je dokazano da je matrica A stabilna.

Odjeljak 5.7 Bauerov teorem o Cassinijevim ovalima preskačemo.

Prelazimo na Odjeljak 5.8. Jacobijeva i Gauss Sedelova iterativna metoda.

Proučite sami Jacobijevu iterativnu metodu. Gauss-Seidelovu metodu možete preskočiti.
Cilj je riješiti matričnu jednadžbu Ax = b u Rn, tako da se zapiše u obliku 

x = Tx + b',

pri čemu je matrica T u nekom smislu "mala" (tj. u smislu spektralnog radiusa, ili čak u smislu neke operatorske norme, na pr. beskonačno norme). Ta se jednadžba obično dobije tako da iz jednadžbe Ax = b računamo po komponentama x1, x2 , itd. Onda gradimo iterativni postupak (slijed vektora) x(1), x(2), x(3), ... u Rn,definiran sa

x(k+1) = Tx(k) + b' ,

gdje je k = 0, 1, 2, ... a za početnu iteraciju x(0) uzimamo bilo koji vektor, na pr. nul-vektor. 

Taj iterativni postupak uz određene uvjete konvergira prema rješenju početnog sustava Ax = b. Pogledajte Teorem 1, slučaj (a), Jacobijeva metoda. Slučaj (b) s Gauss-Seidelovom metodom preskačemo.

Specijalan slučaj tog teorema je Korolar 2, koji kaže da ako je matrica A dijagonalno dominantna, onda Jacobijeva metoda konvergira prema rješenju početnog sustava Ax = b. Zanimljivo je da iz dijagonalne dominantnosti matrice A slijedi da je beskonačno norma matrice T strogo manja od 1, a iz toga onda slijedi i da je spektralni radius matrice T strogo manji od 1 (vidi Propoziciju 2(b) u Odjeljku 5.3.)

Pogledajte Primjer 11.

 

Prelazimo na odjeljak 5.9. Matričan analiza za linearne diferencijalne jednadžbe.

Linearna diferencijalna jednadžba višeg reda (na primjer, četvrtog reda), može se zapisati kao matrična diferencijalna jednadžba prvog reda u R4. Pogledajte primjer na samom početku ovog Odjeljka.

Pogledajte definiciju Cauchyjeva problema. To je vektorska diferencijalna jednadžba, zajedno sa zadanim počenim uvjetom.

Pogledajte i definiciju evolucijske matrice X(t) (ili fundamentalne matrice), za odgovarajući homogen linearni Cauchyjev problem x'(t) = A(t)x(t) (diferencijalna jednadžba), x(0) = x0 (zadani početni uvjet) u prostoru Rn.

Ako znamo evolucijsku matricu X(t) tog problema, onda znamo i rješenje Cauchyjeva problema:

x(t) = X(t)x0.

To je sadržaj Propozicije 1. Evolucijska matrica X(t) kao da množenjem "razmazuje" početno stanje x0 u prostoru Rn.

Ako linearni Cauchyjev problem ima matricu A s konstantnim koeficijentima (tj. neovisnom o vremenu t), tj. gledamo problem x'(t) = Ax(t), onda je evolucijska matrica zapravo eksponencijalna funkcija matrice:

X(t) = eAt.

Radi toga će rješenje homogenog linearnog Cauchyjeva problema x'(t) = Ax(t), x(0) = x0, biti jednako

x(t) = eAtx0.

O tome govori Propozicija 2.

U Teoremu 3 je opisan postupak rješanja nehomogene linearne diferencijalne jednadžbe u Rn:

x'(t) = Ax(t) + f(t),

gdje je nehomogeni dio f(t) zadana vektorska funkcija s vrijednostima u prostoru Rn.

Pogledajte Primjer 12.

Odjeljke 5.10. (Varijacijska karakterizacija vlastitih vrijednosti hermitske matrice) i 5.11. (Frechetova derivacija) preskačemo.


 

Poštovani i dragi kolege,

ovim zadnjim predavanjem prelazimo na poglavlje 6. Singularna dekompozicija matrica. Molim prijeđite na nastavak ove obavijesti.

Odjeljak 6.1. Singularne vrijednosti matrice

Na početku Odjeljka 6.1 u šestom poglavlju, koje možete vidjeti u Repozitoriju, pogledajte motivaciju za upoznavanje singularnih vrijednosti matrice.

Pogledajte definiciju traga matrice, Primjer 1 i definiciju Frobeniusove norme matrice.

Propozicija 1 pokazuje da se Frobeniusova i spektralna norma matrice ne mijenjaju ako ih pomnožimo s ortogonalnom matricom, bilo s lijeva, bilo s desna.

Znamo da je umnožak Ax zapravo linearna kombinacija stupaca matrice A, s koeficijentima koji su komponente vektora-stupca x. Poopćenje te tvrdnje nalazi se u formuli (4).

Pogledajte Lemu 2 i Primjer 3

Pogledajte definiciju singularne vrijednosti pravokutne matrice (to su drugi korijeni iz vlastitih vrijednosti matrice AA⊤

, ili ekvivalentno tome - matrice A⊤A

, koje su općenito pozitivno semidefinitne).

Pojam dijagonalne matrice definira se i za pravokutne matrice.

U Odjeljku 6.2. proučite sadržaj Teorema 3, koji predstavlja osnovni rezultat o singularnoj dekompoziciji matrice (dokaz možete preskočiti, iako je on dosta jednostavan). Osnovno je sadržano u formuli (6): singularni rastav matrice (engl. SVD - singular value decomposition). 


Pogledajte Primjetbu 3, koja daje intuitivan geometrijski opis singularne dekompozicije pravokutne matrice.

Pogledajte Primjer 5

U Korolaru 4 opisana je tzv. skraćena singularna dekompozicija matrice. Pogledajte njen kratak dokaz.

Pogledajte Primjer 8

Odmah nakon Primjera 9 dan je još jedan intuitivan opis singularne dekompozicije, duljine jedne stranice, koji molim da pročitate.

U Odjeljku 6.4., definiran je pseudoinverz pravokutne matrice (ili generalizirani inverz). Teorem 6 opisuje osnovna svojstva pseudoinverza. Pogledajte i kratak dokaz.

One koje zanima više, pozivljem da pogledaju kratko 15-minutno predavanje o SVD-u, koje je održao profesor Gilbert Strang (MIT). Evo još jednog njegovog kratkog predavanja, koje traje manje od 15 min., ali sadrži nešto više tehničkih pojedinosti.

Pozivljem Vas također da pogledate barem dijelove 18-minutnog predavanje profesora Zlatka Drmača održanog 2019. na Sveučilištu u Manchesteru. Kolega Drmač je uz profesora Krešmira Veselića vodeći stručnjak za matričnu analizu u Hrvatskoj. O njihovom zajedničkom radu možete neke osnovne podatke naći ovdje. Profesori Drmač i Veselić su dobitnici prestižne SIAM-ove nagrade 2009. g., zbog otkrića brze i točne numeričke metode za nalaženje singularnih vrijednosti matrica (tzv. Jacobi SVD). Metoda nalazi primjene u mnogim područjima znanosti gdje je nužno brzo nalaženje vlastitih vrijednosti matrica, na pr. u fizici, tehnici, računalnim znanostima te u socijalnim znanostima. Vrijedi poslušati i TV emisiju u kojoj gostuje prof. Drmač.

Ovo je konac posljednjeg predavanja.