Biografier Kjennetegn Analyse

Egenverdier (tall) og egenvektorer Eksempler på løsninger. Egenverdier og egenvektorer til en matrise

Forelesning 9

Lineære transformasjoner av koordinater. Egenvektorer og egenverdier til en matrise, deres egenskaper. Karakteristisk polynom av en matrise, dens egenskaper.

Vi vil si det på settet med vektorerRgitt transformasjon OG , hvis hver vektor X R ifølge en eller annen regel, vektoren OG X R.

Definisjon 9.1.transformasjon OG kalt lineær, hvis for noen vektorer X og og for et hvilket som helst reelt tall λ likestilling er oppfylt:

OG( X + )=OG X+ A ,A(λ X ) = λ A X. (9.1)

Definisjon 9.2.Den lineære transformasjonen kalles identisk, hvis den transformerer en hvilken som helst vektor X inn i seg selv.

Identitetstransformasjonen er betegnet HENNE X= X .

Vurder et tredimensjonalt rom med grunnlag e 1 , e 2, e 3 , der den lineære transformasjonen er spesifisert OG. Ved å bruke det på basisvektorene får vi vektorene OG e 1, OG e 2, OG e 3 som tilhører dette tredimensjonale rommet. Derfor kan hver av dem utvides på en unik måte når det gjelder basisvektorer:

OG e 1 = en 11 e 1+ en 21 e 2+a 31 e 3,

OG e 2 = en 12 e 1+ en 22 e 2+ en 32 e 3 ,(9.2)

OG e 3= en 13 e 1+ en 23 e 2+ en 33 e 3 .

Matrise kalt matrise lineær transformasjon OG på grunnlag e 1 , e 2, e 3 . Kolonnene i denne matrisen er sammensatt av koeffisientene i formlene (9.2) for basistransformasjonen.

Kommentar. Selvfølgelig er iidentitetsmatrise E.

For en vilkårlig vektor X = x 1 e 1+ x 2 e 2+ x 3 e 3 resultatet av å bruke en lineær transformasjon på den OG vil vektor OG X, som kan utvides i vektorer med samme basis: OG X =x` 1 e 1+ x` 2 e 2+ x` 3 e 3 , hvor koordinatenex` Jegkan bli funnet ved å bruke formlene:

X` 1 = a 11 x 1 + a 12 x 2 + a 13 x 3 ,

x` 2 = a 21 x 1 + a 22 x 2 + a 23 x 3,(9.3)

x` 3 = en 31 x 1 + en 32 x 2 + en 33 x 3 .

Koeffisientene i formlene for denne lineære transformasjonen er elementer i matrisens rader OG.

Lineærsjon

ved flytting til nytt grunnlag.

Tenk på en lineær transformasjon A og to baser i tredimensjonalt rom: e 1, e 2, e 3 og e 1 , e 2 , e 3 . La matrisen C definere overgangsformlene fra grunnlaget (e k) til grunnlag ( e k). Hvis i den første av disse basene er den valgte lineære transformasjonen gitt av matrisen A , og i den andre - av matrisen OG, så kan vi finne en sammenheng mellom disse matrisene, nemlig:

A \u003d C -1 OG C(9,4)

Så sant OG . På den annen side, resultatene av å bruke den samme lineære transformasjonen OG på grunnlag (e k), dvs. , og i grunnlaget (e k ): henholdsvis - er forbundet med matrisen FRA: , hvorfra følger det SA= OG FRA. Multiplisere begge sider av denne likheten til venstre med FRA-1, får vi FRA -1 CA = = C -1 OG FRA, som beviser gyldigheten av formel (9.4).

egenverdier og egenvektorer matriser.

Definisjon 9.3.Vektor X kalt egen vektor matriser OG hvis det er et slikt tall λ, at likestillingen gjelder: OG X= λ X, det vil si resultatet av å søke på X lineær transformasjon gitt av matrisen OG, er multiplikasjonen av denne vektoren med tallet λ . Selve nummeret λ kalt eget nummer matriser OG.

Bytte inn i formler (9.3)x` j = λ x j, vi får et likningssystem for å bestemme koordinatene til egenvektoren:

.

Herfra

.(9.5)

Dette lineær homogen systemet vil ha triviell løsning bare hvis hoveddeterminanten er 0 (Cramers regel). Ved å skrive denne betingelsen i skjemaet:

får vi en ligning for å bestemme egenverdiene λ kalt karakteristisk ligning. Kort fortalt kan det representeres som følger:

| ENE | = 0,(9.6)

siden dens venstre side er determinanten for matrisen OG- λE. Polynom med hensyn til λ| ENE| kalt karakteristisk polynom matriser A.

Egenskaper til det karakteristiske polynomet:

1) Det karakteristiske polynomet til en lineær transformasjon er ikke avhengig av valget av grunnlaget Bevis. (med se (9.4)), men Følgelig. Avhenger dermed ikke av valg av grunnlag. Derfor, og |ENE| endres ikke ved overgang til nytt grunnlag.

2) Hvis matrisen OG lineær transformasjon er symmetrisk(de. en ij= en ji), deretter alle røtter karakteristisk ligning(9.6) er reelle tall.

Egenskaper til egenverdier og egenvektorer:

1) Hvis vi velger et grunnlag fra egenvektorer x 1, x 2, x 3 tilsvarende egenverdiene λ 1 , λ 2 , λ 3 matriser OG, så har den lineære transformasjonen A på dette grunnlaget en diagonal matrise:

(9.7) Beviset for denne egenskapen følger av definisjonen av egenvektorer.

2) Hvis transformasjonens egenverdier OG er forskjellige, så er egenvektorene som tilsvarer dem lineært uavhengige.

3) Hvis det karakteristiske polynomet til matrisen OG har tre annen rot, så på et eller annet grunnlag matrisen OG har en diagonal form.

Eksempel.

La oss finne vår egen tall og egenvektorer til matrisen C, forlater vi den karakteristiske ligningen: (1- λ )(5 - λ )(1 - λ ) + 6 - 9(5 - λ ) - (1 - λ ) - (1 - λ ) = 0, λ ³ - 7 λ ² + 36 = 0, λ 1 = -2, λ 2 = 3, λ 3 = 6.

Finn koordinatene til egenvektorene som tilsvarer hver funnet verdi λ. Av (9.5) følger det at if X (1) ={ x 1 , x 2 , x 3 ) er egenvektoren som tilsvarer λ 1 = -2, da

er et samarbeidende, men ubestemt system. Løsningen kan skrives som X (1) ={ en,0,- en), der a er et hvilket som helst tall. Spesielt hvis du krever at |x (1) |=1, X (1) =

Bytte inn i systemet (9.5) λ 2 =3, får vi et system for å bestemme koordinatene til den andre egenvektoren-x (2) ={ y 1 , y 2 , y 3

Å finne egenverdier og egenvektorer til matriser er en av de mest utfordrende oppgaver lineær algebra som oppstår i prosessen med modellering og analyse av fungerende prosesser dynamiske systemer, statistisk modellering. For eksempel bestemmer egenvektorene til kovariansmatrisen til en tilfeldig vektor retningene til hovedaksene til dispersjonshyperellipsoiden til verdiene til denne vektoren, og egenverdiene bestemmer utvidelsen eller sammentrekningen av hyperellipsoiden langs dens hovedakser . I mekanikk karakteriserer treghetstensorens egenvektorer og tall retningen til hovedaksene og treghetsmomentene til et stivt legeme.

Skille fullstendig (algebraisk hvis ikke, matrise) egenverdiproblem, som forutsetter å finne alle egne par noen matrise, og partielle egenverdiproblemer, som som regel består i å finne en eller flere egenverdier og muligens tilsvarende egenvektorer. Oftest i siste tilfelle vi snakker om å finne de største og minste modulo-egenverdiene; kunnskap om slike egenskaper ved matrisen gjør det for eksempel mulig å trekke konklusjoner om konvergens av visse iterative metoder, optimalisere parametrene deres, etc.

Egenverdiproblemet kan formuleres som følger: for hvilke vektorer og tall som ikke er null endrer ikke en lineær transformasjon av en vektor ved hjelp av en matrise retningen til denne vektoren i rommet, men reduseres bare til å "strekke" denne vektoren av en faktor? Svaret på dette spørsmålet ligger i ikke-trivielle løsninger av ligningen

, (1.2)

hvor er identitetsmatrisen. Teoretisk er dette problemet lett løst: du må finne røttene til den såkalte karakteristisk ligninger

(1.3)

og, etter tur erstatte dem med (1.2), oppnå egenvektorer fra de tilsvarende overbestemte systemene.

Den praktiske implementeringen av denne tilnærmingen er forbundet med en rekke vanskeligheter, som øker med økningen i dimensjonen av problemet som løses. Disse vanskelighetene skyldes utvidelsen av determinanten og beregne røttene til det resulterende polynomet n grad, samt ved å søke etter lineært uavhengige løsninger av degenererte lineære systemer algebraiske ligninger. I denne forbindelse brukes en slik direkte tilnærming til å løse det algebraiske egenverdiproblemet vanligvis bare for svært små matrisestørrelser ( n= 2, 3). Allerede kl n> 4 spesialtilbud kommer i forgrunnen numeriske metoder løse slike problemer, hvorav ett, basert på matrisen likhetstransformasjon, vil bli diskutert videre. Husk det lignende kalles matriser og , hvor FRA- vilkårlig ikke-singular matrise.



Vi lister kort grunnleggende egenskaper egenverdier og vektorer:

1. Hvis – eget matrisepar OG, a er et tall da er også et skikkelig par for OG. Dette betyr at hver egenverdi tilsvarer utallige egenvektorer som bare avviker med en skalarfaktor.

2. La – eget matrisepar , hvor er noen ekte nummer. Deretter – eget matrisepar OG. Dermed legger du til denne matrisen OG diagonal matrise endrer ikke egenvektorene og skifter område av den opprinnelige matrisen med et tall (til venstre når ). Spekteret til en matrise er settet av alle dens egenverdier.

3. Hvis er et egenpar av den inverterbare matrisen , da er et egenpar av matrisen.

4. Egenverdiene til diagonalen og trekantede matriser er deres diagonale elementer, fordi den karakteristiske ligningen (1.3), tatt i betraktning (1.1), for slike matriser kan skrives som:

.

Den siste likestillingen viser det diagonale og trekantede reelle matriser har bare reelle egenverdier(glatt n tatt i betraktning deres mulige mangfold). Egentligheten til egenverdiene er også iboende i klassen av symmetriske matriser, noe som er veldig viktig i applikasjoner, som inkluderer kovariansmatriser og treghetstensorer.

5. Hvis – eget matrisepar , deretter – eget matrisepar OG Dermed holder likhetstransformasjonen spekteret til enhver matrise uendret.

6. La OG er en matrise med enkel dimensjonsstruktur , og matriser og dannes fra henholdsvis dens egenverdier og egenvektorer. Så likestillingen . Siden for en diagonal matrise dannet av egenverdier, kan egenvektorer være enhetsvektorer opprinnelig grunnlag ( , ), og deretter bruke egenskap 5 og ta og (de. ), kan egenskap 6 formuleres annerledes: if er et egenpar av matrise, da har sitt eget matrisepar OG.

Egenverdier(tall) og egenvektorer.
Løsningseksempler

Vær deg selv


Fra begge ligningene følger det at .

La oss sette da: .

Som et resultat: er den andre egenvektoren.

La oss gjenta viktige poeng løsninger:

– det resulterende systemet har absolutt felles vedtak(ligningene er lineært avhengige);

- "Y" er valgt på en slik måte at det er heltall og den første "x"-koordinaten er heltall, positiv og så liten som mulig.

– vi sjekker at den aktuelle løsningen tilfredsstiller hver likning i systemet.

Svar .

Mellomliggende "sjekkpunkter" var ganske nok, så sjekk av likestilling er i prinsippet overflødig.

I ulike informasjonskilder er koordinatene til egenvektorer ofte ikke skrevet i kolonner, men i rader, for eksempel: (og, for å være ærlig, pleide jeg selv å skrive dem i linjer). Dette alternativet er akseptabelt, men i lys av emnet lineære transformasjoner teknisk mer praktisk å bruke kolonnevektorer.

Kanskje virket løsningen veldig lang for deg, men det er bare fordi jeg kommenterte det første eksemplet i detalj.

Eksempel 2

matriser

Vi trener på egenhånd! Et omtrentlig utvalg av den endelige utformingen av oppgaven på slutten av leksjonen.

Noen ganger må du gjøre tilleggsoppgave, nemlig:

skriv den kanoniske dekomponeringen av matrisen

Hva det er?

Hvis matrisens egenvektorer dannes basis, så kan det representeres som:

Hvor er en matrise sammensatt av koordinatene til egenvektorer, - diagonal matrise med tilsvarende egenverdier.

Denne matrisedekomponeringen kalles kanonisk eller diagonal.

Tenk på matrisen i det første eksemplet. Hennes egne vektorer lineært uavhengig(ikke-kollineær) og danner et grunnlag. La oss lage en matrise fra deres koordinater:

hoveddiagonal matriser i rett rekkefølge egenverdier er lokalisert, og de gjenværende elementene er lik null:
- nok en gang understreker jeg viktigheten av rekkefølgen: "to" tilsvarer 1. vektor og er derfor plassert i 1. kolonne, "tre" - til 2. vektor.

I henhold til den vanlige algoritmen for å finne invers matrise eller Gauss-Jordan-metoden finne . Nei, det er ikke en skrivefeil! - foran deg er sjelden, liksom solformørkelse hendelse når inversen samsvarte med den opprinnelige matrisen.

Det gjenstår å skrive den kanoniske dekomponeringen av matrisen:

Systemet kan løses med elementære transformasjoner og i de følgende eksemplene vil vi ty til denne metoden. Men her fungerer «skole»-metoden mye raskere. Fra den tredje ligningen uttrykker vi: - erstatte inn i den andre ligningen:

Siden den første koordinaten er null, får vi et system , fra hver ligning som det følger at .

Og igjen vær oppmerksom på den obligatoriske tilstedeværelsen av et lineært forhold. Hvis bare en triviell løsning oppnås , så ble enten egenverdien funnet feil, eller systemet ble kompilert / løst med en feil.

Kompakte koordinater gir verdi

Egenvektor:

Og nok en gang sjekker vi at løsningen er funnet tilfredsstiller hver ligning i systemet. I de påfølgende avsnittene og i påfølgende oppgaver anbefaler jeg at dette ønsket aksepteres som en obligatorisk regel.

2) For egenverdien, etter samme prinsipp, får vi neste system:

Fra den andre ligningen i systemet uttrykker vi: - erstatte inn i den tredje ligningen:

Siden "zeta"-koordinaten er lik null, får vi et system , fra hver ligning som det følger lineær avhengighet.

La

Vi sjekker at løsningen tilfredsstiller hver likning i systemet.

Dermed er egenvektoren: .

3) Og til slutt tilsvarer systemet sin egen verdi:

Den andre ligningen ser enklest ut, så vi uttrykker den fra den og erstatter den med 1. og 3. likning:

Alt er bra - en lineær avhengighet ble avslørt, som vi erstatter med uttrykket:

Som et resultat ble "X" og "Y" uttrykt gjennom "Z": . I praksis er det ikke nødvendig å oppnå nettopp slike relasjoner; i noen tilfeller er det mer praktisk å uttrykke både gjennom eller og gjennom . Eller til og med et "tog" - for eksempel "X" til "Y", og "Y" til "Z"

La oss sette da:

Vi sjekker at løsningen er funnet tilfredsstiller hver likning i systemet og skriv den tredje egenvektoren

Svar: egenvektorer:

Geometrisk definerer disse vektorene tre forskjellige romlige retninger ("Der og tilbake igjen"), ifølge hvilken lineær transformasjon transformerer ikke-nullvektorer (egenvektorer) til vektorer som er kolineære for dem.

Hvis det etter betingelse var påkrevd å finne en kanonisk utvidelse av , så er dette mulig her, fordi forskjellige egenverdier tilsvarer forskjellige lineært uavhengige egenvektorer. Vi lager en matrise fra deres koordinater, den diagonale matrisen fra relevant egenverdier og finn invers matrise .

Hvis det i henhold til betingelsen er nødvendig å skrive lineær transformasjonsmatrise i basis av egenvektorer, så gir vi svaret i skjemaet . Det er en forskjell, og en betydelig forskjell! For denne matrisen er matrisen "de".

Utfordre med mer enkle beregninger til uavhengig løsning:

Eksempel 5

Finn egenvektorene til den lineære transformasjonen, gitt av matrisen

Når du skal finne dine egne tall, prøv å ikke bringe saken til et polynom av 3. grad. I tillegg kan dine systemløsninger avvike fra mine løsninger - her er det ingen entydighet; og vektorene du finner kan avvike fra eksempelvektorene opp til proporsjonalitet til deres respektive koordinater. For eksempel og . Det er mer estetisk tiltalende å presentere svaret i form av , men det er greit om du stopper ved det andre alternativet. Imidlertid har alt rimelige grenser, versjonen ser ikke veldig bra ut.

Et omtrentlig endelig utvalg av oppgaven på slutten av leksjonen.

Hvordan løse problemet ved flere egenverdier?

Generell algoritme forblir den samme, men den har sine egne særegenheter, og det er tilrådelig å holde noen deler av løsningen i en mer streng akademisk stil:

Eksempel 6

Finn egenverdier og egenvektorer

Beslutning

La oss selvfølgelig bruke stor bokstav i den fabelaktige første kolonnen:

Og etter nedbrytning kvadratisk trinomium for multiplikatorer:

Som et resultat oppnås egenverdier, hvorav to er multipler.

La oss finne egenvektorene:

1) Vi vil håndtere en ensom soldat i henhold til en "forenklet" ordning:

Fra de to siste ligningene er likheten tydelig synlig, som åpenbart bør erstattes med den første ligningen i systemet:

Det finnes ingen bedre kombinasjon:
Egenvektor:

2-3) Nå fjerner vi et par vaktposter. PÅ denne saken det kan vise seg enten to eller en egenvektor. Uavhengig av hvor mange røttene er, erstatter vi verdien i determinanten , som gir oss følgende homogent system av lineære ligninger:

Egenvektorer er nøyaktig vektorene
grunnleggende beslutningssystem

Faktisk, gjennom hele leksjonen, var vi bare engasjert i å finne vektorene til det grunnleggende systemet. Bare foreløpig dette semesteret var ikke spesielt nødvendig. Forresten, de flinke studentene som i kamuflasje homogene ligninger, vil bli tvunget til å røyke den nå.


Den eneste handlingen var å fjerne ekstra linjer. Resultatet er en "en etter tre" matrise med et formelt "trinn" i midten.
– grunnleggende variabel, – frie variabler. Det er to gratis variabler, så det er også to vektorer av det fundamentale systemet.

La oss uttrykke den grunnleggende variabelen i form av frie variabler: . Nullfaktoren foran "x" lar den ta på absolutt alle verdier (som også er tydelig synlig fra ligningssystemet).

I sammenheng med dette problemet er det mer praktisk å skrive den generelle løsningen ikke i en rad, men i en kolonne:

Paret tilsvarer en egenvektor:
Paret tilsvarer en egenvektor:

Merk : sofistikerte lesere kan plukke opp disse vektorene muntlig - bare ved å analysere systemet , men litt kunnskap er nødvendig her: det er tre variabler, systemmatriserangering- enhet betyr grunnleggende beslutningssystem består av 3 – 1 = 2 vektorer. Imidlertid er de funnet vektorene perfekt synlige selv uten denne kunnskapen, rent på et intuitivt nivå. I dette tilfellet vil den tredje vektoren bli skrevet enda "vakkere": . Imidlertid en advarsel, i et annet eksempel enkelt utvalg kanskje ikke, og det er derfor reservasjonen er beregnet på erfarne personer. Dessuten, hvorfor ikke ta som den tredje vektoren, si ? Tross alt tilfredsstiller dens koordinater også hver likning i systemet, og vektorene er lineært uavhengige. Dette alternativet er i prinsippet egnet, men "skjevt", siden den "andre" vektoren er en lineær kombinasjon av vektorer i det grunnleggende systemet.

Svar: egenverdier: , egenvektorer:

Et lignende eksempel for en gjør-det-selv-løsning:

Eksempel 7

Finn egenverdier og egenvektorer

Et omtrentlig utvalg av etterbehandling på slutten av leksjonen.

Det skal bemerkes at i både det 6. og 7. eksemplet oppnås en trippel av lineært uavhengige egenvektorer, og derfor kan den opprinnelige matrisen representeres i kanonisk dekomponering. Men slike bringebær skjer ikke i alle tilfeller:

Eksempel 8


Beslutning: komponer og løs den karakteristiske ligningen:

Vi utvider determinanten med den første kolonnen:

Vi utfører ytterligere forenklinger i henhold til den betraktede metoden, og unngår et polynom av 3. grad:

er egenverdier.

La oss finne egenvektorene:

1) Det er ingen problemer med roten:

Ikke bli overrasket, i tillegg til settet er variabler også i bruk - det er ingen forskjell her.

Fra den tredje likningen uttrykker vi - vi erstatter i 1. og 2. likning:

Fra begge ligningene følger:

La da:

2-3) For flere verdier får vi systemet .

La oss skrive ned matrisen til systemet og, ved hjelp av elementære transformasjoner, bringe den til en trinnvis form:

Diagonal-type matriser er enklest ordnet. Spørsmålet oppstår om det er mulig å finne et grunnlag der matrisen til en lineær operator ville ha en diagonal form. Et slikt grunnlag finnes.
La et lineært rom R n og en lineær operator A som virker i det gis; i dette tilfellet tar operatøren A R n inn i seg selv, det vil si A:R n → R n .

Definisjon. En vektor x som ikke er null kalles en egenvektor til operatoren A hvis operatoren A transformerer x til en vektor som er kolineær til den, dvs. Tallet λ kalles egenverdien eller egenverdien til operatoren A som tilsvarer egenvektoren x .
Vi legger merke til noen egenskaper til egenverdier og egenvektorer.
1. Enhver lineær kombinasjon av egenvektorer av operatoren A som svarer til samme egenverdi λ er en egenvektor med samme egenverdi.
2. Egenvektorer operator A med parvis distinkte egenverdier λ 1 , λ 2 , …, λ m er lineært uavhengige.
3. Hvis egenverdiene λ 1 =λ 2 = λ m = λ, så tilsvarer egenverdien λ ikke mer enn m lineært uavhengige egenvektorer.

Så hvis det er n lineært uavhengige egenvektorer tilsvarende forskjellige egenverdier λ 1 , λ 2 , …, λ n , så er de lineært uavhengige, derfor kan de tas som grunnlag for rommet R n . La oss finne formen til matrisen til den lineære operatøren A på grunnlag av dens egenvektorer, for hvilke vi handler med operatøren A på basisvektorene: deretter .
Dermed har matrisen til den lineære operatoren A på grunnlag av egenvektorene en diagonal form, og egenverdiene til operatoren A er på diagonalen.
Er det et annet grunnlag der matrisen har en diagonal form? Svaret på dette spørsmålet er gitt av følgende teorem.

Teorem. Matrisen til en lineær operator A i basisen (i = 1..n) har en diagonal form hvis og bare hvis alle vektorene til basisen er egenvektorer til operatoren A.

Regel for å finne egenverdier og egenvektorer

La vektoren , hvor x 1 , x 2 , …, x n - koordinatene til vektoren x i forhold til grunnlaget og x er egenvektoren til den lineære operatoren A som tilsvarer egenverdien λ, dvs. Denne relasjonen kan skrives i matriseform

. (*)


Ligningen (*) kan betraktes som en ligning for å finne x , og det vil si at vi er interessert i ikke-trivielle løsninger, siden egenvektoren ikke kan være null. Det er kjent at ikke-trivielle løsninger homogent system lineære ligninger eksisterer hvis og bare hvis det(A - λE) = 0. For at λ skal være en egenverdi til operatoren A er det nødvendig og tilstrekkelig at det(A - λE) = 0.
Hvis ligningen (*) er skrevet i detalj i koordinatform, får vi et lineært system homogene ligninger:

(1)
hvor er matrisen til den lineære operatoren.

System (1) har en løsning som ikke er null hvis determinanten D er lik null


Vi har en ligning for å finne egenverdier.
Denne ligningen kalles den karakteristiske ligningen, og dens venstre side kalles det karakteristiske polynomet til matrisen (operatoren) A. Hvis det karakteristiske polynomet ikke har noen reelle røtter, har matrisen A ingen egenvektorer og kan ikke reduseres til en diagonal form.
La λ 1 , λ 2 , …, λ n være de reelle røttene til den karakteristiske ligningen, og det kan være multipler blant dem. Ved å erstatte disse verdiene i sin tur til system (1), finner vi egenvektorene.

Eksempel 12. Den lineære operatoren A virker i R 3 i henhold til loven , hvor x 1 , x 2 , .., x n er koordinatene til vektoren i basisen , , . Finn egenverdiene og egenvektorene til denne operatoren.
Beslutning. Vi bygger matrisen til denne operatøren:
.
Vi komponerer et system for å bestemme koordinatene til egenvektorer:

Vi komponerer den karakteristiske ligningen og løser den:

.
λ 1,2 = -1, λ 3 = 3.
Ved å erstatte λ = -1 i systemet, har vi:
eller
Som , så er det to avhengige variabler og en fri variabel.
La x 1 være en ledig ukjent, da Vi løser dette systemet på hvilken som helst måte og finner den generelle løsningen til dette systemet: Det grunnleggende løsningssystemet består av én løsning, siden n - r = 3 - 2 = 1.
Settet med egenvektorer som tilsvarer egenverdien λ = -1 har formen: , hvor x 1 er et hvilket som helst annet tall enn null. La oss velge en vektor fra dette settet, for eksempel ved å sette x 1 = 1: .
Ved å argumentere på samme måte finner vi egenvektoren som tilsvarer egenverdien λ = 3: .
I rommet R 3 består basisen av tre lineært uavhengige vektorer, men vi har kun fått to lineært uavhengige egenvektorer, som basisen i R 3 ikke kan dannes fra. Følgelig kan ikke matrisen A til en lineær operator reduseres til en diagonal form.

Eksempel 13 Gitt en matrise .
1. Bevis at vektoren er en egenvektor til matrisen A. Finn egenverdien som tilsvarer denne egenvektoren.
2. Finn et grunnlag der matrisen A har diagonal form.
Beslutning.
1. Hvis , så er x en egenvektor

.
Vektor (1, 8, -1) er en egenvektor. Egenverdi λ = -1.
Matrisen har en diagonal form i grunnlaget bestående av egenvektorer. En av dem er kjent. La oss finne resten.
Vi ser etter egenvektorer fra systemet:

Karakteristisk ligning: ;
(3 + λ)[-2(2-λ)(2+λ)+3] = 0; (3+λ)(λ 2 - 1) = 0
λ 1 = -3, λ 2 = 1, λ 3 = -1.
Finn egenvektoren som tilsvarer egenverdien λ = -3:

Rangeringen av matrisen til dette systemet er lik to og er lik tallet ukjente, så dette systemet har bare en nullløsning x 1 = x 3 = 0. x 2 her kan være noe annet enn null, for eksempel x 2 = 1. Dermed er vektoren (0,1,0) en egenvektor , tilsvarende λ = -3. La oss sjekke:
.
Hvis λ = 1, får vi systemet
Rangeringen av matrisen er to. Stryk ut den siste ligningen.
La x 3 være den frie ukjente. Deretter x 1 \u003d -3x 3, 4x 2 \u003d 10x 1 - 6x 3 \u003d -30x 3 - 6x 3, x 2 \u003d -9x 3.
Forutsatt x 3 = 1, har vi (-3,-9,1) - en egenvektor som tilsvarer egenverdien λ = 1. Sjekk:

.
Siden egenverdiene er reelle og forskjellige, er vektorene som tilsvarer dem lineært uavhengige, så de kan tas som grunnlag i R 3 . Altså i grunnlaget , , matrise A har formen:
.
Ikke hver matrise av en lineær operator A:R n → R n kan reduseres til en diagonal form, siden det for noen lineære operatorer kan være mindre enn n lineært uavhengige egenvektorer. Imidlertid, hvis matrisen er symmetrisk, tilsvarer nøyaktig m lineært uavhengige vektorer roten til den karakteristiske ligningen av multiplisitet m.

Definisjon. Den symmetriske matrisen kalles kvadratisk matrise, der elementene symmetriske om hoveddiagonalen er like, det vil si hvor .
Merknader. 1. Alle egenverdier til en symmetrisk matrise er reelle.
2. Egenvektorer til en symmetrisk matrise som tilsvarer parvis forskjellige egenverdier er ortogonale.
Som en av de mange anvendelsene av det studerte apparatet, vurderer vi problemet med å bestemme formen til en andreordenskurve.