föreläsning ::
Egenvärden, egenvektorer och diagonalisering

Diagonalisering av matriser är att hitta den referensram som ger matrisens avbildning så enkel form som möjligt.

Föreläsningens mål ::

Diagonalisering av matriser är att hitta den referensram som ger matrisens avbildning så enkel form som möjligt.

Föreläsningsvideo

# Videolänk i popup Video beskrivning
1 L17 010 Introduktion till egenvärden och egenvektorer, del 1

Egenvärden, egenvektorer och diagonalisering

×
se och kommentera
2 L17 020 Introduktion till egenvärden och egenvektorer, del 2

Egenvärden, egenvektorer och diagonalisering

×
se och kommentera
3 L19 010 Introduktion till diagonalisering

Egenvärden, egenvektorer och diagonalisering

×
se och kommentera

Avsnitt från kurslitteraturen ::

Rekommenderade uppgifter ::

5.1 » 5.1: 1, 3, 7, 13, 15, 17, 19, 20
5.2 » 5.2: 1, 9, 13, 21
5.3 » 5.3: 1, 5, 7, 11, 13, 17, 19
5.4 » 5.4: 1, 3, 8, 13, 15, 30

Videos med lösta exempel :: även exempel från gamla tentamina.

# Videolänk Video beskrivning
1 L17 030 Exempel på Egenvektor-räkning.

Egenvärden, egenvektorer och diagonalisering

×
se och kommentera
2 L17 040 Exempel på Egenvektor-räkning, del 2

Egenvärden, egenvektorer och diagonalisering

×
se och kommentera
3 L17 050 Exempel på Egenvektor-räkning, del 3

Egenvärden, egenvektorer och diagonalisering

×
se och kommentera

Extra dokument som är lämpliga för föreläsningen

Inga extradokument tillgängliga för denna föreläsning




annat :: Relaterade nyckelord och lösta problem


Lösta problem


  • Diagonaliserbar?

    Problemforumulering:

    Beräkna egenvärden och egenvektorer till matrisen \[ \left[\begin{array}{ccc}1 & 0 & 0 \\1 & 2 & 0 \\-3 & 5 & 2\end{array}\right] \] Är matrisen diagonaliserbar?

    Svar ::

    ×

    Svar/lösning

    Kalla matrisen i uppgiften för \(M\). Vi börjar med att beräkna egenvärdena som bestäms ur den karakteristiska ekvationen \(\det (M-\lambda I)=0\): \[ \det (M-\lambda I)=\det \left[\begin{array}{ccc}1-\lambda & 0 & 0 \\1 & 2-\lambda& 0 \\-3 & 5 & 2-\lambda\end{array}\right] =(1-\lambda)(2-\lambda)^2 =0 \] vilket ger att egenvärdena är \(\lambda=1\) och \(\lambda=2\) som är ett dubbelt egenvärde. Vi noterar redan här att för att matrisen ska vara diagonaliserbar så måste egenrummet till \(\lambda=2\) vara tvådimensionellt. Detta måste vi alltså hålla koll på när vi beräknar egenvektorerna i det som följer: Vi beräknar egenvektorerna till våra egenvärden: \(\lambda=1\) :: \[ M-1\cdot I = \left[\begin{array}{ccc}0 & 0 & 0 \\1 & 1 & 0 \\-3 & 5 & 1\end{array}\right]\sim \left[\begin{array}{ccc}1 & 0 & -1/8 \\0 & 1 & 1/8 \\0 & 0 & 0\end{array}\right] \] Detta ger oss egenvektorn \[ \left[\begin{array}{c}1/8 \\-1/8 \\1\end{array}\right]\sim\left[\begin{array}{c}1 \\-1 \\8\end{array}\right] \] Nu beräknar vi egenvektorerna till egenvärdet \(\lambda=2\). Är egenrummet tvådimensionellt? \[ M-2\cdot I= \left[\begin{array}{ccc}-1 & 0 & 0 \\1 & 0 & 0 \\-3 & 5 & 0\end{array}\right]\sim \left[\begin{array}{ccc}1 & 0 & 0 \\0 & 1 & 0 \\0 & 0 & 0\end{array}\right] \] som ger oss egenvektorn \[ \left[\begin{array}{c}0 \\0 \\1\end{array}\right] \] Detta ger oss alltså att egenrummet till \(\lambda=2\) är en-dimensionellt, dvs den geometriska multipliciteten är ett. Den algebraiska multipliciteten som vi fick från karakteristiska ekvationen är 2. Eftersom dessa två multipliciteter inte är lika så är matrisen inte diagonaliserbar. (Thm 7 sidan 340 i kapitel 5.3 i Lay.)

    ×
  • egenvärden och egenvektorer

    Problemforumulering:

    1. Hitta egenvärden och egenvektorer till \[A= \left[ \begin{array}{ccc} 3 & 1 & 0 \\ 0 & 3 & 0 \\ 0 & 0 & 1 \\ \end{array} \right]\]
    2. Är A diagonaliserbar?

    Svar ::

    ×

    Svar/lösning

    Matrisen har \(3\) som dubbellt egenvärde och \(1\) som enkelt. Löser vi systemet \((A-3I)x=0\) så får vi \[ \left[ \begin{array}{ccc|c} 0 & 1 & 0 & 0\\ 0 & 0 & 1 & 0\\ 0 & 0 & 0 & 0\\ \end{array} \right] \] som har ett endimensionellt lösningsrum (en fri variabel). Detta är den geometriska multipliciteten. Den algebraiska multipliciteten är \(2\) eftersom egenvärdet är dubbellt. Nu är alltså dessa två dimensioner olika vilket betyder att matrisen ej är diagonaliserbar.

    ×




Navigation :: Nästa/Föregående föreläsning ::



<< Minsta kvadratmetoden

Ortogonal diagonalisering >>

lecture::Frågor?

Detta är kursmaterial och kommentering endast möjlig för studenter registrerade på kursen vid högskolan i gävle Logga in för att kommentera och ställa frågor ::


mikke

publicerat den :: 2015 12 23

@Granit

5.4 kan eventuellt hoppas över i en första genomläsning. Men avsnittet innehåller några viktiga poänger.
I 5.1-5.3 diskuteras diagonalisering av matriser. Varje matris är en linjär avbildning och det är den linjära avbildningen som är den oföränderliga grunden. Matrisen för avbildningen beror av vilka baser vi valt. Diagonalisering handlar om att hitta den bas som ger den enklaste matrisen för avbildningen. Samma avbildning har olika matriser i olika referensramar/baser.

Givet en avbildning mellan två vektorrum som har var sin godtycklig bas. Hur beräknar man matrisen för avbildningen map dessa baser?

OK, i slutändan är det ju ni själva som väljer vad och i vilken ordningen ni vill läsa och arbeta med kursen, läsanvisningar är bara en rekommendation, ett förslag…



Granit

publicerat den :: 2015 12 13

Hej Mikke,

Kan man hoppa över 5.4 utan att det påverkar särskilt mycket eller är det
nödvändigt för vidare förståelse för t.ex. sådant som kommer i kapitel 7?

- Granit



mikke

publicerat den :: 2015 11 30

@Granit
Ursäkta förvirringen. Jag har nu uppdaterat med aktuell information.

Kapitel 5.4 och kapitel 7.4 ska båda vara med.

7.4 om Singulärvärdesuppdelningen (SVD) är en viktig sak som används inom bland annat statistik och som vi gärna vill erbjuda en introduktion till. Men detta tas upp i vekka 9 strax innan vi påbörjar repetitionen av kursen. Observera att föreläsningen om SVD inte är klar ännu.

Pdf’en som Du hänvisade till är också uppdaterad med denna information. Jag hoppas att detta gör det hela tydligare!

tack för hjälpen!
mvh smile



Granit

publicerat den :: 2015 11 30

Hej Mikke,

I vekka 8 står det att vi ska läsa 5.1 till och med 5.4 samt 7.1 och 7.2. I PDF filen där det står om rekommenderade uppgifter stod att vi ska läsa 5.1 till och med 5.3 (och alltså inte 5.4). För kapitel 7 stod att vi ska läsa 7.1,  7.2   hoppa över 7.3 men läsa 7.4. Så vi skippar sektionen om The Singular Value Decomposition? Men läser om Eigenvectors och Linear Transformations?

Hälsningar,
Granit