föreläsning ::
Matriser och Matrisalgebra: matrisprodukten och inversen

Här introduceras matrisen och hur man räknar med dem. Om två matriser har samma format så kan de adderas. Om två linjära avbildningar kan sammansättas så kan man definiera en produkt av deras matriser. Detta leder till att produkten \(AB\) av två matriser kan definieras om den första matrisens antal kolonner är lika med den andra matrisens antal rader. Matrisprodukten är inte kommutativ, i allmänhet gäller att \(AB\neq BA\).

Föreläsningens mål ::

Vi ska lära oss vad en matris är och hur man räknar med matriser. Viktigt är produkten av två matriser som bara är definierad under vissa förutsättningar. Matrismultiplikationen är icke-kommutativ.

För att lösa matrisekvationer så introduceras identitetsmatrisen. Identitetsmatrisen fungerar ungefär som talet 1 fungerar för vanliga tal. Ingen division kan definieras för matriser men ibland kan man invertera en matris och när man har inverterbara matriser så kan använda dessa för att lösa matrisekvationer. Vi lär oss hur man tar reda på om en matris är inverterbar och lär oss beräkna inversen.

Föreläsningsvideo

# Videolänk i popup Video beskrivning
1 Sammansättning av avbildningar

Matriser och Matrisalgebra: matrisprodukten och inversen

×
se och kommentera
2 Sammansättning exempel 2

Matriser och Matrisalgebra: matrisprodukten och inversen

×
se och kommentera
3 Matrisprodukt :: exempel 1

Matriser och Matrisalgebra: matrisprodukten och inversen

×
se och kommentera
4 Matrisprodukt exempel 2

Matriser och Matrisalgebra: matrisprodukten och inversen

×
se och kommentera
5 L9 010 Inversidé utifrån division av tal.

Matriser och Matrisalgebra: matrisprodukten och inversen

×
se och kommentera
6 L9 020 Inversidé utifrån division av tal, del 2

Matriser och Matrisalgebra: matrisprodukten och inversen

×
se och kommentera
7 L9 030 Inversidé utifrån division av tal, del 3

Matriser och Matrisalgebra: matrisprodukten och inversen

×
se och kommentera

Avsnitt från kurslitteraturen ::

Lay kapitel 2.1-2.3

Rekommenderade uppgifter ::

2.1 » 1, 2, 3, 5, 11, 19, 21, 27, 28
2.2 » 1, 5, 7, 21, 22, 23, 24, 29, 29, 31
2.3 » 1, 3, 5, 7, 23, 27, 20, 21

Videos med lösta exempel :: även exempel från gamla tentamina.

# Videolänk Video beskrivning
1 L9 040 Matrisinvers :: exempel:: inversen till 2x2 matris

Matriser och Matrisalgebra: matrisprodukten och inversen

×
se och kommentera
2 L9 050 Matrisinver :: exempel:: inversen till en 3x3-matris.

Matriser och Matrisalgebra: matrisprodukten och inversen

×
se och kommentera

Extra dokument som är lämpliga för föreläsningen

Danska metoden för matrismultiplikation Matrismultiplikation är ickekommutativ


annat :: Relaterade nyckelord och lösta problem


Lösta problem


  • Lösning av matrisekvation

    Problemforumulering:

    Lös ekvationen \(AX+B=C\) där \[ A=\left[\begin{array}{ccc}1 & 3 & 2 \\1 & 1 & 1 \\2 & 1 & 3\end{array}\right],\quad B=\left[\begin{array}{cc}1 & 2 \\2 & 3 \\2 & 1\end{array}\right]\quad C=\left[\begin{array}{cc}1 & 1 \\2 & 4 \\-1 & 3\end{array}\right] \]

    Svar ::

    ×

    Svar/lösning

    Om \(A\) är inverterar så ges lösningen av \[ X=A^{-1}(C-B) \] Vi beräknar inversen till \(A\) (om det går så är \(A\) inverterbar) \[ \left[ \begin{array}{ccc|ccc} 1 & 3 & 2 & 1 & 0 & 0 \\ 1 & 1 & 1 & 0 & 1 & 0 \\ 2 & 1 & 3 & 0 & 0 & 1 \\ \end{array} \right]\sim \left[ \begin{array}{ccc|ccc} 1 & 0 & 0 & -\frac{2}{3} & \frac{7}{3} & -\frac{1}{3} \\ 0 & 1 & 0 & \frac{1}{3} & \frac{1}{3} & -\frac{1}{3} \\ 0 & 0 & 1 & \frac{1}{3} & -\frac{5}{3} & \frac{2}{3} \\ \end{array} \right] \] Matrisen är alltså inverterbar och vår lösning blir således \[ X=A^{-1}(C-B)=\left[ \begin{array}{ccc} -\frac{2}{3} & \frac{7}{3} & -\frac{1}{3} \\ \frac{1}{3} & \frac{1}{3} & -\frac{1}{3} \\ \frac{1}{3} & -\frac{5}{3} & \frac{2}{3} \\ \end{array} \right] \left[ \begin{array}{cc} 0 & -1 \\ 0 & 1 \\ -3 & 2 \\ \end{array} \right]=\left[ \begin{array}{cc} 1 & \frac{7}{3} \\ 1 & -\frac{2}{3} \\ -2 & -\frac{2}{3} \\ \end{array} \right] \]

    ×
  • Rättfram inversberäkning

    Problemforumulering:

    Beräkna inversen till matrisen \[A= \left[ \begin{array}{ccc} 1 & 2 & 1 \\ 2 & 1 & 1 \\ 2 & 3 & 3 \\ \end{array} \right] \]

    Svar ::

    ×

    Svar/lösning

    \[ \left[\begin{array}{ccc|ccc}1 & 2 & 1 & 1 & 0 & 0 \\2 & 1 & 1 & 0 & 1 & 0 \\2 & 3 & 3 & 0 & 0 & 1\end{array}\right]\sim \left[ \begin{array}{ccc|ccc} 1 & 0 & 0 & 0 & \frac{3}{4} & -\frac{1}{4} \\ 0 & 1 & 0 & 1 & -\frac{1}{4} & -\frac{1}{4} \\ 0 & 0 & 1 & -1 & -\frac{1}{4} & \frac{3}{4} \\ \end{array} \right] \] Inversen blir alltså \[A^{-1}= \left[ \begin{array}{ccc} 0 & \frac{3}{4} & -\frac{1}{4} \\ 1 & -\frac{1}{4} & -\frac{1}{4} \\ -1 & -\frac{1}{4} & \frac{3}{4} \\ \end{array} \right] \]

    ×
  • Lösning av AX=B på två sätt

    Problemforumulering:

    Givet en matrisekvation \(AX=B\) där alla matriser är kvadratiska och har samma format så kan vi tänka oss att lösa denna genom att först beräkna inversen till \(A\) och sedan multiplicera båda led med denna från vänster. Men på samma sätt som vi beräknar inversen kan vi använda oss av Gauss-Jordan elimination av den utvidgade matrisen \((A|B)\). När vi utfört Gauss-Jordan har vi den utvidgade matrisen \((I | A^{-1}B)\). Om vi kontemplerar detta kan vi se att detta leder till en arbetsbesparing. Med samma operationer som vi beräknar \(A^{-1}\) får vi här den ihopmultiplicerade matrisen vilket är färre operationer än att först beräkna inversen och sedan utföra ihopmultiplikationen. Och detta kan användas i varje situation där vi har matriser \(A\) och \(B\) och är intresserade av produkten \(A^{-1}B\). Känn efter själva. Nedan ges två matriser \(A\) och \(B\). Beräkna \(A^{-1}B\) genom

    1. att först beräkna \(A^{-1}\) och sedan utföra matrismultiplikationen
    2. Genom att Gauss-Jordaneliminera den utvidgade matrisen \((A | B)\)
    \[A= \begin{pmatrix} 1&-2 &2 \\ 1 &1 &0 \\ 1& 0&1 \end{pmatrix},\quad B= \begin{pmatrix} 3&2 &-2 \\ 5 &1 &2 \\ -2& 7&1 \end{pmatrix} \]

    Svar ::

    ×

    Svar/lösning

    1. att först beräkna \(A^{-1}\) och sedan utföra matrismultiplikationen:: \[ A^{-1}=\left[ \begin{array}{ccc} 1 & 2 & -2 \\ -1 & -1 & 2 \\ -1 & -2 & 3 \\ \end{array} \right] \] \[ A^{-1}\cdot B=\left[ \begin{array}{ccc} 1 & 2 & -2 \\ -1 & -1 & 2 \\ -1 & -2 & 3 \\ \end{array} \right]\left[ \begin{array}{ccc} 3 & 2 & -2 \\ 5 & 1 & 2 \\ -2 & 7 & 1 \\ \end{array} \right]=\left[ \begin{array}{ccc} 17 & -10 & 0 \\ -12 & 11 & 2 \\ -19 & 17 & 1 \\ \end{array} \right] \]
    2. Genom att Gauss-Jordaneliminera den utvidgade matrisen \((A | B)\) \[ \left[ \begin{array}{ccc|ccc} 1 & -2 & 2 & 3 & 2 & -2 \\ 1 & 1 & 0 & 5 & 1 & 2 \\ 1 & 0 & 1 & -2 & 7 & 1 \\ \end{array} \right] \quad\sim\quad \left[ \begin{array}{ccc|ccc} 1 & 0 & 0 & 17 & -10 & 0 \\ 0 & 1 & 0 & -12 & 11 & 2 \\ 0 & 0 & 1 & -19 & 17 & 1 \\ \end{array} \right] \]

    ×




Navigation :: Nästa/Föregående föreläsning ::



<< Linjära avbildningar och deras matriser

Introduktion till determinanten. >>

lecture::Frågor?

Detta är kursmaterial och kommentering endast möjlig för studenter registrerade på kursen vid högskolan i gävle Logga in för att kommentera och ställa frågor ::


Micke's avatar

Micke

publicerat den :: 2016 12 07

I lösta problem. Lösning av matrisekvation: Visst va uträkningen av inversmatrisen till A rätt bökig, eller??



mikke

publicerat den :: 2015 10 14

@JonasL

Det kan finnas många fördelar med att ha inversmatrisen uträknad. Men inversmatrisen är nog det första man tänker på när man har ett system \(AX=B\). Lösningen till systemet blir \(X=A^{-1}B\), som ju kräver att man både räknar ut inversen och multiplicerar ihop matriserna.
Det som är nytt, från denna uppgift, och inte alldeles uppenbart är att man kan komma till lösningen direkt med samma beräkningskomplexitet som att beräkna inversen.
Den här, nya metoden, kommer till användning när vi ska beräkna basbytesmatriser i kapitel 4.7.

mvh smile



mikke

publicerat den :: 2015 10 14

@JonasL

Oops!
Vad hände där egentligen?

Jag har nu uppdaterat lösningarna med vad jag tror ska vara rätt lösning, men ta inte mitt ord för det, utan kolla gärna själva!

mvh smile



JonasL

publicerat den :: 2015 10 14

En fråga till också, när vi har ett ekvationssystem på formen AX=B vad är fördelen med att lösa den genom att hitta inversen av A och sen gångra med B? Jämfört med att göra som vi gjorde förut där vi bara ställde upp den med A i vänstra delen av matrisen (vänster om det lodräta sträcket) och B i högra delen av matrisen (till höger om det lodräta sträcket) och sen lösa för X? Det känns som den här inversmetoden är mycket mer omständlig….

Salut!

Jonas



JonasL

publicerat den :: 2015 10 14

Hej!

I lösta problem “lösning av AX=B på två sätt” så tror jag att du använder olika matriser i själva frågan jämfört med matriserna du sedan använder när du löser frågan i facit. Finns lösningen med rätt matriser?

Salut!

Jonas



mikke

publicerat den :: 2015 10 12

@Granit

Den här kursen är en grundkurs i linjär algebra och som sådan får man göra ett urval av saker att ta med.
Kapitlen om matrisfaktoriseringar ingår därför inte men kan säkert vara intressanta beroende på vilka områden man är intresserad av.  Jag är inte någon expert på statistik eller matematisk statistik men principal component analysis verkar innehålla snarare egenvärdesteori, spektral uppdelning och singular value decomposition och detta kommer vi att beröra i denna kurs (läs gärna introt till kapitel 7 som handlar om detta). 
De kapitel som vi hoppas över kan mycket väl vara relevanta i något statistiskt sammanhang och då kan man i så fall återvända till boken. Om Du har tid så skummar du igenom dessa kapitel så att du har ett humm om vad det handlar om och kanske ringer det klockor när du senare ser sakerna i statistik metoderna.
Har du sett förresten på insidan av Lays bok. Där finns det ett index över tillämpningar av linjär algebra som boken berör.  Statistik har en egen sektion i detta index…



Granit

publicerat den :: 2015 10 12

Hej,

Tack för ditt svar. Jag kanske är för snabb med att fråga om vad som kommer.
Jag har en till fråga:  I kapitel 2 så hoppar vi “partitioned matrices” och “matrix factorizations”.
Det står att de dyker upp i flera moderna användningar av linjär algebra. Om man ska hålla
på med statistiska metoder där linjär algebra används, t.ex., principal component analysis,
kan det vara bra att ha koll på detta då?

Hälsningar,
Granit



mikke

publicerat den :: 2015 10 11

@Granit

Jodå, det är 2.1, 2.2, 2.3 som gäller. Har fixat problemet med Rekommenderade uppgifter.

Kapitel 2.8-2.9 ingår men tas upp i samband med vektorrum och kapitel 4 som kommer senare, i vekka 5.

Håller förresten på att uppdatera med vekkaplaneringar osv för den avstlutande perioden. En preliminär version av 5 är ute nu men jag håller fortfarande på med detaljerna för den vekkan.



Granit

publicerat den :: 2015 10 11

Hej!
Är det sektion 2.1.  2.2. och 2.3 vi ska läsa här? Det verkar som att det blivit fel under “Rekommenderade uppgifter” här ovanför.

En annan sak: i dokumentet “Rekommenderade uppgifter” står det att 2.8 och 2.9 ingår. Men jag hittar inte dessa under någon Vekka.
Återkommer vi till dessa kapitel eller hoppar vi över 2.8-2.9?

Hälsningar,
Granit