Veckans uppgifter 3.LA2.

Uppgifter från LGA.

1.11abc, 1.12a, 1.13bc,
1.14b, 1.15ab , s.20-21

1.18 , s.26

IL1:6a-e






OH3.2-3
Linjära ekvationssystem.

Den systematiska metoden att lösa linjära system kallas Gausselimination. Det gäller alltså att med de tre tillåtna radoperationerna ordna ettor i diagonalen (om detta är möjligt) och nollor under diagonalen.
Om denna metod fortsätts till att ordna nollor även ovanför ettorna i diagonalen kallas den Gauss-Jordans metod.

Öva först på ett antal system för att nöta in metoden. [1.11-1.14]
Övergå sedan till de intressanta fall då parametrar ingår i systemet. [1.15, LI1:6ab,e].
Där framgår nämligen skillnaden mellan de tre viktiga fallen:

  • Ingen lösning.
  • En unik lösning
  • Oändligt många lösningar.
Särskilt i fallen med två eller tre variabler är det lätt att tolka resultaten geometriskt.
Från vektoralgebran vet man att ett linjärt system med tre obekanta och tre ekvationer innebär ekvationerna för tre plan.
En lösning (x,y,z) innebär då en punkt som ligger på alla tre planen.
De tre fallen ovan svara då mot olika möjligheter att placera planen inbördes. Försök förstå att både fallet med ingen lösning och fallet med oändligt många lösningar endast uppstår då de tre normalriktningarna ligger i samma plan ( så att alla tre planen ser ut som linjer från ett visst håll).
Dvs. då systemmatrisens determinant (=trippelprodukten) är 0.

När det finns oändligt många lösningar ligger dessa ofta på en rät linje.
Dessa lösningar uttrycks alltså som ekvationen för en rät linje med en parameter.
Kom ihåg detta från vektoralgebran!

Resultatet i IL1:6c beror på att planens skärningslinje är parallell med en koordinataxel. Vilken?

       








4.8b, 4.10 , s.136

3.32, , s. 109

3.44bc,3.45b , s.120

3.38bdf , s.113

5.1bf,5.2b , s.146

5.6deghij, 5.8, 5.9, s. 154

IL1:5e




 
 


OH3.1

Linjära transformationer och matrisalgebra.
I kap. 4 (s.132) definieras begreppet linjärt oberoende allmänt.
(Från vektoralgebran har vi ett kriterium som gäller för två 2-dimensionella eller tre 3-dimensionella vektorer: determinanten=0).
I [4.8] förekommer tre 4-dimensionella vektorer och man kan alltså inte använda determinanter.
Man får istället lösa ett ekvationssystem. (Se Def. och Ex. 4.7på s. 132).
Observera att de ingående vektorerna hamnar som kolumn-vektorer i systemet.

I avsnitt 3.2 tala om allmänna linjära avbildningar. Det visar sig att en linjär avbildning (från ex.vis R2 till R2) kan beskrivas av en matris (2x2- matris i exemplet) om man använder en enkel regel för multiplikationer av typen Av (A matris, v vektor).
Med den beteckningen formuleras linearitetsvillkoret:

(*)    A(su + tv) = sAu + tAv,    (s,t skalärer).
I [3.32] studeras hur en rektangel transformeras av en viss linjär transformation.
Kontrollera att transformationen i 3.32 uppfyller (*) genom att bilda (1,2) som (1,0) + (0,2).
I [344-345] studeras hur areor och volymer (av parallellogram resp. parallellepipeder) förändras vid linjära transformationer.
Här som i många andra fall spelar determinanterna huvudrollen.

Om man först transformerar en vektor med matrisen A och därefter den nya vektorn med matrisen B , har man utfört två linjära transformationer efter varandra.
Resultatet är i sin tur en linjärtransformation som alltså också kan representeras av en matris.
Det är naturligt att beteckna denna matris med BA genom att definiera en sorts multiplikation mellan B och A (i den ordningen). Genom att räkna ut hur en vektor transformeras av två matriser leds man därför till en lämplig definition av matrisprodukt (s.112, OH3.1)
Denna fordrar en hel del övning, som i [3.38,5.1-5.8, IL1:5e].
Observera vad som menas med AT (A-transponat).

Matrismultiplikation lyder några vanliga algebraiska lagar, bl.a.
distributivitet ( A(B+C) = AB + AC, (B+C)A = BA + CA ) och
associativitet ( (AB)C = A(BC) ) ,
men inte kommutativitet, dvs AB är normalt inte = BA.
[5.9].











5.13cd , s.162

5.16bd, 5.17b, 5.20, s.167-168.

5.22bc , s.171.

IL1:5ab, IL1:5d.




6.1bd, 6.4a, s.177

6.16a, 6.17a, s.197-198

6.20a, s.200

IL1:5c

Inverser och determinanter.

I slutet av avsnitt 5.2 beskrivs hur de radoperationer som används i Gausselimination svara mot multiplikation (från vänster) av vissa matriser.
[5.13cd] är exempel på detta.
Denna observation ger möjlighet att bestämma inversen till en matris m.hj.a. radoperationer.

En matris X som uppfyller AX = XA = E (E är enhetsmatrisen) kallas inversen till A och skrivs A-1.
I 5.3 anges hur man explicit kan bestämma A-1 (om denna invers existerar) genom att använda Gauss-Jordan på systemmatrisen A med hela enhetsmatrisen E som "högerled".
På detta övas i [5.16-5.17, IL1:5d].
I [5.20, 5.22, IL1:5ab] behöver man också kunna räkna med A-1 på matrisnivå, dvs utan användande av komponenter.

Determinanter har stor betydelse i samband med inverser, eftersom A-1 existerar endast om det(A) är skild från 0. [6.1 - 6.4].

Viss övning på att beräkna determinanter kanske fortfarande behövs.
Det är gynnsamt att utveckla en determinant efter en rad eller en kolumn där det finns många nollor. [IL1.5c]

I avsnitt 6.6 visas en allmän formel för A-1:s komponenter.
För detta behöver man definiera begreppen cofaktor och adjunkt.
[6.16-6.17] handlar om detta.

I 6.7 talas om Cramers regel, som ger en formel för lösningarna till ett linjärt ekvationssystem uttryckt som kvoter mellan determinanter.
I nämnaren finns alltid determinanten för systemmatrisen ( det(A) ), vilket är en bra minnesregel för att en unik lösning existerar endast om det(A) är skild från 0.
[6.20].
Cramers regel är praktisk för små system (2 obekanta 2 ekvationer), särskilt när systemmatrisen innehåller parametrar.