![]() 1.11abc, 1.12a, 1.13bc, 1.14b, 1.15ab , s.20-21 1.18 , s.26 IL1:6a-e OH3.2-3 |
Linjära ekvationssystem.
Den systematiska metoden att lösa linjära system kallas Gausselimination.
Det gäller alltså att med de tre tillåtna radoperationerna ordna ettor i diagonalen
(om detta är möjligt) och nollor under diagonalen. Öva först på ett antal system för att nöta in metoden. [1.11-1.14]
Från vektoralgebran vet man att ett linjärt system med tre obekanta och tre ekvationer innebär ekvationerna för tre plan. En lösning (x,y,z) innebär då en punkt som ligger på alla tre planen. De tre fallen ovan svara då mot olika möjligheter att placera planen inbördes. Försök förstå att både fallet med ingen lösning och fallet med oändligt många lösningar endast uppstår då de tre normalriktningarna ligger i samma plan ( så att alla tre planen ser ut som linjer från ett visst håll). Dvs. då systemmatrisens determinant (=trippelprodukten) är 0. När det finns oändligt många lösningar ligger dessa ofta på en rät linje. Resultatet i IL1:6c beror på att planens skärningslinje är parallell med en koordinataxel. Vilken? |
![]() 4.8b, 4.10 , s.136 3.32, , s. 109 3.44bc,3.45b , s.120 3.38bdf , s.113 5.1bf,5.2b , s.146 5.6deghij, 5.8, 5.9, s. 154 IL1:5e OH3.1
|
Linjära transformationer och matrisalgebra. I kap. 4 (s.132) definieras begreppet linjärt oberoende allmänt. (Från vektoralgebran har vi ett kriterium som gäller för två 2-dimensionella eller tre 3-dimensionella vektorer: determinanten=0). I [4.8] förekommer tre 4-dimensionella vektorer och man kan alltså inte använda determinanter. Man får istället lösa ett ekvationssystem. (Se Def. och Ex. 4.7på s. 132). Observera att de ingående vektorerna hamnar som kolumn-vektorer i systemet. I avsnitt 3.2 tala om allmänna linjära avbildningar.
Det visar sig att en linjär avbildning (från ex.vis R2 till R2)
kan beskrivas av en matris (2x2- matris i exemplet) om man använder en enkel regel
för multiplikationer av typen Av (A matris, v vektor).
Kontrollera att transformationen i 3.32 uppfyller (*) genom att bilda (1,2) som (1,0) + (0,2). I [344-345] studeras hur areor och volymer (av parallellogram resp. parallellepipeder) förändras vid linjära transformationer. Här som i många andra fall spelar determinanterna huvudrollen. Om man först transformerar en vektor med matrisen A och därefter den nya vektorn med matrisen B
, har man utfört två linjära transformationer efter varandra. Matrismultiplikation lyder några vanliga algebraiska lagar, bl.a.
|
![]() 5.13cd , s.162 5.16bd, 5.17b, 5.20, s.167-168. 5.22bc , s.171. IL1:5ab, IL1:5d. 6.1bd, 6.4a, s.177 6.16a, 6.17a, s.197-198 6.20a, s.200 IL1:5c |
Inverser och determinanter.
I slutet av avsnitt 5.2 beskrivs hur de radoperationer som används i Gausselimination
svara mot multiplikation (från vänster) av vissa matriser. En matris X som uppfyller AX = XA = E (E är enhetsmatrisen) kallas inversen
till A och skrivs A-1.
Determinanter har stor betydelse i samband med inverser, eftersom A-1 existerar endast om det(A) är skild från 0. [6.1 - 6.4]. Viss övning på att beräkna determinanter kanske fortfarande behövs. I avsnitt 6.6 visas en allmän formel för A-1:s komponenter. I 6.7 talas om Cramers regel, som ger en formel för lösningarna till ett linjärt
ekvationssystem uttryckt som kvoter mellan determinanter. |