Kurssi

Lineaarikuvauksen ominaisuuksia



Lause 16.1.2. Jos \(L:V\to W\) on lineaarikuvaus, niin
(a) \(L(0_V)=0_W\);
(b) \(L(-u)=-L(u)\) kaikilla \(u\in V\);
(c) $$ L\left(\Sigma_{i=1}^k\alpha_i u_i\right) =\Sigma_{i=1}^k\alpha_i L(u_i) $$ kaikilla skalaareilla \(\alpha_i\in\mathcal{K}\) ja \(u_i\in V\).

Todistus. (a) Saadaan $$ L(0_V) =L(0\cdot 0_V) =0\cdot L(0_V) =0_W. $$

(b) Koska $$ L(u)+L(-u) =L(u+(-u)) =L(0_V) =0_W, $$ niin väite seuraa.

(c) Todistetaan induktiolla, että $$ P(n):\quad L(\Sigma_{i=1}^k\alpha_iu_i) =\Sigma_{i=1}^k\alpha_iL(u_i) $$ pätee kaikilla \(k\in\mathbb{N}\).

[Alkuaskel, tapaus \(k=2\).] Jos \(k=2\), niin väite on muotoa $$ L(\alpha_1u_1+\alpha_2u_2) =\alpha_1L(u_1)+\alpha_2L(u_2) $$ ja pätee lineaarisuuden määritelmän nojalla. Siis \(P(2)\) on tosi.

[Induktio-oletus, tapaus \(k=n\).] Oletetaan, että väite \(P(n)\) pätee jollakin \(n\in\mathbb{N}\), \(n\geq 2\). Siis $$ L(\Sigma_{i=1}^n\alpha_iu_i) =\Sigma_{i=1}^n\alpha_iL(u_i) $$

[Induktio-askel, tapaus \(k=n+1\).] Pätisikö myös väite \(P(n+1)\) eli $$ L(\Sigma_{i=1}^{n+1}\alpha_iu_i) =\Sigma_{i=1}^{n+1}\alpha_iL(u_i)? $$ Vasemman puolen argumentti voidaan kirjoittaa muodossa $$ \Sigma_{i=1}^{n+1}\alpha_iu_i =\Sigma_{i=1}^{n}\alpha_iu_i +\alpha_nu_n=v+w. $$ Siis funktion \(L\) lineaarisuuden nojalla saadaan $$ L(\Sigma_{i=1}^{n+1}\alpha_iu_i) =L(v+w) =L(v)+L(w) =L(\Sigma_{i=1}^n\alpha_iu_i)+L(\alpha_nu_n). $$ Induktio-oletuksen nojalla tämä on yhtä suuri kuin $$ \Sigma_{i=1}^n\alpha_iL(u_i)+\alpha_n L(u_n) =\Sigma_{i=1}^{n+1}\alpha_iL(u_i). $$ Siis väite \(P(n+1)\) pätee myös.

Induktioperiaatteen nojalla väite \(P(k)\) on tosi kaikilla \(k\in\mathbb{N}\).\(\Box\)



Edellinen: tod13-2-2 | Seuraava: tod18-1-5 | Menu: 3