Układ równań liniowych

Z Wikipedii, wolnej encyklopedii
Skocz do: nawigacji, wyszukiwania

Układ równań liniowychkoniunkcja pewnej liczby (być może nieskończonej[1]) równań liniowych, czyli równań pierwszego rzędu.

Teoria układów równań liniowych jest działem algebry liniowej leżącej u podstaw nowoczesnej matematyki. Algorytmami obliczeniowymi zajmuje się dział nazywany numeryczna algebra liniowa, same zaś metody odgrywają ważną rolę w inżynierii, fizyce, chemii, informatyce i ekonomii. Częstokroć aproksymuje (przybliża) się bardziej skomplikowane układy równań nieliniowych (opisujące modele matematyczne, czy symulacje komputerowe) dużo prostszymi układami równań liniowych (tzw. linearyzacja).

Układy równań liniowych rozpatruje się najczęściej nad ciałami (np. liczbami wymiernymi, rzeczywistymi, czy zespolonymi); choć ma to sens już w przypadku pierścieni (np. liczb całkowitych), to rozwiązywanie takich układów nastręcza znacznie więcej trudności (w szczególności oznacza to badanie modułów zamiast przestrzeni liniowych, zob. uogólnienia). W dalszej części przyjmuje się, że wszystkie współczynniki należą do ustalonego ciała.

Motywacje[edytuj | edytuj kod]

W geometrii euklidesowej można rozpatrywać miejsca geometryczne wyznaczone przez dane dwie proste na płaszczyźnie – mogą one wyznaczać prostą, punkt lub nie wyznaczać żadnego miejsca geometrycznego; odpowiada im odpowiednio nieskończony zbiór elementów, zbiór złożony z pojedynczego elementu lub zbiór pusty. Wprowadzenie na płaszczyźnie układu współrzędnych umożliwia algebraizację tego zadania: proste zadane są za pomocą równań liniowych, zaś miejsce geometryczne wyznaczone przez te proste odpowiada zbiorowi elementów spełniających wszystkie równania jednocześnie (pełną interpretację geometryczną można znaleźć w sekcji Uogólnienia).

Rozwiązaniem układu równań \scriptstyle x - y = -1 oraz \scriptstyle 3x + y = 9 jest para uporządkowana \scriptstyle (2,\ 3), gdyż podstawienie do równań poprzednika tej pary za \scriptstyle x i jej następnika za \scriptstyle y da dwie tożsamości.

Jeśli w układzie współrzędnych kartezjańskich proste \scriptstyle l_1,\ l_2 zadane są równaniami

l_1\colon\ x - y = -1

oraz

l_2\colon\ 3x + y = 9,

to ich jedyny punkt wspólny \scriptstyle (x_0,\ y_0) ma współrzędne \scriptstyle (2,\ 3), co łatwo sprawdzić wprost:

2 - 3 = -1,
3 \cdot 2 + 3 = 9.

To że jest to jedyny punkt wynika z faktu, iż proste te nie są równoległe (argument formalny podano dalej). Zwyczajowo równania prostych \scriptstyle l_1, l_2 zapisuje się bezpośrednio jedno pod drugim i spina klamrą:

\begin{cases} x - y = -1, \\ 3x + y = 9. \end{cases}

nazywając je układem równań liniowych, zaś zbiór elementów spełniających każde równanie z osobna (odpowiadający punktom wspólnym prostych) – jego rozwiązaniami.

Postać i zapis[edytuj | edytuj kod]

Niech \scriptstyle \mathrm U oznacza układ \scriptstyle m równań liniowych o \scriptstyle n niewiadomych, tzn.

\mathrm U\colon \begin{cases}\begin{matrix}
  a_{11} x_1 & + & a_{12} x_2 & + &  \dots & + & a_{1n} x_n & = b_1, \\
  a_{21} x_1 & + & a_{22} x_2 & + &  \dots & + & a_{2n} x_n & = b_2, \\
    \vdots   &   &   \vdots   &   & \ddots &   &   \vdots   & \vdots \\
  a_{m1} x_1 & + & a_{m2} x_2 & + &  \dots & + & a_{mn} x_n & = b_m.
\end{matrix}\end{cases}

Niech \scriptstyle 1 \leqslant i \leqslant m oraz \scriptstyle 1 \leqslant j \leqslant n. Wielkości \scriptstyle x_j nazywa się niewiadomymi (lub zmiennymi), liczby \scriptstyle a_{ij} nazywa się współczynnikami, zaś elementy \scriptstyle b_i to wyrazy wolne. Układ nazywa się jednorodnym, jeżeli wyrazy wolne są równe zeru; inaczej mówiąc, wszystkie równania jednorodnego układu równań liniowych są jednorodne.

Układ \scriptstyle \mathrm U można zapisać jako równanie wektorowe

[x_1 a_{11} + \dots + x_n a_{1n},\ \dots,\ x_1 a_{m1} + \dots + x_n a_{mn}] = [b_1, \dots, b_m],

które można przedstawić w postaci

x_1[a_{11}, \dots, a_{m1}] + \dots + x_n[a_{1n}, \dots, a_{mn}] = [b_1, \dots, b_m],

dzięki czemu każda niewiadoma może być postrzegana jako współczynnik kombinacji liniowej wektorów \scriptstyle \mathbf a_j = [a_{1j}, \dots, a_{mj}], tzn.

x_1 \mathbf a_1 + x_2 \mathbf a_2 + \dots + x_n \mathbf a_n = \mathbf b,

gdzie \scriptstyle \mathbf b = [b_1, b_2, \dots, b_m] nazywa się w tym kontekście wektorem wyrazów wolnych, zaś \scriptstyle \mathbf x = [x_1, x_2, \dots, x_n] to wektor zmiennych (zob. uogólnienia).

Korzystając z notacji macierzowej układ \scriptstyle \mathrm U można przedstawić w postaci

\begin{bmatrix}
  a_{11} x_1 & + & a_{12} x_2 & + &  \dots & + & a_{1n} x_n \\
  a_{21} x_1 & + & a_{22} x_2 & + &  \dots & + & a_{2n} x_n \\
    \vdots   &   &   \vdots   &   & \ddots &   &   \vdots   \\
  a_{m1} x_1 & + & a_{m2} x_2 & + &  \dots & + & a_{mn} x_n
\end{bmatrix} = \begin{bmatrix} b_1 \\ b_2 \\ \vdots \\ b_m \end{bmatrix},

co, przy pomocy standardowego mnożenia macierzy, można zapisać w formie

\begin{bmatrix} a_{11} & a_{12} & \dots & a_{1n} \\ a_{21} & a_{22} & \dots & a_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ a_{m1} & a_{m2} & \dots & a_{mn} \end{bmatrix} \begin{bmatrix} x_1 \\ x_2 \\ \vdots \\ x_n \end{bmatrix} = \begin{bmatrix} b_1 \\ b_2 \\ \vdots \\ b_m \end{bmatrix}.
Układ równań liniowych o trzech zmiennych określa zbiór płaszczyzn - dowolny ich punkt przecięcia (o ile istnieje) jest rozwiązaniem układu.

Innymi słowy dowolny układ \scriptstyle \mathrm U można traktować jak macierzowe równanie liniowe

\mathbf{AX} = \mathbf B,

gdzie \scriptstyle \mathbf A = [a_{ij}] jest macierzą typu \scriptstyle m \times n, zaś \scriptstyle \mathbf X = [x_j] oraz \scriptstyle \mathbf B = [b_i] to macierze odpowiednio typów \scriptstyle n \times 1 oraz \scriptstyle m \times 1. Macierz \scriptstyle \mathbf A nazywa się macierzą główną układu \scriptstyle \mathrm U. Jeśli macierz układu jest kwadratowa, tzn. \scriptstyle n = m, to sam układ również nazywa się czasem kwadratowym, jeśli jest ona prostokątna, czyli \scriptstyle n \ne m, to układ także nazywa się niekiedy prostokątnym.

Ponieważ macierz \scriptstyle \mathbf X w powyższym równaniu macierzowym zachowuje się przy operacjach elementarnych na wierszach (każde równanie jest kombinacją liniową elementów \scriptstyle x_j), to wygodne jest pominięcie go w zapisie i rozpatrywanie macierzy rozszerzonej bądź uzupełnionej układu \scriptstyle \mathrm U, złożonej z elementów macierzy \scriptstyle \mathbf A oraz \scriptstyle \mathbf B, w której wyrazy \scriptstyle a_{ij} oddziela się zwykle optycznie od wyrazów \scriptstyle b_i pionową kreską:

\left[\begin{matrix} a_{11} & a_{12} & \dots & a_{1n} \\ a_{21} & a_{22} & \dots & a_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ a_{m1} & a_{m2} & \dots & a_{mn} \end{matrix}\right|\left.\begin{matrix} b_1 \\ b_2 \\ \vdots \\ b_m \end{matrix}\right].

Macierz \scriptstyle \mathbf A może być traktowana jako przypadek szczególny macierzy rozszerzonej, w której wyrazy b_i są równe zeru.

Dowolny układ \scriptstyle \mathrm U można zapisać w postaci

\mathrm U'\colon \begin{cases}\begin{matrix}
  a_{11} x_1 & + & a_{12} x_2 & + &  \dots & + & a_{1n} x_n & - &   b_1  & = 0,   \\
  a_{21} x_1 & + & a_{22} x_2 & + &  \dots & + & a_{2n} x_n & - &   b_2  & = 0,   \\
    \vdots   &   &   \vdots   &   & \ddots &   &   \vdots   &   & \vdots & \vdots \\
  a_{m1} x_1 & + & a_{m2} x_2 & + &  \dots & + & a_{mn} x_n & - &   b_m  & = 0;
\end{matrix}\end{cases}

co w zapisie macierzowym można ująć następująco:

\begin{bmatrix} a_{11} & a_{12} & \dots & a_{1n} & -b_1 \\ a_{21} & a_{22} & \dots & a_{2n} & -b_2 \\ \vdots & \vdots & \ddots & \vdots & \vdots \\ a_{m1} & a_{m2} & \dots & a_{mn} & -b_m \end{bmatrix} \begin{bmatrix} x_1 \\ \vdots \\ x_n \\ 1 \end{bmatrix} = \begin{bmatrix} 0 \\ \vdots \\ \vdots \\ 0 \end{bmatrix}.

W ten sposób układ \scriptstyle \mathrm U w postaci \scriptstyle \mathrm U' można zapisać jako

\mathbf A' \mathbf X' = \mathbf \Theta,

gdzie \scriptstyle \mathbf A' jest macierzą typu \scriptstyle m \times (n + 1), zaś \scriptstyle \mathbf X' jest macierzą typu \scriptstyle (n + 1) \times 1, a \scriptstyle \mathbf \Theta jest macierzą zerową typu \scriptstyle m \times 1. Macierz główna \scriptstyle \mathbf A' układu \scriptstyle \mathrm U' jest więc formalnie macierzą rozszerzoną układu \scriptstyle \mathrm U. Oznacza to, że układ niejednorodny \scriptstyle n zmiennych można sprowadzić do układu jednorodnego \scriptstyle n + 1 zmiennych, przy czym jedna z nich jest ustalona (zob. uogólnienia).

Rozwiązania[edytuj | edytuj kod]

Równania \scriptstyle 3x + 2y = 6 oraz \scriptstyle 3x + 2y = 12 tworzą układ sprzeczny.

Rozwiązaniem \scriptstyle \mathrm U nazywa się dowolny ciąg liczb \scriptstyle r_i, który po podstawieniu za \scriptstyle x_j będzie spełniał każde z równań \scriptstyle \mathrm U. Układ, który nie ma rozwiązań, nazywa się sprzecznym; jeżeli zbiór rozwiązań układu jest niepusty, to nazywa się go niesprzecznym. Układ niesprzeczny, który ma jedno i tylko jedno rozwiązanie, nazywa się oznaczonym; układy o więcej niż jednym rozwiązaniu nazywa się nieoznaczonymi – w przypadku układów liniowych nad ciałami nieskończonymi (takimi jak liczby wymierne, liczby rzeczywiste, czy liczby zespolone) oznacza to, że układ ma nieskończenie wiele rozwiązań.

Wskazówkę co do ogólnej liczby rozwiązań układu daje już sama jego postać:

  • układ niedookreślony, który ma mniej równań niż niewiadomych, \scriptstyle m < n, zwykle jest nieoznaczony;
  • układ nadokreślony mający więcej równań niż niewiadomych, \scriptstyle m > n, zazwyczaj jest sprzeczny;
  • układ, który ma tyle równań co niewiadomych, \scriptstyle m = n, często ma jedno rozwiązanie.

Przypadki te obrazują następujące wykresy dla układów równań liniowych dwóch zmiennych:

One Line.svg Two Lines.svg Three Lines.svg
Jedno równanie Dwa równania Trzy równania

Operacje elementarne[edytuj | edytuj kod]

Information icon.svg Osobny artykuł: operacje elementarne.

Podstawową metodą rozwiązywania układów równań jest przekształcanie danego układu w inny, który ma ten sam zbiór rozwiązań – układy takie nazywa się równoważnymi. Można wyróżnić trzy operacje elementarne na wierszach przekształcające dany układ w układ do niego równoważny:

  • dodanie do równania innego równania pomnożonego przez liczbę,
  • zamiana dwóch równań miejscami,
  • pomnożenie równania przez liczbę różną od zera.

Powszechnie stosowanymi metodami rozwiązywania układów równań liniowych za pomocą wspomnianych operacji elementarnych są:

  • metoda eliminacji Gaussa, w której układ przekształca się do równoważnego z nim układu równań z rosnącą liczbą zmiennych;
  • metoda eliminacji Gaussa-Jordana, w której układ przekształca się dalej (poprzez kolejne podstawienia równań z mniejszą liczbą zmiennych do tych z większą) do równoważnego z nim układu równań liniowych wiążących bezpośrednio każdą zmienną z pewną wartością.

Oba algorytmy opisano w przypadku, gdy układ jest oznaczony. Jeśli układ jest sprzeczny, to uzyskuje się (co najmniej jedno) równanie sprzeczne, które mówi o sprzeczności całego układu. Jeśli układ jest nieoznaczony, to niektóre zmienne przenosi się do prawych części równań i rozwiązanie podaje się w postaci wyrażania jednych zmiennych przez inne (zob. też następną podsekcję). Metody te w zapisie macierzowym odpowiadają (zwykle) najefektywniejszym metodom przekształcania macierzy głównej (w przypadku jednorodnym) lub rozszerzonej (w przypadku niejednorodnym) układu do wierszowo z nią równoważnej macierzy schodkowej w metodzie Gaussa i macierzy schodkowej zredukowanej w metodzie Gaussa-Jordana.

Opis ogólny i zależność[edytuj | edytuj kod]

Równania \scriptstyle x - 2y = -1, \scriptstyle 3x + 5y = 8 oraz \scriptstyle 4x + 3y = 7 nie są liniowo niezależne.

Jeżeli układ ma więcej niż jedno rozwiązanie, to można je scharakteryzować podając tzw. rozwiązanie ogólne układu, będące w istocie układem równań w prostej postaci − w przypadku jeśli układ ma jedno rozwiązanie, to rozwiązanie można odczytać wprost z rozwiązania ogólnego. Układ

\mathrm R\colon \begin{cases}\begin{matrix}
     x_{j_1} = & c_{11} x_1 & + & c_{12} x_2 & + &  \dots & + & c_{1n} x_n & + & d_1, \\
     x_{j_2} = & c_{21} x_1 & + & c_{22} x_2 & + &  \dots & + & c_{2n} x_n & + & d_2, \\
 \;\vdots\;\;= &   \vdots   &   &   \vdots   &   & \ddots &   &   \vdots   &   & \vdots \\
     x_{j_k} = & c_{k1} x_1 & + & c_{k2} x_2 & + &  \dots & + & c_{kn} x_n & + & d_k;
\end{matrix}\end{cases}

gdzie \scriptstyle j_1 < \dots < j_k, a zmienne \scriptstyle x_{j_1}, \dots, x_{j_k} nie występują po prawej stronie równań (tzn. \scriptstyle 
c_{ij} = 0 dla \scriptstyle j = j_1, \dots, j_k) zadaje rozwiązanie ogólne układu \scriptstyle \mathrm U (krótko: \scriptstyle \mathrm R jest rozwiązaniem ogólnym układu \scriptstyle \mathrm U). Zmienne \scriptstyle x_{j_1}, \dots, x_{j_k} nazywa się wtedy zależnymi, a pozostałe x_j nazywa się wówczas zmiennymi niezależnymi (albo parametrami).

Równania w układzie liniowym nazywa się niezależnymi, jeśli żadne z nich nie może być uzyskane z innych za pomocą operacji elementarnych. Innymi słowy każde z nich zawiera nową informację o zmiennych i usunięcie któregokolwiek z nich powiększa liczbę rozwiązań; w przypadku równań liniowych niezależność ta nazywana jest niezależnością liniową (zob. charakteryzacja).

Wzory Cramera[edytuj | edytuj kod]

Information icon.svg Zobacz też: wzory Cramera.

Jeśli macierz główna układu jest kwadratowa (układ jest kwadratowy), to oznaczoność układu jest równoważna odwracalności jego macierzy głównej. Macierz jest odwracalna wtedy i tylko wtedy, gdy jest nieosobliwa, tzn. ma niezerowy wyznacznik. Wówczas mnożąc z lewej strony (w ogólności mnożenie macierzy nie jest przemienne) równanie

\mathbf{AX} = \mathbf B

przez macierz \scriptstyle \mathbf A^{-1}, czyli \scriptstyle \mathbf A^{-1} \mathbf{AX} = \mathbf A^{-1} \mathbf B, otrzymuje się rozwiązanie

\mathbf X = \mathbf A^{-1} \mathbf B.

Macierz odwrotną do \scriptstyle \mathbf A można wyznaczyć w dowolny sposób, np. korzystając z operacji elementarnych, bądź obliczając iloraz macierzy dołączonej \scriptstyle \mathbf A^\mathrm D przez wyznacznik macierzy \scriptstyle \mathbf A. Pierwsza metoda odpowiada w istocie metodzie eliminacji Gaussa-Jordana, druga z kolei jest wnioskiem z twierdzenia Cramera:

\mathbf X = \frac{\mathbf A^\mathrm D \mathbf B}{\det \mathbf A};

wtedy też, na mocy rozwinięcia Laplace'a, wzory na elementy \scriptstyle x_j powyższej macierzy, nazywane właśnie wzorami Cramera, dane są jako ilorazy wyznaczników macierzy \scriptstyle \mathbf A^{(j)}_\mathbf B przez wyznacznik macierzy głównej \scriptstyle \mathbf A układu \scriptstyle \mathbf{AX} = \mathbf B,

x_j = \frac{\det \mathbf A^{(j)}_\mathbf B}{\det \mathbf A},

gdzie \scriptstyle \mathbf A^{(j)}_\mathbf B oznacza macierz powstałą z \scriptstyle \mathbf A poprzez zamianę elementów \scriptstyle j-tej kolumny elementami macierzy wyrazów wolnych \scriptstyle \mathbf B, o ile tylko \scriptstyle \det \mathbf A nie jest równy zeru.

Jak już wspomniano, układ jest oznaczony, gdy macierz główna jest odwracalna. Jeżeli wyznacznik macierzy głównej jest zerowy, to układ jest sprzeczny, gdy którykolwiek z wyznaczników \scriptstyle \det \mathbf A^{(j)}_\mathbf B jest niezerowy. Twierdzenie odwrotne nie jest prawdziwe: jeśli wszystkie wyznaczniki są zerowe, to układ nie musi być nieoznaczony (wiadomo jedynie, że nie jest oznaczony, czyli może być tak sprzeczny, jak i nieoznaczony).

Stosowanie wzorów Cramera do rozwiązywania „konkretnych” układów wymaga z reguły więcej obliczeń niż stosowanie metody Gaussa, jednak metoda Cramera bywa dogodniejsza w rozważaniach teoretycznych.

Inne metody[edytuj | edytuj kod]

Układy trzech, czy nawet czterech zmiennych łatwo rozwiązać ręcznie (najlepiej metodą Gaussa); do większych stosuje się często komputery. Standardowe podejście opiera się na metodzie eliminacji Gaussa. Bardzo ważne jest unikanie dzielenia przez małe liczby, które może prowadzić do błędów zaokrągleń – można to osiągnąć poprzez zmianę kolejności równań (druga operacja elementarna). Ponadto, w szczególnym przypadku, gdy dane układy mają tę samą macierz główną, lecz różne macierze rozszerzone (tzn. układy mają te same współczynniki, lecz różne wyrazy wolne), to pomocne okazuje się wyznaczenie rozkładu LU macierzy głównej.

Często możliwe jest wykorzystanie szczególnej postaci macierzy głównej układu do uzyskania szybszych bądź dokładniejszych algorytmów. Przykładowo układy z symetrycznymi i dodatnio określonymi macierzami głównymi mogą być rozwiązane dużo szybciej za pomocą rozkładu Cholesky'ego. Rekursja Levinsona jest z kolei szybką metodą rozwiązywania układów opisanych macierzą Toeplitza. Istnieją także specjalne metody dla macierzy z wieloma zerami (tzw. macierzy rzadkich), które pojawiają się często w zastosowaniach matematyki.

W zupełnie inny sposób podchodzi się do bardzo dużych układów, których rozwiązanie kosztowałoby zbyt dużo czasu lub pamięci. Idea polega na rozpoczęciu od wstępnego przybliżenia rozwiązania (które wcale nie musi być dokładne) i stopniowym jego poprawianiu – jeśli jest ono wystarczająco dokładne, właśnie ono przyjmowane jest jako rozwiązanie układu. Tego rodzaju podejście prowadzi metod iteracyjnych.

Charakteryzacja[edytuj | edytuj kod]

Information icon.svg Osobne artykuły: rządtwierdzenie Kroneckera-Capellego.
Zbiór rozwiązań dwóch równań liniowych o trzech zmiennych zwykle tworzy prostą (przestrzeń jednowymiarową).

O niesprzeczności i liczbie rozwiązań układu \scriptstyle m równań liniowych o \scriptstyle n niewiadomych mówi twierdzenie Kroneckera-Capellego: ma on rozwiązanie wtedy i tylko wtedy, gdy rząd \scriptstyle r macierzy głównej tego układu jest równy rzędowi \scriptstyle s jego macierzy rozszerzonej. Układ jednorodny zawsze ma rozwiązanie trywialne, tzn. postaci \scriptstyle (0, \dots, 0); jest to jedyne rozwiązanie oznaczonego układu jednorodnego. Układ niesprzeczny jest

  • oznaczony, tzn. ma jedno rozwiązanie, gdy rząd macierz głównej układu jest równy liczbie niewiadomych;
  • nieoznaczony, tzn. nieskończenie wiele rozwiązań, gdy rząd macierzy głównej układu jest mniejszy od liczby niewiadomych – zbiór rozwiązań zależy wtedy od \scriptstyle n - r parametrów.

Z punktu widzenia geometrii analitycznej rozwiązania układu tworzą przestrzeń liniową (w przypadku jednorodnym) albo przestrzeń afiniczną (w przypadku niejednorodnym) wymiaru \scriptstyle n - r. W szczególności więc, jeśli \scriptstyle n = r, to rozwiązaniem jest punkt.

Niech \scriptstyle S_\mathbf 0 oznacza zbiór rozwiązań układu jednorodnego \scriptstyle \mathrm A(\mathbf x) = \mathbf 0. Ponieważ układ jest jednorodny, to \scriptstyle S_\mathbf 0 nie jest pusty. Niech \scriptstyle \mathbf x_1, \mathbf x_2 należą do \scriptstyle S_\mathbf 0, tzn. \scriptstyle \mathrm A(\mathbf x_1) = \mathbf 0 oraz \scriptstyle \mathrm A(\mathbf x_2) = \mathbf 0, skąd \scriptstyle \mathrm A(p\mathbf x_1 + q\mathbf x_2) = \mathbf 0, czyli \scriptstyle p\mathbf x_1 + q\mathbf x_2 również należy do \scriptstyle S_\mathbf 0, a więc \scriptstyle S_\mathbf 0 jest podprzestrzenią liniową przestrzeni współrzędnych. Ponieważ przekształcenie macierzy układu do postaci schodkowej zredukowanej nie zmienia zbioru rozwiązań \scriptstyle S_\mathbf 0 układu, to pierwsze \scriptstyle k wierszy jest kombinacją liniową ostatnich \scriptstyle n - r liniowo niezależnych wierszy; w ten sposób również \scriptstyle n - r kolumn tej macierzy tworzy bazę przestrzeni \scriptstyle S_\mathbf 0 (w gruncie rzeczy wykorzystuje się tu pojęcie rzędu; w ogólności powyższe obserwacje są równoważne twierdzeniu o rzędzie przekształcenia liniowego).

Teraz niech \scriptstyle S_\mathbf b będzie zbiorem rozwiązań układu niejednorodnego \scriptstyle \mathrm A(\mathbf x) = \mathbf b; ponieważ \scriptstyle r = s, to zbiór ten nie jest pusty. Niech \scriptstyle \mathbf x_1 będzie ustalonym rozwiązaniem, a \scriptstyle \mathbf x_2 dowolnym rozwiązaniem układu; wówczas z \scriptstyle \mathrm A(\mathbf x_1) = \mathbf b oraz \scriptstyle \mathrm A(\mathbf x_2) = \mathbf b, wynika \scriptstyle \mathrm A(\mathbf x_1 - \mathbf x_2) = \mathrm A(\mathbf x_1) - \mathrm A(\mathbf x_2) = \mathbf 0, czyli \scriptstyle \mathbf x_1 - \mathbf x_2 należy do zbioru \scriptstyle S_\mathbf 0 rozwiązań odpowiadającego mu układu jednorodnego. Wraz z nim do \scriptstyle S_\mathbf 0 należy również rozwiązanie przeciwne \scriptstyle \bar{\mathbf x} := \mathbf x_2 - \mathbf x_1, skąd \scriptstyle \mathbf x_2 = \mathbf x_1 + \bar{\mathbf x}, co wobec dowolności \scriptstyle \mathbf x_2 oznacza \scriptstyle S_\mathbf b \subseteq \mathbf x_1 + S_\mathbf 0. Jeśli zaś \scriptstyle \bar{\mathbf x} = \mathbf x_1 + \mathbf x_2, gdzie \scriptstyle \mathbf x_1 należy do \scriptstyle S_\mathbf b, a \scriptstyle \mathbf x_2 należy do \scriptstyle S_\mathbf 0, to \scriptstyle \mathrm A(\bar{\mathbf x}) = \mathrm A(\mathbf x_1) + \mathrm A(\mathbf x_2) = \mathbf b + \mathbf 0, czyli \scriptstyle \bar{\mathbf x} należy do \scriptstyle S_\mathbf b, a więc \scriptstyle \mathbf x_1 + S_\mathbf 0 \subseteq S_\mathbf b. Wynika stąd, że zbiór rozwiązań układu niejednorodnego jest warstwą podprzestrzeni liniowej rozwiązań odpowiadającego mu układu jednorodnego, zatem jest podprzestrzenią afiniczną tej samej przestrzeni współrzędnych.

Uogólnienia[edytuj | edytuj kod]

Rozwiązania nieoznaczonych układów niejednorodnych tworzą podprzestrzeń afiniczną.

Z punktu widzenia geometrii analitycznej układ \scriptstyle m równań o \scriptstyle n zmiennych odpowiada zadaniu \scriptstyle m hiperpłaszczyzn w \scriptstyle n-wymiarowej przestrzeni liniowej (lub przestrzeni afinicznej), rozwiązaniem (ogólnym) jest wtedy przestrzeń będąca częścią wspólną wszystkich hiperpłaszczyzn.

Stosując notację wektorową można wykorzystać do opisu układów równań liniowych cały aparat algebry liniowej. Zbiór wszystkich kombinacji liniowych układu wektorów nazywa się powłoką liniową; w ten sposób układ równań ma rozwiązanie, jeśli wektor \scriptstyle \mathbf b leży w powłoce generowanej przez wektory \scriptstyle \mathbf a_j. Jeżeli każdy wektor powłoki można wyrazić jednoznacznie jako kombinację liniową wektorów \scriptstyle \mathbf a_j, to układ jest oznaczony. W każdej powłoce można wyróżnić bazę złożoną z liniowo niezależnych wektorów, dzięki którym wspomniane wyrażenie może być jednoznaczne; liczba wektorów w bazie (wymiar) nie może być większy niż \scriptstyle m, czy \scriptstyle n, ale może być mniejsza. Rozwiązanie istnieje, gdy powłoka składa się z \scriptstyle m liniowo niezależnych wektorów.

Najogólniejszą postacią przekształcenia liniowego \scriptstyle \mathrm A między dwoma przestrzeniami liniowymi jest kombinacja liniowa zadających go wektorów \scriptstyle \mathbf a_j (zob. twierdzenie o przekształceniu liniowym zadanym na bazie). Samo przekształcenie liniowe \scriptstyle \mathrm A, przy ustalonych bazach dziedziny i przeciwdziedziny, można zapisać w postaci macierzy \scriptstyle \mathbf A = [\mathbf a_j]. Wówczas obliczaniu wartości \scriptstyle \mathrm A(\mathbf x) odpowiada mnożenie \scriptstyle \mathbf{AX}, a rozwiązywanie układu równań jednorodnych jest w istocie wyznaczaniem miejsc zerowych przekształcenia liniowego \scriptstyle \mathrm A. Przedstawione w poprzedniej sekcji rozumowanie jest przypadkiem szczególnym ogólnego wyniku – zbiór miejsc zerowych przekształcenia liniowego, nazywany jego jądrem, tworzy podprzestrzeń liniową w dziedzinie tego przekształcenia. Wymiar powłoki wspomniany w poprzednim akapicie w przypadku macierzy nazywa się jej rzędem (wierszowym). W ten sposób układ równań liniowych \scriptstyle \mathbf{AX} = \mathbf B można traktować jako problem opisu przekształcenia liniowego \scriptstyle \mathrm A(\mathbf x) = \mathbf b, przy czym istnienie rozwiązań jest tożsame z należeniem \scriptstyle \mathbf b do obrazu \scriptstyle \mathrm A (czyli istnieniem takiego wektora \scriptstyle \mathbf x, który spełniałby \scriptstyle \mathrm A(\mathbf x) = \mathbf b), a ich jednoznaczność jest równoważna trywialności jądra \scriptstyle \mathrm A (czyli różnowartościowości przekształcenia). Zależność między wymiarami jądra i obrazu opisuje tzw. twierdzenie o rzędzie przekształcenia liniowego.

Powyższe obserwacje dotyczące przestrzeni i przekształceń liniowych dla układów jednorodnych zachodzą mutatis mutandis dla przestrzeni i przekształceń afinicznych w przypadku niejednorodnym. W szczególności dowolne rozwiązanie układu niejednorodnego jest translacją rozwiązania odpowiadającego mu układu jednorodnego. Ponadto przekształceniu afinicznemu \scriptstyle \mathrm A(\mathbf x) + \mathbf b przestrzeni \scriptstyle n-wymiarowej w przestrzeń \scriptstyle m-wymiarową odpowiada przekształcenie liniowe

\begin{bmatrix} a_{11} & \dots & a_{1n} & b_1 \\ \vdots & \ddots & \vdots & \vdots \\ a_{m1} & \dots & a_{mn} & b_m \\ 0 & \dots & 0 & 1 \end{bmatrix} \begin{bmatrix} x_1 \\ \vdots \\ x_n \\ 1 \end{bmatrix}

przestrzeni \scriptstyle (n+1)-wymiarowej w przestrzeń \scriptstyle (m+1)-wymiarową (każda przestrzeń afiniczna może być zanurzona w przestrzeni liniowej wyższego wymiaru). Ostatni wiersz macierzy można pominąć bez utraty ogólności, co tłumaczy obserwację poczynioną w sekcji postać i zapis.

Przypisy

  1. F. P. Sayer. Some Aspects of Infinite Systems of Linear Simultaneous Equations. „IMA Journal of Numerical Analysis”. 1983 3(3):333-340;. doi:10.1093/imanum/3.3.333. [dostęp 6 stycznia 2009]. 

Linki zewnętrzne[edytuj | edytuj kod]