Zmienna (matematyka)

Z Wikipedii, wolnej encyklopedii
Skocz do: nawigacja, szukaj
Ten artykuł dotyczy matematyki. Zobacz też: inne znaczenia.

Zmiennasymbol oznaczający wielkość, która może przyjmować rozmaite wartości. Wartości te na ogół należą do pewnego zbioru, który jest określony przez naturę rozważanego problemu. Zbiór ten nazywamy zakresem zmiennej.

Przeciwieństwem zmiennej jest stała – wielkość, której wartość nie może się zmieniać – konkretna liczba, wektor, macierz.

W logice zmienna, właściwie symbole zmienne stanowią drugi obok symboli stałych typ znaków charakteryzujących alfabet języka teorii sformalizowanej.

Pojęcie zmiennej jest także fundamentalne w rachunku różniczkowym i całkowym. Zazwyczaj, funkcja y=f(x) wiąże dwie zmienne, y i x, reprezentujące odpowiednio wartość i argument funkcji. Termin "zmienna" pochodzi od faktu, że kiedy argument zmienia się, to wartość również odpowiednio się zmienia[1].

W informatyce, zmienną określa się nazwę reprezentującą pewną wartość znajdującą się w pamięci komputera.

Geneza pojęcia[edytuj]

Pod koniec XVI wieku, François Viète wysunął ideę reprezentowania znanych liczb i niewiadomych za pośrednictwem liter, współcześnie nazywanych zmiennymi, i przeprowadzania na nich obliczeń na takich samych zasadach jak na liczbach, by ostateczny wynik otrzymać poprzez proste podstawienie. Viete używał spółgłoski dla znanych wartości, a samogłosek dla niewiadomych[2].

W 1637 roku, Kartezjusz po raz pierwszy zastosował konwencję używania x, y, z dla niewiadomych, a a, b, c dla stałych. Nazewnictwo to, w przeciwieństwie do nazewnictwa Viete'a, jest wciąż powszechnie stosowane[3].

Również w XVII wieku, Isaac Newton i Gottfried Wilhelm Leibnitz niezależnie rozwinęli rachunek różniczkowy i całkowy, który w zasadzie polega na rozważaniu, jak infinitezymalna zmiana zmiennej wielkości powoduje odpowiednią zmianę innej wielkości, która jest funkcją pierwszej zmiennej (wielkości)[4]. W XVIII wieku, Leonhard Euler usystematyzował notację rachunku różniczkowego i całkowego, wprowadzając notację y=f(x) dla funkcji f, jej zmiennej x i wartości y[5]. Do końca XIX wieku, słowo zmienna było używane praktycznie wyłącznie w kontekście argumentów i wartości funkcji.

W drugiej połowie XIX wieku, Karl Weierstrass zastąpił intuicyjne pojęcie granicy formalną definicją. Dawna intuicja brzmiała: "kiedy zmienna x zmienia się i dąży do x_0, to f(x) dąży do g". Weierstrass wprowadził precyzyjną definicję nie posługując się pojęciem "zmienności" i "dążenia": \forall_{\varepsilon > 0}\; \exists_{\delta > 0}\; \forall_{x}\; (|x - x_0| < \delta \implies |f(x) - g| < \varepsilon)[6].

To "statyczne" sformułowanie doprowadziło do współczesnego pojęcia zmiennej, jako symbolu reprezentującego matematyczny obiekt, który albo jest niewiadomy (np. w równaniu), albo może być zastąpiony dowolnym elementem danego zbioru (np. we wzorze).

Notacja[edytuj]

W matematyce zmienne zazwyczaj zapisuje się używając pojedynczej litery, często również z indeksem dolnym, np. x_2. Indeks ten może być liczbą, inną zmienną (x_i), słowem lub jego skrótem (x_{wej} lub x_{wyj}) czy wyrażeniem matematycznym. Można też spotkać zmienne nazwane używając kilku liter i cyfr.

Według konwencji wprowadzonej przez Kartezjusza w XVII wieku, początkowe litery alfabetu, np. a, b, c używa się do nazwania znanych wartości, współczynników i parametrów, natomiast litery z końca, np. x, y, z oraz t - do określenia niewiadomych i zmiennych w funkcjach[3].

Dla przykładu, ogólne równanie funkcji kwadratowej można zapisać następująco: ax^2+bx+c, gdzie a, b i c są współczynnikami (nazywanymi także stałymi, gdyż są funkcjami stałymi), a x jest zmienną funkcji.

Poszczególne gałęzie i zastosowania matematyki często mają też własne konwencje co do nazywania zmiennych. Zmienne o podobnych rolach i znaczeniach często są przypisane kolejnym literom alfabetu lub tej samej literze z różnymi indeksami. Przykładowo, trzy osie w trójwymiarowym układzie współrzędnych, są zwyczajowo nazywane x, y, z. W fizyce, nazwy zmiennych głównie zależą od wielkości fizycznej, którą opisują.

Poniżej znajdują się często spotykane konwencje:

Symbol Znaczenie
a, b, c, d, ... współczynniki wielomianów
a_0, a_1, a_2, ... alternatywne oznaczenie kiedy ilość współczynników wymagałaby użycia zbyt dużej ilości różnych liter
a_i, u_i i-ty wyraz ciągu lub szeregu
f, g, h funkcje
i, j, k pewne zmienne liczba całkowitych lub indeksy w rodzinie indeksowanej
n stała liczbę całkowitą, na przykład ilość obiektów lub stopień równania
m, n wymiary macierzy
p liczbę pierwsza lub prawdopodobieństwo
q potęga liczby pierwszej lub pewien iloraz
r reszta z dzielenia
t czas
x, y, z trzy współrzędne kartezjańskie punktu na płaszczyźnie euklidesowej a także odpowiadające im osiom, kolejne argumenty funkcji
z liczba zespolona
\alpha, \beta, \gamma, \theta, \varphi wartości kątów
\varepsilon dowolnie mała liczba dodatnia, często w kontekście dokładności

Przykłady[edytuj]

Zobacz też[edytuj]

Przypisy

  1. Syracuse University: Appendix One Review of Constants and Variables (ang.). cstl.syr.edu. [zarchiwizowane z tego adresu (2014-10-10)].
  2. John B. Fraleigh: A First Course in Abstract Algebra. Wyd. IV. Stany Zjednoczone: Addison-Wesley, 1989, s. 276. ISBN 0-201-52821-5. (ang.)
  3. a b Tom Sorell: Descartes: A Very Short Introduction. Nowy Jork: Oxford University Press, 2000, s. 19. DOI: 10.1093/actrade/9780192854094.001.0001. [dostęp 2015-11-15]. (ang.)
  4. Donald Allen: Calculus (ang.). www.math.tamu.edu, 1997-04-10. [dostęp 2015-11-15].
  5. William Dunham: Euler: The Master of Us All. The Mathematical Association of America, 1999, s. 17, 18. ISBN 978-0883853283. (ang.)
  6. Bertrand Russell: History of Western Philosophy. Londyn: George Allen & Unwin Ltd, 1946, s. 857. ISBN 0-415-32505-6. Cytat: "The great mathematicians of the seventeenth century were optimistic and anxious for quick results; consequently they left the foundations of analytical geometry and the infinitesimal calculus insecure. Leibniz believed in actual infinitesimals, but although this belief suited his metaphysics it had no sound basis in mathematics. Weierstrass, soon after the middle of the nineteenth century, showed how to establish the calculus without infinitesimals, and thus at last made it logically secure.". (ang.)