Entropia

Z Wikipedii, wolnej encyklopedii
Skocz do: nawigacji, wyszukiwania
Ujednoznacznienie Ten artykuł dotyczy pojęcia fizycznego. Zobacz też: inne znaczenia tego terminu.

Entropiatermodynamiczna funkcja stanu, określająca kierunek przebiegu procesów spontanicznych (samorzutnych) w odosobnionym układzie termodynamicznym. Entropia jest miarą stopnia nieuporządkowania układu[1]. Jest wielkością ekstensywną[2]. Zgodnie z drugą zasadą termodynamiki, jeżeli układ termodynamiczny przechodzi od jednego stanu równowagi do drugiego, bez udziału czynników zewnętrznych (a więc spontanicznie), to jego entropia zawsze rośnie. Pojęcie entropii wprowadził niemiecki uczony Rudolf Clausius.

W termodynamice klasycznej[edytuj | edytuj kod]

W ramach II zasady termodynamiki zmiana entropii (w procesach kwazistatycznych) jest zdefiniowana przez swoją różniczkę zupełną jako:

 dS = \frac{1}{T} \delta Q

gdzie:

T – temperatura bezwzględna,
\delta Qciepło elementarne, czyli niewielka ilość ciepła dostarczona do układu (wyrażenie Pfaffa).

Entropię pewnego stanu termodynamicznego P można wyznaczyć ze wzoru:

S\left( P \right)=\int\limits_{0}^{T_{P}}{\frac{C\left( T \right)dT}{T}}

gdzie

Cpojemność cieplna,
TP — temperatura w stanie P.

Podstawowe równanie termodynamiki fenomenologicznej, w którym występuje entropia, ma postać

 dU =TdS - pdV + \sum_{i=1}^k {\mu_i dN_i}

gdzie:

Uenergia wewnętrzna,
k – liczba różnych składników,
Ttemperatura  \frac{1}{T} = {\left( \frac{\partial S}{ \partial U} \right) }_{V,N_1,\dots, N_n}
pciśnienie \frac{p}{T} = {\left( \frac{\partial S}{ \partial V} \right) }_{U,N_1,\dots, N_n}
\mu_ipotencjał chemiczny i-tego składnika \frac{\mu_i}{T} = - {\left( \frac{\partial S}{ \partial N_i} \right) }_{p,V,N_{j \ne i}}

W termodynamice statystycznej[edytuj | edytuj kod]

Całkowita entropia układu makroskopowego jest równa:

S=k \ln(W) \frac{}{}

lub

 S = -k \sum_i^{} {p_i \ln(p_i)}

gdzie:

kstała Boltzmanna,
W – liczba sposobów, na jakie makroskopowy stan termodynamiczny układu (makrostan) może być zrealizowany poprzez stany mikroskopowe (mikrostany),
pi – prawdopodobieństwo i-tego mikrostanu.

Zatem

\log_2(W)=\frac{\ln(W)}{\ln(2)}

jest liczbą bitów potrzebnych do pełnego określenia, którą realizację przyjął dany układ.

Praktyczne obliczenie W jest w większości przypadków technicznie niemożliwe, można jednak oszacowywać całkowitą entropię układów poprzez wyznaczenie ich całkowitej pojemności cieplnej poczynając od temperatury 0 K do aktualnej temperatury układu i podzielenie jej przez temperaturę układu.

Ciało pozbawione niedoskonałości, zwane kryształem doskonałym, ma w temperaturze 0 bezwzględnego (0 K) entropię równą 0, gdyż jego stan może być zrealizowany tylko na jeden sposób (każda cząsteczka wykonuje drgania zerowe i zajmuje miejsce o najmniejszej energii). Jest to jedno ze sformułowań trzeciej zasady termodynamiki. Oznacza to, że każde rzeczywiste ciało ma w temperaturze większej od zera bezwzględnego entropię większą od zera.

Entropia czarnej dziury[edytuj | edytuj kod]

W ogólnej teorii względności, aby opisać czarną dziurę, wystarczy podać jej masę, moment pędu i ładunek elektryczny. Zgodnie z tą teorią czarna dziura nie zawiera żadnej informacji ponad te parametry. Żargonowo fizycy mówią, że czarna dziura "nie ma włosów". Jednak oznacza to, że entropia czarnej dziury jest równa 0. Do czarnej dziury wpada materia o niezerowej entropii, zatem przy wpadaniu entropia całego układu się zmniejsza. Wynika z tego, że ogólna teoria względności łamie drugą zasadę termodynamiki. Fizycy zaczęli więc poszukiwać uogólnienia teorii czarnych dziur, tak, żeby pozostawała w zgodzie z termodynamiką. Owocne okazało się rozważenie efektów kwantowych.

Wzór na entropię czarnej dziury powstał przy założeniu, że podczas spadania ciała do czarnej dziury jej masa rośnie i rośnie też jej entropia; proporcjonalny do masy jest horyzont zdarzeń, czyli promień Schwarzschilda. Ścisły wzór wg Stephena Hawkinga ma postać:

S={k c^3 A\over4\hbar\,G}

gdzie:

kstała Boltzmanna,
A – powierzchnia horyzontu zdarzeń czarnej dziury,
cprędkość światła,
\hbarstała Plancka dzielona,
G – stała grawitacyjna.

Kosmologia[edytuj | edytuj kod]

Według II zasady termodynamiki, każdy układ izolowany dąży do stanu równowagi, w którym entropia osiąga maksimum. Zakładając, że Wszechświat jako całość jest układem izolowanym, powinien on również dążyć do równowagi. Wychodząc z tych założeń Hermann von Helmholtz wysunął hipotezę śmierci cieplnej Wszechświata, według której Wszechświat w końcu dojdzie do równowagi termodynamicznej w której niemożliwe będzie zamiana energii cieplnej na pracę, przez co niemożliwy będzie rozwój Wszechświata. Stwierdzenie tego faktu jest jednak stosunkowo trudne do zaobserwowania i dlatego prowadzi się liczne dyskusje czy Wszechświat jest, czy nie jest układem izolowanym czy też tylko zamkniętym oraz czy rzeczywiście dąży jako całość do równowagi. Przeciwnicy tej koncepcji są zdania, że rozszerzającego się Wszechświata nie można traktować jako układu izolowanego, gdyż nie można wyznaczyć obszaru, z którego nie wychodziłoby promieniowanie. Wiadomo jedynie, że entropia olbrzymiej większości znanych układów izolowanych rośnie w kierunku, który nazywamy przyszłością. Tak więc, z tego punktu widzenia, termodynamika określa kierunek upływu czasu (tzw. termodynamiczna strzałka czasu).

Według Boltzmanna aktualna entropia Wszechświata jest jeszcze bardzo niska, w porównaniu z wartością "docelową", na co dowodem miały być wysokie wartości fluktuacji statystycznych zjawisk obserwowanych w skali kosmosu – np. bardzo nierównomierne rozmieszczenie gwiazd w przestrzeni. Współcześnie taka interpretacja entropii jest jednak uważana za całkowicie nieuprawnioną z kosmologicznego punktu widzenia.

Powiązania z innymi naukami[edytuj | edytuj kod]

Z punktu widzenia fizycznego każdy proces ekonomiczny również ma charakter jednokierunkowego wzrostu entropii, sporadycznie formułowano teorie o ekwiwalentności pieniądza i niskiej entropii (G.Helm, J.Lotka[3]).

Zobacz też[edytuj | edytuj kod]

WiktionaryPl nodesc.svg
Zobacz hasło entropia w Wikisłowniku

Przypisy

  1. F.Reif, Fizyka statystyczna, PWN, Warszawa 1973, s. 171
  2. W opisie układów dalekich od stanu równowagi, klasyczna (nieekstensywna) termodynamika zawodzi. Próby jej rozszerzenia, w oparciu o teorie Rényi'ego i Tsallisa wymagają bardziej ogólnej definicji entropii. Entropie Rényi'ego i Tsallisa są w ogólności nieekstensywne; obejmująca je dziedzina badań nosi nazwę termodynamiki nieekstensywnej
  3. Nicholas Georgescu-Roegen: Entropia, wartość i rozwój. W: Ponad ekonomią. Warszawa: PIW, 1985. ISBN 83-06-01042-6.