W poszukiwaniu właściwości, która może wiarygodnie przewidywać spontaniczność procesu, zidentyfikowano obiecującego kandydata: entropię. Naukowcy nazywają miarę losowości lub nieporządku w systemie entropią. Wysoka entropia oznacza wysoki nieporządek i niską energię. Aby lepiej zrozumieć entropię, pomyśl o sypialni studenta. Gdyby nie włożono w to energii ani pracy, w pomieszczeniu szybko zrobiłby się bałagan. Istniałby w stanie bardzo nieuporządkowanym, o wysokiej entropii. Energia musi być wprowadzona do systemu, w postaci wykonywania przez ucznia pracy i odkładania wszystkiego na miejsce, aby przywrócić pokój do stanu czystości i porządku. Ten stan jest stanem o niskiej entropii.
Procesy, które wiążą się ze wzrostem entropii układu (ΔS > 0) są bardzo często spontaniczne, jednak przykłady przeciwne są obfite. Rozszerzając rozważania nad zmianami entropii na otoczenie, możemy dojść do znaczącego wniosku dotyczącego związku między tą właściwością a spontanicznością. W modelach termodynamicznych układ i otoczenie obejmują wszystko, czyli wszechświat, a więc prawdą jest, co następuje:
ΔSuniv = ΔSsys + ΔSsurr
Druga zasada termodynamiki mówi, że wszelkie spontaniczne zmiany powodują wzrost entropii wszechświata. Podsumowanie związku między entropią a spontanicznością procesu przedstawiono w tabeli 1.
Tabela 1: Zależność między entropią a spontanicznością procesu.
ΔSuniv > 0 | spontaniczny |
ΔSuniv < 0 | niespontaniczne (spontaniczne w przeciwnym kierunku) |
ΔSuniv = 0 | w stanie równowagi |
Ten tekst jest adaptacją Openstax, Biology 2e, Sekcja 6.3: Prawa termodynamiki i Openstax, Chemia 2e, 16.3 Drugie i trzecie zasady termodynamiki.
Entropia, w skrócie S, jest termodynamiczną miarą nieporządku lub losowości. Systemy z większym nieporządkiem mają wyższą entropię niż te z mniejszym nieporządkiem.
Na przykład rozłożony łańcuch aminokwasowy ma wyższą entropię niż wtedy, gdy łańcuch jest prawidłowo złożony, ponieważ łańcuch liniowy jest bardziej elastyczny i niezorganizowany niż ciasno upakowane białko.
Druga zasada termodynamiki mówi, że entropia izolowanego układu zawsze rośnie. Oznacza to, że wszystko staje się bardziej nieuporządkowane bez udziału z zewnątrz.
Izolowane układy rzadko występują naturalnie, więc termodynamika często bada zmiany entropii całego wszechświata. Zmiana entropii wszechświata obejmuje zarówno zmiany entropii badanego układu, jak i jego otoczenia.
Proces, w którym entropia wszechświata wzrasta, to znaczy taki, w którym ΔS jest większe od zera, zachodzi spontanicznie. Proces, w którym entropia maleje lub ma -ΔS, nie jest spontaniczny i wymaga wkładu energii, aby zaszła.
Related Videos
Energy and Catalysis
5.7K Wyświetlenia
Energy and Catalysis
5.3K Wyświetlenia
Energy and Catalysis
5.9K Wyświetlenia
Energy and Catalysis
10.5K Wyświetlenia
Energy and Catalysis
8.3K Wyświetlenia
Energy and Catalysis
14.9K Wyświetlenia
Energy and Catalysis
9.1K Wyświetlenia
Energy and Catalysis
6.2K Wyświetlenia
Energy and Catalysis
4.4K Wyświetlenia
Energy and Catalysis
6.3K Wyświetlenia
Energy and Catalysis
17.4K Wyświetlenia
Energy and Catalysis
11.8K Wyświetlenia
Energy and Catalysis
19.8K Wyświetlenia
Energy and Catalysis
10.0K Wyświetlenia
Energy and Catalysis
3.9K Wyświetlenia
Energy and Catalysis
8.0K Wyświetlenia
Energy and Catalysis
3.1K Wyświetlenia
Energy and Catalysis
2.5K Wyświetlenia
Energy and Catalysis
2.6K Wyświetlenia
Energy and Catalysis
9.3K Wyświetlenia
Energy and Catalysis
5.5K Wyświetlenia
Energy and Catalysis
7.6K Wyświetlenia