Entropy được định nghĩa là thước đo định lượng của sự rối loạn hoặc ngẫu nhiên trong một hệ thống. Khái niệm này xuất phát từ nhiệt động lực học, liên quan đến việc truyền nhiệt năng trong một hệ thống. Thay vì nói về một số dạng “entropy tuyệt đối”, các nhà vật lý thường thảo luận về sự thay đổi entropy diễn ra trong một quá trình nhiệt động lực học cụ thể.
Bài học rút ra chính: Tính toán Entropy
- Entropy là một thước đo xác suất và sự rối loạn phân tử của một hệ thống vĩ mô.
- Nếu mỗi cấu hình có xác suất như nhau, thì entropy là logarit tự nhiên của số cấu hình, nhân với hằng số Boltzmann: S = kB ln W
- Để entropy giảm, bạn phải truyền năng lượng từ một nơi nào đó bên ngoài hệ thống.
Cách tính Entropy
Trong quá trình đẳng nhiệt, sự thay đổi entropi (delta-S) là sự thay đổi nhiệt lượng (Q) chia cho nhiệt độ tuyệt đối (T):
delta-S = Q/T
Trong bất kỳ quá trình nhiệt động lực học thuận nghịch nào, nó có thể được biểu diễn trong giải tích dưới dạng tích phân từ trạng thái ban đầu của một quá trình đến trạng thái cuối cùng của nó là dQ / T. Theo nghĩa tổng quát hơn, entropi là thước đo xác suất và sự rối loạn phân tử của một hệ vĩ mô. Trong một hệ thống có thể được mô tả bằng các biến, các biến đó có thể giả định một số cấu hình nhất định. Nếu mỗi cấu hình đều có thể xảy ra như nhau, thì entropy là logarit tự nhiên của số cấu hình, nhân với hằng số Boltzmann:
S = kB ln W
Trong đó S là entropy, kB là hằng số Boltzmann, ln là logarit tự nhiên và W đại diện cho số trạng thái có thể có. Hằng số Boltzmann bằng 1.38065 × 10−23 J/K.
Đơn vị của Entropy
Entropy được coi là một thuộc tính mở rộng của vật chất được biểu thị dưới dạng năng lượng chia cho nhiệt độ. Đơn vị SI của entropi là J / K (jun / độ Kelvin).
Entropy và Định luật thứ hai của nhiệt động lực học
Một cách phát biểu định luật thứ hai của nhiệt động lực học như sau: trong bất kỳ hệ kín nào, entropi của hệ sẽ không đổi hoặc tăng lên.
Bạn có thể xem điều này như sau: thêm nhiệt vào một hệ thống làm cho các phân tử và nguyên tử tăng tốc độ. Điều đó có thể (mặc dù khó khăn) để đảo ngược quá trình trong một hệ thống kín mà không cần rút năng lượng từ hoặc giải phóng năng lượng ở một nơi khác để đạt được trạng thái ban đầu. Bạn không bao giờ có thể khiến toàn bộ hệ thống “ít năng lượng hơn” so với khi nó bắt đầu. Năng lượng không có bất kỳ nơi nào để đi. Đối với các quá trình không thể đảo ngược, entropy kết hợp của hệ thống và môi trường của nó luôn tăng lên.
Những quan niệm sai lầm về Entropy
Quan điểm về định luật thứ hai của nhiệt động lực học này rất phổ biến, và nó đã bị sử dụng sai. Một số người cho rằng định luật thứ hai của nhiệt động lực học có nghĩa là một hệ thống không bao giờ có thể trở nên trật tự hơn. Điều này là không đúng sự thật. Nó chỉ có nghĩa là để trở nên trật tự hơn (để entropy giảm), bạn phải truyền năng lượng từ một nơi nào đó bên ngoài hệ thống, chẳng hạn như khi một phụ nữ mang thai lấy năng lượng từ thức ăn để tạo ra trứng đã thụ tinh thành em bé. Điều này hoàn toàn phù hợp với quy định của định luật thứ hai.
Entropy còn được gọi là rối loạn, hỗn loạn và ngẫu nhiên, mặc dù cả ba từ đồng nghĩa đều không chính xác.
Entropy tuyệt đối
Một thuật ngữ liên quan là “entropy tuyệt đối”, được ký hiệu là S chứ không phải ΔS. Entropy tuyệt đối được xác định theo định luật thứ ba của nhiệt động lực học. Ở đây, một hằng số được áp dụng để làm cho nó sao cho entropy ở độ không tuyệt đối được định nghĩa là bằng không.