Entropi betydning
Entropi betegner overordnet et mål for uorden, spredning eller usikkerhed i et system. I fysik beskriver entropi, hvor mange mikroskopiske tilstande der svarer til en observeret makrotilstand, og den er tæt knyttet til varme, energiudveksling og den 2. hovedsætning i termodynamikken. I informationsteori måler entropi den gennemsnitlige usikkerhed eller informationsmængde i en tilfældig variabel. Ordet bruges også billedligt om stigende kaos eller manglende struktur i hverdagslivet.
Hvad betyder “entropi”?
Kerneudtryk:
- Termodynamik: Et tilstandsvidt mål for et systems “spredning” af energi; i isolerede systemer kan entropien ikke falde.
- Statistisk mekanik: Et mål for antallet af tilgængelige mikroskopiske konfigurationer (mikrotilstande).
- Informationsteori: Den forventede informationsmængde pr. udfald; et mål for uforudsigelighed.
- Almindelig sprogbrug: Metafor for uorden, tilfældighed eller gradvis forfald af struktur.
Etymologi
Ordet “entropi” stammer fra græsk en- (“i, ind”) og trope (“vending, forandring”). Begrebet blev indført af den tyske fysiker Rudolf Clausius i 1865 som “Entropie”, bevidst lydligt beslægtet med “Energi”. På dansk: entropi.
Entropi i termodynamik
I klassisk termodynamik er entropi en tilstandsvariabel, der angiver, hvor “spredt” energi er i systemet. Ændringen i entropi ved en reversibel varmeudveksling er givet ved:
dS = δQ_rev / T
- 2. hovedsætning: For et isoleret system gælder ΔS ≥ 0. Entropi kan stige (irreversibelt) eller være konstant (ideelt reversibelt), men ikke falde.
- Åbne systemer: Lokal entropi kan aftage, hvis systemet eksporterer entropi til omgivelserne (f.eks. levende organismer).
- Spontanitet i kemi: En proces er ved temperatur T termodynamisk favorabel, når
ΔG = ΔH − TΔS < 0
(Gibbs fri energi).
Entropi i statistisk mekanik
Statistisk entropi knytter makrotilstande (temperatur, tryk) til antallet af mikrotilstande Ω:
S = kB ln Ω
- Boltzmanns indsigt: Jo flere mikrotilstande der realiserer den samme makrofysiske tilstand, desto større entropi.
- H-lemma og irreversibilitet: Makroskopisk irreversibilitet opstår statistisk fra mikroskopisk reversible love.
Entropi i informationsteori
Shannon-entrpien af en diskret tilfældig variabel med sandsynligheder pi er:
H = − Σ pi log pi
- Enheder: bits (log base 2) eller nats (naturlig log).
- Fortolkning: Gennemsnitlig informationsmængde pr. symbol; høj entropi = større uforudsigelighed.
- Relateret: Kryds-entropi, relative entropy/Kullback–Leibler-divergens, mutual information.
- Landauers princip: Sletning af 1 bit information kræver mindst
kB T ln 2
energi, som varme.
Enheder, symboler og notation
- Symbol: S (termodynamik); H (informationsteori).
- Enhed (termodynamik): joule per kelvin (J/K).
- Konstant: Boltzmanns konstant
kB = 1,380 649 × 10⁻²³ J/K
. - Information: bit eller nat (dimensionsløs).
Oversigtsmatrix: entropi på tværs af felter
Område | Kort definition | Typisk formel/symbol | Enhed |
---|---|---|---|
Termodynamik | Tilstandsvariabel for energispredning | dS = δQ_rev/T | J/K |
Statistisk mekanik | Logaritme af antal mikrotilstande | S = kB ln Ω | J/K |
Informationsteori | Gns. informationsindhold/usikkerhed | H = − Σ p log p | bit eller nat |
Kryptografi | Tilfældighedsgrad i nøgler/udfald | Min- eller Shannon-entropi | bit |
Historisk udvikling
- 1820’erne: Sadi Carnot undersøger varmemaskiner.
- 1850’erne–1865: Rudolf Clausius formulerer begrebet entropi og den 2. hovedsætning.
- 1870’erne–1900: Ludwig Boltzmann og J. Willard Gibbs udvikler statistisk mekanik.
- 1900-tallet: Planck forbinder entropi og kvanteteori; Prigogine undersøger dissipative strukturer.
- 1948: Claude E. Shannon definerer informationsteoretisk entropi.
- 1961: Rolf Landauer knytter information og fysik (energiomkostning ved sletning).
Relaterede begreber
- Negentropi (negentropy): “Negativ entropi” som mål for orden/information; bruges især metaforisk og i informationsteori (Brillouin).
- Eksergi: Mål for den maksimale nyttearbejdsmulighed; “modsætning” til entropi i ingeniørmæssig forstand.
- Fri energi: Gibbs (G) og Helmholtz (A/F); kobler entropi til arbejde.
- Entalpi (H): Varmeindhold; må ikke forveksles med entropi.
- Mutual information, kryds-entropi, KL-divergens: Nære slægtninge i informationsteori.
- Algoritmisk kompleksitet (Kolmogorov): Mål for “entropi” i enkeltsekvenser via korteste programlængde.
Synonymer og beslægtede ord
- Fagligt præcise: termodynamisk entropi, Shannon-entropi.
- Metaforiske/omskrivende: uorden, tilfældighedsgrad, usikkerhed, spredning, informationsindhold (kontekstafhænger).
Antonmyer (afhængig af kontekst)
- Hverdagsbrug: orden, struktur.
- Informationsteori: forudsigelighed, redundans; “negentropi”.
- Ingeniørmæssigt: eksergi (ikke strengt antonym, men funktionelt modstykke).
Eksempler på brug
- “Systemets entropi steg, da isblokken smeltede ved stuetemperatur.”
- “Blandingen af to gasser øger entropien på grund af større antal mikrotilstande.”
- “Shannon-entropien for en fair mønt er 1 bit pr. kast.”
- “Komprimering udnytter lav entropi ved at fjerne redundans i data.”
- “Biologiske organismer opretholder lav lokal entropi ved at eksportere entropi til omgivelserne.”
- “Kortstokkens entropi stiger, når du blander den mange gange.”
- “I kryptografi ønsker man høj entropi i nøglegenerering.”
- “En sort hul-horisont har entropi proportional med arealet (Bekenstein–Hawking-entropi).”
- “Laboratoriets øgede entropi sidst på dagen var tydelig – papir overalt.” (metaforisk)
Entropi i kemi og biologi
- Blandingsentropi: Opløsning og diffusion øger entropien.
- Protein-foldning: Konkurrence mellem entropi (kædens frihedsgrader) og enthalpi (bindinger) styrer foldning.
- Selvorganisering: Ordnet struktur kan opstå i åbne systemer ved netto eksport af entropi (dissipative strukturer).
Entropi i teknologi og datalogi
- Kryptografiske tilfældighedskilder: “Entropy pools” i operativsystemer.
- Maskinlæring: Kryds-entropi som tabsfunktion; entropi-regularisering i RL.
- Komprimering: Shannon-grænsen fastlægger teoretisk bedste komprimeringsrate.
Almindelig sprogbrug og metaforer
Uden for naturvidenskab bruges “entropi” billedligt om forfald, rod og stigende tilfældighed i sociale systemer, økonomi eller dagligdagen. Det er en nyttig metafor, men skal ikke forveksles med den præcise, målbare størrelse i fysik/informationsteori.
Typiske misforståelser
- “Entropi = kaos.” I fysik er entropi mere præcist knyttet til antal mikrotilstande og energispredning, ikke “rod” i daglig forstand.
- “Entropien kan aldrig falde.” Det gælder for isolerede systemer. Åbne systemer kan lokalt formindske entropi ved at øge den udenfor.
- “Høj entropi er altid dårligt.” I teknologi og natur kan høj entropi være neutral eller ønskelig (f.eks. stærke nøgler, effektiv varmeudveksling).
- Forveksling af enheder: Termodynamisk entropi har enhed J/K; Shannon-entropi måles i bits eller nats.
Korte regleregler og intuition
- Spredning: Processer, der spreder energi eller stof, øger typisk entropien.
- Usikkerhed: Jo mere uforudsigeligt et udfald, desto højere informationsentropi.
- Begrænsninger: Begrænsninger og korrelationer reducerer entropi (færre mulige tilstande).