スポンサーリンク

エントロピー

エントロピー(entropy)

1 系の乱雑さ・無秩序さ・不規則さの度合を表す量で、物質や熱の出入りのない系ではエントロピーは減少せず、不可逆変化をするときには、常に増大する。(無秩序であればあるほど、エントロピーの値は大きくなる)一九世紀中頃、ドイツの物理学者クラウジウスが熱力学的量の一つとして導入した。
2 情報理論で、情報の不確かさの度合を表す量。

スポンサーリンク

フォローする