学生懸賞論文集 第42号
11/108

#!$"!4!&&"!$)&)!$#&#%%##!$!"""!%#(%&

元のページ  ../index.html#11

このブックを見る

で表す不等式である。ただし、積分は循環過程の経路とする。また、この段階での循環過程の間での系のエントロピーSの増分はと定義される。またクラウジウスの定理と等価な熱力学第二法則において述べられているように、熱力学的にエントロピーは状態量であり、その値は系が現在ある状態だけにより定まり、系が現在の状態に至るまでに通った経路には依存しない。それゆえに、過去の経路に応じた異なる値を取る熱や仕事として加わるエネルギーとエントロピーは対比され、循環過程において、それが可逆または不可逆を問わず、系のエントロピーは過程の最初と最後で等しい。統計力学においてエントロピーは、ボルツマンの原理で、ミクロカノニカル分布において状態数と関連付けることができ、その系が取りえる微視的な状態の数がWであるときのエントロピーSをと定義する。このとき対数%&$は自然対数であり、係数kはボルツマン定数である。この原理は、エントロピー増大則により、断熱過程においてエントロピーが増えることはなく、不可逆な断熱過程においてエントロピーが増える、自由膨張のような不可逆な変化は系が微視的に取りえる状態を増やすことから、エントロピーが状態数の増加関数であることを示唆している。そして二つの分野から転用された情報理論におけるシャノンのエントロピーは、情報源がどれだけ情報を出しているかを測る尺度で、平均情報量ともよばれる。物理学での「乱雑さ」「不規則さ」「曖昧さ」といった概念的な意味合いと同じく、その情報が不規則であればあるほど、平均として多くの情報を含んでいることを意味する。例えば、二つのアルファベットA、Bがランダムに出力されているとし、それぞれの確率を#!、#"とする。出力されたアルファベット学生懸賞論文集第■■号"$!

元のページ  ../index.html#11

このブックを見る