カルバック・ライブラー情報量
情報理論 |
---|
情報量 |
通信路 |
単位 |
その他 |
カテゴリ |
カルバック・ライブラー情報量(カルバック・ライブラーじょうほうりょう、英: Kullback–Leibler divergence)は2つの確率分布の差異を計る尺度である。
確率論と情報理論で利用され様々な呼び名がある。以下はその一例である:
- カルバック・ライブラー・ダイバージェンス(KLダイバージェンス)
- 情報ダイバージェンス(英: information divergence)
- 情報利得(英: information gain)
- 相対エントロピー(英: relative entropy)
- カルバック・ライブラー距離
ただしこの計量は距離の公理を満たさないので、数学的な意味での距離ではない。
応用上は、「真の」確率分布 P とそれ以外の任意の確率分布 Q に対するカルバック・ライブラー情報量が計算される事が多い。たとえば P はデータ、観測値、正確に計算で求められた確率分布などを表し、Q は理論値、モデル値、P の予測値などを表す。
この概念は1951年、ソロモン・カルバックとリチャード・ライブラーが2つの分布の間の directed divergence として用いたのが最初であり、ベクトル解析におけるダイバージェンスとは異なる概念である。
カルバック・ライブラー情報量は離散分布のみならず連続分布に対しても定義されており、連続分布に対するカルバック・ライブラー情報量は変数変換について不変である。したがって、情報理論の他の量(自己情報量やエントロピー)よりも基本的であるともいえる。というのも、それらは離散的でない確率については未定義だったり、変数変換に対して不変ではなかったりするからである。
定義
[編集]P、Q を離散確率分布とするとき、P の Q に対するカルバック・ライブラー情報量は以下のように定義される。
ここで P(i)、Q(i) はそれぞれ確率分布 P、Q に従う確率変数の値が i となる確率である。
一方 P、Q が連続確率分布の場合は以下のように定義される。
ここで、p、q はそれぞれ P、Q の確率密度関数を表す。
より一般に、P、Q が可測集合 X 上の確率測度で、P、Q がなんらかの測度 μ に対して絶対連続な場合には、
と定義できる。ここで dP/dμ、dQ/dμ はラドン・ニコディム導関数である。
これらの式に出てくる対数の底は、情報の単位をビットとするときは 2 とし、ナットを単位とするときはネイピア数 e を底とする。カルバック・ライブラー情報量に関わる方程式の多くは対数の底と無関係である。
直観的意味
[編集]最尤推定量による説明
[編集]有限次元のパラメータ θ によって特徴づけられる確率密度関数 q(x|θ) を用いて p(x) を推定するという文脈では、カルバック・ライブラー情報量の経験量の最小化
は、(対数変換した)最尤法
と同値な問題になる。すなわち、最尤推定量は、カルバック・ライブラー情報量を経験的に最小化する推定方法だと考えられる。
ベイズ確率による説明
[編集]X を確率変数とし、各 x に対し X が x である確率 Pr[X=x] が Q(x) であったとする(ベイズ確率でいう事前分布)。いま X に関する新たなデータ I を知ったとし、その結果 X の従う(条件付き)確率 Pr[X=x|I] が P(x) になったとする(ベイズ確率でいう事後分布)。
このとき、I は X に関しどのくらいの情報を提供したといえるであろうか。情報量が事象の不確かさを図る尺度であったことを思い出されたい。I を知る前の X の不確かさ(すなわち自己情報量)は −logQ(x) であるが、I を知ることでそれは −logP(x) に減る。したがって I によって X に関して
だけの自己情報量を得たことになる。x は X に従って変わるので、この値の(事後確率分布による)平均値をとると、
となる。これはカルバック・ライブラー情報量と一致する。
すなわち、カルバック・ライブラー情報量は、X に関してデータ I から得られる情報量の平均値を表していることになる。以上の理由により、カルバック・ライブラー情報量は情報利得(Information gain)とも呼ばれる。
符号化による説明
[編集]情報量が H である確率変数X は平均ビット数が(ほぼ)H であるビット列に符号化できる(ハフマン符号)が、平均ビット数が H 未満であるようには符号化できない(情報源符号化定理)事が知られている。つまり、確率変数 X を符号化しようと考えた場合、H がビット数の最小値である。今確率変数 X が本当は分布 P に従っているのに、誤って分布 Q に従っていると判断してしまった場合、本来の最小値よりも多くのビット数を必要としてしまう。カルバック・ライブラー情報量は、このような誤りを犯してしまった場合に余分にかかってしまうビット数の平均値を表す。
カルバック・ライブラー情報量は、サノフの定理を通して大偏差理論の一部に位置づけられる。集合 {1,2,...,r} 上の確率分布全体の集合を P とし、K⊂Pをコンパクト集合とする。このとき、確率分布 p ∈ P から独立同分布にしたがって生成した確率変数列 x1, x2,..., xN から導かれる経験分布が K に含まれる確率のレート関数は、カルバック・ライブラー情報量で与えられる:
端的に述べれば、確率分布 p のくじ引きを繰り返し引いたときに経験分布 q が得られる確率は、p から q へのカルバック・ライブラー情報量 D(q||p) をレート関数として試行回数の増加とともに減衰することを意味する[1]。
裏表が等しい確率で出るコイントスを100回繰り返して1回しか表が出ない確率が、1/100の確率で表が出るコイントスを100回繰り返して裏と表がちょうど50回ずつ出る確率よりも高いことは、直感的に理解できる。これは、カルバック・ライブラー情報量が対称性を持たないことの直感的な理解を与える。
性質
[編集]カルバック・ライブラー情報量は常に負でない値となる。
これはギブスの不等式として知られており、DKL(P||Q) がゼロとなるのは P = Q であるときだけである。従って、エントロピー H(P) は交差エントロピー H(P,Q) の下限値となる。この交差エントロピーは P ではなく Q に基づく符号を使ったときに予測されるビット数を表している。従って、KLダイバージェンスは、X から x という値を特定する情報を得るために、P という真の分布ではなく Q という確率分布に対応した符号を使ったときに余分にかかると予想されるビット数を表しているのである。
カルバック・ライブラー情報量を確率分布空間における距離と呼ぶ場合もあるが、カルバック・ライブラー情報量には対称性がないため、距離と呼ぶのは正しくない。一般に
さらに言えば、DKL(P||Q) は三角不等式を満足しない。
情報理論における他の量との関係
[編集]情報理論の他の様々な量は、カルバック・ライブラー情報量の特殊なケースの応用として解釈できる。
ここではクロネッカーのデルタ。
シャノン・エントロピーとの関係
[編集]ここでN は確率変数X の値域の元の数で、PU(X) はX の値域上の一様分布。
条件付きエントロピーの場合は以下のようになる:
関連項目
[編集]脚注
[編集]- ^ Mezard, Marc; Montanari, Andrea (2009). Information, physics, and computation. Oxford ; New York: Oxford University Press. ISBN 978-0-19-857083-7. OCLC 234430714
参考文献
[編集]- Fuglede B, and Topsøe F., 2004, Jensen-Shannon Divergence and Hilbert Space Embedding, IEEE Int Sym Information Theory.
- Kullback, S., and Leibler, R. A., 1951, On information and sufficiency, Annals of Mathematical Statistics 22: 79-86.
- Rubner, Y., Tomasi, C., and Guibas, L. J., 2000. The Earth Mover's distance as a metric for image retrieval. International Journal of Computer Vision, 40(2): 99-121.
- Kullback, S. Information Theory and Statistics. Dover reprint.
- Matlab code for calculating KL divergence