Entropia condizionale

Pagine da unire
Questa pagina sull'argomento Matematica sembra trattare argomenti unificabili alla pagina Entropia (teoria dell'informazione).

Nella teoria dell'informazione l'entropia condizionale è una misura della quantità di informazione necessaria per descrivere il valore di una variabile aleatoria X {\displaystyle \mathrm {X} } noto il valore di un'altra variabile aleatoria Y {\displaystyle Y} . Nella trasmissione attraverso un canale di comunicazione rappresenta la quantità rimanente di incertezza del valore all'ingresso al canale dopo che è stato osservato il valore di uscita. L'entropia di X {\displaystyle X} condizionata da Y {\displaystyle Y} si definisce come H ( X | Y ) {\displaystyle H(X|Y)} .

Definizione

Se H ( X | Y = y k ) {\displaystyle H(X|Y=y_{k})} è l'entropia della variabile X {\displaystyle X} condizionata dalla variabile Y {\displaystyle Y} che assume un certo valore y k {\displaystyle y_{k}} , allora H ( X | Y ) {\displaystyle H(X|Y)} è il risultato della media pesata di H ( X | Y = y k ) {\displaystyle H(X|Y=y_{k})} su tutti i possibili valori y k {\displaystyle y_{k}} che la Y {\displaystyle Y} può assumere.

Dato un alfabeto di simboli in ingresso X = { x 0 , x 1 , . . . , x J 1 } {\displaystyle X={\{x_{0},x_{1},...,x_{J-1}}\}} , un alfabeto di simboli in uscita Y = { y 0 , y 1 , . . . y K 1 } {\displaystyle Y={\{y_{0},y_{1},...y_{K-1}}\}} con probabilità p ( y 0 ) , . . . , p ( y K 1 ) {\displaystyle p(y_{0}),...,p(y_{K-1})} l'entropia condizionale si definisce come:

H ( X | Y ) {\displaystyle H(X|Y)} {\displaystyle \equiv } k = 0 K 1 H ( X | Y = y k ) p ( y k ) {\displaystyle \sum _{k=0}^{K-1}H(X|Y=y_{k})p(y_{k})}

= k = 0 K 1 j = 0 J 1 p ( x j | y k ) p ( y k ) l o g 2 [ 1 p ( x j | y k ) ] {\displaystyle =\sum _{k=0}^{K-1}\sum _{j=0}^{J-1}p(x_{j}|y_{k})p(y_{k})log_{2}\left[{\frac {1}{p(x_{j}|y_{k})}}\right]}

= k = 0 K 1 j = 0 J 1 p ( x j , y k ) l o g 2 [ 1 p ( x j | y k ) ] {\displaystyle =\sum _{k=0}^{K-1}\sum _{j=0}^{J-1}p(x_{j},y_{k})log_{2}\left[{\frac {1}{p(x_{j}|y_{k})}}\right]}

dove nell'ultima espressione si è utilizzata la relazione tra probabilità congiunta e condizionata: p ( x j , y k ) = p ( x j | y k ) p ( y k ) {\displaystyle p(x_{j},y_{k})=p(x_{j}|y_{k})p(y_{k})} .

Bibliografia

  • Simon Haykin, Michael Moher, Communication Systems, 2001, ISBN 0-471-17869-1.