| CATEGORII DOCUMENTE |
| Astronomie | Biofizica | Biologie | Botanica | Carti | Chimie | Copii |
| Educatie civica | Fabule ghicitori | Fizica | Gramatica | Joc | Literatura romana | Logica |
| Matematica | Poezii | Psihologie psihiatrie | Sociologie |
Teoria informatiei raspunde la doua probleme fundamentale din teoria comunicatiilor.
limita
- compresia datelor - ![]()
![]()
limita - rata
transmisiei datelor -
O sursa de
informatii discreta X de alfabet finit
si cardinalitate
,
conform unei distributii de probabilitate
.
Sursa poate fi modelata matematic ca o variabila aleatoare X avand
acelasi alfabet
si aceeasi functie de distributie a
probabilitatilor:
unde
si ![]()
Emiterea
unui simbol de catre sursa este echivalenta cu realizarea unui eveniment
constand din faptul ca sursa X emite simbolul xi, respectiv variabila aleatoare X ia valoarea xi cu probabilitatea
.
Daca asociem alfabetului sursei X campul complet de evenimente, evenimentul xi reprezinta emiterea de
catre sursa X a simbolului xi
cu probabilitatea pi.
Valoarea informatiei obtinuta prin realizarea evenimentului xi depinde numai probabilitatea cu care are loc evenimentul.
Shannon a definit
cantitatea de informatie obtinuta
prin observarea evenimentului
prin functia logaritmica:
Informatia proprie i(xi) reprezinta o masura a informatiei obtinute prin realizarea evenimentuluui xi sau echivalent o masura a incertitudinii anulate de realizarea evenimentului xi.
Evenimentul sigur nu produce informatie:
;
Informatia proprie are valoare pozitiva:
;
Observatie:
folosim conventia
deoarece
.
Realizarea evenimentului xi prin care v.a. X ia valoarea xi este cu atat mai incerta cu cat probabilitatea p(xi) are o valoare mai mica:
.
Informatia este aditiva. Fie doua
evenimente independente,
si
,
ce au loc cu probabilitatile individuale
si
.
Informatia obtinuta prin realizarea celor doua evenimente egaleaza suma
informatiilor obtinute prin realizarea fiecarui eveniment in parte:
.
Consideram:
Consideram: (distributie uniforma)
Deci 16 elemente pot fi descrise distinct de 4 biti.
Entropia Shannon a v.a.
este definita de valoarea medie a informatiei
proprii:
respectiv:
, [biti].
Pentru v.a. discreta X, notand
f.m.p.
,
entropia
poate fi exprimata prin relatia:
, [biti].
Entropia binara reprezinta entropia unei v.a. avand doua realizari posibile.
Fie alfabetul
binar
si notam
si
pentru
.
Entropia binara notata
este:
,
si este reprezentata in fig. 1.

Graficul entropiei binare ilustreaza urmatoarele proprietati:
, cu precizarea
daca
sau
;
este o functie strict concava in raport cu p.
entropia este o functie continua de probabilitatile simbolurilor sursei
entropia este simetrica (are aceleasi valori indiferent cum sunt ordonate probabilitatile simbolurilor sursei)
entropia este aditiva
valoarea
entropiei este intotdeauna pozitiva ![]()
daca si numai daca X are distributie p(X) uniforma
pe alfabetul
(simbolurile
sunt egal probabile)
Pentru simboluri egal probabile:
mare
mare.
entropia este o functie concava in raport cu probabilitatea p
Din acesti parametrii se poate construi un model probabilistic al sursei de informatie si se pot defini
Entropia sursei ![]()
Entropia maxima a sursei:
Debitul de informatie
,
Durata medie a unui simbol ![]()
Redundanta sursei ![]()
In realitate dependenta probabilistica a simbolurilor dintr-o secventa si probabilitatile inegale de aparitie a simbolurilor reduc valoarea reala a lui H(X).
Pentru
doua v.a. discrete X si Y, de alfabet X si Y,
caracterizate de distributia reunita a probabilitatilor
entropia reunita:
masoara
incertitudinea totala asociata perechii de v.a.
,
reprezentand valoarea medie a informatiei ce caracterizeaza perechea de v.a.
Pentru
aceeasi pereche de v.a. X, Y, entropia conditionata
reprezinta cantitatea de incertitudine ramasa
asupra variabilei X dupa observarea
variabilei Y:
Folosind
relatia intre distributia de probabilitati reunite
a perechii de v.a. X si Y, distributia
marginala
si distributia conditionata
:
vom putea exprima entropia variabilei X conditionata de cunoasterea variabilei Y prin:
.
Entropia
conditionata
poate fi interpretata ca fiind cantitatea
medie de informatie pe care X o
contine, dupa ce Y este cunoscut. Astfel,
definim:
,
pentru y astfel incat
.

Acum,
este chiar media tuturor entropiilor
ale
v.a. X, pentru orice
fixat.
Similar, entropia v.a. Y conditionata de cunoasterea variabilei X se defineste prin:
Proprietatile entropiilor reunite si entropiilor conditionate
Entropiile reunite sunt comutative:
Entropia unei v.a. este mai mica decat entropia reunita a doua v.a:
cu egalitate daca:
Subaditivitatea
Pentru o pereche de
v.a.
, entropia reunita este mai mica sau cel
mult egala cu suma entropiilor celor doua variabile:
,
cu egalitate daca si numai daca X, Y sunt v.a. independente.
* Subaditivatate puternica:
cu
daca si numai daca
lant
Markov
Entropiile conditionate sunt pozitive:
Conditionarea reduce entropia:
cu egalitate daca X si Y sunt independente.
(2 v.a.)
(3 v.a.)
Fiind dat un
spatiu masurabil pe care se definesc doua masuri probabilistice reprezentate de
doua distributii de probabilitate
si
,
apartinand aceleiasi multimi, entropia
relativa este o masura a "distantei"
dintre cele doua distributii.
Denumita si
distanta KL (Kullback Leibler), entropia relativa se defineste in raport cu
perechea de distributii
si
prin:
cu respectarea conventiilor:
si
,
pentru
.
Proprietatile entropiei relative:
cu egalitate daca si numai daca p(x) = q(x) pentru orice x.
Demonstratie:





.

Pentru
perechea de v.a. X, Y de alfabet X Y si
distributie reunita
,
informatia mutuala
reprezinta cantitatea de informatie pe care
cele doua variabile o au in comun. Luate separat, cele doua variabile sunt
caracterizate de entropiile
,
si de entropia reunita
,
deci informatia mutuala va fi data de relatia:
Informatia mutuala poate fi exprimata in termenii entropiilor conditionate prin putand fi interpretata ca reducerea incertitudinii asupra v.a. X cand se cunoaste v.a. Y:
Demonstratie:
In mod similar se poate scrie si relatia simetrica:
.
Pentru o
pereche de doua variabile identice
,
informatia mutuala egaleaza entropia variabilei X:
Pentru
o pereche de v.a. X si Y de alfabet X Y,
depinzand de v.a. Z, de alfabet Z, informatia
mutuala conditionata
este data de relatia:
si reprezinta cantitatea de informatie "continuta" in v.a. X, datorita cunoasterii v.a. Y cand v.a. Z este data (cunoscuta).
Conditionarea reduce entropia si vom putea scrie pentru cele trei v.a. X, Y si Z:
sau
cu egalitate
X, Y si Z
sunt independente.
Pentru trei v.a., intuitiv, ne asteptam ca incertitudinea despre X, cand stim valoarea v.a. Y si Z este mai mica decat incertitudinea cand stim doar pe Y. Cu ajutorul definitiilor, afirmatia "conditionarea reduce entropia" este echivalenta cu:
adica o forma rearanjata a inegalitatii de subaditivitate puternica.
Proprietatile informatiei mutuale
Informatia mutuala este comutativa:
Informatia mutuala este pozitiva:
cu egalitate daca si numai daca X si Y sunt v.a. independente.
Informatia mutuala este marginita superior:
sau
,
cu egalitate
X
este o functie de Y,
,
respectiv Y este o functie de X,
.
Informatia mutuala nu este intotdeauna subaditiva:
Informatia mutuala nu este intotdeauna superaditiva:
Relatiile
intre entropiile
,
,
entropia reunita
,
entropiile conditionate
,
si informatia
mutuala
pot fi ilustrate prin diagrama Venn.

Tinand cont de relatia intre entropia reunita si entropiile conditionate:
Demonstratie
Formula trebiue corectata >>>
Regula lantului pentru trei variabile aleatoare X, Y, Z:
![]()

din curs tti2
Daca X, Y, Z formeaza un lant Markov, ( X Y Z ) atunci
H(X) ³ I(X,Y) ³ I(X,Z)
Prima inegalitate este indeplinita cu semnul "=" daca si numai daca fiind dat Y este posibila reconstructia lui X.
Daca o v.a. X este afectata de zgomot rezultand v.a. Y atunci "procesarea datelor" nu poate fi folosita pentru a creste cantitatea de informatie mutuala intre semnalul observat Y si informatia initiala X.
Deci, H(X) ³ I(X,Y
A doua inegalitate, I(X,Y) ³ I(X,Z) este echivalenta cu H(X | Y) £ H(X | Z)
Deoarece X Y Z formeaza un lant Markov, Z Y X este deasemenea un lant Markov si in consecinta aplicand inegalitatea subaditivitatii puternice rezulta
H(X,Y,Z) - H(Y,Z) = H(X | Y, Z) £ H(X|Z) = H(X,Z) - H(Z)
Presupunem I(X,Y) < H(X). In acest caz nu ar mai fi posibil sa-l reconstruim pe X din Y deoarece daca Z este o incercare de reconstructie bazata numai pe cunoasterea lui Y, atunci X Y Z trebuie sa fie un lant Markov si
H(X) ³ I(X,Z) conform inegalitatii procesarii datelor. Deci Z ¹ X
Daca I(X,Y) = H(X) atunci H(X | Y) = 0 si ori decate ori p(X = x, Y = y) > 0 vom avea p(X = x | Y = y) = 1, altfel spus daca Y = y atunci, prin inferenta, cu certitudine X = x, permitand astfel reconstructia lui X.
din curs tti2
Daca X Y Z este un lant Markov, la fel este si Z Y X si in consecinta, ca un corolar la inegalitatea procesarii datelor vom avea
I(Z,Y) ³ I(Z,X)
Aceasta inegalitate se numeste data pipeline inequality si ne spune in mod intuitiv ca informatia pe care Z o are in comun cu X este informatia pe care Z o are in comun cu Y, deci informatia este "pipelined" de la X prin Y catre Z.
Din curs tti 1
Inegalitatea procesarii datelor reprezinta o inegalitate fundamentala in teoria informatiei, bazata pe ideea reprezentarii secventei de simboluri generate de sursa ca un lant Markov de variabile aleatoare X1, X2, ,Xn pentru care putem scrie:
Daca variabila
aleatoare X1 este afectata de zgomot actiunile de procesare a
datelor nu permit cresterea cantitatii de informatie mutuala intre Xi,
si informatia originala X1.
Daca
formeaza un lant Markov, atunci si
formeaza un lant Markov si![]()
Informatia pe care X3 o imparte cu X1 trebuie sa fie cel putin aceeasi cu care X3 o imparte cu X2.
Pentru un lant Markov, X1, X2, X3, ., Xn, rata entropiei este data de relatia
,
unde entropia conditionata este calculata folosind distributia stationara cunoscuta.
Daca avem o secventa de n variabile aleatoare, se pune intrebarea naturala "Cum creste entropia secventei cu n?". Definim rata entropiei ca acea rata de crestere ca in cele ce urmeaza.
Definitia 1: Rata entropiei unui proces aleator X(t) = X1, X2, .Xn reprezinta entropia per simbol a n variabile aleatoare si este definita prin
![]()
cand limita exista.
Vom considera cateva exemple simple de procese aleatoare si rata entropiei corespunzatoare.
Exemplul 1: Fie X1, X2, ., Xn variabile aleatoare i.i.d. Atunci :
Exemplul 2: Secvente de variabile aleatoare distribuite independent dar nu si identice. In acest caz,
dar valorile H(Xi) nu sunt toate egale.
Definitia 2: In termenii entropiei conditionate H(Xn | Xn-1, Xn-2, ., X1) rata entropiei se poate defini prin
cand aceasta limita exista.
(Demonstrarea existentei limitei H'(X) :)
Teorema 1: Pentru un proces aleator stationar, entropia conditionata ca caracterizeaza secventa indexata de v.a. X1, X2, ., Xn notata H(Xn | Xn-1, Xn-2, ., X1) scade cu n si are limita data de rata entropiei H'(X).
Demonstratie:
(3)
, (4)
unde inegalitatea rezulta deoarece conditionarea reduce entropia si egalitatea din stationaritatea procesului.
Intrucat H(Xn | Xn-1, Xn-2, ., X1) este o secventa descrescatoare de numere pozitive, aceasta are o limita, care este H'(X).
Teorema 2: Pentru un proces aleator stationar, limitele din relatiile (1) si (2) exista si sunt egale,
Demonstratie: Din legea lantului Markov, avem
de exemplu, rata entropiei este media in timp a entropiilor conditionate.
Conform teoremei 1, entropiile conditionate tind la o limita H'(X) si in consecinta:
Pentru orice proces stationar ergodic are loc (cu probabilitate 1) relatia
Aceasta arata semnificatia ratei entropiei ca o descriere a "lungimii medii" respectiv a numarului mediu de biti pe simbol ce caracterizeaza o secventa de n variabile aleatoare reprezentand un proces stationar ergodic.
|
Politica de confidentialitate | Termeni si conditii de utilizare |
Vizualizari: 3294
Importanta: ![]()
Termeni si conditii de utilizare | Contact
© SCRIGROUP 2025 . All rights reserved