Entropija (informacijos teorija)
Išvaizda
Entropija – informacijos teorijoje naudojamas dydis, kuris apibūdina vidutinį informacijos kiekį, kurį teikia vienas pranešimas (kai perdavimo kanale nėra trukdžių).
Informacinės entropijos sąvoką 1948 m. pristatė Klodas Šanonas savo darbe „Matematinė komunikacijos teorija“ (A Mathematical Theory of Communication),[1][2] kuri dar vadinama Šenono entropija.
Formulė
[redaguoti | redaguoti vikitekstą]Šaltiniai
[redaguoti | redaguoti vikitekstą]- ↑ Shannon, Claude E. (1948 m. liepos mėn.). „A Mathematical Theory of Communication“. Bell System Technical Journa]. 27 (3): 379–423. doi:10.1002/j.1538-7305.1948.tb01338.x. hdl:10338.dmlcz/101429. (PDF, archived from here)
- ↑ Shannon, Claude E. (1948 m. spalio mėn.). „A Mathematical Theory of Communication“. Bell System Technical Journal. 27 (4): 623–656. doi:10.1002/j.1538-7305.1948.tb00917.x. hdl:11858/00-001M-0000-002C-4317-B. (PDF, archived from here)