Entropia (teória informácií)
Entropia je v teórii informácií miera neurčitosti t. j. protiklad k pojmu informácia. Určuje množstvo nejasnosti a na druhej strane informácie obsiahnuté v správe.
Pojem zaviedol Claude E. Shannon v roku 1948 vo svojom diele A Mathematical Theory of Communication.
This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.