Informace
Informace (z lat. in-formatio, utváření, ztvárnění) je velmi široký, mnohoznačný pojem, který se užívá v různých významech. V nejobecnějším smyslu je informace chápána jako údaj o prostředí, jeho stavu a procesech v něm probíhajících. Informace snižuje nebo odstraňuje neurčitost (entropii) systému (např. příjemce / uživatele informace). Množství informace lze charakterizovat tím, jak se jejím přijetím změnila míra neurčitosti přijímajícího systému.[1]
- V běžné řeči:
- informace jako vědění, které lze předávat, jako obsah zprávy či sdělení;
- informace (plurál) – místo, kde se lze o něčem informovat.
- V informatice tvoří informaci kódovaná data (protiklad šumu), která lze vysílat, přijímat, uchovávat a zpracovávat technickými prostředky. Množství informace je rozdíl mezi neurčitostí (entropií) informace (nebo stavu) před a po zprávě. Občas je slovo informace chybně zaměňováno s pojmem data, který spíše představuje „to, z čeho informaci získáváme“ (například číslo na konkrétní osobu z telefonního seznamu). Nosičem informace je signál.
Původ pojmu
Latinské informatio znamená původně vtištění formy či tvaru, utváření. Slovo se však metaforicky používalo pro „utváření mysli“ – učení a vzdělávání – a odtud dalším významovým posunem mohlo znamenat i sdělení, zprávu. Odtud pochází slovo informátor, doložené od 16. století. Zkrácený tvar info vznikl až ve 20. století v angličtině. Vědecký zájem o informaci začíná také až ve 20. století v souvislosti s elektronickou komunikací a počítači a na druhé straně se studiem obecného uspořádání, struktur a kódů.
Informace ve vědě
Informace je abstraktní entita,[2][3] pro její uchopení - pro archivaci (pamatování), a tak i šíření (sdělování), nebo pro její zpracování – je nutný nějaký „kontejner“, říká se mu jazyk, do něj je vtisknuta. Jazyk je abstraktní struktura (řád mezi vhodnými primitivy),[4],[5], která pro aplikaci musí být materializována vhodnou strukturou hmoty či energie. Informace je uchopovací nástroj člověka (podobně jako mnohé jiné, např. souřadnice prostoru či jeho metrika, kauzalita a další). Pojem informace má být odpovědí na otázku, co to (jakou entitu) získáváme poznáváním (reálného světa), co ukládáme, když pamatujeme, co transportujeme, když sdělujeme. Říkáme, že informaci, ale ve skutečnosti jen ten (přírodou zapečetěný) kontejner - jazykové konstrukty.
Informace a jazyk
Je třeba zdůvodnit, proč informace jako abstraktní entita (lidský výmysl) vyžaduje kontejner – jazyk. Důvody jsou dva.
První z nich je princip lidské komunikace, kterým člověka obdařila příroda, neboť jazyk je v ní zásadní součástí. V tomto případě jazykové konstrukty - formy (slova, věty) slouží jako pointery (ukazatelé) do vnitropsychického kognitivního modelu příjemce zprávy, umožňující mu přiřadit přijatému jazykovému konstruktu - formě (slovu, větě) informaci, kterou považuje za nejvhodnější. Toto přiřazení se nazývá konotace a znamená, že příjemce zprávy jazykové formě porozuměl, přiřadil ji význam. (toto je jen část potřebná pro vysvětlení funkce jazyka, celý princip lidské komunikace viz níže: Přenos informace - komunikace)
Druhým důvodem je, že archivaci (pamatování), šíření i zpracování informace nelze provést jinak, než využitím procesů reálného (materiálního) světa. Má-li se v reálném světě něco dít, musejí probíhat interakce. Znamená to, že informaci, která je abstraktní entitou (není aktérem), je třeba včlenit do reálního světa interakcí, učinit ji aktérem v něm. Lze to pouze prostřednictvím jazyka (informace jako abstraktní entita je neuchopitelná), který je nositelem informace výše popsaným způsobem (tedy tak, že jeho konstrukty slouží jako pointery). Proto všechny výše zmíněné operace s informací, jsou ve skutečnosti operacemi s kontejnerem – jazykem. I Shannonova entropie se týká jazyka (i když v tomto případě na jeho abstraktní úrovni), nikoli informace, a je mírou neurčitosti výskytu jazykových konstruktů ve zprávě [6]. Jaké informace ony jazykové konstrukty vyvolávají v psýše příjemce zprávy, je v tomto případě mimo hranice diskursu. Jazyk materializací se dostávající do světa interakcí, může být i vykonavatelem příkazu – informace (např. vyvolá pohyb ramena robota), aspoň tak to někdy chceme vidět, přestože fyzika to vidí jako řetěz interakcí.
Zde je vidět jistá výjimečnost pojmu informace, neboť v podstatě, i to že informace existuje v lidské psýše, je lidská představa, ve skutečnosti je to výsledek biochemických a elektrochemických interakcí probíhajících v lidském mozku zajišťujících pamatování, sdělování i zpracování toho, čemu říkáme informace. Informace je tedy skutečně jen jiné vidění reálného světa, než vidění interakcí, jiná interpretace. Je lhostejné, jedná-li se o dění v lidském mozku či vně, v jiné části reálného světa. Je pro nás vžité, přijatelné a užitečné, že v mozku pamatujeme i zpracováváme informaci, tedy myslíme. Je tak např. možno studovat zákonitosti myšlení. Informace je pro člověka důležitý uchopovací nástroj – pojem.
Zdroj informace
Primárním zdrojem informace je poznání. Je to zrození informace, ta před tím neexistovala. Poznání je však možné jen se současným záznamem poznaného (informace) do jazyka, i v lidské psýše se předpokládají vnitropsychické jazyky. Poznání neposkytne samotnou informaci, ale její jazykové uchopení. Proto pro každé poznání musí být k dispozici adekvátní jazyk, buď se o to postarala příroda, nebo ho vytvořil člověk. Pokud takový jazyk neexistuje, musí být předem vytvořen viz Exaktní věda, Věda, a musí být „na míru“ poznání, říká se adekvátní. Budování nových matematických disciplin, které nabízejí nové jazyky, jsou často impulzem pro nové možnosti poznání, např. zejména ve fyzice částic.
Typy poznání:
- Přirozené – filtrem poznání je vágnost - získaná informace s inherentní vnitřní vágností. Jazyk je přirozený (neformální), jen ten je schopen, díky své vágní, subjektivní a emocionální interpretaci (říkáme jí konotace) převzít informaci (svázanou s inherentní vágností) získanou přirozeným poznáním.
- Umělé, exaktní (Newton) – diskrétní filtr poznání – získaná informace s nulovou vnitřní vágností viz Exaktní věda, Věda. Jazyk musí být formální – matematika, formální logika, programovací jazyky. Jen takový jazyk je schopen reprezentovat informaci s nulovou vnitřní vágností interpretace, získanou exaktním poznáním. Výsledkem poznání je informace, jsou to rozpoznané přírodní zákony zapsané matematickým jazykem, jako vztahy mezi veličinami. Podle použitého jazyka se mu říká matematický model.
Poznamenejme, že se používá ještě poněkud jinak chápaný pojem zdroj informace ve schématu, kterému se říká Sdělovací kanál. Tam je zdroj informace jakékoli zvolené referenční místo, které pro daný úkol považujeme za to, ze kterého se informace šíří bez ohledu na způsob jejího získání. Může to být třeba místo na konstrukci letadla, ze kterého se radarový paprsek někam odráží, a pro danou úlohu řešenou z hlediska přenosu informace, je podstatné, co se děje od tohoto místa někam dále. Obvykle je to cesta odražené části paprsku do přijímací antény, přijímače a dále do řetězce zpracování této informace.
Podstata informace
Podstata informace je jedna, má však dvě výše uvedené nezaměnitelné modifikace (typy) dané vazbou s inherentní vnitřní vágností (neurčitostí). Informace získaná poznáním obohatí kognitivní (znalostní) model člověka, zmenší jeho pochybnosti o dění v jisté části reálného světa, sníží tak jeho nejistotu, původně strach z neznáma, z hladové šelmy v buši, zvýší jeho šanci na přežití. Cesta od pocitu nejistoty a strachu vedla nakonec k tvůrčí hypotéze, když ji uchopil talentovaný vědec, jakým byl Claude Shannon. Je to ale jiný druh nejistoty, než je vágnost - nástroj (filtr) přirozeného lidského poznání. Souvisí s mírou poodhalení té věčně zamlžené „pravdy“ hledané člověkem. Exaktní svět je obvykle rozlišuje způsobem reprezentace: vágnost fuzzy nástroji, nejistotu poznání stochastickými nástroji. Hypotéza charakterizující informaci jako entitu odstraňující nejistotu o dění v reálném světě, se stala dominantní, a je na ni postavena teorie informace.
Informace je abstraktní entita (kdybychom ji byli schopni měřit, byla by veličinou) světa kognitivních (znalostních) modelů reálného světa tvořených člověkem. Informace vznikne poznáním (je to její zdroj), pokud by člověk neměl schopnost poznání, nebyla by informace. Lidské abstraktní konstrukce mimo lidský svět neexistují, některé z nich lze uchopit (formulovat) vnějším sdělovacím jazykem, příkladem je matematika, geometrie, architektonické náčrty, skulptury a jiné jazykové útvary.
Obvykle rozlišujeme elementární a komplexnější informaci. Elementárním říkáme data (ze smyslových orgánů člověka, ze snímačů a čidel – těm říkáme veličiny), komplexnějším, vybudovaným na rozpoznaných souvislostech mezi daty, říkáme znalosti.
Kvantifikace
Z oboru techniky sdělování (přenosu) informace vyšel první pokus (Ralph V. L. Hartley, 1928) nalézt metodu měření množství přenesené informace, tak i rychlost, jako množství informace přenesené za jednotku času. Ve skutečnosti se ale jedná o měření onoho „kontejneru“ – (strukturálních vlastností) jazyka materializovaného přenosovým zařízením, neboť informace jako abstraktní entita, žijící v lidské psýše, je pro nás neuchopitelná, víme jen, že se projevuje jako produkt poznání zabalený do kontejneru – jazyka, a že informace spočívá v odstranění (již výše zmíněné) neurčitosti (Claude Shannon). Pokud tedy jisté pomyslné množství informace vtiskneme do dvou jazyků s různou strukturou symbolů, bude množství změřené informace obsažené v každém z jazyků jiné. Toto je důvod, který způsobil hledání jazykových struktur, které jsou schopny přenést více (té pomyslné) informace. Je to soutěž mezi jazyky s různou strukturou z hlediska vtisknuté informace, ve fyzice, chemii, ....jsou hlediska jiná, tam je to hledání jazyka, který je schopen popsat zkoumaný jev. Jazyková struktura se dá uchopit způsobem, kterému se říká kódování, a vyvinul se tak obor kódování, hledání kódů potřebných vlastností např. přenášejících maximální množství informace, odolných vůči chybě v přenosu symbolů na úkor množství užitečné informace a pod. Přesto že se tedy neměří informace, ale struktura jazyka vytyčená řádem jazykových symbolů (primitiv), vyhovuje tento způsob měření množství informace kvantifikaci informační kapacity přenosového zařízení, kvantifikaci kapacity paměti zařízení i kvantifikaci rychlosti zpracování informace (ve skutečnosti jazykových konstruktů). Hartley vytyčil inspirující cestu, a nastalo myšlenkové pokračování. Na hypotéze, že informace působí snížení neurčitosti, dal Shannon základy teorii informace jako exaktní vědě (v článku: Claude Elwood Shannon, Warren Weaver: „A mathematical theory of communication“ v r. 1948) viz Entropie, Informační entropie. Mnoho dalších vědců na ni navázalo.
Mezi reálným světem a informací
Při umělém exaktním poznání máme výhodu, že zřetelně vidíme hranici mezi skrytým materiálním světem interakcí, a jejich modelovým světem rozpletených a tak osamostatněných, jednostranně působících akcí a reakcí. Slouží k tomu vědou rozpoznaný, v různých oborech patřičně formulovaný zákon akce a reakce, někdy poněkud skrytý v použitém matematickém nástroji. V okamžiku osamostatnění (je to přelom z reálného světa do znalostního modelu - získané informace) se otevírá přístup k informaci. V popisu reálného světa exaktní vědou, je získaná informace v podobě veličin (fyzikální, chemické, biologické ...) svázaných matematickými vztahy, popisujícími přírodní zákony. Názorně k tomu slouží často používané orientované grafy, nazývané bloková schémata,[7] či grafy signálových toků[8][9]. Rozpletené interakce se v grafové reprezentaci projevují jako jednosměrné akce a reakce tvořící zpětnovazební smyčky.
V přirozeném poznání neodstranitelné mlhy vágnosti, tento zvrat v poznání (od reality k informaci) již tak názorný není.
Informace a interpretace
Vidění reálného světa jako světa interakcí, je obecný model jeho vidění současnou vědou (např.[10]). Vidění toku informace v něm, je speciální pohled, který je v některých případech vhodnější pro pochopení dění, vidění jiných souvislostí. Názorně k tomu slouží výše zmíněné orientované grafy: bloková schémata a grafy signálových toků. Tyto grafy vytvořené přepisem matematického modelu do grafického schématu, svojí názorností přímo nabízejí použít vhodnější z obou interpretací.
Obou interpretací se již dlouhý čas vědomě používá v návrhu soustav sdělovacích a soustav automatického řízení[11][12] v teorii elektrických obvodů, ale někdy i v počítavé simulaci různých jevů materiálního světa. Informace je jen jiný pohled na materiální dění, jiná interpretace. Ustavila se na ní i kybernetika[13], těžící i z toho, že tato interpretace je použitelná napříč obory. Třeba interakci čichového orgánu brouka s molekulami feromonu, můžeme chápat jako informaci, je to ale interakce. Podobně můžeme říci, že genetický kód je informací pro vývoj buňky, přitom je jedním článkem z řetězce biochemických interakcí. Je možno ale uplatnit (modelovou) interpretaci, že je nositelem informace, pokud je to výhodnější pro pochopení jevu. Vhodně strukturované elektromagnetické pole, detekované a zpracované mobilním telefonem můžeme interpretovat jako SMS zprávu, nebo jako řetězec interakcí. Člověk má ve svém těle řadu receptorů, a tak jeho centrální nervová soustava může zpracovávat i elektrochemické a biochemické veličiny vypovídající o jeho tělesných stavech – pocitech z nich, což může chápat jako informaci.
Zde je třeba poznamenat, že i entropie, jako každý aplikovaný matematický vztah, může mít řadu různých interpretací. Není proto vhodné apriori svazovat interpretaci entropie v informačním pojetí s fyzikální interpretací. To by mělo smysl, pokud by se hledala nějaké analogie mezi nimi, a plynuly z toho nové poznatky. Snaha o tuto vazbu vznikla spíš jako ozvěna historie Shannonovy práce, ústící ve vztah entropie, se stejnou matematickou formou, k níž došla termodynamika. Bez bližšího upozornění může vznikat klamný dojem, že informace není pouze lidský uchopovací nástroj a náhled na model dění v reálném světě, ale aktér působící v něm místo interakce. Zde je vhodné připomenout, že v době, kdy Shannon svoji hypotézu matematicky formuloval, existoval jediný matematický nástroj reprezentace neurčitosti, a to byla stochastika, kterou použil. Tedy jako poznámka: Dnes, v r. 2021, matematika nabízí i jiné reprezentace jako fuzzy množiny a fuzzy logiku, a kandidátem mohou být i hrubé množiny, a další nástroje. Pokud by Shannon použil jinou variantu reprezentace neurčitosti, byl by získaný vztah jiný - formálně jiný jazykový útvar - matematický vztah. Do jaké míry by Shannonova entropie a vztah získaný jinou variantou matematické reprezentace neurčitosti byly ekvivalentní, nebo který typ reprezentace je vhodnější, by se pak mohlo uvažovat.
Je nutno pečlivě rozlišovat, kdy mluvíme o reálném světě interakcí, a kdy o jeho kognitivním modelu, a kdy máme na mysli jakou interpretaci. Jinak vznikají myšlenkové mišmaše (vedoucí k nedorozuměním), občas doprovázené grafickými mišmaši.
Jednou z podivných myšlenek je Capurrovo trilema, kdy se autor pídí po podstatě informace, ale rozděluje informaci na tři typy podle materiální realizace jazyka. Pokud by si všiml možných interpretací, ve výše zmíněných oborech, snadno by se zorientoval.
Zpracování informace
Z jistého množství poznáním získané informace, lze za jistých podmínek, získat další informaci, která je v té prvotně získané, člověku skryta. Postupu se říká usuzování, a má svoji přirozenou formu (informace zpracovávaná lidskou psýchou je inherentně vágní), známou z usuzování pověstného Sherlocka Holmese, a svoji formu exaktní (formální, možnou pouze pro informaci s nulovou vnitřní vágností) používanou v matematice, a známou jako inference. Inference [14][15] znamená z výchozích jazykových konstruktů (axiomů) získání (podle daných pravidel, např. dovolených úprav rovnic) nových jazykových konstruktů, které v jisté interpretaci mohou přinášet novou informaci. Daná soustava informace může poskytnout jen určité množství usuzováním získané informace, pro další informaci je nutno vrátit se k reálnému světu, uskutečnit další poznání, a soustavu znalostí tak rozšířit.[16] Buď tak získáme hledanou informaci, či v rozšířené soustavě znalostí ji opět hledáme na základě inference.
Zpracováním informace lze získávat i informaci nad danou soustavou informace, třeba nelezení jistého řádu v soustavě. Takto získané informaci se říká metainformace. Zpracováním informace lze předpovídat zatím nepoznané jevy, předpovídat zatím nepoznaná data, a tak je nabízet k experimentálnímu ověření či zamítnutí. Modifikaci (inferenci) jazykových konstruktů (viz Exaktní věda, tam příklad inference) formálního jazyka (matematika, formální logika, programovací jazyky) může podle daných pravidel provádět stroj s diskrétními stavy (Turingův stroj, počítač) [14],[17] V tom případě stavům stroje vhodně přiřadíme konstrukty onoho jazyka, a sled stavů stroje řídíme podle daných pravidel. Tak lze proces inference automatizovat, ovšem inference vyžaduje metainformaci, o tom, jak řadit inferenční kroky, což je lidská znalost, a tu je nutno stroji sdělit - naprogramovat. Formální inferenci lze provést pouze pro informaci s nulovou vnitřní vágností, neboť jen tu lze reprezentovat formálním jazykem a zpracovat formální inferencí, ať již strojem či tužkou na papíru. Interpretaci inferencí získaných jazykových konstruktů musí provést člověk.
Přenos informace - komunikace
Princip lidské komunikace
Lidská komunikace je proces, který se dá schematicky popsat z hlediska přenosu a zpracování informace. Popisuje se princip, kterým člověka obdařila příroda. Je to model postavený na základních pojmech, které jej orientují ke kognitivní psychologii a informatice. Podrobnosti jsou uvedeny na Lidská komunikace - princip.
Technické prostředky komunikace
S rozvojem elektrických a elektronických komunikací se informace stává i technickým pojmem. Zájem se soustřeďuje na formální jazykovou stránku, a nezabývá se jejím smyslem či obsahem. Základním modelem pro přenos informace je soustava vysílač (kodér) – kanál – přijímač (dekodér). Roku 1948 publikoval Claude Shannon, který pracoval pro Bellovy laboratoře, průkopnickou publikaci A Mathematical Theory of Communication,[18] v níž se soustřeďuje na přenos zpráv, kódovaných v nějaké abecedě o konečném nebo spočetném množství znaků. Tak se stal jedním ze zakladatelů teorie informace.
Výklad pojmu informace
Ve starší odborné literatuře můžeme najít snahu o uchopení pojmu informace rozdělením vnitřního obsahu pojmu do několika kategorií. (Niedhardt P.: Einführung in die Informationstheorie. Verlag Technik Berlin, Berliner Union Stuttgart 1957)
- Informace sémantická se zabývá pouze sémantickým významem slov.
- Informace pragmatická zohledňuje pouze přírůstek znalostí. Již známé není informací v tomto slova smyslu. Škola je zdrojem takovýchto informací.
- Informace idealizovaná je dána individuálním hodnocením příjemce a je závislá na jeho předchozím vzdělání a zkušenostech, ale i na jeho okamžitém emocionálním stavu. Např. co se mi ráno líbilo, už nemusí platit odpoledne.
- Informace inženýrská, definovaná C. E. Shannonem jako "snížení neurčitosti systému" a matematicky vyjádřená jako logaritmus pravděpodobnosti nějakého jevu (přenosu zprávy) při rovnoměrném rozložení hustoty pravděpodobnosti. Pro pravděpodobnost 1/2 při dvojkovém logaritmu dostaneme jednotku zvanou bit. Bit je pouze jednotka informace, jako je metr nebo coul jednotkou vzdálenosti.
Definice
V pramenu Filip Zlámal:Entropie.[6] je názorný příklad, že svazování pojmu informace s pojmem uspořádanosti či organizace je chybný, neboť pojem uspořádanosti není objektivně definovatelný. Tento pramen rovněž umožňuje, hlouběji nahlédnout do problematiky entropie.
Fyzikální definice: Informace je schopnost organizovat, nebo v organizovaném stavu udržovat.[19] Informace obecně je proces vnímání a poznávání vlastností a uspořádání objektů kolem nás.
Pro živé bytosti lze definici informace doplnit také tím, že informace je odpovědí na otázku.[19]
Definice z teorie informace[20]: Informaci I(X;Y) ve zprávě Y o zprávě X zdroje definujeme jako relativní entropii mezi skutečným rozdělením p(x,y) dvojice zpráv (X,Y) a součinovým rozdělením q(x,y) = p(x)p(y), kterým by se dvojice řídila, kdyby její komponenty X a Y byly vzájemně nezávislé, tj.
(Logaritmus se obyčejně uvažuje dvojkový. V tom případě je informace vyjádřena v bitech.)
Obecně lze informaci chápat jako poznatek a) získaný (zkušenost) b) získatelný c) nezískatelný
Vlastnosti informace
Informace (aby dostála fyzikální definici) musí mít určité vlastnosti
Informace by měla být:
- pravdivá
- srozumitelná – různé jazyky, různé kódy, šifrování,
- včasná,
- relevantní, česky souvztažná, významná v dané souvislosti – ne „já o koze, ty o voze“,
- etická – platí jen pro mezilidské vztahy. Není to podmínka nutná, jako předchozí, ale žádoucí.
Informace je nezávislá na svém energetickém nosiči. Změna energetického nosiče má za následek pouze změnu vlastností přenosové trasy (kanálu), ale smysl či obsah informace nemění. Je to jako s přepravou nákladu – náklad se nemění, ať použijeme k přepravě koně, auto, nebo letadlo.
Některé souvislosti
- Signál je vysílaný údaj o stavu a o uspořádání objektu. V případě příjmu a zpracování recipientem se může stát informací.
- Modulace je způsob zobrazení signálu na jeho nosiči, způsob materializace jazyka používaný zejména v případě, kdy je pro materializaci použito elektromagnetického pole.
- Šum je rozdíl mezi tím, co bylo do informačního kanálu vloženo a tím, co bylo přijato.
- Kanál je informační cesta jakkoli realizovaná – např. i poštovní holub může být součástí informačního kanálu.
Záměrně falešná „informace“ se nazývá dezinformace nebo lež , pracuje s ní například propaganda. Rozdíl mezi dezinformací a lží spočívá v tom, že lež je používána pasivně jako obrana, zatímco dezinformace je aktivní. Nezáměrně špatná informace je chyba nebo omyl. Dezinformace, stejně jako chyba či omyl vede k nárůstu entropie systému, zatím co informace vede k poklesu entropie. Živé organizmy mají zápornou entropii.
Informace souvisí s rozlišováním, s rozdílem a určeností (například jako černé písmeno na bílém papíře). Informace má význam a je ji třeba odlišit od jejího hmotného nosiče – ať je to hlas, zvuk, obraz, písmo nebo disk. Povahu informace dobře vystihuje definice amerického antropologa Gregory Batesona: informace podle něho znamená „takový rozdíl, na němž záleží“ (the difference which makes difference).[21].
Schopnost rozlišení informace (srozumitelnosti) pak souvisí s tzv. odstupem signálu od šumu, který se udává v decibelech jako 10 × logaritmus poměru energie šumu k energii signálu.
Šíření a uchovávání informace
Rostoucí význam informací ve smyslu vědomostí a zpráv obrátil od konce 19. století pozornost vědců – zejména lingvistů – ke studiu znakových systémů a kódů. Informace se šíří řečí a v historické době i písmem, které ji kódují pomocí slov, hlásek a písmen. Ty nesou informaci jen proto, že tvoří ucelené systémy (slovník, fonetiku, abecedu): hlásky nesou význam jen potud, pokud se od sebe zřetelně liší (Ferdinand de Saussure). S písmem vznikla první možnost trvalého uchovávání informace na hmotném nosiči, jež se dále rozvinula knihtiskem a konečně i elektronickými způsoby uchovávání kódované informace. Odtud vznikl i pojem informační společnost – společnost, která se ve stále větší míře opírá o shromažďování, využívání a šíření informací.[22]
Zpracování informací
Zatímco účelem analogového přenosu informace je pouze přeměna hlasu nebo obrazu na elektrický signál, jeho věrný (nezkreslený) přenos a opačná změna na zvuk nebo obraz, už v telegrafii se objevila možnost úsporného kódování znaků. Morseova abeceda kóduje písmena a číslice do posloupností krátkých a dlouhých signálů (tečka a čárka), které se snadno a spolehlivě přenášejí. Na podobném základě pracuje i dálnopis, kde se však převod znaků abecedy do binárního tvaru (a nazpět) děje automaticky.
Kódovaná informace a její nosiče (děrná páska, děrný štítek, magnetické nosiče atd.) otevřela i další možnosti strojového zpracování informace, z nichž se vyvinula současná počítačová technika a informatika. Slovo „informace“ se zde však používá v několika rovinách: text, který právě píši, kóduji do písmen, ta se v počítači převádějí na binární kódy (ASCII, UNICODE) a přenášejí mezi počítači v určitých formátech, ale nakonec jako posloupnosti elektrických signálů, případně optických či elektromagnetických. Informace, které do systému vkládáme, dospějí ke svým adresátům jen tehdy, pokud všechny tyto transformace jejich kódování a zobrazení proběhnou podle přesně stejných pravidel v přijímači jako ve vysílači, jen v opačném směru. Přenosové sítě proto musejí pracovat s víceúrovňovými modely, kde si vysílače a přijímače na jednotlivých úrovních „rozumějí“: pisatel se čtenářem, program s programem, počítač s počítačem, modem s modemem atd.
Zpracováním informací obecněji se rozumí nejen přenos, ale i transformace informací. V počítačích a spol. se informace reprezentují pomocí dat.
Měření informace
Množství informace na hmotném nosiči lze dokonce měřit. V knihovnictví se užívá měření na stránky, novináři počítají slova nebo znaky a v počítači se informace měří na bajty nebo bity. Jeden bit, odpovídá jednomu rozlišení typu „ano - ne“, nese informaci, ze které se dozvíme, který stav nastal ze dvou stavů stejně pravděpodobných (např. házení mincí). Je to základní jednotka informace. Bajt (anglicky byte) je skupina zpravidla osmi bitů, tím pádem může nabývat 256 různých hodnot a zhruba tak odpovídá jednomu znaku abecedy evropského jazyka (asijské symboly bývají obvykle kódovány užitím 2 až 4 bajty). Je to ovšem množství informace pouze v technickém smyslu slova: stránka textu může mít 1800 bajtů, to ale neříká nic o tom, co je v nich zaznamenáno. Stejnou velikost mohou mít užitečné a smysluplné zprávy, prázdné řeči nebo konečně i samé mezery. Pro stanovení informační hodnoty souboru dat lze použít entropii.
Informace v dalších vědách
Vedle běžného významu informací jako zpráv a vědomostí se informace dnes stala odborným pojmem v biologii i ve společenských vědách, zejména pod vlivem objevu genomu a genetického kódu. Zde je často ztotožňována informace s jejím původem, spočívajícím ve vlastnostech a uspořádání pozorovaných objektů. Genetická informace je totiž kódována pomocí pouhých čtyř nukleotidů (ACTG), jejichž trojice (kodóny) řídí syntézu proteinů; běžnými prostředky lze tedy měřit její informační obsah.
Podobný informačně teoretický pohled se dnes rozvíjí také ve fyzice i ve společenských vědách.
Odkazy
Reference
- JONÁK, Zdeněk. Informace. In KTD: Česká terminologická databáze knihovnictví a informační vědy (TDKIV) [online]. Praha: Národní knihovna ČR, 2003 [cit. 2011-08-07]. Dostupné z: http://aleph.nkp.cz/F/?func=direct&doc_number=000000456&local_base=KTD.
- Mareš M. Zdroje informací a jejich měření. Ústav aplikované informatiky. Přírodovědecká fakulta, Jihočeské univerzity v Českých Budějovicích, 2018.
- Matoušek R.: Teorie informace, http://www.uai.fme.vutbr.cz/~matousek/TIK/dokumenty/osmera_kap2.pdf
- Chomsky, N: Aspects of the Theory of Syntax. Cambridge, Mass.: M.I.T. Press, 1965.
- Chomsky, N: Current Issues in Linguistic Theory. De Gruyter Mouton; Printing 1975
- Filip Zlámal: Entropie. MASARYKOVA UNIVERZITA, Přírodovědecká fakulta, Ústav matematiky a statistiky. Brno 2016. https://is.muni.cz/th/aiz9q/diplomova_prace_Zlamal_Filip.pdf
- Zítek P.: Simulace dynamických systémů. SNTL Praha 1990
- Mason, S.J.: Feedback Theory: Further Properties of Signal Flow Graphs. Proc. IRE, Vol. 44, No. 7, pp. 920-926, 1956.
- Biolek D.: Grafy signálových toků pro analýzu obvodů (nejen) v proudovém módu. http://www.elektrorevue.cz/clanky/02031/index.html#1
- https://www.youtube.com/watch?v=HQgIZl9TpM4 Petr Kulhánek: Mikrosvět a makrosvět
- Švec J., Kotek Z.: „Teorie automatického řízení“. SNTL, Praha, 1969
- Balátě J.: „Automatické řízení“. BEN - technická literatura. 2004.
- Mareš M.: Dvojité výročí kybernetiky, Vesmír 88, 270, 2009/4, https://vesmir.cz/cz/casopis/archiv-casopisu/2009/cislo-4/dvojite-vyroci-kybernetiky.html
- Havel, I. M., Hájek, P. Filozofické aspekty strojového myšlení. In Sborník SOFSEM'82, 1982, str. 171-211
- Křemen, J.: „Nový pohled na možnosti automatizovaného (počítačového) odvozování“. Slaboproudý obzor. Roč. 68 (2013), č. 1., str. 7 – 11., https://docplayer.cz/4300687-Novy-pohled-na-moznosti-automatizovaneho-pocitacoveho-odvozovani.html
- Mareš M.: Zdroje informací a jejich měření. Ústav aplikované informatiky. Přírodovědecká fakulta, Jihočeské univerzity v Českých Budějovicích, 2018.
- Hopcroft,J.E, Motwani, R., Ullman, J.D: Introduction to Automata Theory, Languages, and Computation, 3rd Edition, Addison-Wesley, 2006.
- Archivováno 31. 1. 1998 na Wayback Machine A Mathematical Theory of Communication
- P. Beneš: Informace o informaci. BEN, 2010
- Vajda I., Teorie informace. Vydavatelství ČVUT, Praha 2004. ISBN 80-01-02986-7
- G. Bateson, Steps to an ecology of mind. St. Albans 1973, str. 428.
- Sokol, Filosofická antropologie. Oddíl „Společenská komunikace“, str. 77-80.
Literatura
- Bawden, D., Robinson, L., Úvod do informační vědy. Přel. M. Lorenz, K. Mikulášek, D. Vévodová. Doubravník: Flow 2017. ISBN 978-80-88123-10-1
- Beneš P., Informace o informaci. BEN - technická literatura, Praha 2010, 123 s. ISBN 978-80-7300-263-3
- J. Cejpek, Informace, komunikace a myšlení: úvod do informační vědy. Praha: Karolinum, 1998 – 179 s. ISBN 80-7184-767-4
- Niedhardt P., Einführung in die Informationstheorie. Verlag Technik Berlin, Berliner Union Stuttgart 1957
- J. Sokol, Filosofická antropologie. Praha: Portál 2003
- Stonier T., Informace a vnitřní struktura vesmíru. BEN - technická literatura, Praha 2002, 150 s., ISBN 80-7300-050-4
- Zlámal F., Entropie. MASARYKOVA UNIVERZITA, Přírodovědecká fakulta, Ústav matematiky a statistiky. Brno 2016. https://is.muni.cz/th/aiz9q/diplomova_prace_Zlamal_Filip.pdf
Související články
Externí odkazy
- Obrázky, zvuky či videa k tématu informace na Wikimedia Commons
- Slovníkové heslo informace ve Wikislovníku
- Téma Informace ve Wikicitátech
- Informace v České terminologické databázi knihovnictví a informační vědy (TDKIV)
- Kurz práce s informacemi [online]. Masarykova univerzita, 2007-05-10. Dostupné online.
- KUŽELÍKOVÁ, NEKUDA, POLÁČEK. Sociálně-ekonomické informace a práce s nimi [online]. Masarykova univerzita, 2008-04-26. Dostupné online.
- (anglicky) Stanford encyclopedia of philosophy, heslo Semantic Conceptions of Information
- Prof. Milan Mareš: Zdroje informace a jejich měření