Informace

Obsah:

Informace
Informace

Video: Informace

Video: Informace
Video: Informace 2023, Říjen
Anonim

Vstupní navigace

  • Obsah příspěvku
  • Bibliografie
  • Akademické nástroje
  • Náhled PDF přátel
  • Informace o autorovi a citaci
  • Zpět na začátek

Informace

První publikováno 26. října 2012; věcná revize Pá 14. prosince 2018

Filozofie informací se zabývá filosofickou analýzou pojmu informace z historického i systematického hlediska. Se vznikem empirické teorie poznání v rané novověké filosofii, vývojem různých matematických teorií informace ve dvacátém století a vzestupem informačních technologií získal pojem „informace“ústřední místo ve vědě a ve společnosti.. Tento zájem také vedl ke vzniku samostatného odvětví filosofie, které analyzuje informace ve všech jeho podobách (Adriaans & van Benthem 2008a, b; Lenski 2010; Floridi 2002, 2011). Informace se staly ústřední kategorií jak ve vědě, tak v humanitních oborech a reflexe informací ovlivňuje širokou škálu filozofických disciplín lišících se od logiky (Dretske 1981;van Benthem & van Rooij 2003; van Benthem 2006, viz položka o logice a informacích), epistemologie (Simondon 1989) k etice (Floridi 1999) a estetika (Schmidhuber 1997a; Adriaans 2008) k ontologii (Zuse 1969; Wheeler 1990; Schmidhuber 1997b; Wolfram 2002; Hutter 2010; Hutter 2010;).

O přesné povaze oblasti filozofie informací neexistuje shoda. Několik autorů navrhlo více či méně soudržnou filosofii informací jako pokus o přehodnocení filosofie z nové perspektivy: např. Kvantová fyzika (Mugur-Schächter 2002), logika (Brenner 2008), sémantická informace (Floridi 2011; Adams & de Moraes 2016, viz položka o sémantických koncepcích informací), komunikačních a zprávových systémech (Capurro & Holgate 2011) a meta-filozofie (Wu 2010, 2016). Jiní (Adriaans & van Benthem 2008a; Lenski 2010) to považují spíše za technickou disciplínu s hlubokými kořeny v historii filozofie a důsledky pro různé disciplíny, jako je metodologie, epistemologie a etika. Jakákoli interpretace povahy filozofie informací je,zdá se, že zahrnuje ambiciózní výzkumný program sestávající z mnoha dílčích projektů, které se liší od reinterpretace dějin filozofie v kontextu moderních teorií informací, až po hloubkovou analýzu role informací ve vědě, humanitních oborech a společnosti jako celý.

Termín „informace“v hovorové řeči se v současnosti používá převážně jako abstraktní podstatné jméno používané k označení jakéhokoli množství dat, kódu nebo textu, které se ukládají, odesílají, přijímají nebo manipulují na jakémkoli médiu. Podrobná historie jak pojmu „informace“, tak různých pojmů, které s ním přicházejí, je složitá a z velké části musí být ještě napsána (Seiffert 1968; Schnelle 1976; Capurro 1978, 2009; Capurro & Hjørland 2003). Přesný význam pojmu „informace“se liší v různých filozofických tradicích a její hovorové použití se liší geograficky a v různých pragmatických kontextech. Ačkoli analýza pojmu informace byla tématem západní filosofie od jejího počátků, explicitní analýza informací jako filozofického konceptu je poslední,a sahá až do druhé poloviny dvacátého století. V tuto chvíli je jasné, že informace jsou klíčovým pojmem ve vědách a humanitních oborech a v našem každodenním životě. Všechno, co víme o světě, je založeno na informacích, které jsme obdrželi nebo shromáždili, a každá věda se v zásadě zabývá informacemi. Existuje síť souvisejících pojmů informace s kořeny v různých oborech, jako je fyzika, matematika, logika, biologie, ekonomika a epistemologie. Všechny tyto pojmy se shlukují kolem dvou ústředních vlastností:s kořeny v různých oborech, jako je fyzika, matematika, logika, biologie, ekonomika a epistemologie. Všechny tyto pojmy se shlukují kolem dvou ústředních vlastností:s kořeny v různých oborech, jako je fyzika, matematika, logika, biologie, ekonomika a epistemologie. Všechny tyto pojmy se shlukují kolem dvou ústředních vlastností:

Informace jsou rozsáhlé. Centrální je koncept aditivity: kombinace dvou nezávislých datových souborů se stejným množstvím informací obsahuje dvakrát tolik informací než samostatné individuální datové soubory. Pojetí extensivity se přirozeně objevuje v našich interakcích se světem kolem nás, když počítáme a měříme objekty a struktury. Základní koncepce abstraktnějších matematických entit, jako jsou množiny, multisety a posloupnosti, byly vyvinuty již v historii na základě strukturálních pravidel pro manipulaci se symboly (Schmandt-Besserat 1992). Matematická formalizace extenzivity z hlediska funkce log probíhala v souvislosti s výzkumem termodynamiky v devatenáctém (Boltzmann 1866) a na počátku dvacátého století (Gibbs 1906). Pokud jsou kódovány z hlediska pokročilejších systémů vícerozměrných čísel (složitá čísla,quaternions, octonions) koncept extensivity zobecňuje do jemnějších představ o aditivitě, které nesplňují naše každodenní intuice. Přesto hrají důležitou roli v nedávném vývoji teorie informace založené na kvantové fyzice (Von Neumann 1932; Redei & Stöltzner 2001, viz položka o kvantovém zapletení a informacích).

Informace snižují nejistotu. Množství informací, které získáme, roste lineárně s množstvím, o které snižuje naši nejistotu, až do okamžiku, kdy jsme obdrželi všechny možné informace, a množství nejistoty je nula. Vztah mezi nejistotou a informacemi byl pravděpodobně poprvé formulován empiriky (Locke 1689; Hume 1748). Hume výslovně poznamenává, že výběr z většího výběru možností poskytuje více informací. Toto pozorování dosáhlo své kanonické matematické formulace ve funkci navržené Hartleym (1928), která definuje množství informací, které získáme, když vybereme prvek z konečné množiny. Jediná matematická funkce, která sjednocuje tyto dvě intuice o extenzivitě a pravděpodobnosti, je ta, která definuje informace z hlediska negativního logu pravděpodobnosti: (I (A) = - / log P (A)) (Shannon 1948;Shannon a Weaver 1949, Rényi 1961).

Elegance tohoto vzorce nás však neochrání před koncepčními problémy, které má. Ve dvacátém století byly předloženy různé návrhy na formalizaci pojmů informace:

  • Kvalitativní teorie informací

    1. Sémantické informace: Bar-Hillel a Carnap vyvinuli teorii sémantických informací (1953). Floridi (2002, 2003, 2011) definuje sémantické informace jako dobře tvarovaná, smysluplná a pravdivá data. Formální definice entropie založená na entropii (Fisher, Shannon, Quantum, Kolmogorov) pracuje na obecnější úrovni a nemusí nutně měřit informace ve smysluplných pravdivých datových sadách, i když lze obhajovat názor, že data musí být dobře měřitelná (diskuse viz oddíl 6.6 o logických a sémantických informacích). Sémantická informace je blízko našemu každodennímu naivnímu pojetí informace jako něčeho, co je zprostředkováno pravdivými výroky o světě.
    2. Informace jako stav agenta: Hintikka (1962, 1973) zahájil formální logické zacházení s pojmy, jako jsou znalosti a víra. Dretske (1981) a van Benthem & van Rooij (2003) tyto pojmy studovali v kontextu teorie informací, srov. van Rooij (2003) o otázkách a odpovědích, nebo Parikh & Ramanujam (2003) o obecných zprávách. Zdá se také, že Dunn má tuto představu na paměti, když definuje informace jako „to, co zbylo z poznání, když někdo odejme věření, ospravedlnění a pravdu“(Dunn 2001: 423; 2008). Vigo navrhl strukturu citlivou teorii informací založenou na složitosti získávání konceptů agenty (Vigo 2011, 2012).
  • Kvantitativní teorie informací

    1. Nyquistova funkce: Nyquist (1924) byl pravděpodobně první, kdo vyjádřil množství „inteligence“, která by mohla být vyslána vzhledem k určité rychlosti linky telegrafních systémů z hlediska funkce záznamu: (W = k / log m), kde W je rychlost přenosu, K je konstanta am jsou různé úrovně napětí, ze kterých si můžete vybrat.
    2. Fisherova informace: množství informací, které pozorovatelná náhodná proměnná X nese o neznámém parametru (theta), na kterém závisí pravděpodobnost X (Fisher 1925).
    3. Hartleyova funkce: (Hartley 1928, Rényi 1961, Vigo 2012). Množství informací, které získáme, když vybereme prvek z konečné množiny S při rovnoměrném rozdělení, je logaritmus kardinality této množiny.
    4. Shannonova informace: entropie, H, diskrétní náhodné proměnné X je míra množství nejistoty spojené s hodnotou X (Shannon 1948; Shannon & Weaver 1949).
    5. Složitost Kolmogorov: informace v binárním řetězci x je délka nejkratšího programu p, který produkuje x na referenčním univerzálním Turingově stroji U (Turing 1937; Solomonoff 1960, 1964a, b, 1997; Kolmogorov 1965; Chaitin 1969, 1987).
    6. Entropická opatření ve fyzice: Ačkoli nejsou ve všech případech přísně míra informací, různé pojmy entropie definované ve fyzice úzce souvisejí s odpovídajícími pojmy informace. Zmiňujeme Boltzmannovu entropii (Boltzmann, 1866) úzce spjatou s Hartleyskou funkcí (Hartley 1928), Gibbsovu entropii (Gibbs 1906) formálně ekvivalentní Shannonově entropii a různým generalizacím jako Tsallis Entropy (Tsallis 1988) a Rényi Entropy (Rényi 1961).
    7. Kvantová informace: Qubit je zobecnění klasického bitu a je popisováno kvantovým stavem v dvoustavovém kvantově-mechanickém systému, který je formálně ekvivalentem dvourozměrného vektorového prostoru nad komplexními čísly (Von Neumann 1932; Redei & Stöltzner 2001).

Až donedávna byla možnost sjednocení těchto teorií obecně zpochybněna (Adriaans & van Benthem 2008a), ale po dvou desetiletích výzkumu se zdá, že perspektivy sjednocení jsou lepší.

Obrysy jednotného pojmu informace se objevují v následujících liniích:

  • Filozofie informací je dílčí disciplínou filozofie, složitě spjatá s filozofií logiky a matematiky. Filozofie sémantických informací (Floridi 2011, D'Alfonso 2012, Adams & de Moraes, 2016) je opět dílčí disciplínou filozofie informací (viz informační mapa v záznamu o sémantických koncepcích informací). Z tohoto pohledu se filozofie informací zajímá o zkoumání subjektu na nejobecnější úrovni: data, dobře tvarovaná data, environmentální data atd. Filozofie sémantických informací přidává dimenzi významu a pravdivosti. Je možné interpretovat kvantitativní teorie informací v rámci filosofie sémantických informací (podrobná diskuse viz část 6.5).
  • Různé kvantitativní koncepty informací jsou spojovány s různými příběhy (počítání, přijímání zpráv, shromažďování informací, výpočetní technika) zakořeněné ve stejném základním matematickém rámci. Mnoho problémů ve filozofii informačního centra se týká souvisejících problémů ve filozofii matematiky. Byly studovány konverze a redukce mezi různými formálními modely (Cover & Thomas 2006; Grünwald & Vitányi 2008; Bais & Farmer 2008). Zdá se, že situace, která se objevuje, není na rozdíl od pojmu energie: existují různé formální podtypie o energii (kinetická, potenciální, elektrická, chemická, jaderná) s dobře definovanými transformacemi mezi nimi. Kromě toho je termín „energie“používán volně v hovorové řeči.
  • Pojmy informací založené na agentech se přirozeně objevují, když rozšiřujeme náš zájem od jednoduchého měření a manipulace se symboly na složitější paradigma agenta se znalostí, vírou, úmyslem a svobodou volby. Jsou spojeny s rozmístěním dalších pojmů informací.

Vznik koherentní teorie pro kvantitativní měření informací ve dvacátém století úzce souvisí s vývojem teorie výpočetní techniky. V této souvislosti jsou ústředními pojmy univerzalita, Turingova ekvivalence a invariantivita: protože koncept Turingova systému definuje pojem univerzálního programovatelného počítače, zdá se, že všechny univerzální modely výpočtu mají stejnou sílu. To znamená, že všechna možná měřítka informací definovatelná pro univerzální modely výpočtu (rekurzivní funkce, Turingův stroj, Lambda počet atd.) Jsou asymptoticky invariantní. To dává pohled na sjednocenou teorii informací, která by mohla v nadcházejících letech ovládat výzkumný program.

  • 1. Informace v hovorové řeči
  • 2. Historie termínu a pojem informace

    • 2.1 Klasická filosofie
    • 2.2 Středověká filozofie
    • 2.3 Moderní filosofie
    • 2.4 Historický vývoj významu pojmu „informace“
  • 3. Stavební bloky moderních teorií informací

    • 3.1 Jazyky
    • 3.2 Optimální kódy
    • 3.3 Čísla
    • 3.4 Fyzika
  • 4. Vývoj ve filosofii informací

    • 4.1 Popper: Informace jako stupeň padělání
    • 4.2 Shannon: Informace definované z hlediska pravděpodobnosti
    • 4.3 Solomonoff, Kolmogorov, Chaitin: Informace jako délka programu
  • 5. Systematické úvahy

    • 5.1 Filozofie informací jako rozšíření filozofie matematiky

      • 5.1.1 Informace jako přirozený jev
      • 5.1.2 Manipulace a rozsáhlost symbolů: množiny, multisety a řetězce
      • 5.1.3 Sady a čísla
      • 5.1.4 Měření informací v číslech
      • 5.1.5 Měření informací a pravděpodobností v množinách čísel
      • 5.1.6 Perspektivy sjednocení
      • 5.1.7 Zpracování informací a tok informací
      • 5.1.8 Informace, prvočísla a faktory
      • 5.1.9 Neúplnost aritmetiky
    • 5.2 Informace a symbolické výpočty

      • 5.2.1 Turingovy stroje
      • 5.2.2 Univerzálnost a stálost
    • 5.3 Kvantové informace a další
  • 6. Anomálie, paradoxy a problémy

    • 6.1 Paradox systematického vyhledávání
    • 6.2 Efektivní vyhledávání v konečných sadách
    • 6.3 Problém P versus NP, popisná složitost versus časová složitost
    • 6.4 Výběr modelu a komprese dat
    • 6.5 Determinismus a termodynamika
    • 6.6 Logické a sémantické informace
    • 6.7 Význam a výpočet
  • 7. Závěr
  • Bibliografie
  • Akademické nástroje
  • Další internetové zdroje
  • Související záznamy

1. Informace v hovorové řeči

Chybějící přesnost a univerzální užitečnost pojmu „informace“jdou ruku v ruce. V naší společnosti, ve které zkoumáme realitu pomocí nástrojů a instalací stále se zvyšující složitosti (dalekohledy, cyklotrony) a komunikujeme přes vyspělejší média (noviny, rádio, televize, SMS, internet), je užitečné mít abstrakt hromadné jméno pro „věci“, které jsou vytvořeny nástroji a které „proudí“těmito médii. Historicky se tento obecný význam objevil poněkud pozdě a zdá se, že je spojen s nárůstem masových médií a zpravodajských agentur (Devlin & Rosenberg 2008; Adriaans & van Benthem 2008b).

V současné hovorové řeči se pojem informace používá různými volně definovanými a často i protichůdnými způsoby. Většina lidí například považuje následující inferenci prima facie za platnou:

Pokud dostanu informaci, že p, pak vím, že p.

Stejní lidé by pravděpodobně neměli žádné problémy s tvrzením, že „tajné služby někdy šíří nepravdivé informace“nebo s větou „Informace poskytnuté svědky nehody byly vágní a protichůdné“. První tvrzení naznačuje, že informace jsou nutně pravdivé, zatímco ostatní tvrzení umožňují, že informace jsou nepravdivé, protichůdné a vágní. V každodenní komunikaci se zdá, že tyto nekonzistence nevytvářejí velké potíže a z pragmatického kontextu je obecně zřejmé, jaký typ informací je označen. Tyto příklady postačují k argumentaci, že odkazy na naše intuice jako mluvčích anglického jazyka jsou malou pomocí při vývoji přísné filosofické teorie informací. Zdá se, že v každodenní komunikaci neexistuje žádný pragmatický tlak, aby došlo k přesnějšímu vymezení pojmu informace.

2. Historie termínu a pojem informace

Až do druhé poloviny dvacátého století téměř žádný moderní filosof nepovažoval „informace“za důležitý filozofický koncept. Termín nemá lemma ve známé encyklopedii Edwardsa (1967) a není zmíněn ve Windelband (1903). V této souvislosti je zájem o „Filozofii informací“nejnovějším vývojem. Při zpětném pohledu z pohledu historie myšlenek však byla reflexe pojmu „informace“v dějinách filozofie převládajícím tématem. Rekonstrukce této historie je důležitá pro studium informací.

Problémem jakéhokoli přístupu „historie nápadů“je ověření základního předpokladu, že koncept, který člověk studuje, má skutečně kontinuitu nad historií filozofie. V případě historické analýzy informací by se dalo zeptat, zda pojem „informatio“projednávaný Augustinem má nějaké spojení s Shannonovými informacemi, než podobnost podmínek. Zároveň by se mohlo zeptat, zda Lockeova „historická, prostá metoda“je důležitým příspěvkem k vzniku moderního pojmu informace, ačkoli Locke ve svých spisech sotva používá termín „informace“v technickém smyslu. Jak je ukázáno níže, existuje konglomerát myšlenek, který zahrnuje pojem informace, který se vyvinul od starověku až do nedávné doby, ale je nezbytné další studium historie pojmu informace.

Důležitým opakujícím se tématem v rané filosofické analýze znalostí je paradigma manipulace s kusem vosku: buď jeho jednoduchým deformováním, vtisknutím prstenu na pečetě nebo napsáním znaků na něj. Skutečnost, že vosk může mít různé tvary a sekundární vlastnosti (teplota, čich, dotek), zatímco objem (rozšíření) zůstává stejný, z něj činí bohatý zdroj analogií, přirozený pro řeckou, římskou a středověkou kulturu, kde byl použit vosk pro sochařství, psaní (voskové tablety) a enkaustické malování. Toto téma lze nalézt v spisech tak různorodých autorů, jako jsou Democritus, Plato, Aristoteles, Theophrastus, Cicero, Augustine, Avicenna, Duns Scotus, Aquinas, Descartes a Locke.

2.1 Klasická filosofie

V klasické filosofii „informace“byla technická představa spojená s teorií znalostí a ontologií, která vznikla v Platónově (427–347 BCE) teorii forem, která byla vyvinuta v řadě jeho dialogů (Phaedo, Phaedrus, Symposium, Timaeus, Republic).. Různé nedokonalé jednotlivé koně ve fyzickém světě lze označit za koně, protože se podíleli na statické atemporální a aspatiální myšlence „horseness“ve světě myšlenek nebo forem. Když později autoři jako Cicero (106–43 BCE) a Augustine (354–430 CE) diskutovali platonické koncepty v latině, používali pojmy informare a informatio jako překlad pro technické řecké pojmy jako eidos (esence), idea (idea), typos (typ), morphe (forma) a prolepsis (zobrazení). Kořenová „forma“je stále rozpoznatelná ve slově „in-form-ation“(Capurro & Hjørland 2003). Platónova teorie forem byla pokusem formulovat řešení pro různé filosofické problémy: teorie forem zprostředkovává statickou (Parmenides, ca. 450 BCE) a dynamickou (Herakleitos, ca. 535–475 BCE) ontologické pojetí reality a nabízí model pro studium teorie lidských znalostí. Podle Theophrastus (371–287 BCE) se analogie voskové tablety vrací k Democritos (ca. 460–380 / 370 BCE) (De Sensibus 50). V Theaetetus (191c, d) Platón porovnává funkci naší paměti s voskovým tabletem, ve kterém jsou naše vjemy a myšlenky vtisknuty jako známky prstenů otisků ve vosku. Všimněte si, že metafora otisků symbolů ve vosku je v zásadě prostorová (rozsáhlá) a nelze ji snadno sladit s aspatiální interpretací myšlenek podporovaných Platónem.

Člověk získá obrázek o roli, kterou hraje pojem „forma“v klasické metodologii, pokud vezmeme v úvahu Aristotelovu doktrínu (384–322 BCE) o čtyřech příčinách. V Aristotelianově metodologickém porozumění objekt implikoval pochopení čtyř různých aspektů:

Hmotná příčina:: v důsledku čeho se něco stane - např. Bronz sochy a stříbro šálku a třídy, které je obsahují

Formální příčina:: forma nebo vzor; to znamená, že základní vzorec a třídy, které jej obsahují - např. poměr 2: 1 a číslo obecně jsou příčinou oktávy - a částí vzorce.

Efektivní příčina:: zdroj prvního začátku změny nebo odpočinku; např. muž, který plánuje, je příčinou a otec je příčinou dítěte a obecně to, co produkuje, je příčinou toho, co je produkováno, a to, co mění to, co se mění.

Konečná příčina:: stejné jako „konec“; tj. konečná příčina; např. jako „konec“chůze je zdraví. Proč člověk chodí? „Být zdravý“, říkáme a tím, že to řekneme, se domníváme, že jsme dostali příčinu. (Aristoteles, Metafyzika 1013a)

Všimněte si, že Aristoteles, který odmítá Platónovu teorii tvarů jako atemporální aspatiální entity, stále používá „formu“jako technický koncept. Tato pasáž uvádí, že znalost formy nebo struktury objektu, tj. Informace, je nezbytnou podmínkou pro jeho pochopení. V tomto smyslu jsou informace klíčovým aspektem klasické epistemologie.

Skutečnost, že poměr 2: 1 je uváděn jako příklad, také ilustruje hlubokou souvislost mezi pojmem formy a myšlenkou, že svět se řídil matematickými principy. Platón věřil pod vlivem starší pythagorejské tradice (Pythagoras 572– ca 500 BCE), že „vše, co se objevuje a děje ve světě“, lze měřit pomocí čísel (Politicus 285a). Aristoteles při různých příležitostech zmiňuje skutečnost, že Platón spojoval myšlenky s čísly (Vogel 1968: 139). Ačkoli formální matematické teorie o informacích se objevily až ve dvacátém století a člověk musí být opatrný, aby nevykládal řecký pojem číslo v žádném moderním smyslu, myšlenka, že informace byla v podstatě matematickým pojmem, pochází z klasické filozofie:forma entity byla koncipována jako struktura nebo vzor, který lze popsat pomocí čísel. Taková forma měla jak ontologický, tak epistemologický aspekt: vysvětluje podstatu i srozumitelnost objektu. Pojem informace tedy od samého začátku filosofické reflexe již byl spojen s epistemologií, ontologií a matematikou.

Dva základní problémy, které nejsou vysvětleny klasickou teorií idejí nebo forem, jsou 1) skutečný akt poznání předmětu (tj. Pokud vidím koně, jakým způsobem je myšlenka koně aktivována v mé mysli) a 2) proces myšlení jako manipulace s nápady. Aristotle zachází s těmito záležitostmi v De Anime a vyvolává analogii voskového pečetního prstenu:

„Smyslem“se rozumí to, co má moc přijímat do sebe rozumné formy věcí bez hmoty. To je třeba chápat tak, že se odehrává způsobem, jakým kus vosku zaujme dojem prstenu bez železa nebo zlata; říkáme, že to, co vyvolává dojem, je pečeť z bronzu nebo zlata, ale jeho zvláštní kovová konstituce nezmění: podobně je smysl ovlivněn tím, co je zabarveno nebo ochuceno nebo znělo, ale je lhostejné, co v každém případě látka je; záleží jen na tom, jakou kvalitu má, tj. v jakém poměru jsou její složky kombinovány. (De Anime, kniha II, kapitola 12)

Copak jsme již neřešili potíže spojené s interakcí společného prvku, když jsme řekli, že mysl je ve smyslu potenciálně cokoli, co je myslitelné, i když ve skutečnosti to není nic, dokud si to neuvědomí? To, co si myslí, musí být v něm, stejně jako postavy, o nichž se dá říci, že jsou na psacím stole, na kterém zatím není ve skutečnosti napsáno nic: přesně to se děje s myslí. (De Anime, kniha III, kapitola 4)

Tyto pasáže jsou bohaté na vlivné myšlenky a lze je zpětně číst jako programové pro filosofii informací: proces informatio lze chápat jako otisk postav na voskovém tabletu (tabula rasa), myšlení lze analyzovat z hlediska manipulace symbolů.

2.2 Středověká filozofie

V průběhu středověku se reflexe pojmu informatio účastní následní myslitelé. Ilustrační pro aristotelský vliv je průchod Augustina v knize De Trinitate XI. Zde analyzuje vizi jako analogii pro pochopení Trojice. Existují tři aspekty: tělesná forma ve vnějším světě, informatio podle smyslu pro vidění a výsledná forma v mysli. Pro tento proces informací Augustine používá obrázek prstenu pečeti, který působí ve vosku (De Trinitate, XI Cap 2 par 3). Capurro (2009) poznamenává, že tuto analýzu lze interpretovat jako časnou verzi technického konceptu „zasílání zprávy“v moderní informační teorii, ale tato myšlenka je starší a v řeckém myšlení je běžným tématem (Plato Theaetetus 191c, d; Aristoteles De Anime, kniha II, kapitola 12, kniha III, kapitola 4;Theophrastus De Sensibus 50).

Pojem tabula rasa byl později dále rozvíjen v teorii znalostí Avicenny (c. 980–1037 CE):

Lidský intelekt při narození je spíš jako tabula rasa, čistý potenciál, který je aktualizován prostřednictvím vzdělávání a poznává. Znalosti jsou získány empirickým poznáním objektů v tomto světě, z nichž jeden abstraktuje univerzální pojmy. (Sajjad 2006 [Další internetové zdroje [dále jen OIR])

Myšlenka vývoje lidské mysli v podobě tabula rasa byla tématem románu Hayy ibn Yaqdhan arabského andaluského filosofa Ibn Tufail (1105–1185 CE, známého jako „Abubacer“nebo „Ebn Tophail“na Západě). Tento román popisuje vývoj izolovaného dítěte na opuštěném ostrově. Pozdnější překlad v latině pod titulem Philosophus Autodidactus (1761) ovlivnil empiricisty Johna Lockeho ve formulaci jeho doktríny tabula rasa.

Kromě neustálého tvůrčího napětí mezi teologií a filozofií lze středověké myšlení po opětovném objevení Aristotelovy metafyziky ve dvanáctém století inspirovaném arabskými vědci charakterizovat jako propracovanou a jemnou interpretaci a vývoj, zejména aristotelské klasické teorie. Reflexe na pojem informatio se pod vlivem Avicenny zabývají myslitelé jako Aquinas (1225–1274 CE) a Duns Scotus (1265 / 66–1308 CE). Když Aquinas diskutuje o otázce, zda andělé mohou interagovat s hmotou, odkazuje na aristotelskou doktrínu hylomorfismu (tj. Na teorii, že hmota se skládá z hmoty (hylo (dřevo), hmota) a formy (morphè)). Zde to Aquinas překládá jako informace o hmotě (informatio materiae) (Summa Theologiae, 1a 110 2; Capurro 2009). Duns Scotus odkazuje na informatio v technickém smyslu, když diskutuje o Augustinově teorii vidění v De Trinitate, XI Cap 2 par 3 (Duns Scotus, 1639, „De imagine“, Ordinatio, I, d.3, str. 3).

Napětí, které již existovalo v klasické filosofii mezi platonickým idealismem (universalia ante res) a aristotelským realismem (universalia v rebusu), je znovu zachyceno jako problém univerzálů: existují univerzální vlastnosti, jako je „lidstvo“nebo myšlenka koně, kromě jednotlivce? entity, které je vytvářejí? Ockham (c. 1287–1347 nl) představuje svého známého břitva: v souvislosti s jeho odmítnutím univerzálů by se entity neměly znásobit nad nezbytnost. Během jejich spisů Aquinas a Scotus používají latinské termíny informatio a informare v technickém smyslu, ačkoli tuto terminologii Ockham nepoužívá.

2.3 Moderní filosofie

Historie pojmu informace v moderní filosofii je komplikovaná. Pravděpodobně počínaje čtrnáctým stoletím se pojem „informace“objevoval v různých rozvojových evropských jazycích v obecném významu „vzdělávání“a „dotazování“. Francouzský historický slovník od Godefroye (1881) uvádí jako první význam „informace“dějovou akci, výuku, enquête, vědu, talent. Tento termín byl také výslovně používán pro právní vyšetřování (Dictionarynaire du Moyen Français (1330–1500) 2015). V důsledku tohoto hovorového použití pojem „informace“postupně ztrácí spojení s pojmem „forma“a ve filozofických textech se stále méně objevuje ve formálním smyslu.

Na konci středověku se společnost a věda zásadně mění (Hazard 1935; Ong 1958; Dijksterhuis 1986). V dlouhém složitém procesu byla Aristoteliánská metodologie čtyř příčin transformována, aby sloužila potřebám experimentální vědy:

  1. Hmotná příčina se vyvinula v moderní pojetí hmoty.
  2. Formální příčina byla znovu interpretována jako geometrická forma ve vesmíru.
  3. Efektivní příčina byla znovu definována jako přímá mechanická interakce mezi hmotnými těly.
  4. Poslední příčina byla zamítnuta jako nevědecká. Z tohoto důvodu měli Newtonovi současníci potíže s pojmem gravitační síly ve své teorii. Gravitace jako akce na dálku se zdála být znovuzavedení konečných příčin.

V tomto měnícím se kontextu je interpretována analogie voskového dojmu. Proto-verze moderního pojmu informace jako struktura souboru nebo sekvence jednoduchých myšlenek je vyvinuta empiriky, ale protože technický význam termínu “informace” je ztracen, tato teorie znalostí není nikdy identifikována jako nová „teorie informací“.

Důsledkem tohoto posunu v metodice je to, že vědecky lze studovat pouze jevy, které lze vysvětlit mechanickou interakcí mezi hmotnými těly. To znamená v moderním smyslu: redukci intenzivních vlastností na měřitelné rozsáhlé vlastnosti. Pro program Galileo je tento náhled programový:

Abych v nás vzrušil chutě, pachy a zvuky, věřím, že u vnějších těl není vyžadováno nic kromě tvarů, čísel a pomalých nebo rychlých pohybů. (Galileo 1623 [1960: 276)

Tyto poznatky později vedly k doktríně rozdílu mezi primárními vlastnostmi (prostor, tvar, rychlost) a sekundárními vlastnostmi (teplo, chuť, barva atd.). V kontextu filosofie informací má Galileo pozorování sekundární kvality „tepla“zvláštní význam, protože položily základy pro studium termodynamiky v devatenáctém století:

Když jsem ukázal, že mnoho pocitů, které mají být vlastnostmi ve vnějších objektech, v nás nemá skutečnou existenci, a mimo nás jsou pouhá jména, nyní říkám, že mám sklon věřit tomu, že teplo má tento charakter. Těmito materiály, které v nás produkují teplo a způsobují, že se cítíme v teple, které jsou známé pod obecným názvem „oheň“, by pak bylo množství nepatrných částic majících určité tvary a pohybujících se s určitými rychlostmi. (Galileo 1623 [1960: 277)

Klíčovým myslitelem v této transformaci je René Descartes (1596–1650 CE). Ve svých Meditacích, poté, co „prokázal“, že hmota (res extensa) a mysl (res cogitans) jsou různé látky (tj. Formy existence samostatně), se otázka interakce mezi těmito látkami stává problémem. Tavitelnost vosku je pro Descartes explicitním argumentem proti vlivu res extensa na res cogitans (Meditationes II, 15). Skutečnost, že kus vosku ztratí svou formu a další vlastnosti snadno při zahřátí, znamená, že smysly nejsou dostatečné pro identifikaci objektů na světě. Skutečné znalosti tak lze dosáhnout pouze „inspekcí mysli“. Zde se používá vosková metafora, která se více než 1500 let používá k vysvětlení smyslového dojmu, jako argument proti možnosti dosáhnout znalostí prostřednictvím smyslů. Protože podstatou res extensa je rozšíření, nelze myšlení zásadně chápat jako prostorový proces. Descartes stále používá výrazy „forma“a „myšlenka“v původním scholastickém nemagnetickém (atemporálním, aspatiálním) smyslu. Příkladem je krátký formální důkaz existence Boha v druhé odpovědi na Mersenne v Meditationes de Prima PhilosophiaPříkladem je krátký formální důkaz existence Boha v druhé odpovědi na Mersenne v Meditationes de Prima PhilosophiaPříkladem je krátký formální důkaz existence Boha v druhé odpovědi na Mersenne v Meditationes de Prima Philosophia

Pojem myšlenka používám k označení formy dané myšlenky, jejíž okamžité vnímání mě o této myšlence uvědomí.

(Idea nomine intelligo cujuslibet cogitationis formam illam, per cujus okamžitam perceptionem ipsius ejusdem cogitationis vědomý součet)

Říkám jim „nápady“, říká Descartes

pouze v tom případě, že mají vliv na samotnou mysl, když informují tuto část mozku.

(sed tantum quatenus mentem ipsam in illam cerebri partem conversam informant). (Descartes, 1641, námitky Ad Secundas, Rationes, Dei existentiam & anime rozlišování probantes, více Geometrico dispositae.)

Protože res extensa a res cogitans jsou různé látky, akt myšlení nemůže být nikdy napodoben ve vesmíru: stroje nemohou mít univerzální schopnost rozumu. Descartes dává dvě samostatné motivace:

Prvním z nich je, že nikdy nemohli používat slova nebo jiná označení uspořádaná takovým způsobem, který je pro nás kompetentní, aby mohli ostatním ohlásit své myšlenky: (…) Druhá zkouška je, že ačkoli takové stroje mohou vykonávat mnoho věcí s stejné nebo snad větší dokonalosti než kdokoli z nás, nepochybně by selhali u některých dalších, z nichž by bylo možné zjistit, že nejednali ze znalostí, ale pouze z dispozice svých orgánů: protože důvodem je univerzální nástroj to je podobně dostupné při každé příležitosti, tyto orgány naopak vyžadují zvláštní uspořádání pro každou konkrétní akci; proto musí být morálně nemožné, aby v jakémkoli stroji existovala rozmanitost orgánů dostatečná k tomu, aby mohla jednat ve všech událostech života, tak, jak nám náš rozum umožňuje jednat.(Discourse de la méthode, 1647)

Tato pasáž je důležitá, protože přímo hovoří proti možnosti umělé inteligence a dokonce ji lze interpretovat jako argumentaci proti možnosti univerzálního Turingova stroje: důvod jako univerzální nástroj nelze nikdy ve vesmíru emulovat. Tato koncepce je v rozporu s moderním pojmem informace, která jako měřitelná veličina je v zásadě prostorová, tj. Rozsáhlá (ale v jiném smyslu než v případě Descartes).

Descartes nepředkládá novou interpretaci pojmů forma a myšlenka, ale připravuje půdu pro debatu o povaze myšlenek, která se vyvíjí kolem dvou opačných pozic:

Racionalismus: karteziánská představa, že myšlenky jsou vrozené, a tedy a priori. Tato forma racionalismu znamená interpretaci pojmu myšlenky a formy jako atemporální, aspatiální, ale komplexní struktury, tj. Myšlenku „koně“(tj. S hlavou, tělem a nohama). Rovněž dobře odpovídá interpretaci vědomého subjektu jako stvořené bytosti (ens creatu). Bůh stvořil člověka podle svého vlastního obrazu, a tak poskytl lidské mysli adekvátní soubor myšlenek, aby porozuměl jeho stvoření. V této teorii je růst znalostí a priori omezený. Vytváření nových nápadů ex nihilo je nemožné. Tento pohled je obtížné sladit s konceptem experimentální vědy.

Empiricismus: Koncepty jsou konstruovány v mysli a posteriori na základě myšlenek spojených se smyslovými dojmy. Tato doktrína implikuje novou interpretaci pojmu myšlenka jako:

cokoli je předmětem porozumění, když si člověk myslí … cokoli je mysleno fantasmem, pojmem, druhem nebo čímkoli je to, na co může mysl při práci myslet. (Locke 1689, bk I, ch 1, odstavec 8)

Zde jsou myšlenky koncipovány jako základní stavební kameny lidského poznání a reflexe. To dobře odpovídá požadavkům experimentální vědy. Nevýhodou je, že mysl nikdy nemůže formulovat apodiktické pravdy o příčině a následcích a podstatě pozorovaných entit, včetně vlastní identity. Lidské poznání se stává v zásadě pravděpodobnostní (Locke 1689: bk I, ch. 4, odstavec 25).

Lockeova reinterpretace pojmu myšlenka jako „strukturálního zástupného symbolu“pro jakoukoli entitu přítomnou v mysli je nezbytným krokem ve vývoji moderního pojmu informace. Protože tyto myšlenky nejsou zapojeny do ospravedlnění apodeiktického poznání, nutnost zdůrazňovat atemporální a aspatiální povahu myšlenek mizí. Konstrukce konceptů na základě souboru elementárních myšlenek založených na senzorické zkušenosti otevírá bránu k rekonstrukci znalostí jako rozsáhlé vlastnosti agenta: více myšlenek znamená pravděpodobnější znalosti.

V druhé polovině sedmnáctého století byla formální teorie pravděpodobnosti vyvinuta vědci jako Pascal (1623–1662), Fermat (1601 nebo 1606–1665) a Christiaan Huygens (1629–1695). Práce De ratiociniis in ludo aleae z Huygens byla přeložena do angličtiny John Arbuthnot (1692). Pro tyto autory byl svět v podstatě mechanický, a tedy deterministický, pravděpodobnost byla kvalita lidského poznání způsobená jeho nedokonalostí:

Je nemožné, aby Die, s takovou určující silou a směrem, nespadla na takovou určenou stranu, jen já nevím sílu a směr, který ji způsobí, že dopadne na takovou určenou stranu, a proto jsem říkejte to náhoda, což není nic jiného než umění;… (John Arbuthnot Of the Law of Chance (1692), předmluva)

Tento text pravděpodobně ovlivnil Hume, který jako první si vzal teorii formální pravděpodobnosti s teorií znalostí:

Ačkoli na světě není nic takového jako Chance; naše neznalost skutečné příčiny jakékoli události má stejný vliv na porozumění a vyvolává podobný druh víry nebo názoru. (…) Pokud by bylo barvivo označeno jedním číslem nebo počtem skvrn na čtyřech stranách a jiným číslem nebo počtem skvrn na zbývajících dvou stranách, bylo by více pravděpodobné, že by se první objevilo než druhé; i když, kdyby měl tisíc stran označených stejným způsobem a pouze jednu stranu odlišnou, pravděpodobnost by byla mnohem vyšší a naše víra nebo očekávání události byly stabilnější a bezpečnější. Tento proces myšlení nebo uvažování se může zdát triviální a zřejmý; ale pro ty, kteří to považují za přísnější, možná si může dovolit záležitost pro zvědavé spekulace. (Hume 1748: Oddíl VI, „Pravděpodobnost“1)

Zde se znalosti o budoucnosti jako míra víry měří z hlediska pravděpodobnosti, která je zase vysvětlena z hlediska počtu konfigurací, které může mít deterministický systém na světě. Jsou vytvořeny základní stavební kameny moderní teorie informací. S touto novou koncepcí znalostí položili empirici základ pro pozdější vývoj termodynamiky jako snížení sekundární kvality tepla na primární vlastnosti těl.

Současně se zdá, že pojem „informace“ztratil většinu svého technického významu ve spisech empiriků, takže tento nový vývoj není označen jako nová interpretace pojmu „informace“. Locke někdy používá frázi, že nás naše smysly „informují“o světě a příležitostně používá slovo „informace“.

Pro jaké informace, jaké znalosti v sobě nese tento návrh, viz. „Olovo je kov“pro muže, který zná složitou představu, o které název vedení stojí? (Locke 1689: bk IV, ch 8, odstavec 4)

Zdá se, že Hume používá informace stejným neformálním způsobem, když pozoruje:

Dva objekty, i když se dokonale podobají jeden druhému, a dokonce se objevují na stejném místě v různých časech, se mohou numericky lišit: A jelikož síla, kterou jeden objekt vytváří jiný, není nikdy zjistitelná pouze z jejich myšlenky, je zřejmou příčinou a efektem jsou vztahy, o nichž dostáváme informace ze zkušeností, a nikoli z abstraktního uvažování nebo reflexe. (Hume 1739: část III, oddíl 1)

Metodologie empiriků není bez problémů. Největším problémem je, že veškeré znalosti se stávají pravděpodobnostmi a posteriori. Immanuel Kant (1724–1804) byl jedním z prvních, který poukázal na to, že lidská mysl má pochopení meta-konceptů prostoru, času a kauzality, které samy o sobě nemohou být chápány jako výsledek pouhé kombinace „myšlenek“.. Tyto intuice nám navíc umožňují s jistotou formulovat vědecké poznatky: tj. Skutečnost, že součet úhlů trojúhelníku v euklidovském prostoru je 180 stupňů. Tento problém nelze vysvětlit v empirickém rámci. Pokud jsou znalosti vytvářeny kombinací myšlenek, musí v lidské mysli existovat a priori syntéza myšlenek. Podle Kant to znamená, že lidská mysl může vyhodnotit svou vlastní schopnost formulovat vědecké úsudky. Ve svém Kritik der reinen Vernunft (1781) rozvíjel Kant transcendentální filosofii jako zkoumání nezbytných podmínek lidského poznání. Přestože Kantův transcendentální program nepřispěl přímo k rozvoji pojmu informace, ovlivnil výzkum v základech matematiky a znalostí relevantních pro tento předmět v devatenáctém a dvacátém století: např. Práce Frege, Husserl, Russell, Brouwer, L. Wittgenstein, Gödel, Carnap, Popper a Quine. V devatenáctém a dvacátém století ovlivnil výzkum v základech matematiky a znalostí relevantních pro tento předmět: např. práce Fregeho, Husserla, Russella, Brouwera, L. Wittgensteina, Gödele, Carnapa, Poppera a Quina. V devatenáctém a dvacátém století ovlivnil výzkum v základech matematiky a znalostí relevantních pro tento předmět: např. práce Fregeho, Husserla, Russella, Brouwera, L. Wittgensteina, Gödele, Carnapa, Poppera a Quina.

2.4 Historický vývoj významu pojmu „informace“

Historie pojmu „informace“úzce souvisí se studiem centrálních problémů v epistemologii a ontologii v západní filosofii. Po začátku jako technický termín v klasických a středověkých textech pojem „informace“téměř zmizel z filozofického diskurzu v moderní filosofii, ale získal popularitu v hovorové řeči. Termín postupně získal status abstraktního masového substantiva, což je význam, který je ortogonální k klasickému procesně orientovanému významu. V této podobě ji vyzvedlo několik vědců (Fisher 1925; Shannon 1948) ve dvacátém století, kteří zavedli formální metody měření „informací“. To zase vede k oživení filozofického zájmu o pojem informace. Tato složitá historie se zdá být jedním z hlavních důvodů obtíží při formulaci definice jednotného pojmu informace, který uspokojí všechny naše intuice. Historicky relevantní jsou nejméně tři různé významy slova „informace“:

„Informace“jako proces informování

Toto je nejstarší význam, který se nachází v spisech autorů, jako je Cicero (106–43 BCE) a Augustine (354–430 CE), a je ztracen v moderním diskurzu, i když asociace informací s procesy (tj. Výpočetní technika, plynutí) nebo odeslání zprávy) stále existuje. V klasické filosofii by se dalo říci, že když uznám koně jako takového, pak je v mé mysli zasadena „forma“koně. Tento proces je moje „informace“o povaze koně. Také akt učení může být označován jako „informace“žáka. Ve stejném smyslu lze říci, že sochař vytváří sochu „informováním“mramoru. Úkolem sochaře je „informace“o soše (Capurro & Hjørland 2003). Tento procesně orientovaný význam v západoevropském diskurzu přežil poměrně dlouho:dokonce v osmnáctém století Robinson Crusoe mohl odkazovat na vzdělání svého sluhu v pátek jako na svou „informaci“(Defoe 1719: 261). V tomto smyslu je také používán v Berkeley: „Miluji informace o všech předmětech, které přicházejí do cesty, a zejména o těch nejdůležitějších“(Alciphron Dialogue 1, Section 5, odstavec 6/10, viz Berkeley 1732).

„Informace“jako stav agenta

tj. v důsledku procesu informování. Pokud někdo učí žáka o teorémi Pythagoras, lze po dokončení tohoto procesu říci, že „má informace o teorémi Pythagoras“. V tomto smyslu je pojem „informace“výsledkem stejné podezřelé formy zdůvodnění slovesa (informare (gt) informatio) jako mnoha jiných technických termínů ve filozofii (podstata, vědomí, předmět, objekt). Tento druh formace je známý pro koncepční potíže, které způsobuje. Může člověk odvodit skutečnost, že mám „vědomí“, ze skutečnosti, že jsem vědomý? Může člověk odvodit skutečnost, že „mám“informace ze skutečnosti, že jsem byl informován? Zdá se, že transformace na tento moderní opodstatněný význam byla postupná a zdá se, že byla v západní Evropě obecná alespoň od poloviny 15. století. V renesanci mohl být učenec označován jako „muž informací“, stejně jako bychom dnes mohli říci, že někdo získal vzdělání (Adriaans & van Benthem 2008b; Capurro & Hjørland 2003). V „Emma“Jane Austenové lze číst: „Pan Předpokládám, že Martin není mužem informací, které by přesahovaly rámec jeho vlastního podnikání. Nečte “(Austen 1815: 21).stejně jako bychom dnes mohli říci, že někdo získal vzdělání (Adriaans & van Benthem 2008b; Capurro & Hjørland 2003). V „Emma“Jane Austenové lze číst: „Pan Předpokládám, že Martin není mužem informací, které by přesahovaly rámec jeho vlastního podnikání. Nečte “(Austen 1815: 21).stejně jako bychom dnes mohli říci, že někdo získal vzdělání (Adriaans & van Benthem 2008b; Capurro & Hjørland 2003). V „Emma“Jane Austenové lze číst: „Pan Předpokládám, že Martin není mužem informací, které by přesahovaly rámec jeho vlastního podnikání. Nečte “(Austen 1815: 21).

„Informace“jako dispozice k informování

tj. jako schopnost objektu informovat agenta. Když mě akt učení Pytagorovy věty nechává s informacemi o této teorémě, je přirozené předpokládat, že text, ve kterém je věta vysvětlena, tuto informaci skutečně „obsahuje“. Text je schopen mě informovat, když jsem si ho přečetl. Ve stejném smyslu, když dostanu informace od učitele, jsem schopen předat tyto informace jinému studentovi. Informace se tak stávají něčím, co lze ukládat a měřit. Toto poslední pojetí informace jako abstraktního masového substantiva získalo široké přijetí v moderní společnosti a našlo svou definitivní podobu v devatenáctém století, což umožnilo Sherlockovi Homesovi následující pozorování:„… Přítel Lestrade držel ve svých rukou informace, o hodnotě, kterou sám neznal“(„Dobrodružství šlechtice“, Conan Doyle 1892). Spojení s technickými filosofickými pojmy jako „forma“a „informování“zmizelo z obecného vědomí, ačkoli spojení mezi informacemi a procesy, jako je ukládání, shromažďování, výpočetní technika a výuka, stále existuje.

3. Stavební bloky moderních teorií informací

Se zpětným pohledem mnoho pojmů, které mají co do činění s optimálními kódovými systémy, ideálními jazyky a asociací mezi výpočetním a zpracovatelským jazykem, byly ve filozofické reflexi od sedmnáctého století opakujícími se tématy.

3.1 Jazyky

Jeden z nejpropracovanějších návrhů na univerzální „filozofický“jazyk navrhl biskup John Wilkins: „Esej o skutečné postavě a filosofický jazyk“(1668). Wilkinsův projekt spočíval v propracovaném systému symbolů, který měl být ve skutečnosti spojen s jednoznačnými pojmy ve skutečnosti. Tyto návrhy učinily filozofy citlivými na hluboké souvislosti mezi jazykem a myšlenkou. Empiricistická metodologie umožňovala pojmout vývoj jazyka jako systému konvenčních znaků z hlediska asociací mezi myšlenkami v lidské mysli. Otázka, která je v současné době známá jako problém s uzemněním symbolů (jak svévolné znaky získávají svůj inter-subjektivní význam), byla jednou z nejvíce diskutovaných otázek v osmnáctém století v souvislosti s problémem původu jazyků. Rozdílní myslitelé jako Vico, Condillac, Rousseau, Diderot, Herder a Haman přispěli. Ústřední otázkou bylo, zda jazyk dostal a priori (Bohem), nebo zda byl zkonstruován, a tedy vynález samotného člověka. Typická byla soutěž vydaná Královskou pruskou akademií věd v roce 1769:

Máte domnělé opuštěné naturely, sont-ils en état d'inventer le langage? Et par quels moyens parviendront-ils d'eux-mêmes à cette vynález?

Jsou-li lidé opuštěni na svých přirozených schopnostech, jsou schopni vymyslet jazyk a jakým způsobem přijdou k tomuto vynálezu? [1]

Diskuse zuřila přes století bez nějakého závěru a v 1866 lingvistická společnost Paříže (Société de Linguistique de Paříž) vyhnal záležitost od jeho arény. [2]

Filozoficky relevantnější je práce Leibnize (1646–1716) na tzv. Characteristica universalis: pojem univerzálního logického počtu, který by byl perfektním prostředkem pro vědecké zdůvodnění. Ústředním předpokladem Leibnizovy filosofie je, že takový dokonalý jazyk vědy je v zásadě možný díky dokonalé povaze světa jako Božího stvoření (poměr essendi = ration cognoscendi, původ bytí je původem poznání). Tento princip byl odmítnut Wolffem (1679–1754), který navrhl více heuristicky orientovaných kombinatorií charakteristik (van Peursen 1987). Tyto myšlenky musely čekat na myslitele jako Boole (1854, Vyšetřování zákonů myšlení), Frege (1879, Begriffsschrift),Peirce (který již v roce 1886 navrhl, že by elektrické obvody mohly být použity pro zpracování logických operací) a Whitehead a Russell (1910–1913, Principia Mathematica), aby našli plodnější řešení.

3.2 Optimální kódy

Skutečnost, že frekvence dopisů se liší v jazyce, byla známa od vynálezu knihtisku. Tiskárny potřebovaly mnohem více „e“a „t“s než „x“s nebo „q“s pro sazbu anglického textu. Tato znalost byla široce používána k dekódování šifry od sedmnáctého století (Kahn 1967; Singh 1999). V 1844 asistent Samuela Morse, Alfred Vail, určoval frekvenci dopisů používaných v místních novinách v Morristown, New Jersey, a používal je k optimalizaci Morseova kódu. Tudíž jádro teorie optimálních kódů bylo stanoveno již dávno předtím, než Shannon vyvinul své matematické základy (Shannon 1948; Shannon & Weaver 1949). Historicky důležité, ale filozoficky méně relevantní jsou snahy Charlese Babbagee o konstrukci výpočetních strojů (Difference Engine v roce 1821,a Analytical Engine 1834–1871) a pokus Ady Lovelace (1815–1852) navrhnout, co je považováno za první programovací jazyk pro Analytical Engine.

3.3 Čísla

Nejjednodušší způsob, jak reprezentovat čísla, je pomocí unárního systému. Zde je délka reprezentace čísla stejná jako velikost samotného čísla, tj. Číslo „deset“je reprezentováno jako „\\\\\\\\\\“. Klasický římský číselný systém je vylepšení, protože obsahuje různé symboly pro různé řády velikosti (jeden = I, deset = X, sto = C, tisíc = M). Tento systém má ohromné nedostatky, protože v zásadě je potřeba nekonečné množství symbolů pro kódování přirozených čísel, a proto mají stejné matematické operace (sčítání, násobení atd.) Různé formy v různých řádech velikosti. Kolem 500 CE bylo v Indii vynalezeno číslo nula. Pomocí nula jako zástupného symbolu můžeme kódovat nekonečno čísel s konečnou sadou symbolů (jedna = I, deset = 10, sto = 100, tisíc = 1000 atd.). Z moderní perspektivy je možný nekonečný počet pozičních systémů, pokud máme 0 jako zástupný symbol a konečný počet dalších symbolů. Náš běžný systém desítkových čísel má deset číslic „0, 1, 2, 3, 4, 5, 6, 7, 8, 9“a představuje číslo dvěstě padesát pět jako „255“. V systému binárních čísel máme pouze symboly „0“a „1“. Zde je dvě stě padesát pět zastoupeno jako „11111111“. V hexadecimálním systému se 16 symboly (0, 1, 2, 3, 4, 5, 6, 7, 8, 9, a, b, c, d, e, f) lze stejné číslo napsat jako „ff“. Všimněte si, že délka těchto reprezentací se značně liší. Pomocí této reprezentace lze matematické operace standardizovat bez ohledu na pořadí velikosti čísel, se kterými se zabýváme, tj. Možnost jednotného algoritmického zpracování matematických funkcí (sčítání,odčítání, násobení a dělení atd.) je spojeno s takovým pozičním systémem.

Koncept systému pozičních čísel přinesl do Evropy perský matematik al-Khwarizmi (ca. 780 – ca. 850 CE). Jeho hlavní práce o číslech (ca. 820 CE) byla přeložena do latiny jako Liber Algebrae et Almucabola ve 12. století, což nám mimo jiné dalo pojem „algebra“. Naše slovo „algoritmus“je odvozeno od Algoritmi, latinské podoby jeho jména. Poziční číselné systémy zjednodušily obchodní a vědecké výpočty.

V roce 1544 Michael Stifel představil pojem exponenta čísla v Arithmetica integra (1544). 8 lze tedy psát jako (2 ^ 3) a 25 jako (5 ^ 2). Pojem exponenta okamžitě navrhuje pojem logaritmus jako jeho inverzní funkci: (log_b b ^ a) = a). Stifel porovnal aritmetickou posloupnost:

[-3, -2, -1, 0, 1, 2, 3)

ve kterém má výraz 1 rozdíl 1 s geometrickou posloupností:

) frac {1} {8}, / frac {1} {4}, / frac {1} {2}, 1, 2, 4, 8)

ve kterém mají výrazy poměr 2. Zápis exponentů mu umožnil přepsat hodnoty druhé tabulky jako:

[2 ^ {- 3}, 2 ^ {- 2}, 2 ^ {- 1}, 2 ^ 0, 2 ^ 1, 2 ^ 2, 2 ^ 3)

který kombinuje obě tabulky. Toto byla pravděpodobně první logaritmická tabulka. Definitivnější a praktičtější teorii logaritmů rozvíjí John Napier (1550–1617) ve své hlavní práci (Napier 1614). On razil termín logaritmus (loga + aritmetika: poměr čísel). Jak je patrné ze shody mezi aritmetickými a geometrickými progresemi, logaritmy redukují produkty na součty:

) log_b (xy) = / log_b (x) + / log_b (y))

Rovněž redukují dělení na rozdíly:

) log_b (x / y) = / log_b (x) - / log_b (y))

a pravomoci k výrobkům:

) log_b (x ^ p) = p / log_b (x))

Po vydání logaritmických tabulek Briggsem (1624) tato nová technika usnadňující komplexní výpočty rychle získala popularitu.

3.4 Fyzika

Galileo (1623) již navrhoval, že analýzu jevů, jako je teplo a tlak, lze omezit na studium pohybů elementárních částic. V empirické metodologii by to mohlo být chápáno jako otázka, jak smyslový zážitek sekundární kvality tepla předmětu nebo plynu lze redukovat na pohyby částic. Bernoulli (Hydrodynamica publikovaná v roce 1738) byla první, kdo vyvinul kinetickou teorii plynů, ve kterých jsou makroskopicky pozorovatelné jevy popsány z hlediska mikrostátů systémů částic, které se řídí zákony newtonské mechaniky, ale bylo docela intelektuální snahou přijít s odpovídajícím matematickým zpracováním. Clausius (1850) učinil rozhodný krok, když představil pojem střední volné dráhy částice mezi dvěma srážkami. Toto otevřelo cestu pro statistické zpracování Maxwell kdo formuloval jeho distribuci v 1857, který byl první statistický zákon ve fyzice. Definitivní vzorec, který svázal všechny pojmy dohromady (a to je vyryto na jeho náhrobku, i když skutečný vzorec je způsoben Planckem), byl vyvinut Boltzmannem:

[S = k / log W)

Popisuje entropii systému v termínech logaritmu počtu možných mikrostavů W, v souladu s pozorovatelnými makroskopickými stavy systému, kde k je dobře známá Boltzmannova konstanta. V celé své jednoduchosti lze hodnotu tohoto vzorce pro moderní vědu jen těžko přeceňovat. Výraz „(log W)“lze z pohledu teorie informace interpretovat různými způsoby:

  • Jako množství entropie v systému.
  • Protože délka čísla potřebovala počítat všechny možné mikrostavy v souladu s makroskopickými pozorováními.
  • Jako délku optimálního indexu musíme identifikovat konkrétní současný neznámý mikrostát systému, tj. Je to míra našeho „nedostatku informací“.
  • Jako míra pravděpodobnosti jakéhokoli typického specifického mikrostavu systému v souladu s makroskopickými pozorováními.

Spojuje tedy aditivní povahu logaritmu s rozsáhlými vlastnostmi entropie, pravděpodobnosti, typičnosti a informací a je základním krokem ve využívání matematiky k analýze přírody. Později Gibbs (1906) upravil vzorec:

[S = - / sum_i p_i / ln p_i,)

kde (p_i) je pravděpodobnost, že systém je v mikrostátu (i ^ { textrm {th}}). Tento vzorec byl přijat Shannonem (1948; Shannon & Weaver 1949) k charakterizaci komunikační entropie systému zpráv. Ačkoli existuje úzká souvislost mezi matematickým zpracováním entropie a informací, přesná interpretace této skutečnosti byla od té doby zdrojem diskuse (Harremoës & Topsøe 2008; Bais & Farmer 2008).

4. Vývoj ve filosofii informací

Moderní teorie informací se objevily v polovině dvacátého století ve specifickém intelektuálním klimatu, ve kterém byla vzdálenost mezi vědami a částmi akademické filozofie poměrně velká. Někteří filozofové projevili specifický anti-vědecký přístup: Heidegger, „Die Wissenschaft denkt nicht. „Na druhé straně filozofové z Wiener Kreis zjevně zdiskreditovali tradiční filozofii jako řešení iluzorních problémů (Carnap 1928). Výzkumný program logického pozitivismu byl důslednou rekonstrukcí filozofie založenou na kombinaci empirismu a nedávných pokroků v logice. Pravděpodobně kvůli tomuto intelektuálnímu klimatu došlo k časným důležitým vývojům v teorii informací odděleně od tradiční filozofické reflexe. Dominantou je práce Dretského na počátku 80. let (Dretske 1981). Od přelomu století se zájem o filosofii informací značně zvýšil, do značné míry vlivem práce Luciana Floridiho na sémantické informace. Rychlý teoretický vývoj kvantového zpracování dat as ním spojená představa kvantové informace měly dopad na filosofickou reflexi.

4.1 Popper: Informace jako stupeň padělání

Výzkumný program logického pozitivismu Wiener Kreis v první polovině dvacátého století revitalizoval starší projekt empirismu. Jeho ambicí bylo rekonstruovat vědecké znalosti na základě přímých pozorování a logického vztahu mezi výroky o těchto pozorováních. Stará kritika Kant na empiricismus byla oživena Quine (1951). V rámci logického pozitivismu byla indukce neplatná a příčinná souvislost nemohla být objektivně stanovena. Ve svém Logik der Forschung (1934) Popper formuluje své známé demarkační kritérium a toto výslovně uvádí jako řešení Humeova problému indukce (Popper 1934 [1977: 42]). Vědecké teorie formulované jako obecné zákony nemohou být nikdy definitivně ověřeny, ale mohou být falšovány pouze jedním pozorováním. To znamená, že teorie je „více“vědecká, pokud je bohatší a poskytuje více příležitostí k padělání:

Lze tedy říci, že množství empirických informací zprostředkovaných teorií nebo její empirický obsah se zvyšuje se stupněm falšovatelnosti. (Popper 1934 [1977: 113], důraz v originále)

Tento citát v kontextu Popperova výzkumného programu ukazuje, že ambice měřit množství empirických informací ve vědecké teorii koncipované jako soubor logických prohlášení byla uznána jako filosofický problém více než deset let, než Shannon formuloval svou teorii informací. Popper si je vědom skutečnosti, že empirický obsah teorie souvisí s její falšovatelností a že to má zase vztah k pravděpodobnosti výroků v teorii. Teorie s více empirickými informacemi jsou méně pravděpodobné. Popper rozlišuje logickou pravděpodobnost od numerické pravděpodobnosti („která se používá v teorii her a náhod a ve statistikách“; Popper 1934 [1977: 119]). V pasáži, která je programová pro pozdější vývoj pojmu informace, definuje pojem logické pravděpodobnosti:

Logická pravděpodobnost tvrzení je komplementární k jeho falšovatelnosti: zvyšuje se s klesajícím stupněm falšovatelnosti. Logická pravděpodobnost 1 odpovídá stupni 0 falšovatelnosti a naopak. (Popper 1934 [1977: 119], důraz v originále)

Je možné interpretovat numerickou pravděpodobnost jako aplikaci na subsekvenci (vybranou z logického pravděpodobnostního vztahu), pro kterou lze definovat systém měření, na základě odhadů frekvence. (Popper 1934 [1977: 119], důraz v originále)

Popperovi se nikdy nepodařilo formulovat dobrou formální teorii k měření tohoto množství informací, ačkoli v pozdějších spisech navrhuje, že by Shannonova teorie informací mohla být užitečná (Popper 1934 [1977], 404 [Dodatek IX, z roku 1954]). Tyto záležitosti byly později vyvinuty ve filozofii vědy. Teorie konformačních studií indukční teorie a způsob, jakým důkazy „podporují“určitou teorii (Huber 2007 [OIR]). Ačkoli práce Carnapu motivovala důležitý vývoj jak ve filosofii vědy, tak ve filosofii informací, zdá se, že spojení mezi oběma disciplínami bylo ztraceno. V Kuipers (2007a) není zmínka o teorii informací ani o žádné další základní práci ve filosofii informací, ale obě disciplíny se určitě mají překrývající se oblasti. (Viz např.diskuse o tzv. Black Ravens Paradox od Kuipers (2007b) a Rathmanner & Hutter (2011).)

4.2 Shannon: Informace definované z hlediska pravděpodobnosti

Ve dvou orientačních dokumentech Shannon (1948; Shannon & Weaver 1949) charakterizoval komunikační entropii systému zpráv A:

[H (P) = - / sum_ {i / in A} p_i / log_2 p_i)

Zde (p_i) je pravděpodobnost zprávy i v A. Toto je přesně vzorec pro Gibbovu entropii ve fyzice. Použití logaritmů základny 2 zajišťuje, že se délka kódu měří v bitech (binární číslice). Je snadno vidět, že komunikační entropie systému je maximální, když všechny zprávy mají stejnou pravděpodobnost, a jsou tedy typické.

Množství informací I v jednotlivé zprávě x je dáno:

[I (x) = - / log p_x)

Tento vzorec, který lze interpretovat jako inverzi Boltzmannovy entropie, pokrývá řadu našich základních intuicí o informacích:

  • Zpráva x má určitou pravděpodobnost (p_x) mezi 0 a 1 výskytu.
  • Pokud (p_x = 1), pak (I (x) = 0). Pokud jsme si jisti, že dostaneme zprávu, doslova neobsahuje žádné „zprávy“na al. Čím je pravděpodobnost zprávy nižší, tím více informací obsahuje. Zdá se, že zpráva jako „Slunce zítra vstane“obsahuje méně informací než zpráva „Ježíš byl Caesar“přesně proto, že druhé tvrzení je mnohem méně pravděpodobné, že ho někdo bude bránit (i když to lze najít na webu).
  • Pokud dvě zprávy x a y nesouvisí, pak (I (x / textrm {a} y) = I (x) + I (y)). Informace jsou rozsáhlé. Množství informací ve dvou kombinovaných zprávách se rovná součtu množství informací v jednotlivých zprávách.

Informace jako negativní log pravděpodobnosti jsou jedinou matematickou funkcí, která přesně splňuje tato omezení (Cover & Thomas 2006). Shannon nabízí teoretický rámec, ve kterém lze binární řetězce interpretovat jako slova v (programovacím) jazyce obsahujícím určité množství informací (viz 3.1 Jazyky). Výraz (- / log p_x) přesně udává délku optimálního kódu pro zprávu x a jako takový formuje starou intuici, že kódy jsou účinnější, když častá písmena získají kratší reprezentace (viz 3.2 Optimální kódy). Logaritmy jako redukce multiplikace na sčítání (viz 3.3 Čísla) jsou přirozenou reprezentací rozsáhlých vlastností systémů a jako takové již byly používány fyziky v devatenáctém století (viz 3.4 Fyzika).

Jedním aspektem informací, které Shannonova definice výslovně nezahrnuje, je skutečný obsah zpráv interpretovaných jako návrhy. Takže výrok „Ježíš byl Caesar“a „Měsíc je vyroben ze zeleného sýra“může nést stejné množství informací, zatímco jejich význam je úplně jiný. Velká část úsilí ve filozofii informací byla zaměřena na formulaci sémantičtějších teorií informace (Bar-Hillel & Carnap 1953; Floridi 2002, 2003, 2011). Ačkoli Shannonovy návrhy zpočátku byly filozofy téměř úplně ignorovány, v minulé decennii se ukázalo, že jejich dopad na filozofické otázky je velký. Dretske (1981) byl jedním z prvních, který analyzoval filozofické důsledky Shannonovy teorie,přesný vztah mezi různými logickými systémy a teorií informací je však stále nejasný (viz 6.6 Logická a sémantická informace).

4.3 Solomonoff, Kolmogorov, Chaitin: Informace jako délka programu

Tento problém spojování souboru prohlášení se sadou pozorování a definování odpovídající pravděpodobnosti převzal Carnap (1945, 1950). Rozlišoval dvě formy pravděpodobnosti: Pravděpodobnost (_ 1) nebo „míra potvrzení“(P_1 (h; e)) je logický vztah mezi dvěma větami, hypotézou h a větou e vykazující řadu pozorování. Prohlášení tohoto typu jsou buď analytická nebo protichůdná. Druhá forma, Pravděpodobnost (_ 2) nebo „relativní frekvence“, je statistická koncepce. Podle slov jeho studenta Solomonoffa (1997):

Carnapův model pravděpodobnosti začal dlouhou sekvencí symbolů, která byla popisem celého vesmíru. Prostřednictvím své vlastní formální lingvistické analýzy dokázal a priori pravděpodobnosti přiřadit jakýkoli možný řetězec symbolů, které by mohly představovat vesmír.

Metoda přiřazování pravděpodobností, kterou Carnap použil, nebyla univerzální a silně závisla na použitých kódových systémech. Obecnou teorii indukce používající Bayesovo pravidlo lze vyvinout pouze tehdy, když můžeme „libovolnému řetězci“symbolů přiřadit univerzální pravděpodobnost. V novinách v roce 1960 byl Solomonoff (1960, 1964a, b) první, kdo načrtl nástin řešení tohoto problému. On formuloval představu o tom, co se nyní nazývá univerzální rozdělení pravděpodobnosti: považujte sadu všech možných konečných řetězců za programy pro univerzální Turingův stroj U a definujte pravděpodobnost řetězce x symbolů z hlediska délky nejkratšího programu p, který vydává x na U.

Tento pojem teorie algoritmických informací byl vynalezen nezávisle o něco později Kolmogorovem (1965) a Chaitinem (1969). Levin (1974) vyvinul matematický výraz univerzální a priori pravděpodobnosti jako univerzální (tj. Maximální) nižší polopočítatelný semimeasure M a ukázal, že negativní logaritmus (M (x)) se kryje s Kolmogorovovou složitostí x až do aditivního logaritmického termínu. Skutečná definice míry složitosti je:

Kolmogorovova složitost Algoritmická složitost řetězce x je délka (cal {l} (p)) nejmenšího programu p, který produkuje x, když běží na univerzálním Turingově stroji U, známý jako (U (p) = x):

[K (x): = / min_p {l (p), U (p) = x })

Algoritmická teorie informací (aka Kolmogorovova teorie složitosti) se vyvinula v bohatou oblast výzkumu se širokou škálou oblastí aplikací, z nichž mnohé jsou filozoficky relevantní (Li & Vitányi 1997):

  • Poskytuje nám obecnou teorii indukce. Použití Bayesova pravidla umožňuje moderní přeformulování Ockhamova břitvy z hlediska minimální délky popisu (Rissanen 1978, 1989; Barron, Rissanen & Yu 1998; Grünwald 2007) a minimální délky zprávy (Wallace 2005). Všimněte si, že Domingos (1998) argumentoval proti obecné platnosti těchto principů.
  • Umožňuje nám formulovat pravděpodobnosti a obsah informací pro jednotlivé objekty. Dokonce i jednotlivá přirozená čísla.
  • Představuje základy teorie učení jako komprese dat (Adriaans 2007).
  • Definuje náhodnost řetězce z hlediska nestlačitelnosti. To samo o sobě vedlo k zcela nové oblasti výzkumu (Niess 2009; Downey & Hirschfeld 2010).
  • To nám umožňuje formulovat objektivní a priori měřítko prediktivní hodnoty teorie z hlediska jejího náhodného deficitu: tj. Nejlepší teorie je nejkratší teorie, díky níž data vypadají náhodně podmíněně teorií. (Vereshchagin & Vitányi 2004).

Tam jsou také dolů-strany:

  • Algoritmická složitost je nesporná, i když v mnoha praktických případech může být aproximována a komerční kompresní programy se v některých případech blíží teoretickému optimu (Cilibrasi & Vitányi 2005).
  • Algoritmická složitost je asymptotické měřítko (tj. Dává hodnotu, která je správná až do konstanty). V některých případech je hodnota této konstanty pro praktické použití zakázána.
  • Ačkoli nejkratší teorie je vždy nejlepší, pokud jde o nedostatek náhodnosti, inkrementální komprese alt = "sep man icon" /> Jak citovat tento záznam.

    ikona sep muž
    ikona sep muž

    Náhled na PDF verzi tohoto příspěvku v Friends of the SEP Society.

    ikona inpho
    ikona inpho

    Vyhledejte toto vstupní téma v projektu Internet Philosophy Ontology Project (InPhO).

    ikona papíry phil
    ikona papíry phil

    Vylepšená bibliografie tohoto záznamu ve PhilPapers s odkazy na jeho databázi.

    Další internetové zdroje

    • Aaronson, Scott, 2006, Důvody k uvěření, Shtetl-Optimized blog post, 4. září 2006.
    • Adriaans, Pieter W., 2016, „Obecná teorie informací a výpočet“, nepublikovaný rukopis, listopad 2016, arXiv: 1611.07829.
    • Bekenstein, Jacob D., 1994, „Rozumíme entropii Black Hole Entropie?“, Plenární přednáška na zasedání Sedmého Marcela Grossmana na Stanfordské univerzitě., ArXiv: gr-qc / 9409015.
    • Churchill, Alex, 2012, Magic: The Gathering is Turing Complete.
    • Cook, Stephen, 2000, problém P versus NP, Clay Mathematical Institute; Problém ceny tisíciletí.
    • Huber, Franz, 2007, Potvrzení a indukce, vstup do internetové encyklopedie filozofie.
    • Sajjad, H. Rizvi, 2006, „Avicenna / Ibn Sina“, vstup do internetové encyklopedie filozofie.
    • Goodman, L. a Weisstein, EW, 2019, „hypotéza Riemanna“, z MathWorld - webový zdroj Wolfram.
    • Vyčíslitelnost - Co by to znamenalo vyvrátit Church-Turingovu disertační práci ?, diskuse o Teoretické informatice StackExchange.
    • Věta o počátečních číslech, Encyklopedie Britannica, 20. prosince 2010.
    • Hardwarový generátor náhodných čísel, položka Wikipedia, listopad 2018.

Doporučená: