Bayesova Věta

Obsah:

Bayesova Věta
Bayesova Věta

Video: Bayesova Věta

Video: Bayesova Věta
Video: Как простая формула может упростить жизнь 2023, Prosinec
Anonim

Vstupní navigace

  • Obsah příspěvku
  • Bibliografie
  • Akademické nástroje
  • Náhled PDF přátel
  • Informace o autorovi a citaci
  • Zpět na začátek

Bayesova věta

První publikováno 28. června 2003; věcná revize Út 30. září 2003

Bayesova věta je jednoduchý matematický vzorec používaný pro výpočet podmíněných pravděpodobností. To prominentně figuruje v subjektivistických nebo bayesovských přístupech k epistemologii, statistice a induktivní logice. Subjektivisté, kteří tvrdí, že racionální víra se řídí zákony pravděpodobnosti, se ve svých teoriích důkazů a modelech empirického učení silně opírají o podmíněné pravděpodobnosti. Bayesova věta je pro tyto podniky ústřední, protože zjednodušuje výpočet podmíněných pravděpodobností a objasňuje významné rysy subjektivistického postavení. Ve skutečnosti je ústředním vhledem věty - že hypotéza je potvrzena každým souborem dat, které její pravda činí pravděpodobným - je základním kamenem veškeré subjektivistické metodologie.

  • 1. Podmíněné pravděpodobnosti a Bayesova věta
  • 2. Speciální formy Bayesovy věty
  • 3. Role Bayesovy věty v subjektivistických účtech důkazů
  • 4. Role Bayesovy věty v subjektivistických modelech učení
  • Bibliografie
  • Akademické nástroje
  • Další internetové zdroje
  • Související záznamy

1. Podmíněné pravděpodobnosti a Bayesova věta

Pravděpodobnost podmíněnosti hypotézy H na daném těle dat E je poměr bezpodmínečné pravděpodobnosti spojení hypotézy s daty k bezpodmínečné pravděpodobnosti samotných dat.

(1.1) Definice.
Pravděpodobnost H podmíněného na E je definována jako P E (H) = P (H & E) / P (E), za předpokladu, že existují oba podmínky tohoto poměru a P (E)> 0. [1]

Pro ilustraci předpokládejme, že J. Doe je náhodně vybraný Američan, který žil 1. ledna 2000. Podle Centra pro kontrolu nemocí Spojených států zemřelo během kalendářního roku 2000 zhruba 2,4 milionu z 275 milionů Američanů naživu k tomuto datu. Z přibližně 16,6 milionu starších občanů (ve věku 75 a více let) zemřelo asi 1,36 milionu. Bezpodmínečná pravděpodobnost hypotézy, že náš J. Doe zemřel během roku 2000, H, je pouze úmrtnost v celé populaci P (H) = 2,4M / 275M = 0,00873. Abychom zjistili pravděpodobnost úmrtí J. Doeho na základě informace, E, že on nebo ona byla seniorem, rozdělíme pravděpodobnost, že on nebo ona je senior, který zemřel, P (H & E) = 1,36M / 275M = 0,00495 pravděpodobností, že byl seniorem, P (E) = 16,6M / 275M = 0,06036. Pravděpodobnost úmrtí J. Doeho proto, že byl senior, je P E (H) = P (H & E) / P (E) = 0,00495 / 0,06036 = 0,082. Povšimněte si, jak velikost celkové populace ovlivňuje tuto rovnici, takže P E (H) je jen podíl seniorů, kteří zemřeli. Je třeba porovnat toto množství, které poskytuje úmrtnost seniorů, s "inverzní" pravděpodobnosti E podmíněné o H, P H (E) = P (H & E) / P (H) = 0,00495 / 0,00873 = 0,57, což je podíl úmrtí na celkové populaci, ke které došlo u seniorů.

Zde jsou některé přímé důsledky (1.1):

  • Pravděpodobnost. P E je pravděpodobnostní funkce. [2]
  • Logické důsledky. Pokud E znamená H, pak P E (H) = 1.
  • Zachování jistot. Jestliže P (H) = 1, pak P E (H) = 1.
  • Míchání. P (H) = P (E) P E (H) + P (~ E) P ~ E (H). [3]

Nejdůležitějším faktem o podmíněných pravděpodobnostech je bezpochyby Bayesova věta, jejíž význam byl poprvé oceněn britským duchovním Thomasem Bayesem v jeho posmrtně publikovaném mistrovském díle „Esej k řešení problému v doktríně šancí“(Bayes 1764). Věta Bayesův vztahuje na ‚přímé‘ pravděpodobnost hypotézy podmíněno daného útvaru dat, P E (H), na ‚inverzní‘ pravděpodobnosti dat podmíněno hypotézy, P H (E).

(1.2) Bayesova věta.
P E (H) = [ P (H) / P (E)] P H (E)

V nešťastné, ale nyní nevyhnutelné, výběru terminologie, statistici viz inverzní pravděpodobnosti P H (E) jako „pravděpodobnosti“H na E. Vyjadřuje, do jaké míry hypotéza předpovídá údaje uvedené základní informace kódované v pravděpodobnosti P.

Ve výše uvedeném příkladu je podmínkou, že J. Doe zemřel během roku 2000, dosti silný prediktor staršího občanství. Opravdu, rovnice P H (E) = 0,57 nám říká, že 57% z celkového počtu úmrtí došlo u seniorů, že rok. Bayesova věta nám umožňuje použít tyto informace k výpočtu „přímé“pravděpodobnosti úmrtí J. Doe vzhledem k tomu, že byl seniorem. Děláme to vynásobením „predikčního období“ P H (E) poměrem celkového počtu úmrtí v populaci k počtu seniorů v populaci, P (H) / P (E) = 2,4M / 16,6M = 0,144. Výsledkem je P E (H) = 0,57 × 0,144 = 0,082, přesně podle očekávání.

Ačkoli matematická trivialita, Bayesova věta má velkou hodnotu při výpočtu podmíněných pravděpodobností, protože inverzní pravděpodobnosti jsou obvykle snadnější zjistit a méně subjektivní než přímé pravděpodobnosti. Lidé s různými názory na bezpodmínečné pravděpodobnosti E a H často nesouhlasí s hodnotou E jako ukazatelem H. Přesto se mohou shodnout na míře, v jaké hypotéza předpovídá údaje, pokud znají některou z následujících intersubjektivně dostupných skutečností: a) objektivní pravděpodobnost E vzhledem k H, b) frekvence, s jakou se události jako E objeví jestliže H je pravda, nebo (c) skutečnost, že H logicky znamená E. Vědci často navrhují experimenty tak, aby pravděpodobnost byla známa jedním z těchto „objektivních“způsobů. Bayes 'Věta pak zajišťuje, že jakýkoli spor o významnosti experimentálních výsledků lze vysledovat k „subjektivním“neshodám o bezpodmínečných pravděpodobnostech H a E.

Když oba P H (E) a P ~ H (E), jsou známé jako experimentátor ani nemusí vědět, E je pravděpodobnost, aby bylo možno stanovit hodnotu P E (H) pomocí Bayesova věta.

(1.3) Bayesova věta (2. forma). [4]
P E (H) = P (H) P H (E) / [ P (H) P H (E) + P (+ H) P ~ H (E)]

V této domněnce je Bayesova věta zvláště užitečná pro odvozování příčin z jejich účinků, protože je často poměrně snadné rozeznat pravděpodobnost účinku vzhledem k přítomnosti nebo nepřítomnosti domnělé příčiny. Například lékaři často vyhledávají choroby známé prevalence pomocí diagnostických testů rozpoznané citlivosti a specificity. Citlivost testu, jeho „skutečná pozitivní“míra, je zlomkem případů, kdy pacienti s tímto onemocněním mají pozitivní test. Specifičnost testu, jeho „skutečná negativní“míra, je podíl zdravých pacientů, kteří testují negativní. Pokud necháme H být událostí daného pacienta, který má nemoc, a E bude událostí jejího pozitivního testování, pak test 's Citlivost a specifičnost jsou dány pravděpodobností P H (E) a P~ H (~ E), respektive "výchozí" prevalence onemocnění v populaci je P (H). Vzhledem k těmto vstupům o účincích nemoci na výsledek testu lze použít (1.3) ke stanovení pravděpodobnosti onemocnění při pozitivním testu. Podrobnější ilustrace tohoto procesu jsou uvedeny v příkladu 1 v doplňkovém dokumentu „Příklady, tabulky a nákresy“.

2. Speciální formy Bayesovy věty

Bayesova věta může být vyjádřena různými formami, které jsou užitečné pro různé účely. Jedna verze používá to, co Rudolf Carnap nazýval relevantním kvocientem nebo pravděpodobnostním poměrem (Carnap 1962, 466). Toto je faktor PR (H, E) = P E (H) / P (H), kterým musí být násobena bezpodmínečná pravděpodobnost H, aby byla její pravděpodobnost podmíněna E. Bayesova věta je ekvivalentem jednoduchého principu symetrie pro pravděpodobnostní poměry.

(1.4) Pravidlo pravděpodobnosti.
PR (H, E) = PR (E, H)

Termín vpravo poskytuje jedno měřítko míry, do jaké H předpovídá E. Považujeme-li P (e), exprimující „základní“předvídatelnost E dané informace o pozadí kodifikovány P, a P, H (E), jak je předvídatelnosti E je, když H se přidá k této situaci, pak PR (E, H) zachycuje míru, do jaké znalosti H činí E více nebo méně předvídatelným vzhledem k základní linii: PR (E, H) = 0 znamená, že H kategoricky predikuje ~ E; PR (E, H) = 1 znamená, že přidání H nezmění predikci základní linie vůbec; PR (E, H) = 1 / P (E) znamená, že H kategoricky predikuje E. Protože P(E)) = P T (E)), kde T je jakákoli pravda o logice, můžeme si myslet (1.4), že nám říká, že

Pravděpodobnost hypotézy podmíněná na souboru dat se rovná bezpodmínečné pravděpodobnosti hypotézy vynásobené stupněm, do kterého hypotéza překoná tautologii jako prediktor dat.

V našem příkladu J. Doe je PR (H, E) získána porovnáním předvídatelnosti postavení seniorů vzhledem k tomu, že J. Doe zemřel v roce 2000 s jeho předvídatelností, přičemž nebyly získány žádné informace o jeho úmrtnosti. Dělení bývalého "předpovídání termín" od druhých výnosů PR (H, E) = P H (E) / P (E) = 0,57 / 9,44 = 0.06036. Tedy, jako prediktor statutu seniorů v roce 2000, vědění, že J. Doe zemřel, je více než devětkrát lepší než nevědění, zda žila nebo zemřela.

Další užitečnou formou Bayesovy věty je Pravidlo kursů. V žargonu bookies, “šance” hypotézy je jeho pravděpodobnost dělená pravděpodobností jeho negace: O (H) = P (H) / P (~ H). Tak například, dostihový kůň, jehož šance na výhru konkrétní závod je 7-to-5 má 7 / 12 šanci na výhru a 5 / 12 pravděpodobnost ztráty. Abychom porozuměli rozdílu mezi pravděpodobností a pravděpodobnostmi, pomáhá myslet na pravděpodobnosti jako na zlomky vzdálenosti mezi pravděpodobností rozporu a tautologií, takže P (H) = p znamená, že H je p krát pravděpodobnější, že je pravdivá jako tautologie. Naproti tomu zápis O (H) = [ P(H) - P (F)] / [ P (T) - P (H)] (kde F je nějaký logický rozpor) objasňuje, že O (H) vyjadřuje stejné množství jako poměr množství, o které H Pravděpodobnost překračuje pravděpodobnost rozporu s částkou, o kterou je překročena tautologií. Rozdíl mezi „pravděpodobnostní řečí“a „pravděpodobnostní řečí“tedy odpovídá rozdílu mezi slovy „jsme tam dvě třetiny cesty“a slovy „šli jsme dvakrát tak daleko, jak ještě musíme jít“.

Analog pravděpodobnostního poměru je poměr šancí OR (H, E) = O E (H) / O (H), což je faktor, kterým musí být bezpodmínečné šance H vynásobeno, aby se dosáhlo jeho pravděpodobnosti podmíněné E. Bayesova věta je ekvivalentem následující skutečnosti o poměrech šancí:

(1.5) Pravidlo poměru kurzů.
Nebo (H, E) = P H (E) / P ~ H (E)

Všimněte si podobnosti mezi (1.4) a (1.5). Zatímco každý používá jiný způsob vyjádření pravděpodobností, každý ukazuje, jak lze jeho vyjádření pro H pravděpodobnost podmíněnou na E získat vynásobením jeho vyjádření pro H bezpodmínečnou pravděpodobnost faktorem zahrnujícím inverzní pravděpodobnosti.

Množství LR (H, E) = P H (E) / P ~ H (E), který se objevuje v (1.5) je poměr pravděpodobnost H vzhledem k tomu, E. V testovacích situacích, jako je situace popsaná v příkladu 1, je pravděpodobnostní poměr skutečnou pozitivní rychlostí testu dělenou jeho falešně pozitivní frekvencí: LR = senzitivita / (1 - specificita). Stejně jako v případě pravděpodobnostního poměru můžeme i v tomto případě konstruovat pravděpodobnostní poměr jako míru míry, do jaké H předpovídá E. Namísto porovnání pravděpodobnosti E dané H s její bezpodmínečnou pravděpodobností ji nyní porovnáme s její pravděpodobností podmíněnou ~ H. LR(H, E) je tedy míra, do jaké hypotéza překonává její negaci jako prediktor dat. Bayesova věta nám ještě jednou říká, jak promítnout podmíněné pravděpodobnosti do bezpodmínečných pravděpodobností a míry prediktivní síly.

Pravděpodobnost hypotézy podmíněná na souboru dat se rovná bezpodmínečné pravděpodobnosti hypotézy vynásobené stupněm, do kterého překoná její negaci jako prediktor dat.

V našem běžícím příkladu J. Doe se LR (H, E) získá porovnáním předvídatelnosti postavení seniorů, protože J. Doe zemřel v roce 2000 s jeho předvídatelností vzhledem k tomu, že žil rok. Dělení bývalého "předpovídání termín" od druhých výnosů LR (H, E) = P H (E) / P ~ H (E) = 0,57 / 0,056 = 10.12. Tedy, jako prediktor postavení seniorů v roce 2000, vědění, že J. Doe zemřel, je více než desetkrát lepší než vědomí, že žil.

Podobnosti mezi "pravděpodobnostním poměrem" a "pravděpodobnostním poměrem" verzí Bayesovy věty lze dále rozvíjet, pokud vyjádříme pravděpodobnost H jako násobek pravděpodobnosti nějaké jiné hypotézy H * pomocí funkce relativní pravděpodobnosti B (H, H *) = P (H) / P (H *). Mělo by být jasné, že B generalizuje jak P, tak O, protože P (H) = B (H, T) a O (H) = B (H, ~ H). Porovnáním podmíněných a nepodmíněných hodnot B získáme Bayesův faktor:

BR (H, H *, E) = B E (H, H *) / B (H, H *) = [ P E (H) / P E (H *)] / [ P (H) / P (H *)].

Můžeme také zobecnit poměr pravděpodobnosti nastavením LR (H, H *, e) = P H (E) / P H * (E). Toto porovnává předvídatelnost E na základě H s jeho předvídatelností na základě H *. Tyto dvě veličiny můžeme použít k formulaci ještě obecnější formy Bayesovy věty.

(1.6) Bayesova věta (obecná forma)
BR (H, H *; E) = LR (H, H *; E)

Zpráva (1.6) zní:

Poměr pravděpodobností pro dvě hypotézy podmíněné tělem dat je stejný jako poměr jejich bezpodmínečných pravděpodobností vynásobený stupněm, do kterého první hypotéza překoná druhou jako prediktor dat.

Různé verze Bayesovy věty se liší pouze s ohledem na funkce používané k vyjádření bezpodmínečných pravděpodobností (P (H), O (H), B (H)) a v termínu pravděpodobnosti používaném k reprezentaci predikční síly (PR (E, H), LR (H, E), LR (H, H *; E)). V každém případě je však základní zpráva stejná:

podmíněná pravděpodobnost = bezpodmínečná pravděpodobnost × prediktivní síla

(1.2) - (1.6) jsou multiplikativní formy Bayesovy věty, které používají rozdělení k porovnání rozdílů mezi bezpodmínečnými a podmíněnými pravděpodobnostmi. Někdy jsou tato srovnání nejlépe vyjádřena aditivně nahrazením poměrů rozdíly. Následující tabulka uvádí aditivní analog každého měřítka poměru.

stůl 1

Poměr Rozdíl

Pravděpodobnostní poměr

PR (H, E) = P E (H) / P (H)

Pravděpodobnostní rozdíl

PD (H, E) = P E (H) - P (H)

Kurzový poměr

OR (H, E) = O E (H) / O (H)

Rozdíl kurzů

OD (H, E) = O E (H) - O (H)

Bayesův faktor

BR (H, H *; E) = B E (H, H *) / B (H, H *)

Bayesův rozdíl

BD (H, H *; E) = B E (H, H *) - B (H, H *)

Pomocí Bayesovy věty můžeme získat aditivní analogy (1.4) - (1.6), které jsou zde zobrazeny spolu s jejich multiplikativními protějšky:

Tabulka 2

Poměr Rozdíl
(1.4) PR (H, E) = PR (E, H) = P H (E) / P (E) PD (H, E) = P (H) [ PR (E, H) - 1]
(1.5) Nebo (H, E) = LR (H, E) = P H (E) / P ~ H (E) OD (H, E) = O (H) [ OR (H, E) - 1]
(1.6) BR (H, H *, E) = LR (H, H *, E) = P H (E) / P H * (E) BD (H, H *; E) = B (H, H *) [ BR (H, H *; E) - 1]

Všimněte si, jak je každé aditivní měřítko získáno vynásobením bezpodmínečné pravděpodobnosti H, vyjádřené v příslušné stupnici, P, O nebo B, přidruženým multiplikačním opatřením sníženým o 1.

Přestože výsledky této části jsou užitečné pro každého, kdo zaměstnává pravděpodobnostní počet, mají zvláštní význam pro subjektivistické nebo „bayesovské“přístupy ke statistikám, epistemologii a induktivní inference. [5] Subjektivisté se těžce opírají o podmíněné pravděpodobnosti ve své teorii důkazní podpory a o svém empirickém učení. Vzhledem k tomu, že Bayesova věta je jediným nejdůležitějším faktem o podmíněných pravděpodobnostech, není vůbec překvapivé, že by se měla promítat do subjektivistické metodologie.

3. Role Bayesovy věty v subjektivistických účtech důkazů

Subjektivisté tvrdí, že víra přijít v různém odstupňování síly, a že tříděné víry ideálně rozumně uvažující člověk může být reprezentován subjektivní pravděpodobnostní funkce P. Pro každou hypotézu H, o které má osoba pevný názor, P (H) měří její úroveň důvěry (nebo „stupně víry“) v H pravdu. [6] Podmíněné přesvědčení jsou reprezentovány podmíněnými pravděpodobnostmi, takže P E (H) měří důvěru člověka v H za předpokladu, že E je skutečnost. [7]

Jedním z nejvlivnějších rysů subjektivistického programu je jeho důkazní podpora. Hlavní myšlenky této bayesovské teorie potvrzení jsou tyto:

  • Potvrzující relativita. Důkazní vztahy musí být relativizovány k jednotlivcům a jejich stupni víry.
  • Proporcionismus důkazů. [8] Racionální věřící přirovnává její důvěru v hypotézu H k jejímu celkovému důkazu pro H, takže její subjektivní pravděpodobnost H odráží celkovou rovnováhu jejích důvodů pro nebo proti její pravdě.
  • Přírůstkové potvrzení. [9] Soubor údajů poskytuje pro H přírůstkové důkazy, pokud podmíněnost údajů zvyšuje pravděpodobnost H.

První zásada říká, že prohlášení o vztazích mezi důkazy vždy implicitně odkazují na lidi a jejich míru víry, takže např. „E je důkaz pro H“by se měl skutečně číst jako „E je důkaz pro H ve vztahu k informacím zakódovaným v subjektivní pravděpodobnost P.

Podle proporcionality důkazů by se úroveň důvěry subjektu v H měla lišit přímo podle síly jejích důkazů ve prospěch pravdy H. Podobně by se její úroveň důvěry v H podmíněná E měla lišit přímo v závislosti na síle jejího důkazu pro pravdu H, když je tento důkaz rozšířen předpokladem E. Je věcí nějaké pochoutky říci přesně to, co představuje důkazy osoby [10], a vysvětlit, jak by měla být její víra „přiměřená“. Myšlenka, že přírůstkové důkazy se projevují v rozdílech mezi podmíněnými a bezpodmínečnými pravděpodobnostmi, má smysl, pouze pokud rozdíly v subjektivní pravděpodobnosti odrážejí rozdíly v celkovém důkazu.

Položka dat poskytuje subjektu přírůstkové důkazy pro nebo proti hypotéze do té míry, že příjem dat zvyšuje nebo snižuje její celkový důkaz pro pravdivost hypotézy. Při pravděpodobnosti měření celkového důkazy, přírůstek důkazů, že E poskytuje pro H je otázkou rozdílů mezi P E (H) a P (H). Pokud se používají kurzy, jedná se o rozdíl mezi O E (H) a O (H). Viz příklad 2 v doplňkovém dokumentu „Příklady, tabulky a náčrtky důkazů“, který ilustruje rozdíl mezi celkovými a přírůstkovými důkazy a vysvětluje „základní omyl“, který může vyplynout z nedostatečného řádného rozlišení těchto dvou.

Bude užitečné rozlišit dva podpůrné pojmy související s úplnými důkazy.

  • Čistým důkazem ve prospěch H je míra, do jaké celkový důkaz subjektu ve prospěch H překračuje její celkový důkaz ve prospěch ~ H.
  • Rovnováha celkových důkazů pro H oproti H * je míra, do které celkový důkaz subjektu ve prospěch H překračuje její celkový důkaz ve prospěch H *.

Přesný obsah těchto pojmů bude záviset na tom, jak jsou celkové důkazy chápány a měřeny, a na tom, jak jsou charakterizovány rozdíly v celkových důkazech. Například, pokud je celkový důkaz uveden z hlediska pravděpodobností a disparit je považováno za poměry, pak čistý důkaz pro H je P (H) / P (~ H). Pokud je celkový důkaz vyjádřen jako pravděpodobnost a rozdíly jsou použity k vyjádření disparit, pak čistý důkaz pro H bude O (H) - O (~ H). Čtenáři mohou nahlédnout do tabulky 3 (v dodatkovém dokumentu), kde je uveden úplný seznam možností.

Jak tyto poznámky objasňují, lze interpretovat O (H) buď jako měřítko čistého důkazu, nebo jako měřítko celkového důkazu. Chcete-li vidět rozdíl, představte si, že 750 červených koulí a 250 černých koulí bylo nakresleno náhodně a s náhradou z urny, o které je známo, že obsahuje 10 000 červených nebo černých koulí. Za předpokladu, že toto je náš jediný důkaz o obsahu urny, je rozumné nastavit P (červená) = 0,75 a P(~ Červená) = 0,25. Při čtení pravděpodobnosti-jako-celkem-důkazů tato přiřazení odrážejí jak skutečnost, že máme velké množství důkazů ve prospěch Red (konkrétně, že 750 z 1 000 remíz bylo červené), a skutečnost, že máme také nějaké důkazy proti tomu (jmenovitě, že 250 losování bylo černé). Čistým důkazem pro Red je pak rozdíl mezi našimi celkovými důkazy pro Red a našimi celkovými důkazy proti Red. To lze vyjádřit mnohokrát tím, že řekneme, že jsme viděli třikrát tolik červených tahů než černé tahy, což znamená, že O (červená) = 3. Alternativně můžeme použít O(Červená) jako míra celkového důkazu tím, že náš důkaz, že červená bude poměr červeného a černého losování, spíše než celkový počet červených tahů, a náš důkaz, že ~ červená je poměr černých koulí k červené koule, spíše než celkový počet černých losování. Zatímco rozhodnutí, zda použít O jako měřítko jako celek nebo čistý důkaz, má malý vliv na otázky o absolutním množství celkového důkazu pro hypotézu (protože O (H) je rostoucí funkcí P (H)), může však hlavní rozdíl, když člověk zvažuje přírůstkové změny v celkových důkazech způsobených úpravou na nové informace.

Filozofové, kteří se zajímají o charakterizaci správných vzorců indukčního uvažování a o poskytování „racionálních rekonstrukcí“vědecké metodologie, se obvykle zaměřují na přírůstkové důkazy, které jsou pro jejich podnikání zásadní. Když vědci (nebo obyčejní lidé) říkají, že E podporuje nebo potvrzuje H, co obecně znamenají, že učení pravdy E zvýší celkové množství důkazů pro pravdu H. Protože subjektivisté charakterizují úplný důkaz z hlediska subjektivních pravděpodobností nebo šancí, analyzují přírůstkové důkazy z hlediska změn těchto veličin. Z těchto pohledů je nejjednodušší způsob, jak charakterizovat sílu přírůstkových důkazů, provedením ordinálního srovnání podmíněných a bezpodmínečných pravděpodobností nebo šancí.

(2.1) Srovnávací účet přírůstkových důkazů.
Relativní k subjektivní pravděpodobnostní funkci P,

  • E postupně potvrzuje (nesouhlasí, je irelevantní) H, a to pouze tehdy, když P E (H) je větší než (menší než, rovno) P (H).
  • H dostává větší přírůstek (nebo menší pokles) důkazní podpory od E než od E *, a to pouze tehdy, když P E (H) překročí P E * (H).

Obě tyto ekvivalence zůstávají s pravděpodobností nahrazeny kurzy. Tato část subjektivistické teorie důkazů tedy nezávisí na tom, jak se měří celkový důkaz.

Bayesova věta pomáhá osvětlit obsah bodu (2.1) objasněním, že status E jako přírůstkového důkazu pro H je vylepšen do té míry, že H předpovídá E. Toto pozorování slouží jako základ pro následující závěry o přírůstkovém potvrzení (které platí tak dlouho, dokud 1> P (H), P (E)> 0).

(2.1a) Pokud E postupně potvrzuje H, pak H postupně potvrzuje E.
(2.1b) Pokud E postupně potvrzuje H, pak E postupně odmítá ~ H.
(2.1c) Pokud H znamená E, pak E postupně potvrzuje H.
(2.1d) Pokud P H (E) = P H (E *), pak H přijímá více přírůstkové podporu z E, než z E * tehdy a jen tehdy, pokud E je bezpodmínečně méně pravděpodobný než E *.
(2.1e) Zásada slabé pravděpodobnosti. E poskytuje důkaz pro inkrementální H právě tehdy, když P H (E)> P ~ H (E). Obecněji řečeno, je-li P H (E)> P H * (E), a P ~ H (~ E) ≥ P ~ H * (~ E), potom E poskytuje další důkaz pro přírůstkové H než pro H *.

(2.1a) nám říká, že přírůstkové potvrzení je věcí vzájemného posílení: osoba, která vidí E jako důkaz pro H, investuje větší důvěru v možnost, že oba výroky jsou pravdivé, než v kteroukoli možnost, kterou získá pouze jeden.

(2.1b) říká, že relevantní důkazy musí být schopny rozlišovat mezi pravdou a nepravdivostí testované hypotézy.

(2.1c) poskytuje subjektivistické zdůvodnění hypoteticko-deduktivního modelu potvrzení. Podle tohoto modelu jsou hypotézy postupně potvrzeny jakýmkoli důkazem, který s sebou nese. Zatímco subjektivisté odmítají myšlenku, že vztahy důkazů lze charakterizovat způsobem nezávislým na víře - Bayesovské potvrzení je vždy relativizováno k osobě a jejím subjektivním pravděpodobnostem - snaží se zachovat základní vhled do HD modelu poukazem na to, že hypotézy jsou postupně podporovány důkazem, který znamenají pro každého, kdo se dosud nerozhodl o hypotéze nebo důkazu. Přesněji, pokud H znamená E, pak P E (H) = P (H) / P (E), která přesahuje P (H), kdykoli 1> P (E), P (H)> 0. To vysvětluje, proč se vědci tak často snaží navrhovat experimenty, které odpovídají paradigmatu HD. I když jsou vztahy důkazů relativizovány na subjektivní pravděpodobnosti, pokusy, ve kterých testovaná hypotéza zahrnuje data, budou považovány za zjevně relevantní kdokoli, kdo se dosud nerozhodl o hypotéze nebo datech. Stupeň přírůstkového potvrzení se bude u lidí lišit v závislosti na jejich předchozí úrovni důvěry v H a E, ale všichni se shodnou na tom, že data postupně hypotézu alespoň do určité míry podporují.

Subjektivisté se dovolávají (2.1d), aby vysvětlili, proč vědci tak často považují nepravděpodobné nebo překvapivé důkazy za více potvrzujícího potenciálu, než je důkaz, který je znám. I když není obecně pravda, že nepravděpodobné důkazy mají více potvrzující potenciál, je pravda, že přírůstková potvrzovací síla E vůči H se mění inverzně s E nepodmíněnou pravděpodobností, když hodnota inverzní pravděpodobnosti P H(E) je držen pevně. Pokud H znamená jak E, tak E *, řekněme, pak Bayesova věta znamená, že nejméně pravděpodobné z těchto dvou podporuje H silněji. Například, i když jsou srdeční infarkty vždy doprovázeny silnou bolestí na hrudi a dušností, bývá první příznak mnohem lepším důkazem srdečního infarktu než ten druhý jednoduše proto, že těžká bolest na hrudi je mnohem méně běžná než dušnost.

(2.1e) zachycuje jednu základní zprávu Bayesovy věty pro teorie potvrzení. Řekněme, že H je jednotně lepší než H * jako prediktor hodnoty pravdy E, když (a) H předpovídá E silněji než H * a b) ~ H předpovídá ~ E silněji než ~ H *. Podle principu slabé pravděpodobnosti jsou hypotézy, které jsou jednotně lepšími prediktory dat, lépe podporovány daty. Například skutečnost, že malý Johnny je křesťan, je lepším důkazem toho, že jeho rodiče jsou křesťané, než že si myslí, že jsou hinduisté, protože (a) mnohem vyšší podíl křesťanských rodičů než hinduů mají křesťanské děti, a (b) mnohem vyšší podíl nekřesťanských rodičů než ne-hinduistických rodičů mají nekřesťanské děti.

Bayesova věta může být také použita jako základ pro vývoj a vyhodnocení kvantitativních opatření důkazní podpory. Výsledky uvedené v tabulce 2 znamenají, že všechny čtyři funkce PR, OR, PD a OD se vzájemně shodují na nejjednodušší otázce potvrzení: Poskytuje E přírůstkové důkazy pro H?

(2.2) Důsledek.
Každý z následujících je ekvivalent k tvrzení, že E poskytuje přírůstkové důkazy ve prospěch H: PR (H, E)> 1, OR (H, E)> 1, PD (H, E)> 0, OD (H, E)> 0.

Všechna čtyři opatření tedy souhlasí se srovnávacím účtem dílčích důkazů uvedených v bodě 2.1.

Vzhledem k celé této dohodě by nemělo být překvapivé, že PR (H, E), OR (H, E) a PD (H, E) byly navrženy jako opatření stupně přírůstkové podpory, kterou E stanoví pro H. [11] Zatímco OD(H, E) nebyl za tímto účelem navržen, budeme to zvažovat z důvodů symetrie. Někteří autoři tvrdí, že jedna nebo druhá z těchto funkcí je jedinečným správným měřítkem přírůstkových důkazů; jiní považují za nejlepší použít celou řadu opatření, která zachycují různé důkazní vztahy. I když to není místo pro rozhodování o těchto otázkách, můžeme se podívat na Bayesovu teorém o pomoc při pochopení toho, co různé funkce měří, a při charakterizaci formálních vztahů mezi nimi.

Všechna čtyři opatření se ve svých závěrech shodují na srovnávacím množství dílčích důkazů, že různé položky údajů poskytují pevnou hypotézu. Zejména se shodují na následujících koncepcích odvozených z přírůstkových důkazů:

  • Efektivní přírůstek důkazů [12], který E stanoví pro H, je částka, o kterou přírůstkový důkaz, který E stanoví pro H, převyšuje přírůstkový důkaz, který ~ E stanoví pro H.
  • Rozdíl v přírůstkovém důkazu, že E a E * poskytují H, je částka, o kterou přírůstkový důkaz, který E poskytuje H, převyšuje přírůstkový důkaz, který E * poskytuje H.

Efektivní důkaz je otázkou míry, do jaké celkový důkaz o H u člověka závisí na jejím názoru na E. Když jsou P E (H) a P ~ E (H) (nebo O E (H) a O ~ E (H)) daleko od sebe, víra osoby o E má velký vliv na její víru o H: z jejího hlediska Pokud jde o otázky týkající se pravdivosti hodnoty H, značně se hodně opírá o pravou hodnotu E. Velký rozdíl v přírůstkových důkazech mezi E a E * nám říká, že učení E zvyšuje celkový důkaz subjektu o H o větší množství než učení E *. Čtenáři mohou nahlédnout do tabulky 4 (v dodatku) pro kvantitativní měřítka účinných a odlišných důkazů.

Druhá věta odstavce (2.1) nám říká, že E poskytuje více přírůstkových důkazů než E * pro H pouze v případě, že pravděpodobnost H podmíněného na E překračuje pravděpodobnost H podmíněného na E *. Je to tedy jednoduchý krok, který ukazuje, že všechna čtyři opatření přírůstkové podpory se shodují v otázkách efektivního důkazu a rozdílu v přírůstkovém důkazu.

(2.3) Důsledek.

Pro všechny H, E * a E s pozitivní pravděpodobností jsou následující:

  • E poskytuje více přírůstkových důkazů než E * pro H
  • PR (H, E)> PR (H, E *)
  • NEBO (H, E)> NEBO (H, E *)
  • PD (H, E)> PD (H, E *)
  • OD (H, E)> OD (H, E *)

Čtyři míry přírůstkové podpory mohou nesouhlasit s porovnávacím stupněm, v jakém jediná položka dat postupně potvrzuje dvě odlišné hypotézy. Příklad 3, Příklad 4 a Příklad 5 (v dodatku) ukazují různé způsoby, jak k tomu může dojít.

Všechny rozdíly mezi opatřeními se nakonec týkají (a) toho, zda by měl být celkový důkaz ve prospěch hypotézy měřen z hlediska pravděpodobnosti nebo z hlediska pravděpodobnosti, a (b) zda rozdíly v celkovém důkazu lze nejlépe zachytit jako poměry nebo jako rozdíly. Řádky v následující tabulce odpovídají různým měřítkům celkového důkazu. Sloupce odpovídají různým způsobům řešení rozdílů.

Tabulka 5: Čtyři míry dílčích důkazů

Poměr Rozdíl
P = celkem PR (H, E) = P E (H) / P (H) PD (H, E) = P E (H) - P (H)
O = Celkem OR (H, E) = O E (H) / O (H) OD (H, E) = O E (H) - O (H)

Podobné tabulky lze sestavit pro míry čistých důkazů a pro měření zůstatků v celkové evidenci. Viz tabulka 5A v dodatku.

Můžeme použít různé formy Bayesovy věty k objasnění podobností a rozdílů mezi těmito opatřeními tím, že přepíšeme každou z nich podle poměrů pravděpodobnosti.

Tabulka 6: Čtyři míry vyjádřené poměry pravděpodobnosti

Poměr Rozdíl
P = celkem PR (H, E) = LR (H, T; E) PD (H, E) = P (H) [ LR (H, T; E) - 1]
O = Celkem OR (H, E) = LR (H, ~ H; E) OD (H, E) = O (H) [ LR (H, ~ H; E) - 1]

Tato tabulka ukazuje, že existují dva rozdíly mezi každým multiplikačním měřítkem a jeho doplňkovým protějškem. Zaprvé, pravděpodobnost, která se objevuje v daném multiplikativním měřítku, je snížena o 1 v přidruženém aditivním měřítku. Za druhé, v každém aditivním měřítku je snížená doba pravděpodobnosti násobena výrazem pro pravděpodobnost H: P (H) nebo O (H), podle okolností. První rozdíl neznamená žádný rozdíl; je to způsobeno pouze skutečností, že multiplikativní a aditivní opatření používají jiný nulový bod, od kterého se měří důkaz. Pokud se usadíme v bodě pravděpodobnostní nezávislosti P E (H) = P (H) jako přirozená společná nula, a odečteme 1 od každé multiplikativní míry,[13] se pak v obou sloupcích objeví ekvivalentní termíny pravděpodobnosti.

Skutečný rozdíl mezi měrami v daném řádku se týká vlivu bezpodmínečných pravděpodobností na vztahy přírůstkového potvrzení. V pravém sloupci je stupeň, ve kterém E poskytuje přírůstkové důkazy pro H, přímo úměrný H pravděpodobnosti vyjádřené v jednotkách P (T) nebo P (~ H). V levém sloupci, H je pravděpodobnost, nezáleží na množství důkazů, že kumulativní E zajišťuje H jednou P H (E) a buď P (E) nebo P ~ H (E) jsou pevné. [14] Ve světle Bayesovy věty se tedy rozdíl mezi měřícím poměrem a potom měří na jednu otázku:

Poskytuje daný údaj větší přírůstek důkazní podpory pro pravděpodobnější hypotézu než pro méně pravděpodobnou hypotézu, když obě hypotézy předpovídají data stejně dobře?

Odlišné míry odpovídají ano, poměrové míry odpovídají ne.

Bayesova věta nám také může pomoci pochopit rozdíl mezi řadami. Opatření v daném řádku se shodují na úloze předvídatelnosti v přírůstkovém potvrzení. V horním řádku přírůstkové důkaz, že E stanoví H zvyšuje lineárně s P H (E) / P (E), zatímco ve spodní řadě lineárně se zvyšuje s P H (E) / P ~ H (E). Tedy, když pravděpodobnosti měří celkový důkaz, na čem záleží, je to, do jaké míry H překračuje T jako prediktor E, ale když šance měří celkový důkaz, je na tom stupeň, do kterého H překračuje ~ H jako prediktor E.

Hlavní problém se zde týká stavu pravděpodobnosti. I když každý souhlasí s tím, že by měl hrát vedoucí roli v jakékoli kvantitativní teorii důkazů, existují protichůdné názory na přesně to, jaký důkazní vztah zachycuje. Existují tři možné interpretace.

Tabulka 7: Tři interpretace pravděpodobnosti

Pravděpodobnost jako úplné čtení důkazů
  • PR (H, E) měří přírůstkovou změnu v celkovém důkazu.
  • LR (H, E) měří přírůstkovou změnu čisté evidence.
  • LR (H, H *, E) měří přírůstkovou změnu v důkazní bilanci, kterou E stanoví H nad H *
Kurzy jako celkové čtení důkazů
  • LR (H, E) měří přírůstkové změny v celkovém důkazu.
  • LR (H, E) 2 měří přírůstkovou změnu čisté evidence.
  • LR (H, H *; E) / LR (~ H, ~ H *; E) měří přírůstkovou změnu v důkazní bilanci, kterou E poskytuje H nad H *.
"Pravděpodobnost" čtení
  • Ani P ani O neměří celkový důkaz, protože důkazní vztahy jsou v podstatě srovnávací; vždy zahrnují vyváženost důkazů.
  • LR (H, E) měří vyváženost důkazů, že E stanoví H nad H *.
  • LR (H, H *; E) měří rovnováhu důkazů, že E poskytuje H oproti H *.

V prvním čtení neexistuje žádný konflikt mezi používáním pravděpodobnostních poměrů a používáním poměrů pravděpodobnosti k měření důkazů. Jakmile si vyjasníme rozdíly mezi celkovými důkazy, čistými důkazy a vyvážením důkazů, uvidíme, že každý z PR (H, E), LR (H, E) a LR (H, H *; E) měří důležitý důkazní vztah, ale vztahy, které měří, jsou důležitě odlišné.

Pokud šance měří celkový důkaz, nehraje PR (H, E) ani LR (H, H *; E) zásadní roli v teorii důkazů. Změny v pravděpodobnostním poměru pro H dané E ukazují pouze na změny přírůstkových důkazů v přítomnosti informace o změnách v pravděpodobnostním poměru pro ~ H dané E. Podobně změny v poměru pravděpodobnosti pro H a H * dané E naznačují pouze změny v bilanci důkazů ve světle informací o změnách v poměru pravděpodobnosti pro ~ H a ~ H * dané E. Ačkoli každá z těchto dvou funkcí může tedy figurovat jako jedna složka ve smysluplné míře potvrzení, ani nám nic neříká o přírůstkových důkazech, když je přijata sama.

Třetí pohled, „pravděpodobnost“, je populární mezi ne-bayesovskými statistiky. Jeho zastánci popírají proporcionalitu důkazů. Tvrdí, že subjektivní pravděpodobnost osoby pro hypotézu pouze odráží její míru nejistoty ohledně její pravdy; nemusí být nijak vázána na množství důkazů, které má ve svůj prospěch. [15] Je to poměr pravděpodobnosti, nikoli subjektivní pravděpodobnosti, který zachycuje „vědecky smysluplné“důkazní vztahy. Zde jsou dvě klasická vyjádření pozice.

Všechny informace, které údaje poskytují o relativních výhodách dvou hypotéz, jsou obsaženy v poměru pravděpodobnosti hypotéz na datech. (Edwards 1972, 30)

Evidenční význam experimentálních výsledků je plně charakterizován funkcí pravděpodobnosti… Zprávy o experimentálních výsledcích ve vědeckých časopisech by v zásadě měly být popisy funkcí pravděpodobnosti. (Brinbaum 1962, 272)

Z tohoto pohledu je vše, co lze říci o důkazním dovozu E pro H, ztělesněno v následující zobecnění zásady slabé pravděpodobnosti:

„Zákon o pravděpodobnosti“. Pokud H znamená, že pravděpodobnost E je x, zatímco H * znamená, že pravděpodobnost E je x *, pak E je důkaz podporující H nad H * tehdy a pouze tehdy, když x překročí x *, a poměr pravděpodobnosti x / x *, měří sílu této podpory. (Hacking 1965, 106-109), (Royall 1997, 3)

Biostatista Richard Royall je obzvláště přehledným obhájcem pravděpodobnosti (Royall 1997). Tvrdí, že každá vědecky přijatelná koncepce důkazů musí analyzovat důkazní dopad E na H pouze z hlediska pravděpodobnosti; neměla by inzerovat na bezpodmínečné pravděpodobnosti E nebo H. To by mělo být proto, že pravděpodobnosti jsou jak známější, tak objektivnější než bezpodmínečné pravděpodobnosti. Royall tvrdě argumentuje proti myšlence, že přírůstkové důkazy lze měřit z hlediska rozdílu mezi bezpodmínečnými a podmíněnými pravděpodobnostmi. Zde je podstata jeho stížnosti:

Vzhledem k tomu, že [ LR (H, H *; E)] měří podporu jedné hypotézy H ve vztahu ke konkrétní alternativě H *, bez ohledu na předchozí pravděpodobnost těchto dvou hypotéz nebo na to, jaké další hypotézy by mohly být rovněž brány v úvahu, zákon změny pravděpodobnosti [měřeno pomocí PR(H, E)] měří podporu H ve vztahu ke konkrétní předchozí distribuci přes H a jeho alternativy … Zákon o změně pravděpodobnosti má ve vědecké diskurzi omezenou užitečnost, protože je závislý na předchozím rozdělení pravděpodobnosti, které je obecně neznámé a / nebo osobní. Přestože se s vámi shodneme (na základě zákona o pravděpodobnosti), že dané důkazy podporují H nad H * a H ** nad H a H *, můžeme se neshodnout, zda jde o důkazy podporující H (na základě zákon o změně pravděpodobnosti) čistě na základě našich různých úsudků a priori pravděpodobnosti H, H * a H **. (Royall 1997, 10-11, s malými změnami v zápisu)

Royall tvrdí, že ani pravděpodobnostní poměr, ani pravděpodobnostní rozdíl nezachytí druh objektivních důkazů vyžadovaných vědou, protože jejich hodnoty závisí na „subjektivních“termínech P (E) a P (H), a nejen na „objektivních“pravděpodobnostech P H (E) a P ~ H (E).

Zda bude s tímto hodnocením souhlasit, bude záležitostí filosofického temperamentu, zejména jeho ochoty tolerovat subjektivní pravděpodobnosti v účtu důkazních vztahů. Rozhodující bude také záviset na tom, do jaké míry je člověk přesvědčen, že pravděpodobnosti jsou známější a objektivnější než běžné subjektivní pravděpodobnosti. Případy, jaké jsou uvedeny v zákoně o pravděpodobnosti, kde hypotézy deduktivně znamenají určitou pravděpodobnost údajů, jsou relativně vzácné. Pokud tedy člověk není ochoten přijmout teorii důkazů s velmi omezeným rozsahem použití, hodně se obrátí na to, jak snadné je určit objektivní pravděpodobnost v situacích, kdy prediktivní spojení mezi hypotézou a datem je výsledkem induktivního závěry. Jeden však přijde na tyto otázky,nelze však popřít, že pravděpodobnostní poměry budou hrát ústřední roli v každém pravděpodobnostním důkazu.

Princip slabé pravděpodobnosti (2.1e) ve skutečnosti obsahuje minimální formu bayesianismu, se kterou se mohou všechny strany dohodnout. To je nejjasnější, když je přepracováno z hlediska pravděpodobnosti.

(2.1e) Zásada slabé pravděpodobnosti. (vyjádřeno jako poměr pravděpodobnosti)
Pokud LR (H, H *; E) ≥ 1 a LR (~ H, ~ H *; ~ E) ≥ 1, s jednou striktní nerovností, pak E poskytne více přírůstkových důkazů pro H než pro H * a ~ E poskytuje více přírůstkové důkazy pro ~ H než pro ~ H *.

Pravděpodobnost bude podporovat (2.1e), protože vztahy popsané v jeho předchůdcích závisí pouze na inverzních pravděpodobnostech. Zastáncové interpretace „pravděpodobnosti“i „šance“celkového důkazu budou akceptovat (2.1e), protože uspokojení jeho předchůdce zajistí, že kondicionování na E zvyšuje pravděpodobnost H a její šance striktně více než u H *. Zásada slabé pravděpodobnosti musí být nedílnou součástí každého důkazu o důležitosti, který si zaslouží titul „Bayesiánský“. Popírat to znamená nepochopit ústřední poselství Bayesovy věty pro otázky důkazu: konkrétně, že hypotézy jsou potvrzeny údaji, které předpovídají. Jak uvidíme v následující části, tato „minimální“forma bayesianismu se významně podílí na subjektivistických modelech učení se ze zkušenosti.

4. Role Bayesovy věty v subjektivistických modelech učení

Subjektivisté považují učení za proces revize víry, ve kterém je „předchozí“subjektivní pravděpodobnost P nahrazena „zadní“pravděpodobností Q, která zahrnuje nově získané informace. Tento proces probíhá ve dvou fázích. Zaprvé, některé pravděpodobnosti předmětu jsou přímo pozměněny zkušenostmi, intuicí, pamětí nebo jiným neinferenčním procesem učení. Za druhé, předmět „aktualizuje“zbytek svých názorů, aby je uvedl do souladu se svými nově nabytými znalostmi.

Mnoho subjektivistů je spokojeno s tím, že prvotní změny víry považují za sui generis a nezávislé na dřívějším názoru věřícího. Dokud však bude první fáze procesu učení chápána jako nepodstatná, lze subjektivismus učinit slučitelným s „externalistickou“epistemologií, která umožňuje kritizovat změny víry, pokud jde o spolehlivost kauzálních procesů, které je vytvářejí. Může dokonce vyhovět myšlence, že přímý účinek zážitku může kauzálně záviset na předchozí pravděpodobnosti věřícího.

Subjektivisté podrobně studovali druhou, inferenciální fázi procesu učení. Zde se okamžité změny víry považují za uložení omezení formy „zadní pravděpodobnost Q“má takové a takové vlastnosti. “Cílem je zjistit, jaké druhy omezení omezení má tendence vynucovat, a vysvětlit, jak lze předchozí názory člověka použít k ospravedlnění volby zadní pravděpodobnosti z mnoha, které by mohly uspokojit Subjektivisté přistupují k posledně uvedenému problému tím, že předpokládají, že agent je oprávněn přijmout jakékoli způsobilé zadní pozadí, které se odchyluje minimálně od jejích předchozích názorů. Je to druh požadavku „bez skoků k závěrům“. Zde to vysvětlujeme jako přirozený výsledek myšlenka, že racionální žáci by měli své víry úměrné síle důkazů, které získají.

Nejjednodušší zkušenosti s učením jsou ty, ve kterých se studentka ujišťuje o pravdě nějaké výroky E, o které byla dříve nejistá. Zde platí omezení, že všem hypotézám neslučitelným s E musí být přiřazena pravděpodobnost nula. Subjektivisté modelují tento druh učení jako jednoduchou kondici, proces, ve kterém je předchozí pravděpodobnost každého výroku H nahrazena zadní stranou, která se kryje s předchozí pravděpodobností H podmíněnou na E.

(3.1) Jednoduché kondicionování
Pokud má osoba s „předchozí“takovou zkušeností, že 0 < P (E) <1, má zkušenost s učením, jejímž jediným okamžitým účinkem je zvýšení její subjektivní pravděpodobnosti pro E na 1, měla by její post-learningová „posteriorie“pro jakoukoli nabídku H být být Q (H) = P E (H).

Stručně řečeno, racionální věřící, který se učí s jistotou, že E je pravda, by měl tuto informaci zahrnout do svého doxastického systému tím, že ji upraví.

Ačkoli je to užitečné jako ideální, jednoduché kondicionování není široce použitelné, protože vyžaduje, aby se student naprosto spolehl na pravdu E. Jak argumentoval Richard Jeffrey (Jeffrey 1987), důkaz, který dostáváme, je často příliš vágní nebo nejednoznačný, aby ospravedlnil takový „dogmatismus“. Na realističtějších modelech bude přímým účinkem studijní zkušenosti změna subjektivní pravděpodobnosti nějakého výroku, aniž by byl zvýšen na 1 nebo snížen na 0. Zkušenosti tohoto druhu jsou vhodně modelovány podle toho, co se nazývá Jeffreyova kondice (ačkoli Jeffrey je preferovaný termín je “kinematika pravděpodobnosti”).

(3.2) Jeffrey kondicionování
Pokud má osoba s takovým předešlým, že 0 < P (E) <1, má zkušenost s učením, jejímž jediným okamžitým účinkem je změna její subjektivní pravděpodobnosti pro E na q, pak její post-learningové pozadí pro jakékoli H by mělo být Q (H) = q P E (H) + (1 - q) P ~ E (H).

Jeffreyova kondice se samozřejmě redukuje na jednoduchou kondici, když q = 1.

V literatuře lze nalézt řadu argumentů pro kondicionování (jednoduchých nebo Jeffreyových), ale nemůžeme je zde zvažovat. [16] Existuje však jeden druh ospravedlnění, ve kterém Bayesova věta figuruje prominentně. Využívá spojení mezi revizí víry a představou přírůstkových důkazů, aby ukázala, že kondicionování je jediným pravidlem revize víry, které umožňuje studentům správně proporcí své zadní víry k novým důkazům, které dostávají.

Klíč k argumentu spočívá ve sňatku „minimální“verze bayesovského jazyka vyjádřeného v (2.1e) s velmi skromným „proporčním“požadavkem na pravidla revize víry.

(3.3) Zásada slabých důkazů
Pokud, v porovnání s předchozím P, E poskytne přinejmenším tolik přírůstkových důkazů pro H jako pro H *, a pokud H je předběžně pravděpodobnější než H *, pak by H měla zůstat pravděpodobnější než H * po jakékoli studijní zkušenosti, jejíž bezprostřední bezprostřední je zvýšení pravděpodobnosti E.

To vyžaduje, aby si agent zachoval své názory na relativní pravděpodobnost dvou hypotéz, když získá důkaz, který podporuje pravděpodobnější hypotézu silněji. Vylučuje zjevně iracionální revize víry, jako je tato: George je přesvědčen, že New York Yankees vyhraje americkou ligu, než že je to, že ji vyhraje Boston Rex Sox, ale obrátí se, když se dozví (pouze), že Yankees porazil Red Sox ve včerejší hře.

Kombinace (3.3) s minimálním Bayesianismem přináší následující:

(3.4) Následek
Pokud je předchozí osoba taková, že LR (H, H *; E) ≥ 1, LR (~ H, ~ H *; ~ E) ≥ 1 a P (H)> P (H *), pak jakákoli zkušenost s učením jejichž jediným okamžitým účinkem je zvýšení její subjektivní pravděpodobnosti E, by mělo vyústit v posterior, takže Q (H)> Q (H *).

Za rozumného předpokladu, že Q je definováno na stejném souboru propozic, nad nimiž je P definováno, postačuje tato podmínka k výběru jednoduchého kondicionování jako jedinečné správné metody revize víry pro učící se zkušenosti, které E jistou. Vyberá Jeffreyovu kondici jako jedinečnou správnou metodu, když učení pouze mění něčí subjektivní pravděpodobnost E. Argument pro tyto závěry využívá následující dvě fakta o pravděpodobnostech.

(3.5) Lemma
Pokud H a H * oba znamenají E, když P (H)> P (H *), pak LR (H, H *; E) = 1

a LR (~ H, ~ H *; ~ E)> 1.

Nákres náčrtu
(3.6) Lemma
Jednoduché kondicionování na E je jediné pravidlo pro revizi subjektivních pravděpodobností, které dávají zadní s následujícími vlastnostmi pro všechny předchozí takové, že P (E)> 0:

  1. Q (E) = 1.
  2. Pořadová podobnost. Pokud H a H * znamenají E, pak P (H) ≥ P (H *)

    pouze tehdy, když Q (H) ≥ Q (H *).

Nákres náčrtu

Odtud je argumentem pro jednoduchou úpravu otázka použití (3.4) a (3.5) k určení ordinální podobnosti. Předpokládejme, že H a H * znamenají E a že P (H)> P (H *). Z bodu (3.5) vyplývá, že LR (H, H *; E) = 1 a LR (~ H, ~ H *; ~ E)> 1. (3.4) pak znamená, že každá zkušenost s učením, která zvyšuje pravděpodobnost E, musí být výsledkem je zadní s Q (H)> Q (H *). Tak, Q a P jsou ordinally podobné, pokud jde o hypotézy, které znamenají atom vodíku. Pokud budeme dále předpokládat, že zkušenost s učením zvyšuje pravděpodobnost E na 1, pak (3.6) pak zaručuje, že Q vychází z P jednoduchou úpravou na E.

Případ pro Jeffreyovu kondici je podobně přímý. Protože argument pro pořadovou podobnost vůbec nezávisel na předpokladu, že Q (E) = 1, jsme skutečně prokázali

(3.7) Důsledek
• Pokud H a H * znamenají E, pak P (H)> P (H *) pouze tehdy, pokud Q (H)> Q (H *).
• Pokud H a H * znamenají ~ E, pak P (H)> P (H *) pouze tehdy, pokud Q (H)> Q (H *).

Takže, Q je běžně podobný P jak, když je omezen na hypotézy, které zahrnují E, a když je omezen na hypotézy, než znamenající ~ E. Navíc, protože dělení kladnými čísly nenarušuje pořadové vztahy, z toho také vyplývá, že Q E je běžně podobná P, pokud je omezena na hypotézy, které znamenají E, a že Q ~ E je běžně podobná P, pokud je omezena na hypotézy, než vyžaduje ~ E. Protože Q E (E) = 1 = Q ~ E (E), (3.6) pak znamená:

(3.8) Následek
Pro každou nabídku H, Q E (H) = P E (H) a Q ~ E (H) = P ~ E (H)

Je snadné ukázat, že (3.8) je nezbytné a dostatečné pro to, aby Q vzešlo z P Jeffreyovým kondicionováním na E. S výhradou omezení Q (E) = q zaručuje, že Q (H) = q P E (H) + (1 - q) P ~ E (H).

Obecná morálka je jasná.

Základní Bayesovský vhled ztělesněný v principu slabé pravděpodobnosti (2.1e) znamená, že jednoduché a Jeffreyovo podmínění na E je jediným racionálním způsobem, jak revidovat přesvědčení v reakci na zkušenost s učením, jehož jediným okamžitým účinkem je změnit pravděpodobnost E.

I když lze o jednoduchém podmínění, Jeffreyově podmíněnosti a dalších formách revize víry říci mnohem více, tyto poznámky by měly čtenáři dát smysl pro Bayesovu teorém v subjektivních záznamech o učení a důkazní podpoře. Ačkoli je matematická trivialita, centrální věta věty - že hypotéza je podporována jakýmkoli souborem dat, které poskytuje, je jádrem všech subjektivistických přístupů k epistemologii, statistice a induktivní logice.

Bibliografie

  • Armendt, B. 1980. „Existuje nizozemský knižní argument pro pravděpodobnostní kinematiku?“, Philosophy of Science 47, 583-588.
  • Bayes, T. 1764. „Esej k řešení problému v doktríně šancí“, filozofické transakce Královské společnosti v Londýně 53, 370-418. [Fascimile k dispozici online: originální esej s úvodem od jeho přítele Richarda Pricea]
  • Birnbaum A. 1962. „O základech statistických inferencí“, Journal of American Statistical Association 53, 259-326.
  • Carnap, R. 1962. Logické základy pravděpodobnosti, 2. vydání. Chicago: University of Chicago Press.
  • Chihara, C. 1987. "Některé problémy pro Bayesovskou teorii potvrzení", British Journal for the Philosophy of Science 38, 551-560.
  • Christensen, D. 1999. "Measuring Evidence", Journal of Philosophy 96, 437-61.
  • Dale, AI 1989. "Thomas Bayes: A Memorial", The Mathematical Intelligencer 11, 18-19.
  • ----- 1999. Historie inverzní pravděpodobnosti, 2. vydání. New York: Springer-Verlag.
  • Earman, J. 1992. Bayes nebo Bust? Cambridge, MA: MIT Press.
  • Edwards, AWF 1972. Pravděpodobnost. Cambridge: Cambridge University Press.
  • Glymour, Clarku. 1980. Teorie a důkaz. Princeton: Princeton University Press.
  • Hacking, Iane. 1965. Logika statistického odvozování. Cambridge: Cambridge University Press.
  • Hájek, A. 2003. "Interpretace pravděpodobnostního počtu", ve Stanfordské encyklopedii filosofie, (vydání Summer 2003), Edward N. Zalta (ed.), URL =
  • Hammond, P. 1994. "Elementární nearchitejská reprezentace pravděpodobnosti pro teorii a hry rozhodování," v P. Humphreys, ed., Patrick Suppes: Scientific Philosopher, sv. 1, Dordrecht: Kluwer Publishers, 25-62.
  • Harper, W. 1976. „Racionální změna víry, funkce Poppera a kontrafaktuály“, W. Harper a C. Hooker, ed., Základy teorie pravděpodobnosti, statistické odvození a statistické teorie vědy, sv. Já. Dordrecht: Reidel, 73-115.
  • Hartigan, JA 1983. Bayesova teorie. New York: Springer-Verlag.
  • Howson, Coline. 1985. "Některé nedávné námitky k Bayesovské teorii podpory", British Journal for the Philosophy of Science, 36, 305-309.
  • Jeffrey, R. 1987. „Alias Smith a Jones: Svědectví smyslů“, Erkenntnis 26, 391-399.
  • ----- 1992. Pravděpodobnost a umění soudu. New York: Cambridge University Press.
  • Joyce, JM 1999. Základy teorie příčinných rozhodnutí. New York: Cambridge University Press.
  • Kahneman, D. a Tversky, A. 1973. „O psychologii predikce“, Psychological Review 80, 237-251.
  • Kaplan, M. 1996. Teorie rozhodování jako filozofie. Cambridge: Cambridge University Press.
  • Levi, I. 1985. "Nepřesnost a neurčitost v soudním řízení ", Filozofie vědy 53, 390-409.
  • Maher, P. 1996. "Subjektivní a objektivní potvrzení", Philosophy of Science 63, 149-174.
  • McGee, V. 1994. "Učení nemožné," v E. Eells a B. Skyrms, ed., Pravděpodobnost a podmíněné. New York: Cambridge University Press, 179-200.
  • Mortimer, Halina. 1988. Logika indukce, Ellis Horwood Series v Artificial Intelligence, New York; Halsted Press.
  • Nozick, R. 1981. Filozofické vysvětlení. Cambridge: Harvard University Press.
  • Renyi, A. 1955. „O nové axiomatické teorii pravděpodobnosti“, Acta Mathematica Academiae Scientiarium Hungaricae 6, 285-335.
  • Royall, R. 1997. Statistické důkazy: paradigma pravděpodobnosti. New York: Chapman & Hall / CRC.
  • Skyrms, B. 1987. „Dynamická koherence a pravděpodobnostní kinematika“. Philosophy of Science 54, 1-20.
  • Sober, E. 2002. „Bayesianismus - jeho rozsah a limity“, Swinburne (2002), 21-38.
  • Sphon, W. 1986. "Reprezentace popperových opatření", Topoi 5, 69-74.
  • Stigler, SM 1982. "Bayesian Inference Thomase Bayese", Journal of Royal Statistical Society, series A 145, 250-258.
  • Swinburne, R. 2002. Bayesova věta. Oxford: Oxford University Press (publikováno pro Britskou akademii).
  • Talbot, W. 2001. "Bayesovská epistemologie", Stanfordská encyklopedie filozofie (podzim 2001 vydání), Edward N. Zalta (ed.), URL =
  • Teller, P. 1976. "Podmínění, pozorování a změna preferencí", v W. Harper a CA Hooker, ed., Základy teorie pravděpodobnosti, statistické odvození a statistické teorie vědy. Dordrecht: D. Reidel.
  • Williamson, T. 2000. Znalosti a její limity. Oxford: Oxford University Press.
  • Van Fraassen, B. 1999. „Nový argument pro podmínění“. Topoi 18, 93-96.

Akademické nástroje

ikona sep muž
ikona sep muž
Jak citovat tento záznam.
ikona sep muž
ikona sep muž
Náhled na PDF verzi tohoto příspěvku v Friends of the SEP Society.
ikona inpho
ikona inpho
Vyhledejte toto vstupní téma v projektu Indiana Philosophy Ontology Project (InPhO).
ikona papíry phil
ikona papíry phil
Vylepšená bibliografie tohoto záznamu ve PhilPapers s odkazy na jeho databázi.

Další internetové zdroje

  • Fitelson, B. 2001. Studium v Bayesovské teorii konfirmace, Ph. D. Disertační práce, University of Wisconsin. [Předtisk v PDF k dispozici online] (750 kB ke stažení)
  • Originální esej Bayes (v PDF) (Oddělení statistik UCLA / Historie statistiky)
  • Krátká biografie Thomase Bayese (University of St. Andrews, MacTutor History of Mathematics Archive)
  • Mezinárodní společnost pro bayesovskou analýzu (ISBA)

Doporučená: