Mennyit teszteljünk? 3. rész − a Bayes-becslésről

Mennyit teszteljünk? 3. rész − a Bayes-becslésről

Cikkünk első két részében azzal foglalkoztunk, hogy hány tesztelést kell végeznünk, ha adott pontossággal szeretnénk megállapítani, megbecsülni egy adott betegségben szenvedők arányát. Ehhez felidéztük a normális eloszlással való közelítést, a konfidenciaintervallum fogalmát, és bemutattuk a maximum-likelihood becslést, ami alátámasztotta azt a természetesnek tűnő becslési módszert, hogy az ismeretlen valószínűséget a bekövetkezett kísérletek arányával becsüljük. Ahogy azonban az alábbi kérdés rávilágít, még ennek az egyszerű módszernek is lehetnek hátrányai.

Kérdés. Tegyük fel, hogy egy oltás számunkra ismeretlen $p$ valószínűséggel okoz súlyos mellékhatást. Beoltottunk (a) $n=40$; (b) $n=400$; (c) $n=4000$ embert, közülük senkinél nem tapasztaltunk ilyet. Adjunk becslést $p$ értékére.

A korábban látott egyszerű módszerrel mindhárom esetben 0 adódik $p$ becslésére: a súlyos mellékhatás bekövetkezésének száma osztva az összes kipróbálás számával. Azonban világos, hogy a (c) esetben valójában sokkal több információnk van a $p$-ről, mint az (a) esetben. Kérdés, hogy ezt milyen módon tudjuk a becslésben kifejezni.

Egy lehetőség a konfidenciaintervallum, amikor például azt mondjuk, egy megfelelően választott $p_0$ számmal, hogy a megfigyeléseink alapján $p$ értéke legfeljebb $p_0$, és ezt $95\%$-os megbízhatósággal állítjuk, vagyis a tévedésünk valószínűsége legfeljebb $5\%$ (abban az értelemben, amit cikkünk 2. részében [2] fejtettünk ki részletesebben). Azonban itt sem mindegy, hogy milyen módszert használunk: a konfidenciaintervallumról egyrészt megállapítottuk, hogy éppen a kicsi vagy egyhez közeli $p$ értékek esetén nem jól használható (hiszen nem teljesülnek annak a közelítő módszernek a feltételei, amiből kiindultunk), másrészt középpontja szintén az előfordulások aránya, vagyis a 0, az pedig nem a legoptimálisabb, ha azt mondjuk, hogy a valószínűség például $-0{,}01$ és $0{,}01$ között van. Más módszerekkel erre a feladatra is lehet jó konfidenciaintervallumot készíteni [1], most azonban ennek ismertetése helyett egy, a korábbitól eltérő becslési módszert mutatunk be: a Bayes-becslést.

A Bayes-becslés nemcsak abban különbözik a korábban látott maximumlikelihood-módszertől, hogy bizonyos helyzetekben természetesebb eredményre vezet, hanem abban is, hogy lehetőséget ad az ismeretlen $p$ paraméterre vonatkozó előzetes, a priori információik beépítésére. Ami sok esetben előny, hiszen így pontosabb becslést kaphatunk, más szempontból viszont hátrány is: ha hibás volt az eredeti feltételezésünk, az a végeredményben is megmutatkozhat. Ez azonban nem csak a Bayes-becslés sajátja, hasonló jelenséggel a statisztika számos más módszerénél is találkozunk.

1. Diszkrét a priori eloszlás

Visszatérve az eredeti kérdésünkre, nézzünk egy egyszerű példát arra, hogy a $p$-re vonatkozó előzetes ismereteinket hogyan fogalmazhatjuk meg, és milyen becslést kapunk eredményül. A Bayes-módszer alapötlete az, hogy az ismeretlen paramétert is véletlennek tekinti, nem csak a megfigyeléseket, vagyis, a paraméterre vonatkozó előzetes információt úgy fejezi ki, hogy megmondja, hogy a paraméter egyes értékeit vagy értéktartományait mennyire tartja valószínűnek.

A példa kedvéért tegyük fel, hogy az előzetes információnk szerint a súlyos mellékhatás valószínűsége, vagyis $p$ egyenletes eloszlású a $[0,1]$ intervallumon, és tegyük fel azt is, hogy egyelőre $p$-nek csak a tizedesre kerekített értékére vagyunk kíváncsiak. Legyenek tehát $p$ lehetséges értékei 0, $0{,}1$, $0{,}2$, $\ldots$, $0{,}9$, és mindegyiknek $1/10$ a valószínűsége. Úgy is mondhatjuk, hogy a $p$ paraméter a priori eloszlása egyenletes eloszlás a 0, $0{,}1$, $0{,}2$, $\ldots$, $0{,}9$ számokon.

A kérdés (a) esetében $n=40$ ember közül egyiknél sem jelentkezett súlyos mellékhatás. Ha például $p=0{,}9$ lenne, akkor várhatóan $40\cdot 0{,}9=36$ embernél lép fel ilyen, annak valószínűsége, hogy senkinél nem jelentkezik, nagyon-nagyon kicsi: $0{,}1^{40}=10^{-40}$, ez nagyságrendileg annak valószínűségével egyezik meg, mint hogy öt egymást követő héten öttalálatosunk lesz a lottón. Ha viszont $p=0{,}1$, akkor már csak várhatóan 4 embernél lép fel súlyos mellékhatás, a 0 érték sem ennyire elképzelhetetlen: a 0 megfigyelés valószínűsége $0{,}9^{40}=0{,}015$, lényegesen nagyobb az előzőnél. Ez arra utal, hogy bár előzetesen azt feltételeztük, hogy a $0{,}1$ és $0{,}9$ egyformán valószínűek, a megfigyelések alapján ezt újragondolva a $0{,}1$-et sokkal valószínűbbnek gondolhatjuk, mint a $0{,}9$-et. Arról nem is beszélve, hogy a $p=0$ esetén biztos, hogy senkinél nem tapasztalunk súlyos mellékhatást, így ez még valószínűbbnek tűnik. A maximumlikelihood-módszer ez alapján az érvelés alapján meg is állna, és a lehetséges tíz érték közül a $p=0$-t választaná, hiszen ebben az esetben a legnagyobb annak valószínűsége, amit megfigyeltünk. A Bayes-módszer pedig pontosan kiszámítja, hogy a megfigyelések után melyik értéket mennyire tartjuk valószínűnek, méghozzá a feltételes valószínűség fogalma alapján. Hiszen bekövetkezett az az esemény, hogy 40 ember közül senkinél nem tapasztalunk súlyos mellékhatást, így az „új” valószínűségeket erre vonatkozóan, feltételes valószínűségként tudjuk leírni.

Legyen tehát $B$ az az esemény, hogy 40 ember közül senkinél nem volt súlyos mellékhatás, $A_k$ pedig az az esemény, hogy $p$ értéke $k/10$ (itt $k=0, 1, \ldots, 9$ a lehetséges értékek). Ekkor a

$\displaystyle \mathbb{P}(p=k/10\mid B)=\mathbb{P}(A_k\mid B)
$

feltételes valószínűség mondja meg, hogy a megfigyelések alapján a $k/10$ értéket mennyire tartjuk valószínűnek. A feltételes valószínűség definíciója (lásd például [3]) alapján:

$\displaystyle \mathbb{P}(A_k\mid B)=\frac{\mathbb{P}(A_k\cap B)}{\mathbb{P}(B)}...
...mid A_k)}{\mathbb{P}(B)}=\frac{\frac{1}{10}\cdot (1-k/10)^{40}}{\mathbb{P}(B)}.$ (1)

Itt a számláló annak a valószínűsége, hogy $p$ értéke $k/10$ és a 40 ember közül senkinél sem jelenkezett súlyos mellékhatás. Az előbbi valószínűsége $1/10$ volt minden lehetséges $k$ értékre az a priori eloszlás szerint, ha pedig $p=k/10$, akkor 40 független kísérletben $(1-k/10)^{40}$ annak a valószínűsége, hogy egyszer sem lép fel súlyos mellékhatás.

Kérdés, hogy a nevezőben $B$ valószínűségét hogyan írhatjuk fel. Vegyük észre, hogy ha $p$ értéke ismert, akkor annak valószínűségét, hogy $B$ bekövetkezik, könnyen ki tudtuk számolni. Vagyis a $\mathbb{P}(B\mid A_k)$ feltételes valószínűségeket meg tudtuk határozni. Mivel pedig az $A_k$ események közül pontosan az egyik következik be, és a valószínűségeiket is ismerjük, a teljes valószínűség tételét (lásd például [3]) alkalmazva:

$\displaystyle \mathbb{P}(B)=\mathbb{P}(B\mid A_0)\mathbb{P}(A_0)+\mathbb{P}(B\m...
...hbb{P}(B\mid A_2)\mathbb{P}(A_2)+\ldots+\mathbb{P}(B\mid A_9)\mathbb{P}(A_9)=
$
$\displaystyle =1\cdot 0{,}1+ 0{,}9^{40}\cdot 0{,}1+0{,}8^{40}\cdot 0{,}1+\ldots+0{,}1^{40}\cdot 0{,}1.
$
(2)

Ezt az (1) egyenlettel összevetve megkapjuk a $p$ lehetséges értékeinek a megfigyelések alapján számolt feltételes, a posteriori valószínűségét:

$\displaystyle \mathbb{P}(A_k\mid B)=\frac{(1-k/10)^{40}}{1+0{,}9^{40}+0{,}8^{40}+\ldots+0{,}1^{40}}.
$

Ugyanehhez jutottunk volna Bayes tételének alkalmazásával is, innen adódik a módszer neve. A számításokhoz visszatérve, például a $p=0{,}9$ feltételes valószínűsége arra vonatkozóan, hogy az $n=40$ ember közül senkinél nem jelentkezett súlyos mellékhatás:

$\displaystyle \mathbb{P}(p=0{,}9\mid B)=\mathbb{P}(A_9\mid B)=\frac{0{,}1^{40}}{1+0{,}9^{40}+0{,}8^{40}+\ldots+0{,}1^{40}}=9{,}9\cdot 10^{-41}.
$

Ugyanez $p=0{,}1$ esetén:

$\displaystyle \mathbb{P}(p=0{,}1\mid B)=\mathbb{P}(A_1\mid B)=\frac{0{,}9^{40}}{1+0{,}9^{40}+0{,}8^{40}+\ldots+0{,}1^{40}}=0{,}015.
$

Tehát, az, hogy a $B$ esemény bekövetkezése a $p=0{,}1$ érték esetén sokkal valószínűbb, mint $p=0{,}9$ esetén ($0{,}015$, illetve $10^{-40}$, ahogy korábban láttuk), azt eredményezi, hogy a $p=0{,}1$ érték megfigyelések utáni, a posteriori valószínűsége sokkal nagyobb, mint a $p=0{,}9$ értéké. Ilyen módon tudjuk újragondolni az egyes lehetséges értékek valószínűségéről alkotott elképzeléseinket a kísérletek elvégzése alapján – és ebben az esetben még csak az sem kellett, hogy a $p$-ről előzetesen nagyon pontos ismeretekkel rendelkezzünk.

1. ábra. A $p=0$, $0{,}1$, $\ldots$, $0{,}9$ értékek valószínűsége az előzetes elképzelés szerint, illetve arra feltételesen, hogy $n=40$, 400, 4000 kísérletből egyszer sem volt súlyos mellékhatás 

Kérdés, mi történik, ha a kísérletek számát növeljük, de továbbra is azt feltételezzük, hogy senkinél nem volt súlyos mellékhatás. Az 1. ábrán azt láthatjuk, hogy $n=40$, 400, 4000 esetén hogyan alakulnak ezek a valószínűségek. Mivel az értékek egymáshoz közeliek, nézzük meg ezt egy táblázat segítségével is. A táblázatban kerekített értékek szerepelnek, ha pedig $p\geq 0{,}4$, még ezeknél is kisebb értékeket kapunk. Összességében azt láthatjuk, hogy minél nagyobb a kísérletek száma, annál közelebb van a 0 a posteriori valószínűsége az 1-hez, és hogy 400 kísérlet elég ahhoz, hogy a $0{,}1$ és nagyobb értékek a posteriori valószínűsége elhanyagolhatóvá váljon.

\begin{displaymath}\begin{array}{lcccc}p & \text{a priori} & n=40 & n=400 & ......\0{,}3 & 0{,}1 & 6\cdot 10^{-7} & 10^{-62}& 0\end{array}\end{displaymath}

Egy másik, talán még fontosabb kérdés az, hogy mi történik, ha $p$ lehetséges értékeinek halmazát bővítjük. Eddig összesen 10-féle lehetőséget engedtünk meg, a táblázatból pedig arra következtethetünk, hogy a 0 sokkal valószínűbb, mint a $0{,}1$ vagy a még nagyobb értékek. Ehhez még a Bayes-becslés sem feltétlenül kellett volna, ha azonban több lehetséges értéket is megengedünk, akkor pontosabb információhoz is juthatunk.

Módosítsuk tehát az a priori eloszlást, úgy, hogy nem tizedekre, hanem századokra kerekített $p$ valószínűségeket hasonlíthassunk össze. A lehetséges értékek legyenek 0, $0{,}01$, $0{,}02$, $0{,}03$, $\ldots$, $0{,}99$, és továbbra is legyen mindegyiknek azonos, $1/100$ a valószínűsége az előzetes feltételezésünk szerint. Legyen most $A_k$ az az esemény, hogy a $p$ értéke $k/100$ (itt $k=0, 1, \ldots, 99$. A (2) egyenlethez hasonlóan, ha $n$ kísérletből egyik alkalommal sem lépett fel súlyos mellékhatás: 

$\displaystyle \mathbb{P}(A_k\mid B)=\frac{(1-k/100)^{n}}{1+0{,}99^{n}+0{,}98^{n}+\ldots+0{,}01^{n}}.$ (3)

Tehát ha például $n=40$ kísérletből egyszer sem volt súlyos mellékhatás, akkor

$\displaystyle \mathbb{P}(A_5\mid B)=\mathbb{P}(p=0{,}05\mid B)=\frac{0{,}95^{40}}{1+0{,}99^{40}+0{,}98^{40}+\ldots+0{,}01^{40}}.
$
Készítsünk ez alapján is ábrát az a posteriori valószínűségekről, a különböző mintaelemszámok esetén, illetve készítsük el ugyanezt század helyett ezred pontosságú skálán is (a számolás ugyanaz, csak az a priori eloszlás a 0, $0{,}001$, $0{,}002$, $\ldots$, $0{,}999$ ezer lehetséges értéknek ad azonos valószínűségeket).

 

 

2. ábra. Az egyes $p=0$, $0{,}01$, $0{,}02$, $\ldots$, $0{,}99$ (bal oldal), illetve $p=0$, $0{,}001$, $0{,}002$, $\ldots$, $0{,}999$ értékek valószínűsége az előzetes elképzelés szerint, illetve arra feltételesen, hogy $n=40$, 400, 4000 kísérletből egyszer sem volt súlyos mellékhatás

Ahogy a 2. ábrán látjuk, egyrészt, az a posteriori eloszlás szerint minden esetben a kisebb $p$-k lesznek nagyobb valószínűségűek. Ugyanakkor azt is láthatjuk, hogy a posteriori eloszlás függ az előzetes feltételezésünktől, vagyis attól, hogy eredetileg milyen lehetséges értékeket tekintettünk. Például ha $n=40$, akkor csak azt állapíthatjuk meg, hogy a $0{,}04$-nél nagyobb értékek nem túl valószínűek, ha $n=400$, akkor ez a $0{,}01$-nél nagyobb értékekre is elmondható – azzal valamennyire összhangban, hogy $n$ kísérletből nem várható, hogy $1/n$-nél nagyobb pontossággal meghatározzuk a kérdéses valószínűséget.

2. Folytonos a priori eloszlás

Az eddigi gondolatmenettel kapcsolatban felvetődik, hogy nem tudnánk-e előzetes és utólagos kerekítések nélkül becsülni $p$-t, tizedektől, századoktól függetlenül, hogy a kerekítésektől ne függjön az eloszlás.

Ehhez tegyük fel, hogy a súlyos mellékhatás kialakulásának $p$ valószínűségéről azt feltételezzük előzetesen, hogy egyenletes eloszlású a $[0,1]$ intervallumon. Ilyenkor tehát már végtelen sok lehetséges érték van, és például a korábban kiszámított $\mathbb{P}(p=0{,}05)$ valószínűségre nullát kapnánk, annak megfelelően, hogy előzetesen minden konkrét értéknek 0 a valószínűsége. Ha azonban újra megnézzük a (3) egyenletet, azt láthatjuk, hogy a jobb oldalának tudunk értelmet adni. A számlálóban annak valószínűsége szerepel, hogy feltéve, hogy $p$ értéke $k/100$, mennyi a valószínűsége, hogy az $n$ kísérletből egy sem következik be, ez nem más, mint $(1-p)^n$. A nevezőbe annak valószínűsége került, hogy az $n$ kísérletből egy sem következik be. Ezt a teljes valószínűség tételének egy általánosabb változata alapján írhatjuk fel, értéke (az előző összegek analógiájára) $\int_0^1 (1-y)^n dy$. Amit pedig megkapunk így, az nem más, mint az a posteriori sűrűségfüggvény:

$\displaystyle h(p)=\frac{(1-p)^n}{\int_0^1 (1-y)^n\,dy}=(n+1)(1-p)^n,
$

ha a nevezőben szereplő integrált is kiszámítjuk.

Ezt a következőre használhatjuk fel. Ha meg szeretnénk tudni, hogy egy $A\subseteq [0,1]$ (megfelelő) halmazba mennyi valószínűséggel esik $p$ értéke arra feltételesen, hogy $B$ bekövetkezett, vagyis nem volt súlyos mellékhatás egyik esetben sem, akkor így számolhatunk:

$\displaystyle \mathbb{P}(p\in A\mid B)=\int_A h(x)\,dx=(n+1)\cdot \int_A (1-x)^n\,dx.
$

 

3.ábra. Az a posteriori sűrűségfüggvények arra feltételesen, hogy $n=40$, 400, 4000 kísérletből egyszer sem volt súlyos mellékhatás

A $h(p)$ függvényeket $n=40$, 400 és 4000 kísérlet esetén a 3. ábrán láthatjuk. A sűrűségfüggvény nagy értékei jelzik azokat a tartományokat, ahova $p$ nagy valószínűséggel esik. Tehát az $n=40$ kísérlet elégnek tűnik ahhoz, hogy megállapítsuk, hogy $p$ nagy valószínűséggel nem több $8\%$-nál, de azt már nem mondhatjuk, hogy $p$ kisebb lesz, mint $2\%$, hiszen a sűrűségfüggvény alatti terület nagyjából fele a $2\%$-tól jobbra esik. Az $n=400$ kísérletből arra juthatunk, hogy $p$ nagy valószínűséggel 0 és $2\%$ között van, míg $n=4000$ esetén azt is mondhatjuk, hogy $p$ nagy valószínűséggel kisebb egy ezrednél, legalábbis az a posteriori eloszlás szerint.

3. A Bayes-becslés

Az eddigi számításokból a leglényegesebb még nem derült ki: mi is lesz a Bayes-becslés, vagyis az a szám, amiről azt állíthatjuk a megfigyeléseink alapján, hogy közel van a valódi $p$-hez, legalábbis valamilyen értelemben, például elég nagy valószínűséggel.

Most tehát végeredményképpen nem egy eloszlást és nem egy sűrűségfüggvényt szeretnénk, ami megmondja, hogy $p$ milyen tartományokba milyen valószínűségekkel esik, hanem egyetlen számot. Esetleg ezt a számot sorsolhatjuk véletlenül: mondhatjuk, hogy a $p$-nek olyan véletlen számot választunk, amit a $h(p)$ sűrűségfüggvény által leírt eloszlásból sorsolunk. Ez azonban még nem túlságosan stabil, az eljárást ismételve egészen más eredményeket kaphatunk. Ha azonban sokszor kisorsolnánk $p$-t a $h(p)$ sűrűségfüggvény által leírt eloszlásból, majd átlagot vennénk, az már egyetlen szám lenne, és stabil, a mintától függ, de további véletlenítéstől nem. A nagy számok törvényéből (lásd például: [3]) tudjuk, hogy az átlag az eloszlás várható értékéhez konvergál, ha a mintaelemszámmal végtelenhez tartunk, és megfelelő feltételek teljesülnek. Tehát, ha így gondolkodunk, akkor lényegében az a posteriori eloszlás várható értéke lesz a tippünk.

Ez valójában a leggyakrabban alkalmazott módszer a Bayes-becslésre, az a posteriori eloszlás alapján. Az átlagoláson kívül még egy érv szól mellette: be lehet látni, hogy ez a várható érték az a becslés, amely bizonyos értelemben minimalizálja a tippünk és az igazi érték távolságát. Ez a minimalizáló tulajdonság az, ami alapján a Bayes-becslést meg szokták határozni.

Lássuk, mit ad ez a konkrét esetekben. Az a posteriori sűrűségfüggvényből a szokásos módon számíthatjuk ki a várható értéket, ez lesz tehát becslésünk $p$-re:

$\displaystyle \hat p=\int_0^1 p\cdot h(p)\,dp=\int_0^1 p\cdot (n+1)(1-p)^n\,dp\stackrel{x=1-p}=
$
$\displaystyle =(n+1)\int_0^1 (1-x)x^n\,dx=(n+1)\left(\frac{1}{n+1}-\frac{1}{n+2}\right)= \frac{1}{n+2}.
$

Tehát ha $n$ független kísérletből egyszer sem következik be a súlyos mellékhatás, és a $[0,1]$ intervallumon egyenletes eloszlás az előzetes feltevés, akkor a súlyos mellékhatás valószínűségére adott becslésünk $1/(n+2)$. A korábban vizsgált esetekben ez így alakul:

\begin{displaymath}\begin{array}{lcccc}n & 40 & 400 & 4000\\ \hline\\ [-10pt]\hat p & 2{,}39\% & 0{,}249\% &0{,}025\%.\end{array}\end{displaymath}

Másképpen, ez azt is jelenti, hogy ha például azt szeretnénk bizonyítani, hogy a súlyos mellékhatás valószínűsége legfeljebb $0{,}025\%$, akkor legalább 4000 vizsgálatot kell végeznünk. Általában, ha a súlyos mellékhatás valószínűsége legfeljebb $q$ lehet, akkor legalább

$\displaystyle n=\frac 1q-2
$

vizsgálatra van szükség. Ugyanis ebből a szempontból az, hogy egyetlen esetben sem tapasztalunk mellékhatást, a lehető legjobb eset: ha néhány esetben mellékhatás következik be, akkor $\hat p$ értéke nagyobb lesz.

A számolás részleteit mellőzve, a fentihez hasonló érveléssel azt lehet belátni, hogy ha $n$ kísérletből $k$ esetben tapasztalunk súlyos mellékhatást, akkor

$\displaystyle \hat p=\frac{k+1}{n+2}.
$

Ahogy a bevezetésben említettük, ez a becslés függ az előzetes feltevésünktől is, vagyis az a priori eloszlástól. Erre is nézzünk egy példát. Eddig abból indultunk ki, hogy $p$ egyenletes eloszlású a $[0{,}1]$ intervallumon. Tegyük fel először, hogy előzetesen is sejtjük, hogy $p$ kicsi, az a priori sűrűségfüggvény legyen például $(r+1)(1-p)^r$, ahol $r\geq 0$ tetszőleges. Ez ugyanis a 0 körül nagyobb értékeket vesz fel, mint az 1 körül. Nézzünk meg azt is, hogy ha előzetesen éppen hogy rossz a feltevésünk, vagyis a 0 körüli értékek a kevéssé valószínűek, akkor mennyire „javul meg” a becslés a bayes-i módszerrel. Ehhez például legyen a priori sűrűségfüggvény $(r+1)p^r$.

\begin{displaymath}\begin{array}{lcccc}\text{a priori sűrűségfüggvény} ......} & \dfrac{r+1}{4000+r+2} & \dfrac{k+r+1}{n+r+2}\end{array}\end{displaymath}

Itt tehát az látható, hogy az előzetes feltevés lényeges hatással van a becslésre, a becsült értékek között nagyságrendi eltérést is láthatunk a $k=0$ esetben. A „tipikus” esetben persze az történik, hogy $n$ értékét növelve a bekövetkezett kísérletek száma, $k$ is növekszik, így ha $k$ és $n$ elég nagy $r$-hez képest, akkor a három érték már majdnem ugyanakkora lesz. Mindenesetre ez a példa is mutatja, hogy ha a minta nagyon másképpen viselkedik, mint azt az előzetes feltételezés szerint várnánk, akkor a Bayes-becslés megtévesztő eredményekre is vezethet: ha 40 kísérletből egy sem sikerül, a $19{,}6\%$ nem éppen a legjobb becslésnek tűnik a valószínűségre. Ugyanakkor az $n=4000$ kísérlet ahhoz már elég, hogy akkor is jónak mondható eredményt kapjunk, ha előzetesen kevés információnk volt $p$-ről, és egyenletes eloszlásúnak tételeztük fel.

4. Összefoglalás

Ahogy láttuk, a Bayes-becslés módszerében lényeges különbség a korábbiakhoz képest, hogy itt magát a paramétert is egy véletlen számnak tekintjük, és van egy előzetes elképzelésünk arról, hogy milyen értékeket milyen valószínűséggel vesz fel (diszkrét a priori eloszlás), illetve az egyes tartományokba milyen valószínűséggel esik (a priori sűrűségfüggvény). Amit kiszámítunk, az az, hogy ezek a valószínűségek hogyan alakulnak, ha a megfigyeléseinket mint feltételeket beépítjük (a posteriori eloszlás), így megkapjuk, hogy a megfigyelések alapján melyek lesznek a paraméter valószínű és kevéssé valószínű értékei, értéktartományai. Ha egyetlen számmal írjuk le a becslést, akkor ennek az eloszlásnak a várható értékét vesszük, ez adja a becslésünket, ami természetesen függ az előzetes feltételezéstől is. Minél pontosabb az előzetes feltételezésünk, annál kevesebb megfigyelés elég a pontos becsléshez, és fordítva, ha a mintaelemszám elég nagy, akkor egy nem túl pontos előzetes feltételezésből is jó eredményekhez juthatunk. A téma részletesebb megismerésében például a [4,5] könyvek segíthetnek.

Irodalomjegyzék

[1] Douglas Altman, David Machin, Trevor Bryant, Martin Gardner, Statistics with Confidence: Confidence Intervals and Statistical Guidelines. Second Edition, John Wiley & Sons, New York, 2000.

[2] Backhausz Ágnes, Simon L. Péter, Mennyit teszteljünk? 2. rész, Érintő, 2020. szeptember. https://ematlap.hu/tudomany-tortenet-2020-12/992-mennyit-teszteljunk-2-v3

[3] Csiszár Villő, Valószínűségszámítás 1. http://csvillo.web.elte.hu/mtval/jegyzet.pdf

[4] Allen B. Downey, Think Bayes: Bayesian Statistics in Python. First edition, O'Reilly, Sebastopol, 2012.

[5] Peter M. Lee, Bayesian Statistics: An Introduction. John Wiley & Sons, Chicester, 2012.

 Backhausz Ágnes
Eötvös Loránd Tudományegyetem, Matematikai Intézet