๋ณธ๋ฌธ ๋ฐ”๋กœ๊ฐ€๊ธฐ

Statistics

(30)
๋ฒ ์ด์ง€์•ˆ ์„ ํ˜• ํšŒ๊ท€(Bayesian linear regression) R์˜ car ํŒจํ‚ค์ง€์˜ Leihardt ๋ฐ์ดํ„ฐ๋ฅผ ์ด์šฉํ•˜์—ฌ ๋ฒ ์ด์ง€์•ˆ ์„ ํ˜• ํšŒ๊ท€(Bayesian linear regression) ๋ถ„์„์„ ์ˆ˜ํ–‰ํ•  ๊ฒƒ์ด๋‹ค. ์ˆ˜ํ–‰ ๊ณผ์ •์€ ๋‹ค์Œ๊ณผ ๊ฐ™๋‹ค. 1. ๋ฐ์ดํ„ฐ ํ™•์ธ 2. ๋ชจ๋ธ๋ง 3. ๋ชจ๋ธ ํ™•์ธ 4. ์ž”์ฐจ ๋ถ„์„ 1. ๋ฐ์ดํ„ฐ ํ™•์ธ In: library(car) data('Leinhardt') pairs(Leinhardt) Out: โ–ท Leihardt ๋ฐ์ดํ„ฐ๋Š” ์—ฐ์†ํ˜• ๋ณ€์ˆ˜์ธ income, infant, region๊ณผ ๋ฒ”์ฃผํ˜• ๋ณ€์ˆ˜์ธ oil๋กœ ๊ตฌ์„ฑ๋˜์–ด ์žˆ๋‹ค. โ–ท income๊ณผ infant๊ฐ€ ๋น„์„ ํ˜•์ ์ธ ๊ด€๊ณ„๋ฅผ ๋‚˜ํƒ€๋‚ด๊ณ  ์žˆ๋Š” ๊ฒƒ์„ ํ™•์ธํ•  ์ˆ˜ ์žˆ๋‹ค. ์„ ํ˜•๋ชจ๋ธ์€ ๊ธฐ๋ณธ์ ์œผ๋กœ ๋ณ€์ˆ˜๊ฐ„ ์„ ํ˜•๊ด€๊ณ„๋ฅผ ๊ฐ€์ •ํ•˜๊ธฐ ๋•Œ๋ฌธ์— ๋‘ ๋ณ€์ˆ˜์— ๋กœ๊ทธ๋ฅผ ์ทจํ•˜์—ฌ ๋ณ€ํ˜•ํ•  ๊ฒƒ์ด๋‹ค. In: Leinhardt$log_income ..
MCMC(Markov Chain Monte-Carlo)์˜ ์ˆ˜๋ ด(Convergence) MCMC(Markov Chain Monte-Carlo)๋ฅผ ํ†ตํ•ด ์ƒ์„ฑํ•œ ๋ฐ์ดํ„ฐ๋ฅผ ํ™œ์šฉํ•˜๊ธฐ ์œ„ํ•ด์„œ๋Š” ๋งˆ๋ฅด์ฝ”ํ”„ ์ฒด์ธ(Markov Chain)์ด ์ •์ƒ์ƒํƒœ(Stationary)์— ์ˆ˜๋ ด(Convergence)ํ•ด์•ผ ํ•œ๋‹ค. ์ด๋ฅผ ํ™•์ธํ•˜๊ณ  ๋‹ค๋ฃจ๋Š” ๋ฐฉ๋ฒ•์— ๋Œ€ํ•ด ๋‹ค๋ฃฐ ๊ฒƒ์ด๋‹ค. 1. Trace plot 2. ์ž๊ธฐ์ƒ๊ด€์„ฑ(Autocorrelation) 3. ์ดˆ๊ธฐ ๋‹จ๊ณ„(Burn-in period) 1. Trace plot MCMC์˜ ์ˆ˜๋ ด์„ ํ™•์ธํ•˜๋Š” ๊ฐ€์žฅ ์ง๊ด€์ ์ธ ๋ฐฉ๋ฒ•์€ ๋ฐ์ดํ„ฐ์˜ ์ƒ์„ฑ ๊ณผ์ •์„ ์ง์ ‘ ๊ทธ๋ฆผ์œผ๋กœ ๋‚˜ํƒ€๋‚ด๋Š” ๊ฒƒ์ด๋‹ค. ์‹œํ–‰ํšŸ์ˆ˜์— ๋”ฐ๋ฅธ ์ƒ์„ฑ๋œ ๋ฐ์ดํ„ฐ์˜ ๋ถ„ํฌ๋ฅผ ํ†ตํ•ด ์ด๋ฅผ ํ™•์ธํ•  ์ˆ˜ ์žˆ๋‹ค. In: log_g
๊น์Šค ์ƒ˜ํ”Œ๋ง(Gibbs sampling) ๊น์Šค ์ƒ˜ํ”Œ๋ง(Gibbs sampling)์— ๋Œ€ํ•ด ์•Œ์•„๋ณผ ๊ฒƒ์ด๋‹ค. ๋‹ค๋ฃฐ ๋‚ด์šฉ์€ ๋‹ค์Œ๊ณผ ๊ฐ™๋‹ค. 1. ๊น์Šค ์ƒ˜ํ”Œ๋ง 2. ๊น์Šค ์ƒ˜ํ”Œ๋ง์˜ ์˜ˆ์ œ 1. ๊น์Šค ์ƒ˜ํ”Œ๋ง ๊น์Šค ์ƒ˜ํ”Œ๋ง์€ Metropolis Hastings(์ดํ•˜ MH) ์•Œ๊ณ ๋ฆฌ์ฆ˜์˜ ํŠน๋ณ„ํ•œ ํ˜•ํƒœ๋กœ, ์ œ์•ˆ ๋ถ„ํฌ(Proposal distribution)๋ฅผ ์ž์‹ ์˜ Full conditional distribution๋กœ ๋‘์–ด ์ƒ˜ํ”Œ๋งํ•˜๋Š” ๋ฐฉ๋ฒ•์ด๋‹ค. ์ด๋ ‡๊ฒŒ ํ•จ์œผ๋กœ์จ, ๊ฐ ์‹œํ–‰์—์„œ ๋ฐœ์ƒํ•˜๋Š” ๋ฐ์ดํ„ฐ์— ๋Œ€ํ•ด Acceptance probability๋Š” 1์ด ๋˜๋Š” ์„ฑ์งˆ์„ ๊ฐ€์ง€๊ฒŒ ๋œ๋‹ค. ๋‹ค์Œ์˜ ์ฆ๋ช…์„ ํ†ตํ•˜์—ฌ ์ด๋ฅผ ํ™•์ธํ•ด๋ณด์ž. โ–ท ์ œ์•ˆ ๋ถ„ํฌ๋ฅผ Full conditional posterior๋กœ ๋‘ ์œผ๋กœ์จ ๋ฏธ์„ธ ๊ท ํ˜• ์กฐ๊ฑด(Detailed balance condition)์ด ์„ฑ๋ฆฝํ•˜๊ฒŒ ๋œ๋‹ค. ..
JAGS(Just Another Gibbs Sampler) ์‚ฌ์šฉ๋ฒ• R์˜ JAGS(Just Another Gibbs Sampler)์˜ ์‚ฌ์šฉ๋ฒ•์— ๋Œ€ํ•ด ์•Œ์•„๋ณผ ๊ฒƒ์ด๋‹ค. JAGS๋ฅผ ํ†ตํ•œ ๋ฐ์ดํ„ฐ ์ƒ์„ฑ ๊ณผ์ •์€ 4๋‹จ๊ณ„๋กœ ๋‚˜๋ˆŒ ์ˆ˜ ์žˆ๋‹ค. 1. Specify the model 2. Set up the model 3. Run the MCMC(Markov Chain Monte Carlo) sampler 4. Post processing ๋‹ค์Œ์˜ ๋ชจ๋ธ์— ์ด๋ฅผ ๋‹จ๊ณ„๋ณ„๋กœ ์ ์šฉํ•˜์—ฌ ์‚ฌํ›„๋ถ„ํฌ๋กœ๋ถ€ํ„ฐ ๋ฐ์ดํ„ฐ๋ฅผ ์ƒ์„ฑํ•˜์—ฌ ๋ณด์ž. 1. Specify the model In: library(rjags) mod_string = " model { for (i in 1:n) { y[i] ~ dnorm(mu, 1.0/sig2) } mu ~ dt(0.0, 1.0/1.0, 1) sig2 = 1.0 } " โ–ท ์œ„์˜ ์ฝ”๋“œ์™€..
๋ฉ”ํŠธ๋กœํด๋ฆฌ์Šค ํ—ค์ด์ŠคํŒ…์Šค ์•Œ๊ณ ๋ฆฌ์ฆ˜(Metropolis-Hastings algorithm) Metropolis-Hastings(์ดํ•˜ MH) ์•Œ๊ณ ๋ฆฌ์ฆ˜์— ๋Œ€ํ•ด ์•Œ์•„๋ณผ ๊ฒƒ์ด๋‹ค. MH ์•Œ๊ณ ๋ฆฌ์ฆ˜์€ MCMC(Markov Chain Monte-Carlo)์˜ ์ผ๋ฐ˜์ ์ธ ํ˜•ํƒœ๋กœ์จ ํŠน์ • ๋ถ„ํฌ๋กœ๋ถ€ํ„ฐ ์ •์ƒ๋ถ„ํฌ๋กœ ๊ฐ–๋Š” ์ฒด์ธ์„ ๋ฐœ์ƒ์‹œํ‚ฌ ์ˆ˜ ์žˆ๋‹ค. ์ด๋ฅผ ์ด์šฉํ•˜์—ฌ ํŠน์ • ๋ถ„ํฌ๋กœ๋ถ€ํ„ฐ ๋ฐ์ดํ„ฐ๋ฅผ ์ƒ์„ฑํ•  ์ˆ˜ ์žˆ๋‹ค. ๋‹ค๋ฃฐ ๋‚ด์šฉ์œผ๋กœ๋Š” ๋‹ค์Œ๊ณผ ๊ฐ™๋‹ค. 1. MH ์•Œ๊ณ ๋ฆฌ์ฆ˜ 2. Random walk MH ์•Œ๊ณ ๋ฆฌ์ฆ˜ ๊ตฌํ˜„ 1. MH ์•Œ๊ณ ๋ฆฌ์ฆ˜ MH ์•Œ๊ณ ๋ฆฌ์ฆ˜์€ ๋‹ค์Œ๊ณผ ๊ฐ™๋‹ค. โ–ท q๋Š” ์ œ์•ˆ ๋ถ„ํฌ(Proposal distribution)๋ฅผ ์˜๋ฏธํ•˜๊ณ , g๋Š” ์šฐ๋ฆฌ์˜ ๋ชฉ์  ๋ถ„ํฌ(Target distribution)์—์„œ ์ •๊ทœํ™” ์ƒ์ˆ˜(Normalizing constant)๋ฅผ ์ œ์™ธํ•œ ๋ถ€๋ถ„์ด๋‹ค. ์ฆ‰, ๋ชฉ์  ๋ถ„ํฌ์™€ g(theta)๋Š” ๋น„๋ก€ ๊ด€๊ณ„๊ฐ€ ์„ฑ๋ฆฝํ•œ๋‹ค. โ–ท ์ดˆ๊ธฐ๊ฐ’..
๋ชฌํ…Œ์นด๋ฅผ๋กœ ์ถ”์ •(Monte-carlo estimation) ๋ฌธ์ œ์™€ ์˜ˆ์‹œ๋ฅผ ํ†ตํ•ด ๋ชฌํ…Œ์นด๋ฅผ๋กœ ์ถ”์ •(Monte-carlo estimation)์— ๋Œ€ํ•ด ์•Œ์•„๋ณผ ๊ฒƒ์ด๋‹ค. ๋ฌธ์ œ) ๊ฐ๋งˆ๋ถ„ํฌ(alpha = 2, beta = 1/3)์˜ ํ‰๊ท ์„ ์ˆ˜์‹์ ์ธ ๊ณ„์‚ฐ๊ณผ ๋ชฌํ…Œ์นด๋ฅผ๋กœ ์ถ”์ •์„ ํ†ตํ•ด ๊ตฌํ•˜๊ณ  ๊ฒฐ๊ณผ๋ฅผ ๋น„๊ตํ•˜์—ฌ๋ผ. ํ’€์ด) In: alpha = 2 beta = 1/3 m = 10^8 theta_star
๊ทธ๋ž˜ํ”„ ํ‘œํ˜„(Graphical representation) ์˜ˆ์‹œ๋ฅผ ํ†ตํ•ด ๋ฒ ์ด์ง€์•ˆ ๋ชจ๋ธ์„ ๋‚˜ํƒ€๋‚ด๊ธฐ ์œ„ํ•œ ๊ทธ๋ž˜ํ”„ ํ‘œํ˜„(Graphical representation) ๋ฐฉ๋ฒ•์— ๋Œ€ํ•ด ์•Œ์•„๋ณผ ๊ฒƒ์ด๋‹ค. ์˜ˆ์‹œ 1) ๊ฐ€๋Šฅ๋„ ํ•จ์ˆ˜๊ฐ€ ์ •๊ทœ๋ถ„ํฌ๋ฅผ ๋”ฐ๋ฅด๊ณ , ์ •๊ทœ๋ถ„ํฌ์˜ ๋‘ ๋ชจ์ˆ˜๊ฐ€ ์œ„์™€ ๊ฐ™์ด ์‚ฌ์ „๋ถ„ํฌ๋ฅผ ๋”ฐ๋ฅผ ๋•Œ, ์ด๋ฅผ ๊ทธ๋ž˜ํ”„๋กœ ํ‘œํ˜„ํ•ด๋ณด์ž. โ–ท ๋™๊ทธ๋ผ๋ฏธ๋Š” ๋…ธ๋“œ(Node)๋ผ๊ณ  ๋ถ€๋ฅธ๋‹ค. ๋…ธ๋“œ๋Š” ํ™•๋ฅ ๋ณ€์ˆ˜(Random variable)๋ฅผ ์˜๋ฏธํ•œ๋‹ค. ์‚ฌ์ „๋ถ„ํฌ๋ฅผ ๊ฐ€์ง€๊ณ  ์žˆ๋Š” mu์™€ sigma^2๋ฅผ ๋…ธ๋“œ๋กœ ์ •ํ•˜์˜€๋‹ค. โ–ท ์œ„์˜ ๊ทธ๋ฆผ์—์„œ mu์™€ sigma^2 ๋ฐ‘์— y1, y2, ... , yn๋„ ํ™•๋ฅ ๋ณ€์ˆ˜์ด์ง€๋งŒ, ๊ด€์ธกํ•  ์ˆ˜ ์žˆ๊ธฐ ๋•Œ๋ฌธ์— ์ด์ค‘ ๋™๊ทธ๋ผ๋ฏธ๋กœ ๋‚˜ํƒ€๋‚ด์—ˆ๋‹ค. โ–ท ๊ฐ ๋…ธ๋“œ๋ณ„ ์ข…์†(Dependence) ๊ด€๊ณ„๋ฅผ ๋‚˜ํƒ€๋‚ด๊ธฐ ํ™”์‚ดํ‘œ(Arrow)๋ฅผ ์ด์šฉํ•˜์˜€๋‹ค. ํ™”์‚ด์ด ๊ฐ€๋ฆฌํ‚ค๋Š” ๋…ธ๋“œ๋Š” ํ™”์‚ด์ด ๋‚˜์˜ค๋Š” ๋…ธ๋“œ๋กœ๋ถ€ํ„ฐ ์ข…์†๋˜..
ํ†ต๊ณ„ ๋ชจ๋ธ๋ง ๊ณผ์ •(Statistical modeling process) ๋ฐ์ดํ„ฐ ๋ถ„์„ ๋˜๋Š” ๋ฌธ์ œ ํ•ด๊ฒฐ์„ ์œ„ํ•œ ํ†ต๊ณ„ ๋ชจ๋ธ๋ง ๊ณผ์ •(Statistical modeling process)์— ๋Œ€ํ•ด ์•Œ์•„๋ณผ ๊ฒƒ์ด๋‹ค. ๋‹จ๊ณ„๋Š” 8๊ฐœ๋กœ ๋‚˜๋ˆŒ ์ˆ˜ ์žˆ๊ณ , ์•„๋ž˜์™€ ๊ฐ™๋‹ค. 1. Understand the problem 2. Plan and collect data 3. Explore data 4. Postulate model 5. Fit model 6. Check model 7. Iterate 8. Use model ๊ฐ ๋‹จ๊ณ„์— ๋Œ€ํ•ด ์ž์„ธํžˆ ์•Œ์•„๋ณด์ž. 1. Understand the problem ๊ฐ€์žฅ ๋จผ์ € ํ•ด์•ผํ•˜๋Š” ๊ฒƒ์€ ๋ฌธ์ œ๋ฅผ ์ดํ•ดํ•˜๋Š” ๊ฒƒ์ด๋‹ค. ๋‹น์—ฐํ•˜๊ธฐ ๋•Œ๋ฌธ์— ๊ฐ„๊ณผํ•˜๊ธฐ ์‰ฌ์šด๋ฐ, ์ด๋Š” ๋งค์šฐ ์ค‘์š”ํ•˜๋‹ค. ์˜ˆ๋ฅผ ๋“ค์–ด, ํ”„๋žœ์ฐจ์ด์ฆˆ์˜ ์ˆ˜์ต ๋ฐ์ดํ„ฐ๋ฅผ ๊ฐ ์ง€์—ญ์—์„œ ์–ป์—ˆ๋‹ค๊ณ  ๊ฐ€์ •ํ•˜์ž. ์ˆ˜์ต์˜ ํ‰๊ท ์„ ํ†ตํ•ด ํ”„๋žœ์ฐจ์ด์ฆˆ ์‚ฌ..
ํ†ต๊ณ„ ๋ชจ๋ธ(Statistical model) ํ†ต๊ณ„ ๋ชจ๋ธ(Statistical model)์— ๋Œ€ํ•ด ์•Œ์•„๋ณผ ๊ฒƒ์ด๋‹ค. ๋‹ค๋ฃฐ ๋‚ด์šฉ์€ ๋‹ค์Œ๊ณผ ๊ฐ™๋‹ค. 1. ํ†ต๊ณ„ ๋ชจ๋ธ์˜ ์ •์˜ 2. ํ†ต๊ณ„ ๋ชจ๋ธ์˜ ๋ชฉ์  1. ํ†ต๊ณ„ ๋ชจ๋ธ์˜ ์ •์˜ ํ†ต๊ณ„ ๋ชจ๋ธ์ด๋ž€ ๋ฐ์ดํ„ฐ ์ƒ์„ฑ ๊ตฌ์กฐ(Data generating process)๋ฅผ ๋ชจ๋ฐฉ(Imitation) ๋˜๋Š” ๊ทผ์‚ฌ(Approximation)ํ•˜๊ธฐ ์œ„ํ•œ ์ˆ˜ํ•™์  ๊ตฌ์กฐ(Mathematical structure)๋ฅผ ๋งํ•œ๋‹ค. ์ผ๋ฐ˜์ ์œผ๋กœ ํ†ต๊ณ„ ๋ชจ๋ธ์€ ๋ณ€์ˆ˜๊ฐ„์˜ ๊ด€๊ณ„๋ฅผ ๋‚˜ํƒ€๋‚ด๋ฉฐ, ๋ฐ์ดํ„ฐ์˜ ๋ถˆํ™•์‹ค์„ฑ(Uncertainty)๊ณผ ๋ณ€๋™์„ฑ(Variability)๋ฅผ ์„ค๋ช…ํ•œ๋‹ค. ํ†ต๊ณ„ ๋ชจ๋ธ์€ ์ธ๊ณผ๊ด€๊ณ„ ๋˜๋Š” ๋…ธ์ด์ฆˆ ๋ฐ์ดํ„ฐ๋กœ๋ถ€ํ„ฐ ์€๋‹‰ ๋ณ€์ˆ˜(Hidden variable)๋ฅผ ํŒŒ์•…ํ•˜๋Š”๋ฐ ๋„์›€์„ ์ค„ ์ˆ˜ ์žˆ๋‹ค. 2. ํ†ต๊ณ„ ๋ชจ๋ธ์˜ ๋ชฉ์  ํ†ต๊ณ„ ๋ชจ๋ธ์˜ ๋ชฉ์ ์€ ํฌ๊ฒŒ 4๊ฐ€์ง€๋กœ ๋‚˜๋ˆŒ ์ˆ˜ ์žˆ๋‹ค. ..
์ œํ”„๋ฆฌ ์‚ฌ์ „๋ถ„ํฌ(Jeffrey's prior) ์ œํ”„๋ฆฌ ์‚ฌ์ „๋ถ„ํฌ(Jeffrey's prior)์— ๋Œ€ํ•ด ์•Œ์•„๋ณผ ๊ฒƒ์ด๋‹ค. ๋‹ค๋ฃฐ ๋‚ด์šฉ์œผ๋กœ๋Š” ๋‹ค์Œ๊ณผ ๊ฐ™๋‹ค. 1. ์ œํ”„๋ฆฌ ์‚ฌ์ „๋ถ„ํฌ์˜ ์ •์˜ 2. ์ œํ”„๋ฆฌ ์‚ฌ์ „๋ถ„ํฌ์˜ ์˜ˆ์ œ 1. ์ œํ”„๋ฆฌ ์‚ฌ์ „๋ถ„ํฌ์˜ ์ •์˜ ๋‹จ๋ณ€์ˆ˜ theta์˜ ์ œํ”„๋ฆฌ ์‚ฌ์ „๋ถ„ํฌ(Jeffrey's prior)๋Š” ๋‹ค์Œ๊ณผ ๊ฐ™์ด ์ •์˜๋œ๋‹ค. ์—ฌ๊ธฐ์„œ I(theta)๋Š” ๊ธฐ๋Œ€ ํ”ผ์…” ์ •๋ณด๊ฐ’(Expected Fisher information)์„ ๋‚˜ํƒ€๋‚ด๋ฉฐ ๋‹ค์Œ๊ณผ ๊ฐ™์ด ๊ณ„์‚ฐ๋œ๋‹ค. โ–ท ์ œํ”„๋ฆฌ ์‚ฌ์ „๋ถ„ํฌ์˜ ๊ฐ€์žฅ ํฐ ํŠน์ง•์€ ๋ถˆ๋ณ€์„ฑ(Invariance)์„ ๊ฐ€์ง€๊ณ  ์žˆ๋‹ค๋Š” ๊ฒƒ์ด๋‹ค. ์ฆ‰, ์ œํ”„๋ฆฌ ์‚ฌ์ „๋ถ„ํฌ๋ฅผ ์‚ฌ์šฉํ•  ๊ฒฝ์šฐ, ๋ชจ์ˆ˜์˜ ์‚ฌํ›„๋ถ„ํฌ์™€ ๋ชจ์ˆ˜์˜ ํ•จ์ˆ˜์— ๋Œ€ํ•œ ์‚ฌํ›„๋ถ„ํฌ๊ฐ€ ์žˆ์„ ๋•Œ, ๋ณ€์ˆ˜๋ณ€ํ™˜์„ ํ†ตํ•ด ๊ฐ™์Œ์„ ๋ณด์ผ ์ˆ˜ ์žˆ๋‹ค. 2. ์ œํ”„๋ฆฌ ์‚ฌ์ „๋ถ„ํฌ์˜ ์˜ˆ์ œ ๋ฌธ์ œ) ๊ฐ€๋Šฅ๋„ ํ•จ์ˆ˜๊ฐ€ ์ง€์ˆ˜๋ถ„ํฌ์ผ ๋•Œ, ์ œํ”„๋ฆฌ ์‚ฌ์ „๋ถ„..
๋ฌด์ •๋ณด ์‚ฌ์ „๋ถ„ํฌ(Non-informative prior distribution) ๋ฌด์ •๋ณด ์‚ฌ์ „๋ถ„ํฌ(Non-informative prior distribution)์— ์•Œ์•„๋ณผ ๊ฒƒ์ด๋‹ค. ๊ด€์‹ฌ์žˆ๋Š” ๋ชจ์ˆ˜์— ๋Œ€ํ•œ ์ •๋ณด๋ฅผ ์ฃผ๊ณ  ์‹ถ์ง€ ์•Š๋‹ค๋ฉด, ๋ชจ์ˆ˜์˜ ๋ชจ๋“  ๊ฐ€๋Šฅํ•œ ๊ฐ’๋“ค์— ๋™์ผํ•œ ๊ฐ€์ค‘์น˜๋ฅผ ๋ถ€์—ฌํ•˜๋Š” ๊ฒƒ์ด ํ•ฉ๋ฆฌ์ ์ผ ๊ฒƒ์ด๋‹ค. ๋”ฐ๋ผ์„œ ์‚ฌ์ „๋ถ„ํฌ๋กœ ๊ท ๋“ฑ๋ถ„ํฌ๋ฅผ ์‚ฌ์šฉํ•  ๊ฒƒ์ด๋‹ค. ์ด๋ฅผ ์ ์šฉํ•˜์—ฌ ๋‹ค์Œ์˜ ์ƒํ™ฉ์— ๋Œ€ํ•ด ์ƒ๊ฐํ•ด๋ณด์ž. โ–ท ๊ท ๋“ฑ๋ถ„ํฌ๋Š” ๋ฒ ํƒ€๋ถ„ํฌ์˜ ํŠน์ดํ•œ ๊ฒฝ์šฐ์ด๋‹ค. ์ด๋ฅผ ์ด์šฉํ•˜์—ฌ, ESS(Effective Sample Size)๋ฅผ ๊ตฌํ•  ์ˆ˜ ์žˆ๋‹ค. ์ฆ‰, 2๊ฐœ์˜ ์ƒ˜ํ”Œ๋งŒํผ ์‚ฌํ›„๋ถ„ํฌ์— ์˜ํ–ฅ์„ ๋ฏธ์น˜๋ฏ€๋กœ ์™„์ „ํ•œ ๋ฌด์ •๋ณด ์‚ฌ์ „๋ถ„ํฌ๋ผ๊ณ  ํ•  ์ˆ˜ ์—†๋‹ค. ๋ฐ์ดํ„ฐ์—๋งŒ ์ข…์†์ ์ธ(Dependent) ์‚ฌํ›„๋ถ„ํฌ๋ฅผ ์ถ”์ •ํ•˜๊ธฐ ์œ„ํ•ด ESS๋ฅผ ์ค„์—ฌ๋ณด์ž. โ–ท ์‚ฌ์ „๋ถ„ํฌ์˜ ๋‘ ๋ชจ์ˆ˜๋ฅผ 0์œผ๋กœ ์ •ํ•˜์—ฌ ESS๋ฅผ 0์œผ๋กœ ๋งŒ๋“ค์—ˆ๋‹ค. ESS๊ฐ€ 0์ธ ๋ฌด์ •๋ณด ์‚ฌ์ „๋ถ„ํฌ๋ฅผ ์‚ฌ..
๋‹ค์–‘ํ•œ ์ผค๋ ˆ์‚ฌ์ „๋ถ„ํฌ(Conjugate prior distribution) ๋ฌธ์ œ๋ฅผ ํ†ตํ•ด ๋‹ค์–‘ํ•œ ์ผค๋ ˆ์‚ฌ์ „๋ถ„ํฌ(Conjugate prior distribution)์— ๋Œ€ํ•ด ์•Œ์•„๋ณด์ž. ๋ฌธ์ œ 1) 10๋ถ„๋™์•ˆ ์ •๋ฅ˜์žฅ์— ๋„์ฐฉํ•˜๋Š” ๋ฒ„์Šค ์ˆ˜์˜ ๋ถ„ํฌ๊ฐ€ ์ง€์ˆ˜๋ถ„ํฌ๋ฅผ ๋”ฐ๋ฅด๊ณ , ์ง€์ˆ˜๋ถ„ํฌ์˜ ๋ชจ์ˆ˜๊ฐ€ ๊ฐ๋งˆ๋ถ„ํฌ(alpha = 100, beta = 1000)๋ฅผ ๋”ฐ๋ฅธ๋‹ค. 10๋ถ„๋™์•ˆ 12๋Œ€์˜ ๋ฒ„์Šค๊ฐ€ ๋„์ฐฉํ•˜์˜€๋‹ค. ์ด๋•Œ, ์‚ฌํ›„๋ถ„ํฌ์™€ ์‚ฌํ›„ํ‰๊ท ์„ ๊ตฌํ•˜์—ฌ๋ผ. ํ’€์ด) โ–ท ์‚ฌํ›„๋ถ„ํฌ๋Š” alpha๊ฐ€ 101, beta๊ฐ€ 1012์ธ ๊ฐ๋งˆ๋ถ„ํฌ์ด๋‹ค. ์‚ฌ์ „๋ถ„ํฌ์™€ ์‚ฌํ›„๋ถ„ํฌ๊ฐ€ ๊ฐ๋งˆ ๋ถ„ํฌ๋ฅผ ๋”ฐ๋ฅด๋ฏ€๋กœ ์ผค๋ ˆ์‚ฌ์ „๋ถ„ํฌ๋ผ๊ณ  ํ•  ์ˆ˜ ์žˆ๋‹ค. โ–ท ์‚ฌ์ „๋ถ„ํฌ์˜ ESS(Effective Sample Size)๋Š” alpha์™€ beta์˜ ํ•ฉ์ด๋ฏ€๋กœ, 1100์ด๋‹ค. โ–ท ์‚ฌํ›„ํ‰๊ท ์€ 0.0998๋กœ ๊ฑฐ์˜ ๋ณ€ํ™”๊ฐ€ ์—†๋Š” ๊ฒƒ์œผ๋กœ ๋‚˜ํƒ€๋‚ฌ๋‹ค. ์ด๋Š” ESS๊ฐ€ ๋ฐ์ดํ„ฐ์˜ ๊ฐœ์ˆ˜์— ๋น„ํ•ด ์••๋„..