Statistics (30) ์ธ๋ค์ผํ ๋ฆฌ์คํธํ ๋ฒ ์ด์ง์ ์ ํ ํ๊ท(Bayesian linear regression) R์ car ํจํค์ง์ Leihardt ๋ฐ์ดํฐ๋ฅผ ์ด์ฉํ์ฌ ๋ฒ ์ด์ง์ ์ ํ ํ๊ท(Bayesian linear regression) ๋ถ์์ ์ํํ ๊ฒ์ด๋ค. ์ํ ๊ณผ์ ์ ๋ค์๊ณผ ๊ฐ๋ค. 1. ๋ฐ์ดํฐ ํ์ธ 2. ๋ชจ๋ธ๋ง 3. ๋ชจ๋ธ ํ์ธ 4. ์์ฐจ ๋ถ์ 1. ๋ฐ์ดํฐ ํ์ธ In: library(car) data('Leinhardt') pairs(Leinhardt) Out: โท Leihardt ๋ฐ์ดํฐ๋ ์ฐ์ํ ๋ณ์์ธ income, infant, region๊ณผ ๋ฒ์ฃผํ ๋ณ์์ธ oil๋ก ๊ตฌ์ฑ๋์ด ์๋ค. โท income๊ณผ infant๊ฐ ๋น์ ํ์ ์ธ ๊ด๊ณ๋ฅผ ๋ํ๋ด๊ณ ์๋ ๊ฒ์ ํ์ธํ ์ ์๋ค. ์ ํ๋ชจ๋ธ์ ๊ธฐ๋ณธ์ ์ผ๋ก ๋ณ์๊ฐ ์ ํ๊ด๊ณ๋ฅผ ๊ฐ์ ํ๊ธฐ ๋๋ฌธ์ ๋ ๋ณ์์ ๋ก๊ทธ๋ฅผ ์ทจํ์ฌ ๋ณํํ ๊ฒ์ด๋ค. In: Leinhardt$log_income .. MCMC(Markov Chain Monte-Carlo)์ ์๋ ด(Convergence) MCMC(Markov Chain Monte-Carlo)๋ฅผ ํตํด ์์ฑํ ๋ฐ์ดํฐ๋ฅผ ํ์ฉํ๊ธฐ ์ํด์๋ ๋ง๋ฅด์ฝํ ์ฒด์ธ(Markov Chain)์ด ์ ์์ํ(Stationary)์ ์๋ ด(Convergence)ํด์ผ ํ๋ค. ์ด๋ฅผ ํ์ธํ๊ณ ๋ค๋ฃจ๋ ๋ฐฉ๋ฒ์ ๋ํด ๋ค๋ฃฐ ๊ฒ์ด๋ค. 1. Trace plot 2. ์๊ธฐ์๊ด์ฑ(Autocorrelation) 3. ์ด๊ธฐ ๋จ๊ณ(Burn-in period) 1. Trace plot MCMC์ ์๋ ด์ ํ์ธํ๋ ๊ฐ์ฅ ์ง๊ด์ ์ธ ๋ฐฉ๋ฒ์ ๋ฐ์ดํฐ์ ์์ฑ ๊ณผ์ ์ ์ง์ ๊ทธ๋ฆผ์ผ๋ก ๋ํ๋ด๋ ๊ฒ์ด๋ค. ์ํํ์์ ๋ฐ๋ฅธ ์์ฑ๋ ๋ฐ์ดํฐ์ ๋ถํฌ๋ฅผ ํตํด ์ด๋ฅผ ํ์ธํ ์ ์๋ค. In: log_g ๊น์ค ์ํ๋ง(Gibbs sampling) ๊น์ค ์ํ๋ง(Gibbs sampling)์ ๋ํด ์์๋ณผ ๊ฒ์ด๋ค. ๋ค๋ฃฐ ๋ด์ฉ์ ๋ค์๊ณผ ๊ฐ๋ค. 1. ๊น์ค ์ํ๋ง 2. ๊น์ค ์ํ๋ง์ ์์ 1. ๊น์ค ์ํ๋ง ๊น์ค ์ํ๋ง์ Metropolis Hastings(์ดํ MH) ์๊ณ ๋ฆฌ์ฆ์ ํน๋ณํ ํํ๋ก, ์ ์ ๋ถํฌ(Proposal distribution)๋ฅผ ์์ ์ Full conditional distribution๋ก ๋์ด ์ํ๋งํ๋ ๋ฐฉ๋ฒ์ด๋ค. ์ด๋ ๊ฒ ํจ์ผ๋ก์จ, ๊ฐ ์ํ์์ ๋ฐ์ํ๋ ๋ฐ์ดํฐ์ ๋ํด Acceptance probability๋ 1์ด ๋๋ ์ฑ์ง์ ๊ฐ์ง๊ฒ ๋๋ค. ๋ค์์ ์ฆ๋ช ์ ํตํ์ฌ ์ด๋ฅผ ํ์ธํด๋ณด์. โท ์ ์ ๋ถํฌ๋ฅผ Full conditional posterior๋ก ๋ ์ผ๋ก์จ ๋ฏธ์ธ ๊ท ํ ์กฐ๊ฑด(Detailed balance condition)์ด ์ฑ๋ฆฝํ๊ฒ ๋๋ค. .. JAGS(Just Another Gibbs Sampler) ์ฌ์ฉ๋ฒ R์ JAGS(Just Another Gibbs Sampler)์ ์ฌ์ฉ๋ฒ์ ๋ํด ์์๋ณผ ๊ฒ์ด๋ค. JAGS๋ฅผ ํตํ ๋ฐ์ดํฐ ์์ฑ ๊ณผ์ ์ 4๋จ๊ณ๋ก ๋๋ ์ ์๋ค. 1. Specify the model 2. Set up the model 3. Run the MCMC(Markov Chain Monte Carlo) sampler 4. Post processing ๋ค์์ ๋ชจ๋ธ์ ์ด๋ฅผ ๋จ๊ณ๋ณ๋ก ์ ์ฉํ์ฌ ์ฌํ๋ถํฌ๋ก๋ถํฐ ๋ฐ์ดํฐ๋ฅผ ์์ฑํ์ฌ ๋ณด์. 1. Specify the model In: library(rjags) mod_string = " model { for (i in 1:n) { y[i] ~ dnorm(mu, 1.0/sig2) } mu ~ dt(0.0, 1.0/1.0, 1) sig2 = 1.0 } " โท ์์ ์ฝ๋์.. ๋ฉํธ๋กํด๋ฆฌ์ค ํค์ด์คํ ์ค ์๊ณ ๋ฆฌ์ฆ(Metropolis-Hastings algorithm) Metropolis-Hastings(์ดํ MH) ์๊ณ ๋ฆฌ์ฆ์ ๋ํด ์์๋ณผ ๊ฒ์ด๋ค. MH ์๊ณ ๋ฆฌ์ฆ์ MCMC(Markov Chain Monte-Carlo)์ ์ผ๋ฐ์ ์ธ ํํ๋ก์จ ํน์ ๋ถํฌ๋ก๋ถํฐ ์ ์๋ถํฌ๋ก ๊ฐ๋ ์ฒด์ธ์ ๋ฐ์์ํฌ ์ ์๋ค. ์ด๋ฅผ ์ด์ฉํ์ฌ ํน์ ๋ถํฌ๋ก๋ถํฐ ๋ฐ์ดํฐ๋ฅผ ์์ฑํ ์ ์๋ค. ๋ค๋ฃฐ ๋ด์ฉ์ผ๋ก๋ ๋ค์๊ณผ ๊ฐ๋ค. 1. MH ์๊ณ ๋ฆฌ์ฆ 2. Random walk MH ์๊ณ ๋ฆฌ์ฆ ๊ตฌํ 1. MH ์๊ณ ๋ฆฌ์ฆ MH ์๊ณ ๋ฆฌ์ฆ์ ๋ค์๊ณผ ๊ฐ๋ค. โท q๋ ์ ์ ๋ถํฌ(Proposal distribution)๋ฅผ ์๋ฏธํ๊ณ , g๋ ์ฐ๋ฆฌ์ ๋ชฉ์ ๋ถํฌ(Target distribution)์์ ์ ๊ทํ ์์(Normalizing constant)๋ฅผ ์ ์ธํ ๋ถ๋ถ์ด๋ค. ์ฆ, ๋ชฉ์ ๋ถํฌ์ g(theta)๋ ๋น๋ก ๊ด๊ณ๊ฐ ์ฑ๋ฆฝํ๋ค. โท ์ด๊ธฐ๊ฐ.. ๋ชฌํ ์นด๋ฅผ๋ก ์ถ์ (Monte-carlo estimation) ๋ฌธ์ ์ ์์๋ฅผ ํตํด ๋ชฌํ ์นด๋ฅผ๋ก ์ถ์ (Monte-carlo estimation)์ ๋ํด ์์๋ณผ ๊ฒ์ด๋ค. ๋ฌธ์ ) ๊ฐ๋ง๋ถํฌ(alpha = 2, beta = 1/3)์ ํ๊ท ์ ์์์ ์ธ ๊ณ์ฐ๊ณผ ๋ชฌํ ์นด๋ฅผ๋ก ์ถ์ ์ ํตํด ๊ตฌํ๊ณ ๊ฒฐ๊ณผ๋ฅผ ๋น๊ตํ์ฌ๋ผ. ํ์ด) In: alpha = 2 beta = 1/3 m = 10^8 theta_star ๊ทธ๋ํ ํํ(Graphical representation) ์์๋ฅผ ํตํด ๋ฒ ์ด์ง์ ๋ชจ๋ธ์ ๋ํ๋ด๊ธฐ ์ํ ๊ทธ๋ํ ํํ(Graphical representation) ๋ฐฉ๋ฒ์ ๋ํด ์์๋ณผ ๊ฒ์ด๋ค. ์์ 1) ๊ฐ๋ฅ๋ ํจ์๊ฐ ์ ๊ท๋ถํฌ๋ฅผ ๋ฐ๋ฅด๊ณ , ์ ๊ท๋ถํฌ์ ๋ ๋ชจ์๊ฐ ์์ ๊ฐ์ด ์ฌ์ ๋ถํฌ๋ฅผ ๋ฐ๋ฅผ ๋, ์ด๋ฅผ ๊ทธ๋ํ๋ก ํํํด๋ณด์. โท ๋๊ทธ๋ผ๋ฏธ๋ ๋ ธ๋(Node)๋ผ๊ณ ๋ถ๋ฅธ๋ค. ๋ ธ๋๋ ํ๋ฅ ๋ณ์(Random variable)๋ฅผ ์๋ฏธํ๋ค. ์ฌ์ ๋ถํฌ๋ฅผ ๊ฐ์ง๊ณ ์๋ mu์ sigma^2๋ฅผ ๋ ธ๋๋ก ์ ํ์๋ค. โท ์์ ๊ทธ๋ฆผ์์ mu์ sigma^2 ๋ฐ์ y1, y2, ... , yn๋ ํ๋ฅ ๋ณ์์ด์ง๋ง, ๊ด์ธกํ ์ ์๊ธฐ ๋๋ฌธ์ ์ด์ค ๋๊ทธ๋ผ๋ฏธ๋ก ๋ํ๋ด์๋ค. โท ๊ฐ ๋ ธ๋๋ณ ์ข ์(Dependence) ๊ด๊ณ๋ฅผ ๋ํ๋ด๊ธฐ ํ์ดํ(Arrow)๋ฅผ ์ด์ฉํ์๋ค. ํ์ด์ด ๊ฐ๋ฆฌํค๋ ๋ ธ๋๋ ํ์ด์ด ๋์ค๋ ๋ ธ๋๋ก๋ถํฐ ์ข ์๋.. ํต๊ณ ๋ชจ๋ธ๋ง ๊ณผ์ (Statistical modeling process) ๋ฐ์ดํฐ ๋ถ์ ๋๋ ๋ฌธ์ ํด๊ฒฐ์ ์ํ ํต๊ณ ๋ชจ๋ธ๋ง ๊ณผ์ (Statistical modeling process)์ ๋ํด ์์๋ณผ ๊ฒ์ด๋ค. ๋จ๊ณ๋ 8๊ฐ๋ก ๋๋ ์ ์๊ณ , ์๋์ ๊ฐ๋ค. 1. Understand the problem 2. Plan and collect data 3. Explore data 4. Postulate model 5. Fit model 6. Check model 7. Iterate 8. Use model ๊ฐ ๋จ๊ณ์ ๋ํด ์์ธํ ์์๋ณด์. 1. Understand the problem ๊ฐ์ฅ ๋จผ์ ํด์ผํ๋ ๊ฒ์ ๋ฌธ์ ๋ฅผ ์ดํดํ๋ ๊ฒ์ด๋ค. ๋น์ฐํ๊ธฐ ๋๋ฌธ์ ๊ฐ๊ณผํ๊ธฐ ์ฌ์ด๋ฐ, ์ด๋ ๋งค์ฐ ์ค์ํ๋ค. ์๋ฅผ ๋ค์ด, ํ๋์ฐจ์ด์ฆ์ ์์ต ๋ฐ์ดํฐ๋ฅผ ๊ฐ ์ง์ญ์์ ์ป์๋ค๊ณ ๊ฐ์ ํ์. ์์ต์ ํ๊ท ์ ํตํด ํ๋์ฐจ์ด์ฆ ์ฌ.. ํต๊ณ ๋ชจ๋ธ(Statistical model) ํต๊ณ ๋ชจ๋ธ(Statistical model)์ ๋ํด ์์๋ณผ ๊ฒ์ด๋ค. ๋ค๋ฃฐ ๋ด์ฉ์ ๋ค์๊ณผ ๊ฐ๋ค. 1. ํต๊ณ ๋ชจ๋ธ์ ์ ์ 2. ํต๊ณ ๋ชจ๋ธ์ ๋ชฉ์ 1. ํต๊ณ ๋ชจ๋ธ์ ์ ์ ํต๊ณ ๋ชจ๋ธ์ด๋ ๋ฐ์ดํฐ ์์ฑ ๊ตฌ์กฐ(Data generating process)๋ฅผ ๋ชจ๋ฐฉ(Imitation) ๋๋ ๊ทผ์ฌ(Approximation)ํ๊ธฐ ์ํ ์ํ์ ๊ตฌ์กฐ(Mathematical structure)๋ฅผ ๋งํ๋ค. ์ผ๋ฐ์ ์ผ๋ก ํต๊ณ ๋ชจ๋ธ์ ๋ณ์๊ฐ์ ๊ด๊ณ๋ฅผ ๋ํ๋ด๋ฉฐ, ๋ฐ์ดํฐ์ ๋ถํ์ค์ฑ(Uncertainty)๊ณผ ๋ณ๋์ฑ(Variability)๋ฅผ ์ค๋ช ํ๋ค. ํต๊ณ ๋ชจ๋ธ์ ์ธ๊ณผ๊ด๊ณ ๋๋ ๋ ธ์ด์ฆ ๋ฐ์ดํฐ๋ก๋ถํฐ ์๋ ๋ณ์(Hidden variable)๋ฅผ ํ์ ํ๋๋ฐ ๋์์ ์ค ์ ์๋ค. 2. ํต๊ณ ๋ชจ๋ธ์ ๋ชฉ์ ํต๊ณ ๋ชจ๋ธ์ ๋ชฉ์ ์ ํฌ๊ฒ 4๊ฐ์ง๋ก ๋๋ ์ ์๋ค. .. ์ ํ๋ฆฌ ์ฌ์ ๋ถํฌ(Jeffrey's prior) ์ ํ๋ฆฌ ์ฌ์ ๋ถํฌ(Jeffrey's prior)์ ๋ํด ์์๋ณผ ๊ฒ์ด๋ค. ๋ค๋ฃฐ ๋ด์ฉ์ผ๋ก๋ ๋ค์๊ณผ ๊ฐ๋ค. 1. ์ ํ๋ฆฌ ์ฌ์ ๋ถํฌ์ ์ ์ 2. ์ ํ๋ฆฌ ์ฌ์ ๋ถํฌ์ ์์ 1. ์ ํ๋ฆฌ ์ฌ์ ๋ถํฌ์ ์ ์ ๋จ๋ณ์ theta์ ์ ํ๋ฆฌ ์ฌ์ ๋ถํฌ(Jeffrey's prior)๋ ๋ค์๊ณผ ๊ฐ์ด ์ ์๋๋ค. ์ฌ๊ธฐ์ I(theta)๋ ๊ธฐ๋ ํผ์ ์ ๋ณด๊ฐ(Expected Fisher information)์ ๋ํ๋ด๋ฉฐ ๋ค์๊ณผ ๊ฐ์ด ๊ณ์ฐ๋๋ค. โท ์ ํ๋ฆฌ ์ฌ์ ๋ถํฌ์ ๊ฐ์ฅ ํฐ ํน์ง์ ๋ถ๋ณ์ฑ(Invariance)์ ๊ฐ์ง๊ณ ์๋ค๋ ๊ฒ์ด๋ค. ์ฆ, ์ ํ๋ฆฌ ์ฌ์ ๋ถํฌ๋ฅผ ์ฌ์ฉํ ๊ฒฝ์ฐ, ๋ชจ์์ ์ฌํ๋ถํฌ์ ๋ชจ์์ ํจ์์ ๋ํ ์ฌํ๋ถํฌ๊ฐ ์์ ๋, ๋ณ์๋ณํ์ ํตํด ๊ฐ์์ ๋ณด์ผ ์ ์๋ค. 2. ์ ํ๋ฆฌ ์ฌ์ ๋ถํฌ์ ์์ ๋ฌธ์ ) ๊ฐ๋ฅ๋ ํจ์๊ฐ ์ง์๋ถํฌ์ผ ๋, ์ ํ๋ฆฌ ์ฌ์ ๋ถ.. ๋ฌด์ ๋ณด ์ฌ์ ๋ถํฌ(Non-informative prior distribution) ๋ฌด์ ๋ณด ์ฌ์ ๋ถํฌ(Non-informative prior distribution)์ ์์๋ณผ ๊ฒ์ด๋ค. ๊ด์ฌ์๋ ๋ชจ์์ ๋ํ ์ ๋ณด๋ฅผ ์ฃผ๊ณ ์ถ์ง ์๋ค๋ฉด, ๋ชจ์์ ๋ชจ๋ ๊ฐ๋ฅํ ๊ฐ๋ค์ ๋์ผํ ๊ฐ์ค์น๋ฅผ ๋ถ์ฌํ๋ ๊ฒ์ด ํฉ๋ฆฌ์ ์ผ ๊ฒ์ด๋ค. ๋ฐ๋ผ์ ์ฌ์ ๋ถํฌ๋ก ๊ท ๋ฑ๋ถํฌ๋ฅผ ์ฌ์ฉํ ๊ฒ์ด๋ค. ์ด๋ฅผ ์ ์ฉํ์ฌ ๋ค์์ ์ํฉ์ ๋ํด ์๊ฐํด๋ณด์. โท ๊ท ๋ฑ๋ถํฌ๋ ๋ฒ ํ๋ถํฌ์ ํน์ดํ ๊ฒฝ์ฐ์ด๋ค. ์ด๋ฅผ ์ด์ฉํ์ฌ, ESS(Effective Sample Size)๋ฅผ ๊ตฌํ ์ ์๋ค. ์ฆ, 2๊ฐ์ ์ํ๋งํผ ์ฌํ๋ถํฌ์ ์ํฅ์ ๋ฏธ์น๋ฏ๋ก ์์ ํ ๋ฌด์ ๋ณด ์ฌ์ ๋ถํฌ๋ผ๊ณ ํ ์ ์๋ค. ๋ฐ์ดํฐ์๋ง ์ข ์์ ์ธ(Dependent) ์ฌํ๋ถํฌ๋ฅผ ์ถ์ ํ๊ธฐ ์ํด ESS๋ฅผ ์ค์ฌ๋ณด์. โท ์ฌ์ ๋ถํฌ์ ๋ ๋ชจ์๋ฅผ 0์ผ๋ก ์ ํ์ฌ ESS๋ฅผ 0์ผ๋ก ๋ง๋ค์๋ค. ESS๊ฐ 0์ธ ๋ฌด์ ๋ณด ์ฌ์ ๋ถํฌ๋ฅผ ์ฌ.. ๋ค์ํ ์ผค๋ ์ฌ์ ๋ถํฌ(Conjugate prior distribution) ๋ฌธ์ ๋ฅผ ํตํด ๋ค์ํ ์ผค๋ ์ฌ์ ๋ถํฌ(Conjugate prior distribution)์ ๋ํด ์์๋ณด์. ๋ฌธ์ 1) 10๋ถ๋์ ์ ๋ฅ์ฅ์ ๋์ฐฉํ๋ ๋ฒ์ค ์์ ๋ถํฌ๊ฐ ์ง์๋ถํฌ๋ฅผ ๋ฐ๋ฅด๊ณ , ์ง์๋ถํฌ์ ๋ชจ์๊ฐ ๊ฐ๋ง๋ถํฌ(alpha = 100, beta = 1000)๋ฅผ ๋ฐ๋ฅธ๋ค. 10๋ถ๋์ 12๋์ ๋ฒ์ค๊ฐ ๋์ฐฉํ์๋ค. ์ด๋, ์ฌํ๋ถํฌ์ ์ฌํํ๊ท ์ ๊ตฌํ์ฌ๋ผ. ํ์ด) โท ์ฌํ๋ถํฌ๋ alpha๊ฐ 101, beta๊ฐ 1012์ธ ๊ฐ๋ง๋ถํฌ์ด๋ค. ์ฌ์ ๋ถํฌ์ ์ฌํ๋ถํฌ๊ฐ ๊ฐ๋ง ๋ถํฌ๋ฅผ ๋ฐ๋ฅด๋ฏ๋ก ์ผค๋ ์ฌ์ ๋ถํฌ๋ผ๊ณ ํ ์ ์๋ค. โท ์ฌ์ ๋ถํฌ์ ESS(Effective Sample Size)๋ alpha์ beta์ ํฉ์ด๋ฏ๋ก, 1100์ด๋ค. โท ์ฌํํ๊ท ์ 0.0998๋ก ๊ฑฐ์ ๋ณํ๊ฐ ์๋ ๊ฒ์ผ๋ก ๋ํ๋ฌ๋ค. ์ด๋ ESS๊ฐ ๋ฐ์ดํฐ์ ๊ฐ์์ ๋นํด ์๋.. ์ด์ 1 2 3 ๋ค์