๋ณธ๋ฌธ ๋ฐ”๋กœ๊ฐ€๊ธฐ

๋ถ„๋ฅ˜ ์ „์ฒด๋ณด๊ธฐ

(86)
๋ฉ€ํ‹ฐํƒœ์Šคํ‚น(Multi-tasking), ๋ฉ€ํ‹ฐํ”„๋กœ์„ธ์‹ฑ(Multi-processing), ๋ฉ€ํ‹ฐ์Šค๋ ˆ๋”ฉ(Multi-threading) โ–ก ํ”„๋กœ๊ทธ๋žจ(Program): ์ €์žฅ์†Œ์— ์กด์žฌํ•˜๋Š” ์ฝ”๋“œ์˜ ๋ญ‰์น˜๋กœ ์‹คํ–‰์ƒํƒœ๊ฐ€ ์•„๋‹Œ, ์‹คํ–‰ํ•˜๊ธฐ ์ „์— ์ €์žฅ์†Œ์— ์ €์žฅ๋œ ์ฝ”๋“œ์ด๋‹ค. โ–ก ํ”„๋กœ์„ธ์Šค(Process): ์ €์žฅ์†Œ์— ์กด์žฌํ•˜๋Š” ํ”„๋กœ๊ทธ๋žจ์ด ์‹คํ–‰๋˜์–ด CPU๊ฐ€ ์ฒ˜๋ฆฌํ•  ์ˆ˜ ์žˆ๊ฒŒ ๋ฉ”์ธ ๋ฉ”๋ชจ๋ฆฌ์— ์˜ฌ๋ผ์˜จ ์ƒํƒœ์ด๋‹ค. โ–ก ์Šค๋ ˆ๋“œ(Thread): ํ”„๋กœ์„ธ์Šค ์•ˆ์— ์žˆ๋Š” ์ž‘์€ ์‹คํ–‰๋‹จ์œ„๋ฅผ ์˜๋ฏธ์ด๋‹ค. ์›Œ๋“œ๋ฅผ ์‚ฌ์šฉํ•˜๋Š” ๊ฒฝ์šฐ๋กœ ์˜ˆ๋ฅผ ๋“ค์–ด๋ณด์ž. ์›Œ๋“œ์—์„œ ๊ธ€์ž๋ฅผ ์ž…๋ ฅํ•˜๋Š” ๋™์•ˆ ์ž๋™์œผ๋กœ ๋งž์ถค๋ฒ• ๊ฒ€์‚ฌ๋ฅผ ์ˆ˜ํ–‰ ๋ฐ ํŒŒ์ผ์„ ์ฃผ๊ธฐ์ ์œผ๋กœ ์ €์žฅํ•œ๋‹ค. ์ด ์ž‘์—…๋“ค์€ ๊ฐ๊ฐ์˜ ์Šค๋ ˆ๋“œ์— ์˜ํ•ด์„œ ์ด๋ฃจ์–ด์ง„๋‹ค. ์ฆ‰, ์›Œ๋“œ๋ผ๋Š” ํฐ ํ”„๋กœ์„ธ์Šค ํ•˜๋‚˜์— ์—ฌ๋Ÿฌ ๊ฐœ์˜ ์Šค๋ ˆ๋“œ๊ฐ€ ๋ชจ์—ฌ์žˆ๋Š” ๊ฒƒ์ด๋‹ค. ๋ฉ€ํ‹ฐํƒœ์Šคํ‚น(Multi-tasking) โ–ท ํƒœ์Šคํฌ(Task)๋ž€ ์šด์˜์ฒด์ œ์—์„œ ์ฒ˜๋ฆฌํ•˜๋Š” ์ž‘์—… ๋‹จ์œ„๋ฅผ ์˜๋ฏธํ•˜๋Š”๋ฐ, ๊ทธ ์—ฌ๋Ÿฌ ์ž‘์—… ๋‹จ์œ„๊ฐ€ ๋น ๋ฅด๊ฒŒ ์ฒ˜๋ฆฌ๋˜..
๊น์Šค ์ƒ˜ํ”Œ๋ง(Gibbs sampling) ๊น์Šค ์ƒ˜ํ”Œ๋ง(Gibbs sampling)์— ๋Œ€ํ•ด ์•Œ์•„๋ณผ ๊ฒƒ์ด๋‹ค. ๋‹ค๋ฃฐ ๋‚ด์šฉ์€ ๋‹ค์Œ๊ณผ ๊ฐ™๋‹ค. 1. ๊น์Šค ์ƒ˜ํ”Œ๋ง 2. ๊น์Šค ์ƒ˜ํ”Œ๋ง์˜ ์˜ˆ์ œ 1. ๊น์Šค ์ƒ˜ํ”Œ๋ง ๊น์Šค ์ƒ˜ํ”Œ๋ง์€ Metropolis Hastings(์ดํ•˜ MH) ์•Œ๊ณ ๋ฆฌ์ฆ˜์˜ ํŠน๋ณ„ํ•œ ํ˜•ํƒœ๋กœ, ์ œ์•ˆ ๋ถ„ํฌ(Proposal distribution)๋ฅผ ์ž์‹ ์˜ Full conditional distribution๋กœ ๋‘์–ด ์ƒ˜ํ”Œ๋งํ•˜๋Š” ๋ฐฉ๋ฒ•์ด๋‹ค. ์ด๋ ‡๊ฒŒ ํ•จ์œผ๋กœ์จ, ๊ฐ ์‹œํ–‰์—์„œ ๋ฐœ์ƒํ•˜๋Š” ๋ฐ์ดํ„ฐ์— ๋Œ€ํ•ด Acceptance probability๋Š” 1์ด ๋˜๋Š” ์„ฑ์งˆ์„ ๊ฐ€์ง€๊ฒŒ ๋œ๋‹ค. ๋‹ค์Œ์˜ ์ฆ๋ช…์„ ํ†ตํ•˜์—ฌ ์ด๋ฅผ ํ™•์ธํ•ด๋ณด์ž. โ–ท ์ œ์•ˆ ๋ถ„ํฌ๋ฅผ Full conditional posterior๋กœ ๋‘ ์œผ๋กœ์จ ๋ฏธ์„ธ ๊ท ํ˜• ์กฐ๊ฑด(Detailed balance condition)์ด ์„ฑ๋ฆฝํ•˜๊ฒŒ ๋œ๋‹ค. ..
JAGS(Just Another Gibbs Sampler) ์‚ฌ์šฉ๋ฒ• R์˜ JAGS(Just Another Gibbs Sampler)์˜ ์‚ฌ์šฉ๋ฒ•์— ๋Œ€ํ•ด ์•Œ์•„๋ณผ ๊ฒƒ์ด๋‹ค. JAGS๋ฅผ ํ†ตํ•œ ๋ฐ์ดํ„ฐ ์ƒ์„ฑ ๊ณผ์ •์€ 4๋‹จ๊ณ„๋กœ ๋‚˜๋ˆŒ ์ˆ˜ ์žˆ๋‹ค. 1. Specify the model 2. Set up the model 3. Run the MCMC(Markov Chain Monte Carlo) sampler 4. Post processing ๋‹ค์Œ์˜ ๋ชจ๋ธ์— ์ด๋ฅผ ๋‹จ๊ณ„๋ณ„๋กœ ์ ์šฉํ•˜์—ฌ ์‚ฌํ›„๋ถ„ํฌ๋กœ๋ถ€ํ„ฐ ๋ฐ์ดํ„ฐ๋ฅผ ์ƒ์„ฑํ•˜์—ฌ ๋ณด์ž. 1. Specify the model In: library(rjags) mod_string = " model { for (i in 1:n) { y[i] ~ dnorm(mu, 1.0/sig2) } mu ~ dt(0.0, 1.0/1.0, 1) sig2 = 1.0 } " โ–ท ์œ„์˜ ์ฝ”๋“œ์™€..
๋ฉ”ํŠธ๋กœํด๋ฆฌ์Šค ํ—ค์ด์ŠคํŒ…์Šค ์•Œ๊ณ ๋ฆฌ์ฆ˜(Metropolis-Hastings algorithm) Metropolis-Hastings(์ดํ•˜ MH) ์•Œ๊ณ ๋ฆฌ์ฆ˜์— ๋Œ€ํ•ด ์•Œ์•„๋ณผ ๊ฒƒ์ด๋‹ค. MH ์•Œ๊ณ ๋ฆฌ์ฆ˜์€ MCMC(Markov Chain Monte-Carlo)์˜ ์ผ๋ฐ˜์ ์ธ ํ˜•ํƒœ๋กœ์จ ํŠน์ • ๋ถ„ํฌ๋กœ๋ถ€ํ„ฐ ์ •์ƒ๋ถ„ํฌ๋กœ ๊ฐ–๋Š” ์ฒด์ธ์„ ๋ฐœ์ƒ์‹œํ‚ฌ ์ˆ˜ ์žˆ๋‹ค. ์ด๋ฅผ ์ด์šฉํ•˜์—ฌ ํŠน์ • ๋ถ„ํฌ๋กœ๋ถ€ํ„ฐ ๋ฐ์ดํ„ฐ๋ฅผ ์ƒ์„ฑํ•  ์ˆ˜ ์žˆ๋‹ค. ๋‹ค๋ฃฐ ๋‚ด์šฉ์œผ๋กœ๋Š” ๋‹ค์Œ๊ณผ ๊ฐ™๋‹ค. 1. MH ์•Œ๊ณ ๋ฆฌ์ฆ˜ 2. Random walk MH ์•Œ๊ณ ๋ฆฌ์ฆ˜ ๊ตฌํ˜„ 1. MH ์•Œ๊ณ ๋ฆฌ์ฆ˜ MH ์•Œ๊ณ ๋ฆฌ์ฆ˜์€ ๋‹ค์Œ๊ณผ ๊ฐ™๋‹ค. โ–ท q๋Š” ์ œ์•ˆ ๋ถ„ํฌ(Proposal distribution)๋ฅผ ์˜๋ฏธํ•˜๊ณ , g๋Š” ์šฐ๋ฆฌ์˜ ๋ชฉ์  ๋ถ„ํฌ(Target distribution)์—์„œ ์ •๊ทœํ™” ์ƒ์ˆ˜(Normalizing constant)๋ฅผ ์ œ์™ธํ•œ ๋ถ€๋ถ„์ด๋‹ค. ์ฆ‰, ๋ชฉ์  ๋ถ„ํฌ์™€ g(theta)๋Š” ๋น„๋ก€ ๊ด€๊ณ„๊ฐ€ ์„ฑ๋ฆฝํ•œ๋‹ค. โ–ท ์ดˆ๊ธฐ๊ฐ’..
๋ชฌํ…Œ์นด๋ฅผ๋กœ ์ถ”์ •(Monte-carlo estimation) ๋ฌธ์ œ์™€ ์˜ˆ์‹œ๋ฅผ ํ†ตํ•ด ๋ชฌํ…Œ์นด๋ฅผ๋กœ ์ถ”์ •(Monte-carlo estimation)์— ๋Œ€ํ•ด ์•Œ์•„๋ณผ ๊ฒƒ์ด๋‹ค. ๋ฌธ์ œ) ๊ฐ๋งˆ๋ถ„ํฌ(alpha = 2, beta = 1/3)์˜ ํ‰๊ท ์„ ์ˆ˜์‹์ ์ธ ๊ณ„์‚ฐ๊ณผ ๋ชฌํ…Œ์นด๋ฅผ๋กœ ์ถ”์ •์„ ํ†ตํ•ด ๊ตฌํ•˜๊ณ  ๊ฒฐ๊ณผ๋ฅผ ๋น„๊ตํ•˜์—ฌ๋ผ. ํ’€์ด) In: alpha = 2 beta = 1/3 m = 10^8 theta_star
๊ทธ๋ž˜ํ”„ ํ‘œํ˜„(Graphical representation) ์˜ˆ์‹œ๋ฅผ ํ†ตํ•ด ๋ฒ ์ด์ง€์•ˆ ๋ชจ๋ธ์„ ๋‚˜ํƒ€๋‚ด๊ธฐ ์œ„ํ•œ ๊ทธ๋ž˜ํ”„ ํ‘œํ˜„(Graphical representation) ๋ฐฉ๋ฒ•์— ๋Œ€ํ•ด ์•Œ์•„๋ณผ ๊ฒƒ์ด๋‹ค. ์˜ˆ์‹œ 1) ๊ฐ€๋Šฅ๋„ ํ•จ์ˆ˜๊ฐ€ ์ •๊ทœ๋ถ„ํฌ๋ฅผ ๋”ฐ๋ฅด๊ณ , ์ •๊ทœ๋ถ„ํฌ์˜ ๋‘ ๋ชจ์ˆ˜๊ฐ€ ์œ„์™€ ๊ฐ™์ด ์‚ฌ์ „๋ถ„ํฌ๋ฅผ ๋”ฐ๋ฅผ ๋•Œ, ์ด๋ฅผ ๊ทธ๋ž˜ํ”„๋กœ ํ‘œํ˜„ํ•ด๋ณด์ž. โ–ท ๋™๊ทธ๋ผ๋ฏธ๋Š” ๋…ธ๋“œ(Node)๋ผ๊ณ  ๋ถ€๋ฅธ๋‹ค. ๋…ธ๋“œ๋Š” ํ™•๋ฅ ๋ณ€์ˆ˜(Random variable)๋ฅผ ์˜๋ฏธํ•œ๋‹ค. ์‚ฌ์ „๋ถ„ํฌ๋ฅผ ๊ฐ€์ง€๊ณ  ์žˆ๋Š” mu์™€ sigma^2๋ฅผ ๋…ธ๋“œ๋กœ ์ •ํ•˜์˜€๋‹ค. โ–ท ์œ„์˜ ๊ทธ๋ฆผ์—์„œ mu์™€ sigma^2 ๋ฐ‘์— y1, y2, ... , yn๋„ ํ™•๋ฅ ๋ณ€์ˆ˜์ด์ง€๋งŒ, ๊ด€์ธกํ•  ์ˆ˜ ์žˆ๊ธฐ ๋•Œ๋ฌธ์— ์ด์ค‘ ๋™๊ทธ๋ผ๋ฏธ๋กœ ๋‚˜ํƒ€๋‚ด์—ˆ๋‹ค. โ–ท ๊ฐ ๋…ธ๋“œ๋ณ„ ์ข…์†(Dependence) ๊ด€๊ณ„๋ฅผ ๋‚˜ํƒ€๋‚ด๊ธฐ ํ™”์‚ดํ‘œ(Arrow)๋ฅผ ์ด์šฉํ•˜์˜€๋‹ค. ํ™”์‚ด์ด ๊ฐ€๋ฆฌํ‚ค๋Š” ๋…ธ๋“œ๋Š” ํ™”์‚ด์ด ๋‚˜์˜ค๋Š” ๋…ธ๋“œ๋กœ๋ถ€ํ„ฐ ์ข…์†๋˜..
์ปดํŒŒ์ผ๋Ÿฌ(Compiler)์™€ ์ธํ„ฐํ”„๋ฆฌํ„ฐ(Interpreter) ์ปดํŒŒ์ผ๋Ÿฌ(Compiler) โ–ท ๊ณ ๊ธ‰์–ธ์–ด๋กœ ์ž‘์„ฑ๋œ ํ”„๋กœ๊ทธ๋žจ์ด ์ปดํ“จํ„ฐ์—์„œ ์ˆ˜ํ–‰๋˜๊ธฐ ์œ„ํ•ด์„œ๋Š” ์ปดํ“จํ„ฐ๊ฐ€ ์ดํ•ดํ•  ์ˆ˜ ์žˆ๋Š” ๊ธฐ๊ณ„์–ด๋กœ ๋ฐ”๊พธ์–ด ์ฃผ์–ด์•ผ ํ•œ๋‹ค. ์ด๋Ÿฌํ•œ ์ผ์„ ์ˆ˜ํ–‰ํ•˜๋Š” ํ”„๋กœ๊ทธ๋žจ์„ ์ปดํŒŒ์ผ๋Ÿฌ๋ผ๊ณ  ํ•œ๋‹ค. โ–ท ๋ฒˆ์—ญ๊ณผ ์‹คํ–‰์„ ๊ฑฐ์ณ์•ผ ํ•˜๊ธฐ ๋•Œ๋ฌธ์— ์‹œ๊ฐ„์ด ์˜ค๋ž˜ ๊ฑธ๋ฆฌ์ง€๋งŒ, ๋ฒˆ์—ญํ•œ ์ดํ›„์—๋Š” ์ถ”๊ฐ€์ ์ธ ๋ฒˆ์—ญ ๊ณผ์ •์ด ํ•„์š” ์—†์œผ๋ฏ€๋กœ ์‹คํ–‰์†๋„๊ฐ€ ๋น ๋ฅด๋‹ค. โ–ท ๋ฌธ๋ฒ•์ด ํ‹€๋ฆฌ๋ฉด ์ปดํŒŒ์ผ ํ•˜๋Š” ๊ณผ์ •์—์„œ ์—๋Ÿฌ๊ฐ€ ๋ฐœ์ƒํ•˜๊ฒŒ ๋ ๊ณ , ์ด๋ฅผ ์ปดํŒŒ์ผ ์—๋Ÿฌ๋ผ๊ณ  ํ•œ๋‹ค. ํ”„๋กœ๊ทธ๋žจ ๋‹จ์œ„๋กœ ๋ณ€ํ™˜๋˜๊ธฐ ๋•Œ๋ฌธ์— ์ปดํŒŒ์ผ ์—๋Ÿฌ๊ฐ€ ๋ฐœ์ƒํ•˜๋ฉด ์‹คํ–‰์ด ๋ถˆ๊ฐ€๋Šฅํ•˜๋‹ค. ์ธํ„ฐํ”„๋ฆฌํ„ฐ(Interpreter) โ–ท ๊ณ ๊ธ‰์–ธ์–ด๋กœ ์ž‘์„ฑ๋œ ํ”„๋กœ๊ทธ๋žจ์„ ๋ฌธ์žฅ ๋‹จ์œ„๋กœ ๊ธฐ๊ณ„์–ด๋กœ ํ•ด์„ํ•˜์—ฌ ์‹คํ–‰ํ•˜๋Š” ํ”„๋กœ๊ทธ๋žจ์„ ์ธํ„ฐํ”„๋ฆฌํ„ฐ๋ผ๊ณ  ํ•œ๋‹ค. โ–ท ๋ฌธ์žฅ ๋‹จ์œ„๋กœ ์‹คํ–‰๋˜๊ธฐ ๋•Œ๋ฌธ์— ํ”„๋กœ๊ทธ๋žจ์˜ ๋ณ€ํ™”์— ๋น ๋ฅด๊ฒŒ ๋ฐ˜์‘ํ•  ์ˆ˜ ์žˆ๊ณ , ์—๋Ÿฌ๊ฐ€..
ํ†ต๊ณ„ ๋ชจ๋ธ๋ง ๊ณผ์ •(Statistical modeling process) ๋ฐ์ดํ„ฐ ๋ถ„์„ ๋˜๋Š” ๋ฌธ์ œ ํ•ด๊ฒฐ์„ ์œ„ํ•œ ํ†ต๊ณ„ ๋ชจ๋ธ๋ง ๊ณผ์ •(Statistical modeling process)์— ๋Œ€ํ•ด ์•Œ์•„๋ณผ ๊ฒƒ์ด๋‹ค. ๋‹จ๊ณ„๋Š” 8๊ฐœ๋กœ ๋‚˜๋ˆŒ ์ˆ˜ ์žˆ๊ณ , ์•„๋ž˜์™€ ๊ฐ™๋‹ค. 1. Understand the problem 2. Plan and collect data 3. Explore data 4. Postulate model 5. Fit model 6. Check model 7. Iterate 8. Use model ๊ฐ ๋‹จ๊ณ„์— ๋Œ€ํ•ด ์ž์„ธํžˆ ์•Œ์•„๋ณด์ž. 1. Understand the problem ๊ฐ€์žฅ ๋จผ์ € ํ•ด์•ผํ•˜๋Š” ๊ฒƒ์€ ๋ฌธ์ œ๋ฅผ ์ดํ•ดํ•˜๋Š” ๊ฒƒ์ด๋‹ค. ๋‹น์—ฐํ•˜๊ธฐ ๋•Œ๋ฌธ์— ๊ฐ„๊ณผํ•˜๊ธฐ ์‰ฌ์šด๋ฐ, ์ด๋Š” ๋งค์šฐ ์ค‘์š”ํ•˜๋‹ค. ์˜ˆ๋ฅผ ๋“ค์–ด, ํ”„๋žœ์ฐจ์ด์ฆˆ์˜ ์ˆ˜์ต ๋ฐ์ดํ„ฐ๋ฅผ ๊ฐ ์ง€์—ญ์—์„œ ์–ป์—ˆ๋‹ค๊ณ  ๊ฐ€์ •ํ•˜์ž. ์ˆ˜์ต์˜ ํ‰๊ท ์„ ํ†ตํ•ด ํ”„๋žœ์ฐจ์ด์ฆˆ ์‚ฌ..
ํ†ต๊ณ„ ๋ชจ๋ธ(Statistical model) ํ†ต๊ณ„ ๋ชจ๋ธ(Statistical model)์— ๋Œ€ํ•ด ์•Œ์•„๋ณผ ๊ฒƒ์ด๋‹ค. ๋‹ค๋ฃฐ ๋‚ด์šฉ์€ ๋‹ค์Œ๊ณผ ๊ฐ™๋‹ค. 1. ํ†ต๊ณ„ ๋ชจ๋ธ์˜ ์ •์˜ 2. ํ†ต๊ณ„ ๋ชจ๋ธ์˜ ๋ชฉ์  1. ํ†ต๊ณ„ ๋ชจ๋ธ์˜ ์ •์˜ ํ†ต๊ณ„ ๋ชจ๋ธ์ด๋ž€ ๋ฐ์ดํ„ฐ ์ƒ์„ฑ ๊ตฌ์กฐ(Data generating process)๋ฅผ ๋ชจ๋ฐฉ(Imitation) ๋˜๋Š” ๊ทผ์‚ฌ(Approximation)ํ•˜๊ธฐ ์œ„ํ•œ ์ˆ˜ํ•™์  ๊ตฌ์กฐ(Mathematical structure)๋ฅผ ๋งํ•œ๋‹ค. ์ผ๋ฐ˜์ ์œผ๋กœ ํ†ต๊ณ„ ๋ชจ๋ธ์€ ๋ณ€์ˆ˜๊ฐ„์˜ ๊ด€๊ณ„๋ฅผ ๋‚˜ํƒ€๋‚ด๋ฉฐ, ๋ฐ์ดํ„ฐ์˜ ๋ถˆํ™•์‹ค์„ฑ(Uncertainty)๊ณผ ๋ณ€๋™์„ฑ(Variability)๋ฅผ ์„ค๋ช…ํ•œ๋‹ค. ํ†ต๊ณ„ ๋ชจ๋ธ์€ ์ธ๊ณผ๊ด€๊ณ„ ๋˜๋Š” ๋…ธ์ด์ฆˆ ๋ฐ์ดํ„ฐ๋กœ๋ถ€ํ„ฐ ์€๋‹‰ ๋ณ€์ˆ˜(Hidden variable)๋ฅผ ํŒŒ์•…ํ•˜๋Š”๋ฐ ๋„์›€์„ ์ค„ ์ˆ˜ ์žˆ๋‹ค. 2. ํ†ต๊ณ„ ๋ชจ๋ธ์˜ ๋ชฉ์  ํ†ต๊ณ„ ๋ชจ๋ธ์˜ ๋ชฉ์ ์€ ํฌ๊ฒŒ 4๊ฐ€์ง€๋กœ ๋‚˜๋ˆŒ ์ˆ˜ ์žˆ๋‹ค. ..
ํ•ฉ์„ฑ๊ณฑ ์‹ ๊ฒฝ๋ง(Convolutional Neural Network) ๊ตฌํ˜„ MNIST ๋ฐ์ดํ„ฐ์˜ ์†๊ธ€์”จ๋กœ ์ ํžŒ ์ˆซ์ž ์ด๋ฏธ์ง€๋ฅผ ๋ถ„๋ฅ˜ํ•˜๋Š” ๋‹ค์ค‘ ๋ถ„๋ฅ˜(Multiclass classification) ๋ฌธ์ œ๋ฅผ ๋‹ค๋ฃฐ ๊ฒƒ์ด๋‹ค. ์•ž์˜ ํฌ์ŠคํŒ… "[Model] 01. ์ธ๊ณต์‹ ๊ฒฝ๋ง(Artificial Neural Network) ๊ตฌํ˜„"๊ณผ ์ค‘๋ณต๋˜๋Š” ๋‚ด์šฉ์— ๋Œ€ํ•ด ๋‹ค๋ฃจ์ง€ ์•Š์„ ๊ฒƒ์ด๋‹ค. ํ•„์š”ํ•˜๋ฉด ๋‹ค์Œ ๋งํฌ๋ฅผ ํ†ตํ•ด ์ฐธ๊ณ ํ•˜๋„๋ก ํ•˜์ž. [Model] 01. ์ธ๊ณต์‹ ๊ฒฝ๋ง(Artificial Neural Network) ๊ตฌํ˜„ MNIST ๋ฐ์ดํ„ฐ์˜ ์†๊ธ€์”จ๋กœ ์ ํžŒ ์ˆซ์ž ์ด๋ฏธ์ง€๋ฅผ ๋ถ„๋ฅ˜ํ•˜๋Š” ๋‹ค์ค‘ ๋ถ„๋ฅ˜(Multiclass classification) ๋ฌธ์ œ๋ฅผ ๋‹ค๋ฃฐ ๊ฒƒ์ด๋‹ค. ๋ฐ์ดํ„ฐ๋Š” ์—ฌ๊ธฐ(https://www.kaggle.com/c/digit-recognizer)์—์„œ ์–ป์„ ์ˆ˜ ์žˆ๋‹ค. ํŒŒ์ดํ† ์น˜๋ฅผ ์ด.. rooney-song.tisto..
์ œํ”„๋ฆฌ ์‚ฌ์ „๋ถ„ํฌ(Jeffrey's prior) ์ œํ”„๋ฆฌ ์‚ฌ์ „๋ถ„ํฌ(Jeffrey's prior)์— ๋Œ€ํ•ด ์•Œ์•„๋ณผ ๊ฒƒ์ด๋‹ค. ๋‹ค๋ฃฐ ๋‚ด์šฉ์œผ๋กœ๋Š” ๋‹ค์Œ๊ณผ ๊ฐ™๋‹ค. 1. ์ œํ”„๋ฆฌ ์‚ฌ์ „๋ถ„ํฌ์˜ ์ •์˜ 2. ์ œํ”„๋ฆฌ ์‚ฌ์ „๋ถ„ํฌ์˜ ์˜ˆ์ œ 1. ์ œํ”„๋ฆฌ ์‚ฌ์ „๋ถ„ํฌ์˜ ์ •์˜ ๋‹จ๋ณ€์ˆ˜ theta์˜ ์ œํ”„๋ฆฌ ์‚ฌ์ „๋ถ„ํฌ(Jeffrey's prior)๋Š” ๋‹ค์Œ๊ณผ ๊ฐ™์ด ์ •์˜๋œ๋‹ค. ์—ฌ๊ธฐ์„œ I(theta)๋Š” ๊ธฐ๋Œ€ ํ”ผ์…” ์ •๋ณด๊ฐ’(Expected Fisher information)์„ ๋‚˜ํƒ€๋‚ด๋ฉฐ ๋‹ค์Œ๊ณผ ๊ฐ™์ด ๊ณ„์‚ฐ๋œ๋‹ค. โ–ท ์ œํ”„๋ฆฌ ์‚ฌ์ „๋ถ„ํฌ์˜ ๊ฐ€์žฅ ํฐ ํŠน์ง•์€ ๋ถˆ๋ณ€์„ฑ(Invariance)์„ ๊ฐ€์ง€๊ณ  ์žˆ๋‹ค๋Š” ๊ฒƒ์ด๋‹ค. ์ฆ‰, ์ œํ”„๋ฆฌ ์‚ฌ์ „๋ถ„ํฌ๋ฅผ ์‚ฌ์šฉํ•  ๊ฒฝ์šฐ, ๋ชจ์ˆ˜์˜ ์‚ฌํ›„๋ถ„ํฌ์™€ ๋ชจ์ˆ˜์˜ ํ•จ์ˆ˜์— ๋Œ€ํ•œ ์‚ฌํ›„๋ถ„ํฌ๊ฐ€ ์žˆ์„ ๋•Œ, ๋ณ€์ˆ˜๋ณ€ํ™˜์„ ํ†ตํ•ด ๊ฐ™์Œ์„ ๋ณด์ผ ์ˆ˜ ์žˆ๋‹ค. 2. ์ œํ”„๋ฆฌ ์‚ฌ์ „๋ถ„ํฌ์˜ ์˜ˆ์ œ ๋ฌธ์ œ) ๊ฐ€๋Šฅ๋„ ํ•จ์ˆ˜๊ฐ€ ์ง€์ˆ˜๋ถ„ํฌ์ผ ๋•Œ, ์ œํ”„๋ฆฌ ์‚ฌ์ „๋ถ„..
์ฃผํ”ผํ„ฐ ๋žฉ(Jupyter lab)๊ณผ ์ŠคํŒŒํฌ(Spark) ์—ฐ๋™ ์œˆ๋„์šฐ 10 ํ™˜๊ฒฝ์—์„œ ์ฃผํ”ผํ„ฐ ๋žฉ(Jupyter lab)๊ณผ ์ŠคํŒŒํฌ(Spark)๋ฅผ ์—ฐ๋™ํ•ด๋ณด์ž. ์•„๋‚˜์ฝ˜๋‹ค(Anaconda)์™€ ์ŠคํŒŒํฌ๊ฐ€ ์„ค์น˜๋˜์–ด ์žˆ์Œ์„ ์ „์ œํ•˜๊ณ  ์„ค๋ช…์„ ์‹œ์ž‘ํ•˜๋„๋ก ํ•˜๊ฒ ๋‹ค. ์•„๋ž˜์˜ ๋งํฌ๋Š” ์ŠคํŒŒํฌ์˜ ์„ค์น˜ ๋ฐฉ๋ฒ•์ด๋‹ˆ, ํ•„์š”ํ•˜๋ฉด ์ฐธ๊ณ ํ•  ์ˆ˜ ์žˆ๋„๋ก ํ•˜์ž. [Scala & Spark] 02. ์ŠคํŒŒํฌ(Spark) ์„ค์น˜ ์œˆ๋„์šฐ 10 ํ™˜๊ฒฝ์—์„œ ์ŠคํŒŒํฌ(Spark) ์„ค์น˜ ๋ฐฉ๋ฒ•์— ๋Œ€ํ•ด์„œ ์•Œ์•„๋ณผ ๊ฒƒ์ด๋‹ค. ์ŠคํŒŒํฌ๋ฅผ ์„ค์น˜ํ•˜๊ธฐ ์œ„ํ•ด ์ž๋ฐ”(Java)์™€ ์Šค์นผ๋ผ(Scala)๊ฐ€ ํ•„์š”ํ•˜๋‹ค. ๋ฐ˜๋“œ์‹œ ์ž๋ฐ”์™€ ์Šค์นผ๋ผ๋ฅผ ์„ค์น˜ํ•œ ํ›„, ์ŠคํŒŒํฌ๋ฅผ ์„ค์น˜ํ•˜๋„๋ก ํ•˜๏ฟฝ๏ฟฝ rooney-song.tistory.com 1. ์ฃผํ”ผํ„ฐ ๋žฉ ์„ค์น˜ ๋ฐ ๋ฐ”๋กœ๊ฐ€๊ธฐ ๋งŒ๋“ค๊ธฐ (1) ์•„๋‚˜์ฝ˜๋‹ค ํ”„๋กฌํ”„ํŠธ๋ฅผ ์‹คํ–‰ํ•˜๊ณ , "pip install jupyterlab"์„ ์ž…๋ ฅํ•˜์—ฌ ์ฃผํ”ผํ„ฐ ..