๐Ÿง  ๋”ฅ๋Ÿฌ๋‹์ด๋ž€? | ๋‚ด๊ฐ€๋ณด๋ ค๊ณ ์ •๋ฆฌํ•œAI๐Ÿง

HipJaengYiCatยท2023๋…„ 3์›” 25์ผ
1

DeepLearning

๋ชฉ๋ก ๋ณด๊ธฐ
1/16
post-thumbnail

PROLOG

  • ์•ž์œผ๋กœ ๋‚ด๊ฐ€ AI์— ๋Œ€ํ•ด ๊ณต๋ถ€ํ•œ ๋‚ด์šฉ์€ '๋‚ด๊ฐ€๋ณด๋ ค๊ณ ์ •๋ฆฌํ•œAI๐Ÿง'์‹œ๋ฆฌ์ฆˆ์— ์ •๋ฆฌํ•˜๋ ค๊ณ  ํ•œ๋‹ค
  • ๋ธ”๋กœ๊น…์„ ํ•˜๋Š” ํ‘œ๋ฉด์ ์ธ ์ด์œ ๋Š” ๋‚ด๊ฐ€ ๊ณต๋ถ€ํ•œ ๋‚ด์šฉ๋“ค์„ AI์— ๊ด€์‹ฌ์žˆ๋Š” ์‚ฌ๋žŒ๋“ค์—๊ฒŒ ์•Œ๋ ค์ฃผ๊ธฐ ์œ„ํ•จ์ด๋ฉฐ ๋‚˜์˜ ์ง€์‹์„ ๊ณต์œ ํ•˜๋ฉฐ ์ข€ ๋” ์‹ฌ์ธต์ ์œผ๋กœ ๊ณต๋ถ€ํ•˜๊ธฐ ์œ„ํ•œ ๋ชฉํ‘œ๋ฅผ ๊ฐ€์ง€๊ณ  ์žˆ๋‹ค.
  • ํฌ์žฅ์„ ๋ฒ—๊ธด ์ˆœ์ˆ˜ํ•œ ์˜๋„๋Š” ๊ฐ๋ฐ•ํ•œ ์ฑ„์šฉ์‹œ์žฅ์—์„œ ์กฐ๊ธˆ์ด๋ผ๋„ ์–ดํ•„์„ ํ•ด๋ณด๋ ค๋Š” ๋‚˜์˜ ๋ฐœ๋ฒ„๋‘ฅ์ด๋ผ๊ณ  ๋ณผ ์ˆ˜ ์žˆ๋‹ค๐Ÿ˜

๐Ÿ’โ€โ™€๏ธ ๊ทธ ์ฒซ๋ฒˆ์งธ ์ฃผ์ œ๋กœ ๋‚˜์˜ ์ตœ๋Œ€ ๊ด€์‹ฌ์‚ฌ์ธ ๋”ฅ๋Ÿฌ๋‹๋ถ€ํ„ฐ ์‹œ์ž‘ํ•  ๊ฒƒ์ด๋‹ค!

  1. ๋”ฅ๋Ÿฌ๋‹์ด๋ž€ ๋ฌด์—‡์ธ๊ฐ€?
  2. ๋”ฅ๋Ÿฌ๋‹์˜ ์ฃผ์š”ํ•œ ์š”์†Œ๋Š” ๋ฌด์—‡์ผ๊นŒ?

๋”ฅ๋Ÿฌ๋‹์ด๋ž€ ๋ฌด์—‡์ธ๊ฐ€?

๋”ฅ๋Ÿฌ๋‹(Deep Learning)์ด๋ž€ ์—ฌ๋Ÿฌ ์ธต์„ ๊ฐ€์ง„ ์ธ๊ณต์‹ ๊ฒฝ๋ง(Artificial Neural Network, ANN)์„ ์‚ฌ์šฉํ•˜์—ฌ ๋จธ์‹ ๋Ÿฌ๋‹ ํ•™์Šต์„ ์ˆ˜ํ–‰ํ•˜๋Š” ๊ฒƒ์œผ๋กœ ์‹ฌ์ธตํ•™์Šต์ด๋ผ๊ณ ๋„ ๋ถ€๋ฆ…๋‹ˆ๋‹ค.

  • ๋ฒŒ์จ ๋“ฃ๊ธฐ๋งŒํ•ด๋„ ๋จธ๋ฆฌ๊ฐ€ ์•„ํ”„๋‹ค
  • ๋”ฅ๋Ÿฌ๋‹์„ ์ดํ•ดํ•˜๋ ค๋ฉด ์ธ๊ณต์‹ ๊ฒฝ๋ง๊ณผ ๋จธ์‹ ๋Ÿฌ๋‹์˜ ๋œป์„ ์•Œ์•„์•ผ ๋  ๊ฒƒ ๊ฐ™๋‹ค

๐Ÿ†€ ์ธ๊ณต์‹ ๊ฒฝ๋ง์ด๋ž€ ๋ฌด์—‡์ผ๊นŒ?
๐Ÿ…ฐ ์‹ ๊ฒฝ๋ง์€ ์ธ๊ฐ„์˜ ๋‘๋‡Œ์—์„œ ์˜๊ฐ์„ ์–ป์€ ๋ฐฉ์‹์œผ๋กœ ๋ฐ์ดํ„ฐ๋ฅผ ์ฒ˜๋ฆฌํ•˜๋„๋ก ์ปดํ“จํ„ฐ๋ฅผ ๊ฐ€๋ฅด์น˜๋Š” ์ธ๊ณต ์ง€๋Šฅ ๋ฐฉ์‹์ด๋‹ค. ์ธ๊ฐ„์˜ ๋‘๋‡Œ์™€ ๋น„์Šทํ•œ ๊ณ„์ธต ๊ตฌ์กฐ๋กœ ์ƒํ˜ธ ์—ฐ๊ฒฐ๋œ ๋…ธ๋“œ ๋˜๋Š” ๋‰ด๋Ÿฐ์„ ์‚ฌ์šฉํ•˜๋Š” ๋”ฅ ๋Ÿฌ๋‹์ด๋ผ๊ณ  ๋ถˆ๋ฆฌ๋Š” ๋จธ์‹ ๋Ÿฌ๋‹(๊ธฐ๊ณ„ ํ•™์Šต) ์ค‘ ํ•˜๋‚˜์˜ ์œ ํ˜•์ด๋‹ค.

๐Ÿ†€ ๊ทธ๋ ‡๋‹ค๋ฉด ๋จธ์‹ ๋Ÿฌ๋‹์ด๋ž€ ๋ฌด์—‡์ผ๊นŒ?
๐Ÿ…ฐ ์ธ๊ณต์ง€๋Šฅ์˜ ํ•˜์œ„ ์ง‘ํ•ฉ์œผ๋กœ ํ•™์Šต๊ณผ ๊ฐœ์„ ์„ ์œ„ํ•ด ๋ช…์‹œ์ ์œผ๋กœ ์ปดํ“จํ„ฐ๋ฅผ ํ”„๋กœ๊ทธ๋ž˜๋ฐ ํ•˜๋Š” ๋Œ€์‹ , ์ปดํ“จํ„ฐ๊ฐ€ ๋ฐ์ดํ„ฐ๋ฅผ ํ†ตํ•ด ํ•™์Šตํ•˜๊ณ  ๊ฒฝํ—˜์„ ํ†ตํ•ด ๊ฐœ์„ ํ•˜๋„๋ก ํ›ˆ๋ จํ•˜๋Š”๋ฐ ์ค‘์ ์„ ๋‘๋Š” ๋ฐฉ์‹์ด๋‹ค. ๋จธ์‹ ๋Ÿฌ๋‹์—์„œ ์•Œ๊ณ ๋ฆฌ์ฆ˜์€ ๋Œ€๊ทœ๋ชจ ๋ฐ์ดํ„ฐ ์„ธํŠธ์—์„œ ํŒจํ„ด๊ณผ ์ƒ๊ด€๊ด€๊ณ„๋ฅผ ์ฐพ๊ณ  ๋ถ„์„์„ ํ† ๋Œ€๋กœ ์ตœ์ ์˜ ์˜์‚ฌ๊ฒฐ์ •๊ณผ ์˜ˆ์ธก์„ ์ˆ˜ํ–‰ํ•˜๋„๋ก ํ›ˆ๋ จ๋˜๊ณ  ์ด์šฉ ๊ฐ€๋Šฅํ•œ ๋ฐ์ดํ„ฐ๊ฐ€ ์ฆ๊ฐ€ํ• ์ˆ˜๋ก ๋”์šฑ ์ •ํ™•ํ•ด์ง„๋‹ค.

๋”ฅ๋Ÿฌ๋‹์˜ ์ฃผ์š”ํ•œ ์š”์†Œ๋Š” ๋ฌด์—‡์ผ๊นŒ?

๐Ÿ†€ ๋”ฅ๋Ÿฌ๋‹์„ ํ•˜๊ธฐ ์œ„ํ•ด์„œ ๊ณ ๋ คํ•ด์•ผ ๋  ์š”์†Œ๋Š” ๋ฌด์—‡์ผ๊นŒ?
๐Ÿ…ฐ ๋”ฅ๋Ÿฌ๋‹์˜ ์ฃผ์š”ํ•œ ์š”์†Œ์— ๋Œ€ํ•ด ์•Œ์•„๋ณด๋ ค๊ณ  ํ•œ๋‹ค.

1. Data

  • ๋ฐ์ดํ„ฐ๋Š” ๋”ฅ๋Ÿฌ๋‹ ๋ชจ๋ธ์„ ํ•™์Šตํ•˜๊ธฐ ์œ„ํ•œ ๋จน์ด๋ผ๊ณ  ๋ณผ ์ˆ˜ ์žˆ๊ฒ ๋‹ค.
  • ๋ฐ์ดํ„ฐ๋Š” ๋ถ„๋ฅ˜, ๊ฐ์ฒด ํƒ์ง€ ๋“ฑ๋“ฑ ํ•ด๊ฒฐํ•ด์•ผ ํ•˜๋Š” ๋ฌธ์ œ ์œ ํ˜•์— ๋”ฐ๋ผ ๋‹ฌ๋ผ์ง„๋‹ค.
    ๋‹ ์• ํ”Œ๋ฆฌ์ผ€์ด์…˜์€ ์ ์šฉ์„ ํ†ตํ•ด ๊ฐœ์„ ๋˜๋ฉฐ ์ด์šฉ ๊ฐ€๋Šฅํ•œ ๋ฐ์ดํ„ฐ๊ฐ€ ์ฆ๊ฐ€ํ• ์ˆ˜๋ก ๋”์šฑ ์ •ํ™•ํ•ด์ง‘๋‹ˆ๋‹ค.

2. Model

  • ๋ชจ๋ธ์€ ๋ฐ์ดํ„ฐ๋ฅผ ์–ด๋–ป๊ฒŒ ๋ณ€ํ™˜ ์‹œํ‚ฌ์ง€๋ฅผ ๊ฒฐ์ •ํ•˜๋Š” ์š”์†Œ๋ผ๊ณ  ๋ณผ ์ˆ˜ ์žˆ๋‹ค
  • ResNet, LSTM, GAN ๋“ฑ ์„ธ์ƒ์— ๋‚˜์˜จ ์—ฌ๋Ÿฌ ๋ชจ๋ธ๋“ค ์ค‘์—์„œ ๋ฌธ์ œ ์œ ํ˜•์— ๋งž๋Š” ๋ชจ๋ธ์„ ์„ ํƒํ•˜๋Š” ๊ฒƒ์€ ์ค‘์š”ํ•œ ๋ฌธ์ œ์ด๋‹ค.

3. Loss Function

  • ์†์‹คํ•จ์ˆ˜๋ž€ ๋ชจ๋ธ์˜ ๋ถˆ๋Ÿ‰๋„(badness)๋ฅผ ์ •๋Ÿ‰ํ™”(quantifie)ํ•œ๋‹ค๊ณ  ๋ณผ ์ˆ˜ ์žˆ๋‹ค
  • ์†์‹คํ•จ์ˆ˜๋Š” ์šฐ๋ฆฌ๊ฐ€ ๋‹ฌ์„ฑํ•˜๊ณ ์ž ํ•˜๋Š” ๊ฒƒ์˜ ๋Œ€๋ฆฌ์ž(proxy)์ด๋‹ค.
  • MSE, CE, MLE ๋“ฑ ์—ฌ๋Ÿฌ ์˜ค์ฐจํ•จ์ˆ˜์˜ ์„ฑ์งˆ์„ ์•Œ๊ณ  ์™œ ๋‚ด๊ฐ€ ์›ํ•˜๋Š” ๊ฒฐ๊ณผ๋ฅผ ์–ป์„ ์ˆ˜ ์žˆ๋Š”์ง€ ์•Œ์•„์•ผ ์ œ๋Œ€๋กœ๋œ ๋ชจ๋ธ์„ ๋งŒ๋“ค ์ˆ˜ ์žˆ๋‹ค.
  • ์ฐธ๊ณ ๋กœ ์†์‹คํ•จ์ˆ˜๋Š” ์˜ค์ฐจํ•จ์ˆ˜(Error Function), ๋น„์šฉํ•จ์ˆ˜(Cost Function), ๋ชฉํ‘œํ•จ์ˆ˜(Objective Function) ๋“ฑ์œผ๋กœ ๋‹ค์–‘ํ•˜๊ฒŒ ๋ถˆ๋ฆฐ๋‹ค.

4. Activation Function

  • ์ž…๋ ฅ๋ฐ์ดํ„ฐ์— ๋Œ€ํ•œ ์ถœ๋ ฅ๋ฐ์ดํ„ฐ๋ฅผ ๋น„์„ ํ˜•์œผ๋กœ ๋‚˜์˜ค๊ฒŒ ํ•˜๋Š” ํ•จ์ˆ˜๋กœ ์ด์ „ Layerd์˜ ๊ฒฐ๊ณผ๊ฐ’์„ ๋ณ€ํ™˜ํ•˜์—ฌ ๋‹ค๋ฅธ ์ธต์˜ ๋‰ด๋Ÿฐ์œผ๋กœ ์‹ ํ˜ธ๋ฅผ ์ „๋‹ฌํ•˜๋Š” ์—ญํ• ์„ ํ•œ๋‹ค.
  • ํ™œ์„ฑํ™” ํ•จ์ˆ˜๋Š” ๋ชจ๋ธ์˜ ๋ณต์žก๋„๋ฅผ ์˜ฌ๋ ค ๊ธฐ์กด์— ํ•ด๊ฒฐํ•˜์ง€ ๋ชปํ–ˆ๋˜ ๋น„์„ ํ˜• ๋ฌธ์ œ๋ฅผ ํ•ด๊ฒฐํ•  ์ˆ˜ ์žˆ๊ฒŒ ํ•œ๋‹ค.

5. Optimization(์ตœ์ ํ™”)๋ฅผ ์œ„ํ•œ Algorithm

  • ์•Œ๊ณ ๋ฆฌ์ฆ˜์ด๋ž€ ์˜ค์ฐจ(์†์‹คํ•จ์ˆ˜)๋ฅผ ์ตœ์†Œํ™”ํ•˜๊ธฐ ์œ„ํ•œ ๋งค๊ฐœ๋ณ€์ˆ˜(parameter)๋“ค์„ ์กฐ์ •ํ•˜๋Š” ๊ฒƒ์ด๋‹ค. ์ฆ‰, ์ตœ์ ํ™”(optimization)๋ผ๊ณ  ๋ณผ ์ˆ˜ ์žˆ๋‹ค.
  • Dropout, Early stopping, Batch normalization ๋“ฑ ์—ฌ๋Ÿฌ ๋ฐฉ๋ฒ•๋ก ์„ ์‚ฌ์šฉํ•ด ์˜ค์ฐจ๋ฅผ ์ตœ์†Œํ™” ์‹œํ‚ค๋Š” ์•Œ๊ณ ๋ฆฌ์ฆ˜์„ ๋งŒ๋“ค์–ด์•ผ ํ•œ๋‹ค.

Epilogue

๐Ÿ’โ€โ™€๏ธ ์•ž์œผ๋กœ ๋‹ค๋ฃฐ ๊ธ€์—์„œ๋Š” ๋”ฅ๋Ÿฌ๋‹์˜ ์š”์†Œ์ธ ๋ฐ์ดํ„ฐ, ๋ชจ๋ธ, ์†์‹คํ•จ์ˆ˜, ์ตœ์ ํ™”๋ฅผ ๊ธฐ์ค€์œผ๋กœ ๋”ฅ๋Ÿฌ๋‹์˜ ๊ตฌ์ฒด์ ์ธ ๋ฐฉ๋ฒ•๋ก ๋“ค์„ ํ•˜๋‚˜ ํ•˜๋‚˜์”ฉ ์•Œ์•„๊ฐˆ ๊ฒƒ ์ด๋‹ค.

-์ฐธ๊ณ -

๋„ค์ด๋ฒ„ ๋ถ€์ŠคํŠธ์บ ํ”„ AI Tech 5๊ธฐ
tcpschool.com
AWS ์‹ ๊ฒฝ๋ง์ด๋ž€ ๋ฌด์—‡์ธ๊ฐ€์š”?
SAP ๋จธ์‹ ๋Ÿฌ๋‹์ด๋ž€?
[AI๋ž‘ ์‚ฐ๋‹ค] #1 ์ธ๊ณต์ง€๋Šฅ ์—ญ์‚ฌ๋กœ ์•Œ์•„๋ณด๋Š” ํ•ต์‰ฌ์šด ์šฉ์–ด์‚ฌ์ „
๋”ฅ ๋Ÿฌ๋‹์˜ ํ•™์Šต ๋ฐฉ๋ฒ•

profile
AI Learning, Parcelled Innovations, Carrying All

0๊ฐœ์˜ ๋Œ“๊ธ€