º»¹®³»¿ë ¹Ù·Î°¡±â
¹«·á¹è¼Û À̺¥Æ® »çÀºÇ° ¼Òµæ°øÁ¦

ÆÐŰÁö ¾øÀÌ R·Î ±¸ÇöÇÏ´Â ½ÉÃþ °­È­ÇнÀ ¼ÕÀ¸·Î Ç®¾îº¸´Â Q-LearningºÎÅÍ R·Î ±¸ÇöÇÏ´Â ½ÉÃþ °­È­ÇнÀ±îÁö

À̰æÅà , ¹ÚÀÌ»è , ÃÖ¿µÁ¦ ÁöÀ½ | ºñÁ¦ÀÌÆÛºí¸¯ | 2021³â 06¿ù 29ÀÏ Ãâ°£
Ŭ·Î¹ö ¸®ºä¾²±â

ÀÌ Ã¥ÀÇ ´Ù¸¥ »óǰ Á¤º¸

  • Á¤°¡ : 26,000¿ø
    ÆÇ¸Å°¡ : 23,400¿ø [10%¡é 2,600¿ø ÇÒÀÎ]
  • ÇýÅÃ :
    [±âº»Àû¸³] 1300¿ø Àû¸³ [5% Àû¸³] [Ãß°¡Àû¸³] 5¸¸¿ø ÀÌ»ó ±¸¸Å ½Ã 2,000¿ø Ãß°¡Àû¸³ ¾È³» [ȸ¿øÇýÅÃ] ȸ¿ø µî±Þ º°, 3¸¸¿ø ÀÌ»ó ±¸¸Å ½Ã 2~4% Ãß°¡Àû¸³ ¾È³» [¸®ºäÀû¸³] ¸®ºä ÀÛ¼º ½Ã e±³È¯±Ç ÃÖ´ë 300¿ø Ãß°¡Àû¸³ ¾È³»
  • Ãß°¡ÇýÅà : Æ÷ÀÎÆ® ¾È³» µµ¼­¼Òµæ°øÁ¦ ¾È³» Ãß°¡ÇýÅà ´õº¸±â
  • ¹è¼Ûºñ : ¹«·á ¹è¼Ûºñ ¾È³»
  • ¹è¼ÛÀÏÁ¤ : ¼­¿ïƯº°½Ã Á¾·Î±¸ ¼¼Á¾´ë·Î ±âÁØ Áö¿ªº¯°æ
    Áö±Ý ÁÖ¹®ÇÏ¸é ³»ÀÏ(26ÀÏ,¸ñ) µµÂø ¿¹Á¤ ¹è¼ÛÀÏÁ¤ ¾È³»
  • ¹Ù·Îµå¸² : ÀÎÅͳÝÀ¸·Î ÁÖ¹®ÇÏ°í ¸ÅÀå¿¡¼­ Á÷Á¢ ¼ö·É ¾È³» ¹Ù·Îµå¸² ÇýÅÃ
    ÈÞÀÏ¿¡´Â ¹Ù·Îµå¸² ÇȾ÷À¸·Î ´õ »¡¸® ¹Þ¾Æ º¸¼¼¿ä. ¹Ù·Îµå¸² ÇýÅùްí ÀÌ¿ëÇϱâ

ÀÌ Ã¥ÀÇ À̺¥Æ®

ÇØ¿ÜÁÖ¹®/¹Ù·Îµå¸²/Á¦ÈÞ»çÁÖ¹®/¾÷ü¹è¼Û°ÇÀÇ °æ¿ì 1+1 ÁõÁ¤»óǰÀÌ ¹ß¼ÛµÇÁö ¾Ê½À´Ï´Ù.
  • 6¿ù 2ÀÏ °³¹ßÀÚ ºÏÄܼ­Æ® »çÀü½ÅûÇÏ°í ¼±¹° ¹ÞÀÚ!
    2022.05.11 ~ 2022.05.31
  • [±³º¸´Üµ¶ »çÀºÇ°] °³¹ßÀÚ ¸Å°ÅÁø <¸®µåÀÕzine> ..
    2022.05.10 ~ 2022.06.30
»óǰ»ó¼¼Á¤º¸
ISBN 9791165920746(1165920743)
Âʼö 332ÂÊ
Å©±â 189 * 246 * 22 mm /824g ÆÇÇü¾Ë¸²

Ã¥¼Ò°³

ÀÌ Ã¥ÀÌ ¼ÓÇÑ ºÐ¾ß

ÀÌ Ã¥ÀÇ ÁÖÁ¦¾î

¸Ó½Å·¯´×°ú °­È­ÇнÀÀÇ ±âº» °³³äºÎÅÍ ½ÉÃþ °­È­ÇнÀÀÇ ¾Ë°í¸®Áò°ú ¹ßÀü¹æÇâ±îÁö!
º» ¼­´Â °­È­ÇнÀÀÇ ±âº» ¿ä¼Ò¿Í ÀÛµ¿ ¿ø¸®¿¡ ´ëÇØ »ó¼¼È÷ ´Ù·ç´Âµ¥, µö·¯´× ÇÁ·¹ÀÓ ¿öÅ©¸¦ »ç¿ëÇÏ´Â °ÍÀÌ ¾Æ´Ñ, R base code·Î °­È­ÇнÀÀ» ±¸ÇöÇÏ¿© °­È­ÇнÀ ÀÛµ¿¿ø¸®¸¦ ÀÌÇØÇÑ´Ù.
Atari °ÔÀÓ È¯°æ ¿Ü¿¡ ½Ç»ýȰ¿¡¼­ °­È­ÇнÀÀ» Àû¿ëÇϰíÀÚ ÇÏ´Â µ¶ÀÚµéÀ» À§ÇÏ¿© ȯ°æÀ» Á÷Á¢ ¼³°èÇÔ°ú µ¿½Ã¿¡ ÆÐŰÁö ¾øÀÌ low levelºÎÅÍ ¸ðµç °ÍÀ» ±¸ÇöÇϱ⠶§¹®¿¡, ÀÌ Ã¥À» ÅëÇØ °­È­ÇнÀÀÇ ÀÌ·ÐÀû ³»¿ëÀ» ÀÌÇØÇÏ°í ¾Ë°í¸®Áò ¹× ȯ°æÀ» ±¸ÇöÇÏ´Â ´É·ÂÀ» ÇÔ¾çÇÏ¿©, Ç®°íÀÚ ÇÏ´Â ´Ù¾çÇÑ »óȲ¿¡¼­ ½±°Ô Ȱ¿ëÇÒ ¼ö ÀÖÀ» °ÍÀÌ´Ù.
ÀÌ Ã¥ÀÌ ÇÊ¿äÇÑ µ¶ÀÚ
- RÀ» Ȱ¿ëÇÏ¿© µ¥ÀÌÅ͸¦ ÀÐ°í ¿øÇÏ´Â ¸Ó½Å·¯´× ¸ðµ¨À» ÀûÇÕÇÒ ¼ö ÀÖ´Â »ç¶÷
- ¸Ó½Å·¯´×°ú µö·¯´×¿¡ ´ëÇØ ±âÃÊ ¸ðµ¨¿¡ ´ëÇÑ Áö½Ä(CNN, RNN µî)ÀÌ ÀÖ´Â »ç¶÷
- °­È­ÇнÀ¿¡ ´ëÇØ Á¦´ë·Î ÀÌÇØÇϰí R·Î ±¸ÇöÇØº¸°í ½ÍÀº »ç¶÷
- ½Ç»ýȰ¿¡ °­È­ÇнÀÀ» Àû¿ëÇÏ°í ½ÍÀº µ¥ÀÌÅÍ ºÐ¼®°¡

»ó¼¼À̹ÌÁö

ÆÐŰÁö ¾øÀÌ R·Î ±¸ÇöÇÏ´Â ½ÉÃþ °­È­ÇнÀ µµ¼­ »ó¼¼À̹ÌÁö

¸ñÂ÷

Chapter 0. R ¾ð¾î ¼Ò°³
0.1 R ¼³Ä¡
¡µ 0.1.1 Windows ¹öÀü R ´Ù¿î·Îµå ¡´
¡µ 0.1.2 mac OS ¹öÀü R ´Ù¿î·Îµå ¡´
0.2 R Àü¿ë ÅëÇÕ °³¹ß ȯ°æ(IDE) ¼³Ä¡


Chapter 1. ¸Ó½Å·¯´×À̶õ Machine Learning
1.1 ¸Ó½Å·¯´×ÀÌ ÇÊ¿äÇÑ ÀÌÀ¯
¡µ 1.1.1 ¸Ó½Å·¯´× ÇнÀ½ÃŰ±â ¡´
¡µ 1.1.2 ¼Õ½Ç ÇÔ¼ö ¡´
¡µ 1.1.3 ¸Ó½Å·¯´×ÀÇ ±¸ºÐ ¡´
1.2 µö·¯´×(Deep Learning)
¡µ 1.2.1 µö·¯´×ÀÇ »ç·Ê ¡´


Chapter 2. µö·¯´× Deep Learning
2.1 ÆÛ¼ÁÆ®·Ð(Perceptron)
2.2 Multi Layer Perceptron(MLP)
¡µ 2.2.1 Feed Forward ¡´
¡µ 2.2.2 Back Propagation ¡´
¡µ 2.2.3 Ȱ¼º ÇÔ¼ö(Activation Function) ¡´
¡µ 2.2.4 Gradient Descent Method ¡´
¡µ 2.2.5 Iteration & Batch Size ¡´
¡µ 2.2.6 µö·¯´×ÀÇ ´ÜÁ¡ ¹× ±Øº¹ ¡´
2.3 µö·¯´×(Deep Learning)
¡µ 2.3.1 Universal Approximation Theorem ¡´
¡µ 2.3.2 Convolutional Neural Network(CNN) ¡´
¡µ 2.3.3 ´Ù¾çÇÑ CNN ±¸Á¶ ¡´
¡µ 2.3.4 Recurrent Neural Network(RNN) ¡´
¡µ 2.3.5 ´Ù¾çÇÑ RNN ±¸Á¶ ¡´
¡µ 2.3.6 GAN ÇнÀ °úÁ¤ - Feed Forward ¡´
¡µ 2.3.7 GAN ÇнÀ °úÁ¤ - Back Propagation ¡´
2.4 R·Î ±¸ÇöÇÏ´Â ½Å°æ¸Á
¡µ 2.4.1 Feed Forward ¡´
¡µ 2.4.2 Back Propagation ¡´


Chapter 3. °­È­ÇнÀ Reinforcement Learning
3.1 °­È­ÇнÀ Á¤ÀÇ ¿ä¼Ò
¡µ 3.1.1 »óÅÂ(State) ¡´
¡µ 3.1.2 Çൿ(Action) ¡´
¡µ 3.1.3 Á¤Ã¥(Policy) ¡´
¡µ 3.1.4 º¸»ó(Reward) ¡´
¡µ 3.1.5 °¨°¡À²°ú °¨°¡ ´©Àû º¸»ó(Discount factor and Return) ¡´
¡µ 3.1.6 »óÅÂ °¡Ä¡ ÇÔ¼ö(State Value Function) ¡´
¡µ 3.1.7 Çൿ °¡Ä¡ ÇÔ¼ö(Action Value Function) ¡´
¡µ 3.1.8 º§¸¸ ¹æÁ¤½Ä(Bellman equation) ¡´
¡µ 3.1.9 ¸óÅ× Ä«¸¦·Î ÇнÀ(Monte-Carlo Learning, MC) ¡´
¡µ 3.1.10 ½Ã°£ Â÷ ÇнÀ(Temporal Difference Learning, TD) ¡´
¡µ 3.1.11 Á¤Ã¥ °»½Å ¡´
3.2 ¼ÕÀ¸·Î Ç®¾îº¸´Â Q-Learning


Chapter 4. ½ÉÃþ °­È­ÇнÀ Deep Reinforcement Learning
4.1 Deep Q-Learning with Experience Replay(DQN)
[¿¹Á¦ 4-1] DQNÀ¸·Î ÃÖÀû °æ·Î ã±â
4.2 Prioritized Experience Replay (PerDQN)
[¿¹Á¦ 4-2] PerDQNÀ¸·Î ÃÖÀû °æ·Î ã±â
4.3 Dueling DQN
4.4 Policy Gradient(PG)
¡µ 4.4.1 REINFORCE Algorithm ¡´
¡µ 4.4.2 Actor-Critic ¡´
4.5 Advantage Actor-Critic(A2C)
[¿¹Á¦ 4-3] A2C·Î ÃÖÀû °æ·Î ã±â
4.6 Asynchronous Methods for Deep Reinforcement Learning(A3C)
4.7 °­È­ÇнÀÀÇ ¹ßÀü ¹æÇâ
¡µ 4.7.1 ´Ù¼öÀÇ ¿¡ÀÌÀüÆ®(Multi Agent) ¡´
¡µ 4.7.2 Èñ¼Ò º¸»ó ¹®Á¦(Sparse Reward Problem) ¡´
4.8 Curiosity
¡µ 4.8.1 Exploration Bonus ¡´
¡µ 4.8.2 Count-Based Exploration Bonus ¡´
¡µ 4.8.3 CuriosityÀÇ °³³ä ¡´
4.9 Self-Imitation Learning
[¿¹Á¦ 4-4] SIL·Î ÃÖÀû °æ·Î ã±â(³­À̵µ 3)
4.10 Exploration by Random Network Distillation
[¿¹Á¦ 4-5] RND·Î ÃÖÀû °æ·Î ã±â(³­À̵µ 3)


Chapter 5. ½ÉÃþ °­È­ÇнÀÀ» ÀÌ¿ëÇÑ ÇÁ·ÎÁ§Æ®
5.1 1´Ü°è ÇÁ·ÎÁ§Æ®
¡µ 5.1.1 Environment ¼Ò°³ ¡´
¡µ 5.1.2 State ¼³°è ¡´
¡µ 5.1.3 Reward ¼³°è ¡´
¡µ 5.1.4 1´Ü°è ÇÁ·ÎÁ§Æ® ÇнÀ ÄÚµå ¡´
5.2 2´Ü°è ÇÁ·ÎÁ§Æ®
¡µ 5.2.1 Environment ¼Ò°³ ¡´
¡µ 5.2.2 State ¼³°è ¡´
¡µ 5.2.3 Reward ¼³°è ¡´
¡µ 5.2.4 2´Ü°è ÇÁ·ÎÁ§Æ® ÇнÀ ÄÚµå ¡´
5.3 3´Ü°è ÇÁ·ÎÁ§Æ®
¡µ 5.3.1 Environment ¼Ò°³ ¡´
¡µ 5.3.2 3´Ü°è ÇÁ·ÎÁ§Æ® ÇнÀ ÄÚµå ¡´


Chapter 6. Ãֽа­È­ÇнÀ Æ®·»µå
6.1 Trust Region Policy Optimization(TRPO)
6.2 Proximal Policy Optimization(PPO)
6.3 Distributed Prioritized Experience Replay(Ape-X)
6.4 Never Give Up(NGU)
6.5 Rewarding Impact-Driven Exploration (RIDE)
6.6 BeBold
¡µ 6.6.1 Episodic Restriction on Intrinsic Reward(ERIR) ¡´
6.7 Surprise Minimizing Reinforcement Learning(SMiRL)


±×¸² Ãâó
ã¾Æº¸±â

ÃâÆÇ»ç ¼­Æò

º£Å¸ ¸®´õ Ãßõ»ç
´ëºÎºÐÀÇ ½Ç¿ë¼ºÀ» ¸ñÀûÀ¸·Î ÇÑ µö·¯´× Ã¥°ú´Â ÇöÀúÈ÷ ´Ù¸¥ Â÷º°Á¡À» º¸ÀÔ´Ï´Ù. ÄÚµù Áß½ÉÀ¸·Î Ç®¾î³ª°¡¾ß ÇÏ´Â ³»¿ëÀ» ÄÚµù¸¸À¸·Î Ç®¾î³ª°¡°Å³ª À̷п¡ ´ëÇÑ ¼³¸íÀÌ ºÎÁ·ÇÑ Ã¥ÀÌ ¸¹Àº µ¥¿¡ ºñÇØ, ÀÌ Ã¥Àº ÀûÀýÇÑ ¿¹½Ã¿Í ¼³¸í°ú ÇÔ²² Á¦ÀÏ Áß¿äÇÑ ¼ö¸®Àû ±â¹Ý ¹× ¸ÅÄ¿´ÏÁòÀ» Á¦½ÃÇÕ´Ï´Ù. ƯÈ÷ Äڵ忡¼­ °¢ ºÎºÐ¸¶´Ù #(n)·Î Ä£ÀýÇÑ ºÐ¼®À» Á¦°øÇϰí ÀÖ¾î, ÄÚµù ÀÚüÀÇ ±¸Á¶°¡ Çò°¥¸®°Å³ª óÀ½ º¸´Â ±¸¹®ÀÌ ÀÖ´õ¶óµµ ½±°Ô ÀÌÇØÇÒ ¼ö ÀÖÀ» °ÍÀÔ´Ï´Ù. ÆÐŰÁö ¼³Ä¡ ¾øÀÌ ¿ÂÀüÈ÷ RÀÇ ±âº» ¾ð¾îµé·Î ±¸Á¶¸¦ ¸¸µé¾ú±â ¶§¹®¿¡ ±âÃʸ¦ źźÈ÷ ´Ù... ´õº¸±â

Klover ¸®ºä (0)

ºÏ·Î±× ¸®ºä (0) ¾²·¯°¡±â

ºÏ·Î±× ¸®ºä´Â º»ÀÎ ÀÎÁõ ÈÄ ÀÛ¼º °¡´ÉÇÕ´Ï´Ù.
Ã¥À̳ª ŸÀο¡ ´ëÇØ ±Ù°Å ¾øÀÌ ºñ¹æÀ» Çϰųª ŸÀÎÀÇ ¸í¿¹¸¦ ÈѼÕÇÒ ¼ö ÀÖ´Â ³»¿ëÀº ºñ°ø°³ ó¸® µÉ ¼ö ÀÖ½À´Ï´Ù.
¡Ø ºÏ·Î±× ¸®ºä ¸®¿öµå Á¦°ø 2021. 4. 1 Á¾·á

¹®Àå¼öÁý (0) ¹®Àå¼öÁý ¾²±â ³ªÀÇ µ¶¼­±â·Ï º¸±â
※±¸¸Å ÈÄ ¹®Àå¼öÁý ÀÛ¼º ½Ã, ¸®¿öµå¸¦ Á¦°øÇÕ´Ï´Ù. ¾È³»

±³È¯/¹Ýǰ/ǰÀý¾È³»

¡Ø »óǰ ¼³¸í¿¡ ¹Ýǰ/±³È¯ °ü·ÃÇÑ ¾È³»°¡ ÀÖ´Â °æ¿ì ±× ³»¿ëÀ» ¿ì¼±À¸·Î ÇÕ´Ï´Ù. (¾÷ü »çÁ¤¿¡ µû¶ó ´Þ¶óÁú ¼ö ÀÖ½À´Ï´Ù.)

±³È¯/¹Ýǰ/ǰÀý¾È³»
¹Ýǰ/±³È¯¹æ¹ý ¸¶ÀÌ·ë > ÁÖ¹®°ü¸® > ÁÖ¹®/¹è¼Û³»¿ª > ÁÖ¹®Á¶È¸ > ¹Ýǰ/±³È¯½Åû ,
[1:1»ó´ã>¹Ýǰ/±³È¯/ȯºÒ] ¶Ç´Â °í°´¼¾ÅÍ (1544-1900)

¡Ø ¿ÀǸ¶ÄÏ, ÇØ¿Ü¹è¼ÛÁÖ¹®, ±âÇÁÆ® ÁÖ¹®½Ã [1:1»ó´ã>¹Ýǰ/±³È¯/ȯºÒ]
    ¶Ç´Â °í°´¼¾ÅÍ (1544-1900)
¹Ýǰ/±³È¯°¡´É ±â°£ º¯½É¹ÝǰÀÇ °æ¿ì ¼ö·É ÈÄ 7ÀÏ À̳»,
»óǰÀÇ °áÇÔ ¹× °è¾à³»¿ë°ú ´Ù¸¦ °æ¿ì ¹®Á¦Á¡ ¹ß°ß ÈÄ 30ÀÏ À̳»
¹Ýǰ/±³È¯ºñ¿ë º¯½É ȤÀº ±¸¸ÅÂø¿À·Î ÀÎÇÑ ¹Ýǰ/±³È¯Àº ¹Ý¼Û·á °í°´ ºÎ´ã
¹Ýǰ/±³È¯ ºÒ°¡ »çÀ¯
  • ¼ÒºñÀÚÀÇ Ã¥ÀÓ ÀÖ´Â »çÀ¯·Î »óǰ µîÀÌ ¼Õ½Ç ¶Ç´Â ÈÑ¼ÕµÈ °æ¿ì
    (´ÜÁö È®ÀÎÀ» À§ÇÑ Æ÷Àå ÈѼÕÀº Á¦¿Ü)
  • ¼ÒºñÀÚÀÇ »ç¿ë, Æ÷Àå °³ºÀ¿¡ ÀÇÇØ »óǰ µîÀÇ °¡Ä¡°¡ ÇöÀúÈ÷ °¨¼ÒÇÑ °æ¿ì
    ¿¹) È­Àåǰ, ½Äǰ, °¡ÀüÁ¦Ç°(¾Ç¼¼¼­¸® Æ÷ÇÔ) µî
  • º¹Á¦°¡ °¡´ÉÇÑ »óǰ µîÀÇ Æ÷ÀåÀ» ÈѼÕÇÑ °æ¿ì
    ¿¹) À½¹Ý/DVD/ºñµð¿À, ¼ÒÇÁÆ®¿þ¾î, ¸¸È­Ã¥, ÀâÁö, ¿µ»ó È­º¸Áý
  • ¼ÒºñÀÚÀÇ ¿äû¿¡ µû¶ó °³º°ÀûÀ¸·Î ÁÖ¹® Á¦À۵Ǵ »óǰÀÇ °æ¿ì ((1)ÇØ¿ÜÁÖ¹®µµ¼­)
  • µðÁöÅÐ ÄÁÅÙÃ÷ÀÎ eBook, ¿Àµð¿ÀºÏ µîÀ» 1ȸ ÀÌ»ó ´Ù¿î·Îµå¸¦ ¹Þ¾ÒÀ» °æ¿ì
  • ½Ã°£ÀÇ °æ°ú¿¡ ÀÇÇØ ÀçÆÇ¸Å°¡ °ï¶õÇÑ Á¤µµ·Î °¡Ä¡°¡ ÇöÀúÈ÷ °¨¼ÒÇÑ °æ¿ì
  • ÀüÀÚ»ó°Å·¡ µî¿¡¼­ÀÇ ¼ÒºñÀÚº¸È£¿¡ °üÇÑ ¹ý·üÀÌ Á¤ÇÏ´Â ¼ÒºñÀÚ Ã»¾àöȸ Á¦ÇÑ ³»¿ë¿¡
    ÇØ´çµÇ´Â °æ¿ì
(1) ÇØ¿ÜÁÖ¹®µµ¼­ : ÀÌ¿ëÀÚÀÇ ¿äû¿¡ ÀÇÇÑ °³ÀÎÁÖ¹®»óǰÀ¸·Î ´Ü¼øº¯½É ¹× Âø¿À·Î ÀÎÇÑ Ãë¼Ò/±³È¯/¹Ýǰ ½Ã ¡®ÇØ¿ÜÁÖ¹® ¹Ýǰ/Ãë¼Ò ¼ö¼ö·á¡¯ °í°´ ºÎ´ã (ÇØ¿ÜÁÖ¹® ¹Ýǰ/Ãë¼Ò ¼ö¼ö·á : ¨ç¼­¾çµµ¼­-ÆÇ¸ÅÁ¤°¡ÀÇ 12%, ¨èÀϺ»µµ¼­-ÆÇ¸ÅÁ¤°¡ÀÇ 7%¸¦ Àû¿ë)
»óǰ ǰÀý °ø±Þ»ç(ÃâÆÇ»ç) Àç°í »çÁ¤¿¡ ÀÇÇØ ǰÀý/Áö¿¬µÉ ¼ö ÀÖÀ¸¸ç, ǰÀý ½Ã °ü·Ã »çÇ׿¡ ´ëÇØ¼­´Â
À̸ÞÀϰú ¹®ÀÚ·Î ¾È³»µå¸®°Ú½À´Ï´Ù.
¼ÒºñÀÚ ÇÇÇØº¸»ó
ȯºÒÁö¿¬¿¡ µû¸¥ ¹è»ó
  • »óǰÀÇ ºÒ·®¿¡ ÀÇÇÑ ±³È¯, A/S, ȯºÒ, ǰÁúº¸Áõ ¹× ÇÇÇØº¸»ó µî¿¡ °üÇÑ »çÇ×Àº
    ¼ÒºñÀÚºÐÀïÇØ°á ±âÁØ (°øÁ¤°Å·¡À§¿øÈ¸ °í½Ã)¿¡ ÁØÇÏ¿© 󸮵Ê
  • ´ë±Ý ȯºÒ ¹× ȯºÒÁö¿¬¿¡ µû¸¥ ¹è»ó±Ý Áö±Þ Á¶°Ç, ÀýÂ÷ µîÀº ÀüÀÚ»ó°Å·¡ µî¿¡¼­ÀÇ
    ¼ÒºñÀÚ º¸È£¿¡ °üÇÑ ¹ý·ü¿¡ µû¶ó ó¸®ÇÔ
¹Ù·Î°¡±â
  • ¿ìÃø È®ÀåÇü ¹è³Ê 2
  • ¿ìÃø È®ÀåÇü ¹è³Ê 2
ÃÖ±Ù º» »óǰ