본문내용 바로가기
무료배송 이벤트 사은품 소득공제

패키지 없이 R로 구현하는 심층 강화학습 손으로 풀어보는 Q-Learning부터 R로 구현하는 심층 강화학습까지

이경택 , 박이삭 , 최영제 지음 | 비제이퍼블릭 | 2021년 06월 29일 출간
클로버 리뷰쓰기

이 책의 다른 상품 정보

  • 정가 : 26,000원
    판매가 : 23,400 [10%↓ 2,600원 할인]
  • 혜택 :
    [기본적립] 1300원 적립 [5% 적립] [추가적립] 5만원 이상 구매 시 2,000원 추가적립 안내 [회원혜택] 회원 등급 별, 3만원 이상 구매 시 2~4% 추가적립 안내 [리뷰적립] 리뷰 작성 시 e교환권 최대 300원 추가적립 안내
  • 추가혜택 : 포인트 안내 도서소득공제 안내 추가혜택 더보기
  • 배송비 : 무료 배송비 안내
  • 배송일정 : 서울특별시 종로구 세종대로 기준 지역변경
    지금 주문하면 내일(25일,수) 도착 예정 배송일정 안내
  • 바로드림 : 인터넷으로 주문하고 매장에서 직접 수령 안내 바로드림 혜택
    휴일에는 바로드림 픽업으로 더 빨리 받아 보세요. 바로드림 혜택받고 이용하기

이 책의 이벤트

해외주문/바로드림/제휴사주문/업체배송건의 경우 1+1 증정상품이 발송되지 않습니다.
  • 6월 2일 개발자 북콘서트 사전신청하고 선물 받자!
    2022.05.11 ~ 2022.05.31
  • [교보단독 사은품] 개발자 매거진 <리드잇zine> ..
    2022.05.10 ~ 2022.06.30
상품상세정보
ISBN 9791165920746(1165920743)
쪽수 332쪽
크기 189 * 246 * 22 mm /824g 판형알림

책소개

이 책이 속한 분야

이 책의 주제어

머신러닝과 강화학습의 기본 개념부터 심층 강화학습의 알고리즘과 발전방향까지!
본 서는 강화학습의 기본 요소와 작동 원리에 대해 상세히 다루는데, 딥러닝 프레임 워크를 사용하는 것이 아닌, R base code로 강화학습을 구현하여 강화학습 작동원리를 이해한다.
Atari 게임 환경 외에 실생활에서 강화학습을 적용하고자 하는 독자들을 위하여 환경을 직접 설계함과 동시에 패키지 없이 low level부터 모든 것을 구현하기 때문에, 이 책을 통해 강화학습의 이론적 내용을 이해하고 알고리즘 및 환경을 구현하는 능력을 함양하여, 풀고자 하는 다양한 상황에서 쉽게 활용할 수 있을 것이다.
이 책이 필요한 독자
- R을 활용하여 데이터를 읽고 원하는 머신러닝 모델을 적합할 수 있는 사람
- 머신러닝과 딥러닝에 대해 기초 모델에 대한 지식(CNN, RNN 등)이 있는 사람
- 강화학습에 대해 제대로 이해하고 R로 구현해보고 싶은 사람
- 실생활에 강화학습을 적용하고 싶은 데이터 분석가

상세이미지

패키지 없이 R로 구현하는 심층 강화학습 도서 상세이미지

목차

Chapter 0. R 언어 소개
0.1 R 설치
〉 0.1.1 Windows 버전 R 다운로드 〈
〉 0.1.2 mac OS 버전 R 다운로드 〈
0.2 R 전용 통합 개발 환경(IDE) 설치


Chapter 1. 머신러닝이란 Machine Learning
1.1 머신러닝이 필요한 이유
〉 1.1.1 머신러닝 학습시키기 〈
〉 1.1.2 손실 함수 〈
〉 1.1.3 머신러닝의 구분 〈
1.2 딥러닝(Deep Learning)
〉 1.2.1 딥러닝의 사례 〈


Chapter 2. 딥러닝 Deep Learning
2.1 퍼셉트론(Perceptron)
2.2 Multi Layer Perceptron(MLP)
〉 2.2.1 Feed Forward 〈
〉 2.2.2 Back Propagation 〈
〉 2.2.3 활성 함수(Activation Function) 〈
〉 2.2.4 Gradient Descent Method 〈
〉 2.2.5 Iteration & Batch Size 〈
〉 2.2.6 딥러닝의 단점 및 극복 〈
2.3 딥러닝(Deep Learning)
〉 2.3.1 Universal Approximation Theorem 〈
〉 2.3.2 Convolutional Neural Network(CNN) 〈
〉 2.3.3 다양한 CNN 구조 〈
〉 2.3.4 Recurrent Neural Network(RNN) 〈
〉 2.3.5 다양한 RNN 구조 〈
〉 2.3.6 GAN 학습 과정 - Feed Forward 〈
〉 2.3.7 GAN 학습 과정 - Back Propagation 〈
2.4 R로 구현하는 신경망
〉 2.4.1 Feed Forward 〈
〉 2.4.2 Back Propagation 〈


Chapter 3. 강화학습 Reinforcement Learning
3.1 강화학습 정의 요소
〉 3.1.1 상태(State) 〈
〉 3.1.2 행동(Action) 〈
〉 3.1.3 정책(Policy) 〈
〉 3.1.4 보상(Reward) 〈
〉 3.1.5 감가율과 감가 누적 보상(Discount factor and Return) 〈
〉 3.1.6 상태 가치 함수(State Value Function) 〈
〉 3.1.7 행동 가치 함수(Action Value Function) 〈
〉 3.1.8 벨만 방정식(Bellman equation) 〈
〉 3.1.9 몬테 카를로 학습(Monte-Carlo Learning, MC) 〈
〉 3.1.10 시간 차 학습(Temporal Difference Learning, TD) 〈
〉 3.1.11 정책 갱신 〈
3.2 손으로 풀어보는 Q-Learning


Chapter 4. 심층 강화학습 Deep Reinforcement Learning
4.1 Deep Q-Learning with Experience Replay(DQN)
[예제 4-1] DQN으로 최적 경로 찾기
4.2 Prioritized Experience Replay (PerDQN)
[예제 4-2] PerDQN으로 최적 경로 찾기
4.3 Dueling DQN
4.4 Policy Gradient(PG)
〉 4.4.1 REINFORCE Algorithm 〈
〉 4.4.2 Actor-Critic 〈
4.5 Advantage Actor-Critic(A2C)
[예제 4-3] A2C로 최적 경로 찾기
4.6 Asynchronous Methods for Deep Reinforcement Learning(A3C)
4.7 강화학습의 발전 방향
〉 4.7.1 다수의 에이전트(Multi Agent) 〈
〉 4.7.2 희소 보상 문제(Sparse Reward Problem) 〈
4.8 Curiosity
〉 4.8.1 Exploration Bonus 〈
〉 4.8.2 Count-Based Exploration Bonus 〈
〉 4.8.3 Curiosity의 개념 〈
4.9 Self-Imitation Learning
[예제 4-4] SIL로 최적 경로 찾기(난이도 3)
4.10 Exploration by Random Network Distillation
[예제 4-5] RND로 최적 경로 찾기(난이도 3)


Chapter 5. 심층 강화학습을 이용한 프로젝트
5.1 1단계 프로젝트
〉 5.1.1 Environment 소개 〈
〉 5.1.2 State 설계 〈
〉 5.1.3 Reward 설계 〈
〉 5.1.4 1단계 프로젝트 학습 코드 〈
5.2 2단계 프로젝트
〉 5.2.1 Environment 소개 〈
〉 5.2.2 State 설계 〈
〉 5.2.3 Reward 설계 〈
〉 5.2.4 2단계 프로젝트 학습 코드 〈
5.3 3단계 프로젝트
〉 5.3.1 Environment 소개 〈
〉 5.3.2 3단계 프로젝트 학습 코드 〈


Chapter 6. 최신 강화학습 트렌드
6.1 Trust Region Policy Optimization(TRPO)
6.2 Proximal Policy Optimization(PPO)
6.3 Distributed Prioritized Experience Replay(Ape-X)
6.4 Never Give Up(NGU)
6.5 Rewarding Impact-Driven Exploration (RIDE)
6.6 BeBold
〉 6.6.1 Episodic Restriction on Intrinsic Reward(ERIR) 〈
6.7 Surprise Minimizing Reinforcement Learning(SMiRL)


그림 출처
찾아보기

출판사 서평

베타 리더 추천사
대부분의 실용성을 목적으로 한 딥러닝 책과는 현저히 다른 차별점을 보입니다. 코딩 중심으로 풀어나가야 하는 내용을 코딩만으로 풀어나가거나 이론에 대한 설명이 부족한 책이 많은 데에 비해, 이 책은 적절한 예시와 설명과 함께 제일 중요한 수리적 기반 및 매커니즘을 제시합니다. 특히 코드에서 각 부분마다 #(n)로 친절한 분석을 제공하고 있어, 코딩 자체의 구조가 헷갈리거나 처음 보는 구문이 있더라도 쉽게 이해할 수 있을 것입니다. 패키지 설치 없이 온전히 R의 기본 언어들로 구조를 만들었기 때문에 기초를 탄탄히 다... 더보기

Klover 리뷰 (0)

북로그 리뷰 (0) 쓰러가기

북로그 리뷰는 본인 인증 후 작성 가능합니다.
책이나 타인에 대해 근거 없이 비방을 하거나 타인의 명예를 훼손할 수 있는 내용은 비공개 처리 될 수 있습니다.
※ 북로그 리뷰 리워드 제공 2021. 4. 1 종료

문장수집 (0) 문장수집 쓰기 나의 독서기록 보기
※구매 후 문장수집 작성 시, 리워드를 제공합니다. 안내

교환/반품/품절안내

※ 상품 설명에 반품/교환 관련한 안내가 있는 경우 그 내용을 우선으로 합니다. (업체 사정에 따라 달라질 수 있습니다.)

교환/반품/품절안내
반품/교환방법 마이룸 > 주문관리 > 주문/배송내역 > 주문조회 > 반품/교환신청 ,
[1:1상담>반품/교환/환불] 또는 고객센터 (1544-1900)

※ 오픈마켓, 해외배송주문, 기프트 주문시 [1:1상담>반품/교환/환불]
    또는 고객센터 (1544-1900)
반품/교환가능 기간 변심반품의 경우 수령 후 7일 이내,
상품의 결함 및 계약내용과 다를 경우 문제점 발견 후 30일 이내
반품/교환비용 변심 혹은 구매착오로 인한 반품/교환은 반송료 고객 부담
반품/교환 불가 사유
  • 소비자의 책임 있는 사유로 상품 등이 손실 또는 훼손된 경우
    (단지 확인을 위한 포장 훼손은 제외)
  • 소비자의 사용, 포장 개봉에 의해 상품 등의 가치가 현저히 감소한 경우
    예) 화장품, 식품, 가전제품(악세서리 포함) 등
  • 복제가 가능한 상품 등의 포장을 훼손한 경우
    예) 음반/DVD/비디오, 소프트웨어, 만화책, 잡지, 영상 화보집
  • 소비자의 요청에 따라 개별적으로 주문 제작되는 상품의 경우 ((1)해외주문도서)
  • 디지털 컨텐츠인 eBook, 오디오북 등을 1회 이상 다운로드를 받았을 경우
  • 시간의 경과에 의해 재판매가 곤란한 정도로 가치가 현저히 감소한 경우
  • 전자상거래 등에서의 소비자보호에 관한 법률이 정하는 소비자 청약철회 제한 내용에
    해당되는 경우
(1) 해외주문도서 : 이용자의 요청에 의한 개인주문상품으로 단순변심 및 착오로 인한 취소/교환/반품 시 ‘해외주문 반품/취소 수수료’ 고객 부담 (해외주문 반품/취소 수수료 : ①서양도서-판매정가의 12%, ②일본도서-판매정가의 7%를 적용)
상품 품절 공급사(출판사) 재고 사정에 의해 품절/지연될 수 있으며, 품절 시 관련 사항에 대해서는
이메일과 문자로 안내드리겠습니다.
소비자 피해보상
환불지연에 따른 배상
  • 상품의 불량에 의한 교환, A/S, 환불, 품질보증 및 피해보상 등에 관한 사항은
    소비자분쟁해결 기준 (공정거래위원회 고시)에 준하여 처리됨
  • 대금 환불 및 환불지연에 따른 배상금 지급 조건, 절차 등은 전자상거래 등에서의
    소비자 보호에 관한 법률에 따라 처리함
바로가기
  • 우측 확장형 배너 2
  • 우측 확장형 배너 2
최근 본 상품