해외주문/바로드림/제휴사주문/업체배송건의 경우 1+1 증정상품이 발송되지 않습니다.
북카드
<핵심 딥러닝 입문: RNN, LSTM, GRU, VAE, GAN 구현>
딥러닝의 기초 지식, 수학, 파이썬부터 실전 프로그래밍 구현까지,
RNN, LSTM, GRU, VAE, GAN을 망라하는 최신 딥러닝 모델 마스터!
현 시점에서 개발자가 꼭 알아야 할 최신 딥러닝 기술들만을 골라 수식과 코드를 번갈아가며 매우 이해하기 쉽게 알려준다. 간결하고 이해하기 쉬운 예제 코드들을 하나 하나 따라 해가다 최종적으로 실전에서도 활용할 수 있는 완결된 딥러닝 코드를 완성해본다. 이 책에서는 파이썬과 기초 수학부터 시작해서, RNN(순환 신경망)과 LSTM, GRU, VAE(변이형 오토인코더), GAN(생성적 적대 신경망)까지, 최신 딥러닝의 필수 모델과 원리, 내부 동작을 빠짐없이 자세하게 설명한다. 파이썬 프로그래밍을 직접 코딩하면서 차근차근 순서대로 공부해 나가다 보면 딥러닝의 기초를 완벽하게 습득할 수 있다.
| 이 책에서 다루는 내용 |
■ 실전에 응용할 수 있는 최신 딥러닝 기술 RNN, LSTM, GRU, VAE, GAN 포함
■ 딥러닝 프레임워크를 사용하지 않고 딥러닝의 알고리즘을 파이썬 프로그래밍 코드로 구현
■ 파이썬과 수치연산 라이브러리 넘파이(NumPy)를 이용한 프로그래밍 기초 지식
■ 딥러닝의 근본적인 원리를 이해하는 데 필요한 핵심 수학 이론과 수식 코딩 방법
■ 독자들이 직접 응용해 수준 높은 코드로 발전시킬 수 있는 완전한 파이썬 코드 제공
| 이 책의 독자 대상 |
■ 최신 딥러닝 기술에 대해 기초부터 차근차근 공부하고 싶은 딥러닝 입문자
■ 딥러닝 알고리즘을 수식으로 이해하고 프로그래밍 코드로 구현해보고 싶은 개발자
■ 최신 딥러닝 알고리즘 코드를 작성해 업무나 현장에서 바로 적용해보고 싶은 개발자
■ 이 모든 과정을 한 권의 책으로 해결하고 싶은 사람
<실체가 손에 잡히는 딥러닝, 기초부터 실전 프로그래밍>
딥러닝의 기초 지식과 수학부터
파이썬을 활용한 실전 프로그래밍 구현까지,
한 권으로 모든 것을 끝내는
딥러닝 입문자를 위한 최고의 책!
지금까지 나왔던 다른 어떤 책들과는 달리 딥러닝을 수식과 코드로서 매우 이해하기 쉽게 설명한다. 또한, 간결하고 이해하기 쉬운 예제 코드들이 하나 하나 모여 책의 마지막에 이르러 최종적으로 실전에서도 활용할 수 있는 완결된 딥러닝 코드를 완성함으로써, 독자가 성취감을 느끼며 끝까지 포기하지 않고 완독할 수 있다는 점은 이 책의 최대 강점이다. 이 책에서는 파이썬과 기초 수학부터 시작해 역전파(Backpropagation)와 컨볼루션 신경망(CNN)까지, 딥러닝의 필수 요소를 빠짐없이 자세하게 설명한다. 독자가 파이썬 프로그래밍을 직접 코딩하면서 차근차근 순서대로 공부해 나가다 보면 딥러닝의 기초를 완벽하게 습득할 수 있다.
<핵심 딥러닝 입문: RNN, LSTM, GRU, VAE, GAN 구현 목차>
[1장] 딥러닝의 발전
1.1 딥러닝 개요
__1.1.1 AI와 머신러닝
__1.1.2 딥러닝
1.2 딥러닝 응용 분야
__1.2.1 이미지 인식
__1.2.2 이미지 생성
__1.2.3 이상 탐지
__1.2.4 자연어 처리
__1.2.5 강화학습
__1.2.6 기타 분야에서의 응용 사례
1.3 이 책에서 다루는 딥러닝 기술
__1.3.1 RNN
__1.3.2 생성 모델
[2장] 학습 준비
2.1 아나콘다 개발 환경 구축
__2.1.1 아나콘다 다운로드
__2.1.2 아나콘다 설치
__2.1.3 주피터 노트북 실행
__2.1.4 주피터 노트북 사용
__2.1.5 노트북 종료
2.2 구글 코랩 사용
__2.2.1 구글 코랩 준비
__2.2.2 코랩 노트북 사용
__2.2.3 GPU 사용
__2.2.4 파일 사용
2.3 파이썬 기초
__2.3.1 변수와 변수형
__2.3.2 연산자
__2.3.3 리스트
__2.3.4 튜플
__2.3.5 딕셔너리
__2.3.6 if문
__2.3.7 for문
__2.3.8 함수
__2.3.9 변수의 범위
__2.3.10 클래스
2.4 넘파이와 맷플롯립
__2.4.1 모듈 임포트
__2.4.2 넘파이 배열
__2.4.3 배열을 생성하는 다양한 함수
__2.4.4 reshape를 이용한 형태 변환
__2.4.5 배열 연산
__2.4.6 원소 값에 접근
__2.4.7 그래프 그리기
__2.4.8 이미지 생성
2.5 수학 기초
__2.5.1 벡터
__2.5.2 행렬
__2.5.3 각 원소 간의 곱셈
__2.5.4 행렬 곱
__2.5.5 행렬 전치
__2.5.6 미분
__2.5.7 연쇄 법칙
__2.5.8 편미분
__2.5.9 연쇄 법칙의 확장
__2.5.10 정규분포
[3장] 딥러닝 기초
3.1 딥러닝 개요
__3.1.1 딥러닝이란?
__3.1.2 층의 방향과 층의 개수
__3.1.3 경사 하강법
__3.1.4 에포크와 배치
3.2 전결합층 순전파
__3.2.1 순전파의 수식
__3.2.2 순전파를 행렬로 표현
__3.2.3 순전파를 코드로 구현
3.3 전결합층 역전파
__3.3.1 역전파 수식
__3.3.2 역전파를 행렬로 표현
__3.3.3 역전파를 코드로 구현
3.4 전결합층 구현
__3.4.1 공통 클래스 구현
__3.4.2 은닉층 구현
__3.4.3 출력층 구현
3.5 단순한 딥러닝 구현
__3.5.1 손글씨 숫자 이미지 데이터 확인
__3.5.2 데이터 전처리
__3.5.3 순전파와 역전파
__3.5.4 미니 배치 구현
3.6 손글씨 숫자 이미지 인식의 전체 코드
[4장] RNN
4.1 RNN 개요
4.2 RNN층의 순전파
__4.2.1 순전파 개요
__4.2.2 순전파 수식
__4.2.3 순전파를 코드로 구현
4.3 RNN층의 역전파
__4.3.1 역전파 수식
__4.3.2 역전파를 행렬로 표현
__4.3.3 역전파를 코드로 구현
4.4 RNN층 구현
__4.4.1 RNN층 클래스
4.5 간단한 구조의 RNN 구현
__4.5.1 훈련 데이터 생성
__4.5.2 데이터 전처리
4.5.3 훈련
__4.5.4 예측
__4.5.5 곡선 생성
__4.5.6 sin 곡선 예측에 대한 전체 코드
4.6 2진수 덧셈 학습
__4.6.1 2진수 덧셈
__4.6.2 2진수 준비
__4.6.3 출력층
__4.6.4 훈련
__4.6.5 2진수 계산에 대한 전체 코드
4.7 RNN의 단점
[5장] LSTM
5.1 LSTM 개요
__5.1.1 LSTM 개요
__5.1.2 기억 셀
__5.1.3 망각 게이트 주변
__5.1.4 입력 게이트와 새로운 기억
__5.1.5 출력 게이트
5.2 LSTM층의 순전파
__5.2.1 LSTM층의 순전파
__5.2.2 순전파 코드 구현
5.3 LSTM층의 역전파
__5.3.1 역전파 수식
__5.3.2 망각 게이트
__5.3.3 입력 게이트
__5.3.4 새로운 기억
__5.3.5 출력 게이트
__5.3.6 행렬로 표현
__5.3.7 역전파 코드 구현
5.4 LSTM층 구현
__5.4.1 LSTM층 클래스
5.5 간단한 LSTM 구현
__5.5.1 LSTM 훈련
__5.5.2 sin 곡선 예측에 대한 전체 코드
5.6 LSTM을 이용한 문장 자동 생성
__5.6.1 텍스트 데이터 읽어들이기
__5.6.2 문자와 인덱스 관련
__5.6.3 문자 벡터화
__5.6.4 출력 결과의 의미
__5.6.5 텍스트 생성용 함수
__5.6.6 기울기 클리핑
__5.6.7 문장 생성에 대한 전체 코드
__5.6.8 결과 확인
[6장] GRU
6.1 GRU 소개
__6.1.1 GRU
__6.1.2 리셋 게이트
__6.1.3 새로운 기억
__6.1.4 업데이트 게이트
6.2 GRU층의 순전파
__6.2.1 GRU의 순전파
__6.2.2 순전파를 코드로 구현
6.3 GRU층의 역전파
__6.3.1 새로운 기억
__6.3.2 업데이트 게이트
__6.3.3 리셋 게이트
__6.3.4 입력의 기울기
__6.3.5 이전 시점 출력의 기울기
__6.3.6 GRU의 각 기울기를 행렬로 나타내기
__6.3.7 GRU의 역전파를 코드로 구현하기
6.4 GRU층 구현
__6.4.1 GRU층의 클래스
6.5 GRU 구현
__6.5.1 GRU 구현의 전체 코드
6.6 RNN을 이용한 이미지 생성
__6.6.1 이미지를 시계열 데이터로 간주하기
__6.6.2 훈련 데이터 준비하기
__6.6.3 이미지 생성
__
6.7 Seq2Seq
[7장] VAE
7.1 VAE 소개
__7.1.1 오토인코더
__7.1.2 VAE
7.2 VAE의 구조
__7.2.1 잠재 변수 샘플링
__7.2.2 재파라미터화 트릭
__7.2.3 오차 정의
__7.2.4 재구성 오차
__7.2.5 규제화항
7.3 오토인코더의 구현
__7.3.1 신경망 구현
__7.3.2 각 신경망층의 구현
__7.3.3 순전파와 역전파 구현
__7.3.4 미니 배치 학습 구현
__7.3.5 오토인코더 구현의 전체 코드
__7.3.6 생성된 이미지 나타내기
7.4 VAE에 필요한 신경망층
__7.4.1 VAE 구성
__7.4.2 평균과 표준편차를 출력하는 신경망층
__7.4.3 샘플링층
__7.4.4 출력층
7.5 VAE의 구현
__7.5.1 순전파와 역전파
__7.5.2 VAE를 구현하는 전체 코드
__7.5.3 잠재 공간의 시각화
__7.5.4 이미지 생성하기
7.6 VAE에서 파생되는 기술
__7.6.1 조건부 VAE
__7.6.2 β-VAE
__7.6.3 VQ-VAE
__7.6.4 VQ-VAE-2
[8장] GAN
8.1 GAN 소개
__8.1.1 GAN
__8.1.2 DCGAN
__8.1.3 GAN의 용도
8.2 GAN의 구조
__8.2.1 식별자의 학습 과정
__8.2.2 생성자의 학습 과정
__8.2.3 오차의 정의
8.3 GAN에 필요한 신경망층
__8.3.1 생성자와 식별자의 구조
__8.3.2 생성자의 출력층
__8.3.3 식별자의 출력층
8.4 GAN의 구현
__8.4.1 순전파와 역전파
__8.4.2 GAN의 훈련
__8.4.3 GAN의 학습
__8.4.4 이미지 생성
__8.4.5 GAN을 구현하는 전체 코드
__8.4.6 오차와 정확도 추이
8.5 GAN에서 파생되는 기술
__8.5.1 조건부 GAN
__8.5.2 pix2pix
__8.5.3 Cycle GAN
[9장] 딥러닝 추가 학습을 위한 유용한 정보
9.1 최적화 알고리즘
__9.1.1 최적화 알고리즘 개요
__9.1.2 확률적 경사 하강법(SGD)
__9.1.3 모멘텀
__9.1.4 아다그라드
__9.1.5 RMSProp
__9.1.6 아담
__9.1.7 최적화 알고리즘 구현 예
9.2 학습 테크닉
__9.2.1 드롭아웃
__9.2.2 Leaky ReLU
__9.2.3 가중치 감소
__9.2.4 배치 정규화
9.3 데이터 세트 소개
__9.3.1 사이킷런 데이터 세트
__9.3.2 케라스 데이터 세트
9.4 딥러닝의 미래
[부록]
A.1 간단한 구조의 RNN을 이용한 텍스트 생성
A.2 GRU를 이용한 텍스트 생성
A.3 참고문헌
<실체가 손에 잡히는 딥러닝, 기초부터 실전 프로그래밍 목차>
[1장] 딥러닝이란
1.1 지능이란 무엇인가
1.2 인공지능(AI)
1.3 머신러닝
1.4 신경망
1.5 딥러닝 개요
1.6 인공지능과 딥러닝의 역사
__1.6.1 제1차 인공지능 전성기: 1950년대~1960년대
__1.6.2 제2차 인공지능 전성기: 1980년대~1990년대 후반
__1.6.3 제3차 인공지능 전성기: 2000년대 이후
[2장] 파이썬 개요
2.1 파이썬을 사용하는 이유
2.2 아나콘다와 주피터 노트북 활용
__2.2.1 아나콘다 다운로드
__2.2.2 아나콘다 설치
__2.2.3 주피터 노트북 실행
__2.2.4 주피터 노트북 사용
__2.2.5 노트북 종료
2.3 파이썬 문법
__2.3.1 변수와 변수형
__2.3.2 연산자
__2.3.3 리스트
__2.3.4 튜플
__2.3.5 딕셔너리
__2.3.6 if문
__2.3.7 for문
__2.3.8 while문
__2.3.9 내포
__2.3.10 함수
__2.3.11 변수의 범위
__2.3.12 클래스
2.4 넘파이
__2.4.1 넘파이 임포트
__2.4.2 넘파이 배열
__2.4.3 배열을 생성하는 다양한 함수
__2.4.4 reshape를 이용한 형태 변환
__2.4.5 배열 연산
__2.4.6 브로드캐스트
__2.4.7 원솟값에 접근
__2.4.8 슬라이싱
__2.4.9 축과 transpose 메소드
__2.4.10 넘파이의 함수
2.5 맷플롯립
__2.5.1 모듈 임포트
__2.5.2 그래프 생성
__2.5.3 그래프 디자인
__2.5.4 산포도 표시
__2.5.5 이미지 표시
[3장] 딥러닝을 위한 수학
3.1 수학 기호
__3.1.1 시그마(Σ)로 총합계 표시
__3.1.2 자연상수 e
__3.1.3 자연로그 log
3.2 선형대수
__3.2.1 스칼라
__3.2.2 벡터
__3.2.3 행렬
__3.2.4 텐서
__3.2.5 스칼라와 행렬의 곱셈
__3.2.6 각 원소 간의 곱셈
__3.2.7 행렬 곱
__3.2.8 행렬 전치
3.3 미분
__3.3.1 상미분
__3.3.2 미분법의 기본 공식
__3.3.3 연쇄법칙
__3.3.4 편미분
__3.3.5 전미분
__3.3.6 다변수의 연쇄법칙
3.4 정규분포
[4장] 신경망
4.1 신경세포 네트워크
4.2 신경세포의 모델화
4.3 뉴런의 네트워크화
4.4 회귀와 분류
__4.4.1 회귀
__4.4.2 분류
4.5 활성화 함수
__4.5.1 계단 함수
__4.5.2 시그모이드 함수
__4.5.3 tanh
__4.5.4 ReLU
__4.5.5 Leaky ReLU
__4.5.6 항등 함수
__4.5.7 소프트맥스 함수
4.6 신경망 구현
__4.6.1 단일 뉴런 구현
__4.6.2 가중치와 편향의 영향
__4.6.3 신경망 구현
__4.6.4 각 층의 구현
__4.6.5 신경망(회귀)
__4.6.6 신경망의 표현력
__4.6.7 신경망(분류)
[5장] 역전파
5.1 학습 규칙
__5.1.1 헵의 규칙
__5.1.2 델타 규칙
5.2 역전파란?
5.3 훈련 데이터와 테스트 데이터
5.4 손실 함수
__5.4.1 오차제곱합
__5.4.2 교차 엔트로피 오차
5.5 경사 하강법
__5.5.1 경사 하강법 개요
__5.5.2 기울기 구하는 방법
__5.5.3 출력층 기울기
__5.5.4 출력층에서 입력값 기울기
__5.5.5 은닉층 기울기
__5.5.6 기울기를 구하는 식 정리
__5.5.7 회귀 문제에서 기울기 구하는 방법
__5.5.8 분류 문제에서 기울기 구하는 방법
5.6 최적화 알고리즘
__5.6.1 최적화 알고리즘 개요
__5.6.2 확률적 경사 하강법
__5.6.3 모멘텀
__5.6.4 아다그라드
__5.6.5 RMSProp
__5.6.6 아담
5.7 배치 사이즈
__5.7.1 에포크와 배치
__5.7.2 배치 학습
__5.7.3 온라인 학습
__5.7.4 미니 배치 학습
5.8 행렬 연산
__5.8.1 행렬의 형식
__5.8.2 행렬을 이용한 순전파
__5.8.3 행렬을 이용한 역전파
5.9 회귀 문제에서의 역전파 구현
__5.9.1 회귀 예(sin 함수의 학습)
__5.9.2 출력층 구현
__5.9.3 은닉층 구현
__5.9.4 역전파 구현
__5.9.5 역전파 구현 전체 코드(회귀)
__5.9.6 실행 결과
5.10 분류 문제에서의 역전파 구현
__5.10.1 분류 사례(소속 영역 학습)
__5.10.2 각 층의 구현
__5.10.3 역전파 구현 전체 코드(분류)
__5.10.4 실행 결과
[6장] 딥러닝 구현
6.1 다층화에 따른 문제
__6.1.1 국소 최적해 함정
__6.1.2 과적합
__6.1.3 기울기 소실
__6.1.4 장기간의 학습 시간 문제
6.2 문제 해결 방안
__6.2.1 하이퍼 파라미터 최적화
__6.2.2 규제화
__6.2.3 가중치와 편향 초깃값
__6.2.4 조기 종료
__6.2.5 데이터 확장
__6.2.6 데이터 전처리
__6.2.7 드롭아웃
6.3 붓꽃 품종 분류
__6.3.1 붓꽃 데이터 세트
__6.3.2 훈련 데이터와 테스트 데이터
__6.3.3 신경망 구성
__6.3.4 학습에 관련된 각 설정
6.4 딥러닝 구현
__6.4.1 데이터 입력과 전처리
__6.4.2 각 층의 구현
__6.4.3 신경망 구축
__6.4.4 미니배치법 구현
__6.4.5 정답률 측정
__6.4.6 붓꽃 데이터 품종 분류를 위한 전체 코드
__6.4.7 실행 결과
__6.4.8 과적합 방지를 위한 대책
__6.4.9 아다그라드 구현
__6.4.10 드롭아웃 구현
__6.4.11 과적합 방지 대책의 결과
__6.4.12 품종 분류
[7장] 컨볼루션 신경망(CNN)
7.1 컨볼루션 신경망(CNN)의 개요
__7.1.1 시각 처리 체계
__7.1.2 CNN 구조
__7.1.3 컨볼루션 층
__7.1.4 풀링층
__7.1.5 전결합층
__7.1.6 패딩
__7.1.7 스트라이드
__7.1.8 CNN 학습
__7.1.9 변수 정리
7.2 im2col과 col2im
__7.2.1 im2col과 col2im의 개요
__7.2.2 im2col 알고리즘
__7.2.3 간단한 im2col 구현
__7.2.4 배치와 채널을 고려한 실전 im2col 코드
__7.2.5 col2im 알고리즘
__7.2.6 col2im 구현
7.3 컨볼루션층 구현
__7.3.1 구현 개요
__7.3.2 순전파
__7.3.3 역전파
7.4 풀링층 구현
__7.4.1 구현 과정 개요
__7.4.2 순전파
__7.4.3 역전파
7.5 전결합층 구현
7.6 컨볼루션 신경망 구현
__7.6.1 사용 데이터 세트
__7.6.2 구축할 신경망
__7.6.3 CNN 코드
__7.6.4 실행 결과
__7.6.5 컨볼루션층의 시각화
__7.6.6 컨볼루션층 효과
7.7 더 깊은 신경망
__7.7.1 신경망 구축
__7.2.2 실행 결과
[8장] 그 밖의 딥러닝 기술
8.1 순환 신경망(RNN)
__8.1.1 RNN의 개요
__8.1.2 LSTM
__8.1.3 GRU
8.2 자연어 처리
__8 2.1 형태소 분석
__8.2.2 단어 임베딩
8.3 생성 모델
__8.3.1 생성적 적대 신경망(GAN)
__8.3.2 VAE
8.4 강화학습
__8.4.1 강화학습 개요
__8.4.2 심층 강화학습
8.5 GPU 활용
__8.5.1 GPU란
__8.5.2 딥러닝에서 GPU 활용
8.6 딥러닝 프레임워크
8.7 딥러닝의 미래
딥러닝의 기초 지식, 수학, 파이썬부터 실전 프로그래밍 구현까지,
RNN, LSTM, GRU, VAE, GAN을 망라하는 최신 딥러닝 모델 마스터!
현 시점에서 개발자가 꼭 알아야 할 최신 딥러닝 기술들만을 골라 수식과 코드를 번갈아가며 매우 이해하기 쉽게 알려준다. 간결하고 이해하기 쉬운 예제 코드들을 하나 하나 따라 해가다 최종적으로 실전에서도 활용할 수 있는 완결된 딥러닝 코드를 완성해본다. 이 책에서는 파이썬과 기초 수학부터 시작해서, RNN(순환 신경망)과 LSTM, GRU, VAE(변이형 오토인코더), GAN(생성적 적대 신경망)까지, 최신 딥러닝의 필수 모델과 원리, 내부 동작을 빠짐없이 자세하게 설명한다. 파이썬 프로그래밍을 직접 코딩하면서 차근차근 순서대로 공부해 나가다 보면 딥러닝의 기초를 완벽하게 습득할 수 있다.
| 이 책에서 다루는 내용 |
■ 실전에 응용할 수 있는 최신 딥러닝 기술 RNN, LSTM, GRU, VAE, GAN 포함
■ 딥러닝 프레임워크를 사용하지 않고 딥러닝의 알고리즘을 파이썬 프로그래밍 코드로 구현
■ 파이썬과 수치연산 라이브러리 넘파이(NumPy)를 이용한 프로그래밍 기초 지식
■ 딥러닝의 근본적인 원리를 이해하는 데 필요한 핵심 수학 이론과 수식 코딩 방법
■ 독자들이 직접 응용해 수준 높은 코드로 발전시킬 수 있는 완전한 파이썬 코드 제공
| 이 책의 독자 대상 |
■ 최신 딥러닝 기술에 대해 기초부터 차근차근 공부하고 싶은 딥러닝 입문자
■ 딥러닝 알고리즘을 수식으로 이해하고 프로그래밍 코드로 구현해보고 싶은 개발자
■ 최신 딥러닝 알고리즘 코드를 작성해 업무나 현장에서 바로 적용해보고 싶은 개발자
■ 이 모든 과정을 한 권의 책으로 해결하고 싶은 사람
<실체가 손에 잡히는 딥러닝, 기초부터 실전 프로그래밍>
딥러닝의 기초 지식과 수학부터
파이썬을 활용한 실전 프로그래밍 구현까지,
한 권으로 모든 것을 끝내는
딥러닝 입문자를 위한 최고의 책!
지금까지 나왔던 다른 어떤 책들과는 달리 딥러닝을 수식과 코드로서 매우 이해하기 쉽게 설명한다. 또한, 간결하고 이해하기 쉬운 예제 코드들이 하나 하나 모여 책의 마지막에 이르러 최종적으로 실전에서도 활용할 수 있는 완결된 딥러닝 코드를 완성함으로써, 독자가 성취감을 느끼며 끝까지 포기하지 않고 완독할 수 있다는 점은 이 책의 최대 강점이다. 이 책에서는 파이썬과 기초 수학부터 시작해 역전파(Backpropagation)와 컨볼루션 신경망(CNN)까지, 딥러닝의 필수 요소를 빠짐없이 자세하게 설명한다. 독자가 파이썬 프로그래밍을 직접 코딩하면서 차근차근 순서대로 공부해 나가다 보면 딥러닝의 기초를 완벽하게 습득할 수 있다.
<핵심 딥러닝 입문: RNN, LSTM, GRU, VAE, GAN 구현 목차>
[1장] 딥러닝의 발전
1.1 딥러닝 개요
__1.1.1 AI와 머신러닝
__1.1.2 딥러닝
1.2 딥러닝 응용 분야
__1.2.1 이미지 인식
__1.2.2 이미지 생성
__1.2.3 이상 탐지
__1.2.4 자연어 처리
__1.2.5 강화학습
__1.2.6 기타 분야에서의 응용 사례
1.3 이 책에서 다루는 딥러닝 기술
__1.3.1 RNN
__1.3.2 생성 모델
[2장] 학습 준비
2.1 아나콘다 개발 환경 구축
__2.1.1 아나콘다 다운로드
__2.1.2 아나콘다 설치
__2.1.3 주피터 노트북 실행
__2.1.4 주피터 노트북 사용
__2.1.5 노트북 종료
2.2 구글 코랩 사용
__2.2.1 구글 코랩 준비
__2.2.2 코랩 노트북 사용
__2.2.3 GPU 사용
__2.2.4 파일 사용
2.3 파이썬 기초
__2.3.1 변수와 변수형
__2.3.2 연산자
__2.3.3 리스트
__2.3.4 튜플
__2.3.5 딕셔너리
__2.3.6 if문
__2.3.7 for문
__2.3.8 함수
__2.3.9 변수의 범위
__2.3.10 클래스
2.4 넘파이와 맷플롯립
__2.4.1 모듈 임포트
__2.4.2 넘파이 배열
__2.4.3 배열을 생성하는 다양한 함수
__2.4.4 reshape를 이용한 형태 변환
__2.4.5 배열 연산
__2.4.6 원소 값에 접근
__2.4.7 그래프 그리기
__2.4.8 이미지 생성
2.5 수학 기초
__2.5.1 벡터
__2.5.2 행렬
__2.5.3 각 원소 간의 곱셈
__2.5.4 행렬 곱
__2.5.5 행렬 전치
__2.5.6 미분
__2.5.7 연쇄 법칙
__2.5.8 편미분
__2.5.9 연쇄 법칙의 확장
__2.5.10 정규분포
[3장] 딥러닝 기초
3.1 딥러닝 개요
__3.1.1 딥러닝이란?
__3.1.2 층의 방향과 층의 개수
__3.1.3 경사 하강법
__3.1.4 에포크와 배치
3.2 전결합층 순전파
__3.2.1 순전파의 수식
__3.2.2 순전파를 행렬로 표현
__3.2.3 순전파를 코드로 구현
3.3 전결합층 역전파
__3.3.1 역전파 수식
__3.3.2 역전파를 행렬로 표현
__3.3.3 역전파를 코드로 구현
3.4 전결합층 구현
__3.4.1 공통 클래스 구현
__3.4.2 은닉층 구현
__3.4.3 출력층 구현
3.5 단순한 딥러닝 구현
__3.5.1 손글씨 숫자 이미지 데이터 확인
__3.5.2 데이터 전처리
__3.5.3 순전파와 역전파
__3.5.4 미니 배치 구현
3.6 손글씨 숫자 이미지 인식의 전체 코드
[4장] RNN
4.1 RNN 개요
4.2 RNN층의 순전파
__4.2.1 순전파 개요
__4.2.2 순전파 수식
__4.2.3 순전파를 코드로 구현
4.3 RNN층의 역전파
__4.3.1 역전파 수식
__4.3.2 역전파를 행렬로 표현
__4.3.3 역전파를 코드로 구현
4.4 RNN층 구현
__4.4.1 RNN층 클래스
4.5 간단한 구조의 RNN 구현
__4.5.1 훈련 데이터 생성
__4.5.2 데이터 전처리
4.5.3 훈련
__4.5.4 예측
__4.5.5 곡선 생성
__4.5.6 sin 곡선 예측에 대한 전체 코드
4.6 2진수 덧셈 학습
__4.6.1 2진수 덧셈
__4.6.2 2진수 준비
__4.6.3 출력층
__4.6.4 훈련
__4.6.5 2진수 계산에 대한 전체 코드
4.7 RNN의 단점
[5장] LSTM
5.1 LSTM 개요
__5.1.1 LSTM 개요
__5.1.2 기억 셀
__5.1.3 망각 게이트 주변
__5.1.4 입력 게이트와 새로운 기억
__5.1.5 출력 게이트
5.2 LSTM층의 순전파
__5.2.1 LSTM층의 순전파
__5.2.2 순전파 코드 구현
5.3 LSTM층의 역전파
__5.3.1 역전파 수식
__5.3.2 망각 게이트
__5.3.3 입력 게이트
__5.3.4 새로운 기억
__5.3.5 출력 게이트
__5.3.6 행렬로 표현
__5.3.7 역전파 코드 구현
5.4 LSTM층 구현
__5.4.1 LSTM층 클래스
5.5 간단한 LSTM 구현
__5.5.1 LSTM 훈련
__5.5.2 sin 곡선 예측에 대한 전체 코드
5.6 LSTM을 이용한 문장 자동 생성
__5.6.1 텍스트 데이터 읽어들이기
__5.6.2 문자와 인덱스 관련
__5.6.3 문자 벡터화
__5.6.4 출력 결과의 의미
__5.6.5 텍스트 생성용 함수
__5.6.6 기울기 클리핑
__5.6.7 문장 생성에 대한 전체 코드
__5.6.8 결과 확인
[6장] GRU
6.1 GRU 소개
__6.1.1 GRU
__6.1.2 리셋 게이트
__6.1.3 새로운 기억
__6.1.4 업데이트 게이트
6.2 GRU층의 순전파
__6.2.1 GRU의 순전파
__6.2.2 순전파를 코드로 구현
6.3 GRU층의 역전파
__6.3.1 새로운 기억
__6.3.2 업데이트 게이트
__6.3.3 리셋 게이트
__6.3.4 입력의 기울기
__6.3.5 이전 시점 출력의 기울기
__6.3.6 GRU의 각 기울기를 행렬로 나타내기
__6.3.7 GRU의 역전파를 코드로 구현하기
6.4 GRU층 구현
__6.4.1 GRU층의 클래스
6.5 GRU 구현
__6.5.1 GRU 구현의 전체 코드
6.6 RNN을 이용한 이미지 생성
__6.6.1 이미지를 시계열 데이터로 간주하기
__6.6.2 훈련 데이터 준비하기
__6.6.3 이미지 생성
__
6.7 Seq2Seq
[7장] VAE
7.1 VAE 소개
__7.1.1 오토인코더
__7.1.2 VAE
7.2 VAE의 구조
__7.2.1 잠재 변수 샘플링
__7.2.2 재파라미터화 트릭
__7.2.3 오차 정의
__7.2.4 재구성 오차
__7.2.5 규제화항
7.3 오토인코더의 구현
__7.3.1 신경망 구현
__7.3.2 각 신경망층의 구현
__7.3.3 순전파와 역전파 구현
__7.3.4 미니 배치 학습 구현
__7.3.5 오토인코더 구현의 전체 코드
__7.3.6 생성된 이미지 나타내기
7.4 VAE에 필요한 신경망층
__7.4.1 VAE 구성
__7.4.2 평균과 표준편차를 출력하는 신경망층
__7.4.3 샘플링층
__7.4.4 출력층
7.5 VAE의 구현
__7.5.1 순전파와 역전파
__7.5.2 VAE를 구현하는 전체 코드
__7.5.3 잠재 공간의 시각화
__7.5.4 이미지 생성하기
7.6 VAE에서 파생되는 기술
__7.6.1 조건부 VAE
__7.6.2 β-VAE
__7.6.3 VQ-VAE
__7.6.4 VQ-VAE-2
[8장] GAN
8.1 GAN 소개
__8.1.1 GAN
__8.1.2 DCGAN
__8.1.3 GAN의 용도
8.2 GAN의 구조
__8.2.1 식별자의 학습 과정
__8.2.2 생성자의 학습 과정
__8.2.3 오차의 정의
8.3 GAN에 필요한 신경망층
__8.3.1 생성자와 식별자의 구조
__8.3.2 생성자의 출력층
__8.3.3 식별자의 출력층
8.4 GAN의 구현
__8.4.1 순전파와 역전파
__8.4.2 GAN의 훈련
__8.4.3 GAN의 학습
__8.4.4 이미지 생성
__8.4.5 GAN을 구현하는 전체 코드
__8.4.6 오차와 정확도 추이
8.5 GAN에서 파생되는 기술
__8.5.1 조건부 GAN
__8.5.2 pix2pix
__8.5.3 Cycle GAN
[9장] 딥러닝 추가 학습을 위한 유용한 정보
9.1 최적화 알고리즘
__9.1.1 최적화 알고리즘 개요
__9.1.2 확률적 경사 하강법(SGD)
__9.1.3 모멘텀
__9.1.4 아다그라드
__9.1.5 RMSProp
__9.1.6 아담
__9.1.7 최적화 알고리즘 구현 예
9.2 학습 테크닉
__9.2.1 드롭아웃
__9.2.2 Leaky ReLU
__9.2.3 가중치 감소
__9.2.4 배치 정규화
9.3 데이터 세트 소개
__9.3.1 사이킷런 데이터 세트
__9.3.2 케라스 데이터 세트
9.4 딥러닝의 미래
[부록]
A.1 간단한 구조의 RNN을 이용한 텍스트 생성
A.2 GRU를 이용한 텍스트 생성
A.3 참고문헌
<실체가 손에 잡히는 딥러닝, 기초부터 실전 프로그래밍 목차>
[1장] 딥러닝이란
1.1 지능이란 무엇인가
1.2 인공지능(AI)
1.3 머신러닝
1.4 신경망
1.5 딥러닝 개요
1.6 인공지능과 딥러닝의 역사
__1.6.1 제1차 인공지능 전성기: 1950년대~1960년대
__1.6.2 제2차 인공지능 전성기: 1980년대~1990년대 후반
__1.6.3 제3차 인공지능 전성기: 2000년대 이후
[2장] 파이썬 개요
2.1 파이썬을 사용하는 이유
2.2 아나콘다와 주피터 노트북 활용
__2.2.1 아나콘다 다운로드
__2.2.2 아나콘다 설치
__2.2.3 주피터 노트북 실행
__2.2.4 주피터 노트북 사용
__2.2.5 노트북 종료
2.3 파이썬 문법
__2.3.1 변수와 변수형
__2.3.2 연산자
__2.3.3 리스트
__2.3.4 튜플
__2.3.5 딕셔너리
__2.3.6 if문
__2.3.7 for문
__2.3.8 while문
__2.3.9 내포
__2.3.10 함수
__2.3.11 변수의 범위
__2.3.12 클래스
2.4 넘파이
__2.4.1 넘파이 임포트
__2.4.2 넘파이 배열
__2.4.3 배열을 생성하는 다양한 함수
__2.4.4 reshape를 이용한 형태 변환
__2.4.5 배열 연산
__2.4.6 브로드캐스트
__2.4.7 원솟값에 접근
__2.4.8 슬라이싱
__2.4.9 축과 transpose 메소드
__2.4.10 넘파이의 함수
2.5 맷플롯립
__2.5.1 모듈 임포트
__2.5.2 그래프 생성
__2.5.3 그래프 디자인
__2.5.4 산포도 표시
__2.5.5 이미지 표시
[3장] 딥러닝을 위한 수학
3.1 수학 기호
__3.1.1 시그마(Σ)로 총합계 표시
__3.1.2 자연상수 e
__3.1.3 자연로그 log
3.2 선형대수
__3.2.1 스칼라
__3.2.2 벡터
__3.2.3 행렬
__3.2.4 텐서
__3.2.5 스칼라와 행렬의 곱셈
__3.2.6 각 원소 간의 곱셈
__3.2.7 행렬 곱
__3.2.8 행렬 전치
3.3 미분
__3.3.1 상미분
__3.3.2 미분법의 기본 공식
__3.3.3 연쇄법칙
__3.3.4 편미분
__3.3.5 전미분
__3.3.6 다변수의 연쇄법칙
3.4 정규분포
[4장] 신경망
4.1 신경세포 네트워크
4.2 신경세포의 모델화
4.3 뉴런의 네트워크화
4.4 회귀와 분류
__4.4.1 회귀
__4.4.2 분류
4.5 활성화 함수
__4.5.1 계단 함수
__4.5.2 시그모이드 함수
__4.5.3 tanh
__4.5.4 ReLU
__4.5.5 Leaky ReLU
__4.5.6 항등 함수
__4.5.7 소프트맥스 함수
4.6 신경망 구현
__4.6.1 단일 뉴런 구현
__4.6.2 가중치와 편향의 영향
__4.6.3 신경망 구현
__4.6.4 각 층의 구현
__4.6.5 신경망(회귀)
__4.6.6 신경망의 표현력
__4.6.7 신경망(분류)
[5장] 역전파
5.1 학습 규칙
__5.1.1 헵의 규칙
__5.1.2 델타 규칙
5.2 역전파란?
5.3 훈련 데이터와 테스트 데이터
5.4 손실 함수
__5.4.1 오차제곱합
__5.4.2 교차 엔트로피 오차
5.5 경사 하강법
__5.5.1 경사 하강법 개요
__5.5.2 기울기 구하는 방법
__5.5.3 출력층 기울기
__5.5.4 출력층에서 입력값 기울기
__5.5.5 은닉층 기울기
__5.5.6 기울기를 구하는 식 정리
__5.5.7 회귀 문제에서 기울기 구하는 방법
__5.5.8 분류 문제에서 기울기 구하는 방법
5.6 최적화 알고리즘
__5.6.1 최적화 알고리즘 개요
__5.6.2 확률적 경사 하강법
__5.6.3 모멘텀
__5.6.4 아다그라드
__5.6.5 RMSProp
__5.6.6 아담
5.7 배치 사이즈
__5.7.1 에포크와 배치
__5.7.2 배치 학습
__5.7.3 온라인 학습
__5.7.4 미니 배치 학습
5.8 행렬 연산
__5.8.1 행렬의 형식
__5.8.2 행렬을 이용한 순전파
__5.8.3 행렬을 이용한 역전파
5.9 회귀 문제에서의 역전파 구현
__5.9.1 회귀 예(sin 함수의 학습)
__5.9.2 출력층 구현
__5.9.3 은닉층 구현
__5.9.4 역전파 구현
__5.9.5 역전파 구현 전체 코드(회귀)
__5.9.6 실행 결과
5.10 분류 문제에서의 역전파 구현
__5.10.1 분류 사례(소속 영역 학습)
__5.10.2 각 층의 구현
__5.10.3 역전파 구현 전체 코드(분류)
__5.10.4 실행 결과
[6장] 딥러닝 구현
6.1 다층화에 따른 문제
__6.1.1 국소 최적해 함정
__6.1.2 과적합
__6.1.3 기울기 소실
__6.1.4 장기간의 학습 시간 문제
6.2 문제 해결 방안
__6.2.1 하이퍼 파라미터 최적화
__6.2.2 규제화
__6.2.3 가중치와 편향 초깃값
__6.2.4 조기 종료
__6.2.5 데이터 확장
__6.2.6 데이터 전처리
__6.2.7 드롭아웃
6.3 붓꽃 품종 분류
__6.3.1 붓꽃 데이터 세트
__6.3.2 훈련 데이터와 테스트 데이터
__6.3.3 신경망 구성
__6.3.4 학습에 관련된 각 설정
6.4 딥러닝 구현
__6.4.1 데이터 입력과 전처리
__6.4.2 각 층의 구현
__6.4.3 신경망 구축
__6.4.4 미니배치법 구현
__6.4.5 정답률 측정
__6.4.6 붓꽃 데이터 품종 분류를 위한 전체 코드
__6.4.7 실행 결과
__6.4.8 과적합 방지를 위한 대책
__6.4.9 아다그라드 구현
__6.4.10 드롭아웃 구현
__6.4.11 과적합 방지 대책의 결과
__6.4.12 품종 분류
[7장] 컨볼루션 신경망(CNN)
7.1 컨볼루션 신경망(CNN)의 개요
__7.1.1 시각 처리 체계
__7.1.2 CNN 구조
__7.1.3 컨볼루션 층
__7.1.4 풀링층
__7.1.5 전결합층
__7.1.6 패딩
__7.1.7 스트라이드
__7.1.8 CNN 학습
__7.1.9 변수 정리
7.2 im2col과 col2im
__7.2.1 im2col과 col2im의 개요
__7.2.2 im2col 알고리즘
__7.2.3 간단한 im2col 구현
__7.2.4 배치와 채널을 고려한 실전 im2col 코드
__7.2.5 col2im 알고리즘
__7.2.6 col2im 구현
7.3 컨볼루션층 구현
__7.3.1 구현 개요
__7.3.2 순전파
__7.3.3 역전파
7.4 풀링층 구현
__7.4.1 구현 과정 개요
__7.4.2 순전파
__7.4.3 역전파
7.5 전결합층 구현
7.6 컨볼루션 신경망 구현
__7.6.1 사용 데이터 세트
__7.6.2 구축할 신경망
__7.6.3 CNN 코드
__7.6.4 실행 결과
__7.6.5 컨볼루션층의 시각화
__7.6.6 컨볼루션층 효과
7.7 더 깊은 신경망
__7.7.1 신경망 구축
__7.2.2 실행 결과
[8장] 그 밖의 딥러닝 기술
8.1 순환 신경망(RNN)
__8.1.1 RNN의 개요
__8.1.2 LSTM
__8.1.3 GRU
8.2 자연어 처리
__8 2.1 형태소 분석
__8.2.2 단어 임베딩
8.3 생성 모델
__8.3.1 생성적 적대 신경망(GAN)
__8.3.2 VAE
8.4 강화학습
__8.4.1 강화학습 개요
__8.4.2 심층 강화학습
8.5 GPU 활용
__8.5.1 GPU란
__8.5.2 딥러닝에서 GPU 활용
8.6 딥러닝 프레임워크
8.7 딥러닝의 미래
Klover
Klover 리뷰 안내
교보를 애용해 주시는 고객님들이 남겨주신 평점과 감상을 바탕으로, 다양한 정보를 전달하는 교보문고의 리뷰 서비스입니다.
1.리워드 안내
구매 후 90일 이내에 평점과 10자 이상의 리뷰 작성 시 e교환권 200원을 적립해 드립니다.
e교환권은 적립 일로부터 180일 동안 사용 가능합니다.
리워드는 작성 후 다음 날 제공되며, 발송 전 작성 시 발송 완료 후 익일 제공됩니다.
리워드는 리뷰 종류별로 구매한 아이디당 한 상품에 최초 1회 작성 건들에 대해서만 제공됩니다.
판매가 1,000원 미만 도서의 경우 리워드 지급 대상에서 제외됩니다.
e교환권은 적립 일로부터 180일 동안 사용 가능합니다.
리워드는 작성 후 다음 날 제공되며, 발송 전 작성 시 발송 완료 후 익일 제공됩니다.
리워드는 리뷰 종류별로 구매한 아이디당 한 상품에 최초 1회 작성 건들에 대해서만 제공됩니다.
판매가 1,000원 미만 도서의 경우 리워드 지급 대상에서 제외됩니다.
한달 후 리뷰
구매 후 30일~ 120일 이내에 작성된 두 번째 구매리뷰에 대해 한 달 후 리뷰로 인지하고 e교환권 100원을 추가
제공합니다.
* 강연, 공연, 여행, 동영상, 사은품, 기프트카드 상품은 지급 제외
2.운영 원칙 안내
Klover 리뷰를 통한 리뷰를 작성해 주셔서 감사합니다.
자유로운 의사 표현의 공간인 만큼 타인에 대한 배려를 부탁합니다.
일부 타인의 권리를 침해하거나 불편을 끼치는 것을 방지하기 위해 아래에 해당하는 Klover 리뷰는 별도의 통보 없이 삭제될 수 있습니다.
일부 타인의 권리를 침해하거나 불편을 끼치는 것을 방지하기 위해 아래에 해당하는 Klover 리뷰는 별도의 통보 없이 삭제될 수 있습니다.
- 도서나 타인에 대해 근거 없이 비방을 하거나 타인의 명예를 훼손할 수 있는 리뷰
- 도서와 무관한 내용의 리뷰
- 인신공격이나 욕설, 비속어, 혐오발언이 개재된 리뷰
- 의성어나 의태어 등 내용의 의미가 없는 리뷰
리뷰는 1인이 중복으로 작성하실 수는 있지만, 평점계산은 가장 최근에 남긴 1건의 리뷰만 반영됩니다.
3.신고하기
다른 고객이 작성리뷰에 대해 불쾌함을 느끼는
경우 신고를 할 수 있으며,
신고 자가 일정수준 이상 누적되면 작성하신
리뷰가 노출되지 않을 수 있습니다.
구매 후 리뷰 작성 시, e교환권 200원 적립