본문 바로가기

추천 검색어

실시간 인기 검색어

파이썬으로 배우는 자연어 처리 인 액션

제이펍의 인공지능 시리즈 25
제이펍 · 2020년 03월 04일
9.0 (4개의 리뷰)
쉬웠어요 (50%의 구매자)
  • 파이썬으로 배우는 자연어 처리 인 액션 대표 이미지
    파이썬으로 배우는 자연어 처리 인 액션 대표 이미지
  • A4
    사이즈 비교
    210x297
    파이썬으로 배우는 자연어 처리 인 액션 사이즈 비교 189x245
    단위 : mm
MD의 선택 무료배송 이벤트 소득공제
10% 31,500 35,000
적립/혜택
1,750P

기본적립

5% 적립 1,750P

추가적립

  • 5만원 이상 구매 시 추가 2,000P
  • 3만원 이상 구매 시, 등급별 2~4% 추가 최대 1,750P
  • 리뷰 작성 시, e교환권 추가 최대 300원
배송안내
무료배송
배송비 안내
국내도서/외국도서
도서만 15,000원 이상 구매 시 무료배송
도서+교보Only(교보배송)을 함께 15,000원 이상 구매 시 무료배송

15,000원 미만 시 2,500원 배송비 부과

교보Only(교보배송)
각각 구매하거나 함께 20,000원 이상 구매 시 무료배송

20,000원 미만 시 2,500원 배송비 부과

해외주문 서양도서/해외주문 일본도서(교보배송)
각각 구매하거나 함께 15,000원 이상 구매 시 무료배송

15,000원 미만 시 2,500원 배송비 부과

업체배송 상품(전집, GIFT, 음반/DVD 등)
해당 상품 상세페이지 "배송비" 참고 (업체 별/판매자 별 무료배송 기준 다름)
바로드림 오늘배송
업체에서 별도 배송하여 1Box당 배송비 2,500원 부과

1Box 기준 : 도서 10권

그 외 무료배송 기준
바로드림, eBook 상품을 주문한 경우, 플래티넘/골드/실버회원 무료배송쿠폰 이용하여 주문한 경우, 무료배송 등록 상품을 주문한 경우
주문정보를 불러오는 중입니다.
서울시 종로구 종로 1

해외주문/바로드림/제휴사주문/업체배송건의 경우 1+1 증정상품이 발송되지 않습니다.

패키지

북카드

키워드 Pick

키워드 Pick 안내

관심 키워드를 주제로 다른 연관 도서를 다양하게 찾아 볼 수 있는 서비스로, 클릭 시 관심 키워드를 주제로 한 다양한 책으로 이동할 수 있습니다.
키워드는 최근 많이 찾는 순으로 정렬됩니다.

파이썬으로 배우는 자연어 처리 인 액션 상세 이미지

수상내역/미디어추천

파이썬과 다양한 AI 패키지로 만드는 수준 높은 예제!
최신 NLP 제품과 서비스 개발을 위한 실용주의적 안내서!
최근 심층 학습(딥러닝) 기술이 발전하면서 응용 프로그램들이 대단히 정확하게 텍스트와 음성을 인식하게 되었다. 또한, 새로운 기술과 Keras나 TensorFlow 같은 사용하기 쉬운 도구들 덕분에 이제는 고품질 NLP(자연어 처리) 응용 프로그램을 예전보다 쉽게 만들어낼 수 있다.

이 책은 사람의 언어를 읽고 해석할 수 있는 프로그램을 만들려는 모든 개발자를 위한 지침서다. 이 책에서는 바로 사용할 수 있는 파이썬 패키지들을 이용해서 텍스트의 의미를 포착하고 그에 따라 반응하는 챗봇을 구축한다. 또한, 전통적인 NLP 접근 방식들은 물론이고, 좀 더 최근의 심층 학습 알고리즘과 텍스트 생성 기법들을 동원해서 날짜와 이름 추출, 텍스트 작성, 비정형 질문에 대한 응답 같은 여러 실질적인 NLP 문제들을 해결한다.

작가정보

저자(글) 홉슨 레인

홉슨은 사람 대신 중요한 결정을 내리는 자율 시스템을 구축하는 분야에서 20년의 경험을 쌓았다. 그는 Keras, scikit-learn, PyBrain 같은 여러 오픈소스 프로젝트에 적극적으로 기여하며, 현재 Total Good에서 오픈소스 인지 조교(cognitive assistant) 구축을 비롯한 개방형 과학 연구 및 교육 프로젝트에 힘쓰고 있다. 또한, AIAA, PyCon, IEEE 등에 논문을 게재하거나
강연했으며, 로봇공학과 자동화에 관련된 여러 특허도 가지고 있다.

하네스는 전기 공학자가 기계 학습 공학자로 변신한 사례다. 대학교에서는 신경망 개념을 재생 가능 에너지 발전소를 효과적으로 제어하는 데 적용했다. 구인·구직, 보건 응용 프로그램을 위한 심층 학습 모형과 기계 학습 파이프라인을 개발하는 프로젝트에 참여했으며, OSCON, Open Source Bridge, Hack University 같은 여러 콘퍼런스에서 기계 학습을 주제로 강연했다.

저자(글) 콜 하워드

콜은 기계 학습 공학자이자 NLP 실무자이자 작가다. 대규모 전자상거래 추천 엔진들과 고차원 기계 지능 시스템을 위한 최신 심층 학습 신경망들을 개발했으며, 그의 모형들은 Kaggle 공모전에서 상위에 랭크되었다. 또한, Open Source Bridge Conference와 Hack University에서 합성곱 신경망과 순환 신경망에 관해, 그리고 그런 신경망들이 자연어 처리에서 차지하는 역할에 관해 강연했다.

번역 류광

커누스 교수의 《컴퓨터 프로그래밍의 예술》 시리즈를 포함하여 60여 종의 다양한 IT 전문서를 번역한 전문 번역가다. 인공지능 관련 번역서로는 《신경망과 심층 학습》(2019)과 《심층 학습》(2018), 《인공지능: 현대적 접근방식 제3판》(2016)이 있다. 번역과 프로그래밍 외에 소프트웨어 문서화에도 관심이 있으며, 수많은 오픈소스 프로젝트의 표준 문서 형식으로 쓰이는 DocBook의 국내 사용자 모임인 닥북 한국(http://docbook.kr)의 일원이다. 홈페이지 occam’s Razor(http://occamsrazr.net)와 게임 개발 사이트 GpgStudy(http://www.gpgstudy.com)를 운영하고 있다.

목차

  • PART I 말 많은 컴퓨터: NLP의 기초 1
    CHAPTER 1 사고의 단위: NLP의 개요 3
    1.1 자연어 대 프로그래밍 언어 4
    1.2 마법 5
    1.2.1 대화하는 기계 6
    1.2.2 수학 7
    1.3 실제 응용들 9
    1.4 컴퓨터의 ‘눈’으로 본 언어 11
    1.4.1 자물쇠 언어 12
    1.4.2 정규 표현식 13
    1.4.3 간단한 챗봇 14
    1.4.4 또 다른 방법 19
    1.5 짧은 초공간 탐험 23
    1.6 단어의 순서와 문법 25
    1.7 챗봇의 자연어 처리 파이프라인 27
    1.8 더 깊은 처리 30
    1.9 자연어 IQ 32
    요약 35

    CHAPTER 2 나만의 어휘 구축: 단어 토큰화 37
    2.1 어려운 문제: 어간 추출의 개요 39
    2.2 토큰 생성기를 이용한 어휘 구축 40
    2.2.1 내적 50
    2.2.2 두 단어 모음의 중복 측정 51
    2.2.3 토큰 개선 52
    2.2.4 n-그램을 이용한 어휘 확장 58
    2.2.5 어휘 정규화 66
    2.3 감정 분석 76
    2.3.1 VADER-규칙 기반 감정 분석기 78
    2.3.2 단순 베이즈 모형 80
    요약 84

    CHAPTER 3 말 잘하는 수학: TF-IDF 벡터 85
    3.1 단어 모음 86
    3.2 벡터화 92
    3.2.1 벡터 공간 95
    3.3 지프의 법칙 101
    3.4 주제 모형화 104
    3.4.1 돌아온 지프 108
    3.4.2 관련성 순위 110
    3.4.3 주요 도구: scikit-learn 112
    3.4.4 여러 TF-IDF 정규화 방법 113
    3.4.5 Okapi BM25 115
    3.4.6 다음 단계 116
    요약 116

    CHAPTER 4 단어 빈도에서 의미 찾기: 의미 분석 117
    4.1 단어 빈도에서 주제 점수로 119
    4.1.1 TF-IDF 벡터와 표제어 추출 119
    4.1.2 주제 벡터 120
    4.1.3 사고 실험 122
    4.1.4 주제 점수를 매기는 알고리즘 127
    4.1.5 LDA 분류기 129
    4.2 잠재 의미 분석(LSA) 134
    4.2.1 사고 실험의 실현 137
    4.3 특잇값 분해 140
    4.3.1 왼쪽 특이 벡터 행렬 U 142
    4.3.2 특잇값 행렬 S 143
    4.3.3 오른쪽 특이 벡터 행렬 VT 145
    4.3.4 SVD 행렬의 방향 145
    4.3.5 주제 절단 146
    4.4 주성분 분석(PCA) 148
    4.4.1 3차원 벡터에 대한 PCA 150
    4.4.2 말을 떠나 다시 NLP로 돌아가서 152
    4.4.3 PCA를 이용한 문자 메시지 잠재 의미 분석 154
    4.4.4 절단된 SVD를 이용한 문자 메시지 잠재 의미 분석 157
    4.4.5 스팸 분류에 대한 LSA의 정확도 158
    4.5 잠재 디리클레 할당(LDiA) 161
    4.5.1 LDiA의 기초 162
    4.5.2 문자 메시지 말뭉치에 대한 LDiA 주제 모형 165
    4.5.3 LDiA + LDA = 스팸 분류기 168
    4.5.4 좀 더 공정한 비교: 주제가 32개인 LDiA 171
    4.6 거리와 유사도 173
    4.7 피드백에 기초한 방향 조정 176
    4.7.1 선형 판별 분석(LDA) 177
    4.8 주제 벡터의 위력 179
    4.8.1 의미 기반 검색 181
    4.8.2 개선안 184
    요약 184

    PART II 더 깊은 학습: 신경망 적용 185
    CHAPTER 5 신경망 첫걸음: 퍼셉트론과 역전파 187
    5.1 신경망의 구성요소 188
    5.1.1 퍼셉트론 189
    5.1.2 디지털 퍼셉트론 190
    5.1.3 치우침 단위 191
    5.1.4 오차 곡면을 누비며 207
    5.1.5 경사로를 따라 활강 208
    5.1.6 흔들어서 탈출 210
    5.1.7 케라스: 신경망 파이썬 구현 211
    5.1.8 더 깊게 배우고 싶다면 215
    5.1.9 정규화: 스타일 있는 입력 215
    요약 216

    CHAPTER 6 단어 벡터를 이용한 추론: word2vec 활용 217
    6.1 의미 기반 질의와 비유 218
    6.1.1 비유 질문 219
    6.2 단어 벡터 221
    6.2.1 벡터 지향적 추론 225
    6.2.2 word2vec의 단어 표현 계산 228
    6.2.3 gensim.word2vec 모듈 사용법 238
    6.2.4 나만의 단어 벡터 모형 만들기 241
    6.2.5 word2vec 대 GloVe 244
    6.2.6 fastText 245
    6.2.7 word2vec 대 LSA 246
    6.2.8 단어 관계의 시각화 247
    6.2.9 인위적인 단어들 254
    6.2.10 doc2vec을 이용한 문서 유사도 추정 256
    요약 258

    CHAPTER 7 단어 순서를 고려한 의미 분석: 합성곱 신경망 259
    7.1 의미의 학습 261
    7.2 도구 모음 262
    7.3 합성곱 신경망 264
    7.3.1 합성곱 신경망의 구조 264
    7.3.2 단계 크기(보폭) 266
    7.3.3 필터의 구성 266
    7.3.4 여백 채우기 268
    7.3.5 훈련(학습) 270
    7.4 다시 텍스트로 271
    7.4.1 케라스로 합성곱 신경망 구현: 자료 준비 273
    7.4.2 합성곱 신경망의 구조 279
    7.4.3 풀링 280
    7.4.4 드롭아웃 283
    7.4.5 마지막 층 추가 284
    7.4.6 모형의 저장 및 시험 286
    7.4.7 모형을 NLP 파이프라인에 도입 289
    7.4.8 나머지 이야기 290
    요약 292

    CHAPTER 8 돌고 도는 신경망: 순환 신경망 293
    8.1 과거를 아는 순환 신경망 296
    8.1.1 시간에 대한 역전파 301
    8.1.2 무엇을 언제 갱신하는가? 303
    8.1.3 정리 306
    8.1.4 항상 그렇듯이 함정이 있다 307
    8.1.5 케라스를 이용한 순환 신경망 구현 307
    8.2 모형의 컴파일 312
    8.3 모형의 훈련 315
    8.4 초매개변수 조율 316
    8.5 예측 319
    8.5.1 상태 유지 320
    8.5.2 양방향 처리 321
    8.5.3 순환층 출력의 의미 323
    요약 323

    CHAPTER 9 장단기 기억망(LSTM 망)을 이용한 기억 유지 개선 325
    9.1 장단기 기억망(LSTM 망) 327
    9.1.1 시간에 대한 역전파 336
    9.1.2 예제 문장으로 모형을 시험 339
    9.1.3 더러운 자료 340
    9.1.4 다시 더러운 자료로 돌아가서 344
    9.1.5 단어보다 글자가 쉽다 345
    9.1.6 말문이 열린 신경망 352
    9.1.7 구체적인 예제 하나 354
    9.1.8 무엇을 말할 것인가? 363
    9.1.9 다른 종류의 기억 수단 363
    9.1.10 더 깊이 들어가서 364
    요약 366

    CHAPTER 10 순차열 대 순차열 모형과 주의 메커니즘 367
    10.1 부호기-복호기 구조 368
    10.1.1 생각 벡터의 복호화 369
    10.1.2 비슷한 구조들 371
    10.1.3 대화 생성을 위한 순차열 대 순차열 모형 373
    10.1.4 LSTM 복습 374
    10.2 순차열 대 순차열 NLP 파이프라인 구축 375
    10.2.1 순차열 대 순차열 훈련을 위한 자료 집합 준비 375
    10.2.2 케라스의 순차열 대 순차열 모형 376
    10.2.3 순차열 부호기 377
    10.2.4 생각 벡터 복호기 379
    10.2.5 순차열 대 순차열 신경망 조립 380
    10.3 순차열 대 순차열 신경망의 훈련 381
    10.3.1 출력 순차열 생성 381
    10.4 순차열 대 순차열 신경망을 이용한 챗봇 구축 383
    10.4.1 훈련 자료 준비 383
    10.4.2 문자 사전 구축 384
    10.4.3 원핫 부호화 훈련 집합 생성 385
    10.4.4 순차열 대 순차열 챗봇의 훈련 386
    10.4.5 순차열 생성을 위한 모형 설정 387
    10.4.6 순차열 생성(예측) 387
    10.4.7 응답문 생성 및 출력 388
    10.4.8 챗봇과 대화 389
    10.5 개선안 390
    10.5.1 버키팅을 이용한 학습 복잡도 감소 390
    10.5.2 주의 메커니즘 391
    10.6 순차열 대 순차열 신경망의 실제 용도 393
    요약 395

    PART III 응용: 실제 NLP 문제들 397
    CHAPTER 11 정보 추출: 개체명 인식과 질의응답 399
    11.1 개체명과 개체 관계 399
    11.1.1 지식 베이스 400
    11.1.2 정보 추출 403
    11.2 정규 패턴 404
    11.2.1 정규 표현식 405
    11.2.2 기계 학습 특징 추출로서의 정보 추출 406
    11.3 추출할 만한 정보 408
    11.3.1 GPS 좌표 추출 408
    11.3.2 날짜 추출 409
    11.4 관계의 추출 415
    11.4.1 품사 태깅 416
    11.4.2 개체명 정규화 420
    11.4.3 관계의 정규화와 추출 422
    11.4.4 단어 패턴 422
    11.4.5 분할 423
    11.4.6 split(‘.!?’)만으로는 안 되는 이유 424
    11.4.7 정규 표현식을 이용한 문장 분할 426
    11.5 실제 용도 428
    요약 429

    CHAPTER 12 챗봇(대화 엔진) 만들기 431
    12.1 대화 능력 432
    12.1.1 현대적 접근 방식들 434
    12.1.2 혼합형 접근 방식 441
    12.2 패턴 부합 접근 방식 441
    12.2.1 AIML을 이용한 패턴 부합 챗봇 구현 443
    12.2.2 패턴 부합의 그래프 시각화 450
    12.3 근거화 451
    12.4 정보 검색 454
    12.4.1 문맥 관리의 어려움 454
    12.4.2 정보 검색 기반 챗봇 예제 456
    12.4.3 Chatterbot 소개 460
    12.5 생성 모형 463
    12.5.1 NLPIA에 관한 대화 464
    12.5.2 각 접근 방식의 장단점 466
    12.6 사륜구동 467
    12.6.1 챗봇 프레임워크 Will 468
    12.7 설계 과정 469
    12.8 요령과 편법 473
    12.8.1 예측 가능한 답이 나올 질문을 던진다 473
    12.8.2 동문서답 474
    12.8.3 최후의 대비책은 검색 474
    12.8.4 흥미 유지 475
    12.8.5 인연 만들기 475
    12.8.6 감정 담기 475
    12.9 실제 응용 분야 476
    요약 477

    CHAPTER 13 규모 확장: 최적화, 병렬화, 일괄 처리 479
    13.1 자료가 너무 많으면 480
    13.2 NLP 알고리즘의 최적화 480
    13.2.1 색인화 481
    13.2.2 고급 색인화 483
    13.2.3 Annoy를 이용한 고급 색인화 485
    13.2.4 근사적 색인이 꼭 필요한가? 490
    13.2.5 실숫값의 색인화: 이산화 491
    13.3 상수 RAM 알고리즘 492
    13.3.1 gensim 492
    13.3.2 그래프 계산 493
    13.4 NLP 계산 병렬화 494
    13.4.1 GPU를 이용한 NLP 모형의 훈련 495
    13.4.2 대여와 구매 496
    13.4.3 GPU 대여 옵션들 497
    13.4.4 TPU(텐서 처리 장치) 498
    13.5 모형 훈련의 메모리 요구량 줄이기 498
    13.6 TensorBoard를 이용한 모형 성능 평가 501
    13.6.1 단어 내장 시각화 502
    요약 505

    APPENDIX A NLP 도구들 507
    A.1 Anaconda3 설치 508
    A.2 NLPIA 설치 509
    A.3 IDE 509
    A.4 우분투 패키지 관리자 510
    A.5 맥 OS 511
    A.5.1 Homebrew 511
    A.5.2 기타 개발용 도구 설치 512
    A.5.3 조율 512
    A.6 Windows 514
    A.6.1 VM 설정 515
    A.7 NLPIA의 편의 기능 515

    APPENDIX B 파이썬 즐기기와 정규 표현식 517
    B.1 문자열 다루기 518
    B.1.1 문자열 형식들: str과 bytes 518
    B.1.2 파이썬 문자열 템플릿 519
    B.2 파이썬의 매핑 자료 구조: dict와 OrderedDict 519
    B.3 정규 표현식 520
    B.3.1 |-OR 기호 520
    B.3.2 ()-그룹 묶기 521
    B.3.3 []-문자 부류 522
    B.4 코딩 스타일 523
    B.5 실력 쌓기 523

    APPENDIX C 벡터와 행렬: 기초 선형대수 524
    C.1 벡터 524
    C.1.1 거리 526

    APPENDIX D 기계 학습의 도구와 기법 531
    D.1 자료 선택과 편향 531
    D.2 얼마나 적합해야 적합된 것인가? 533
    D.3 문제를 알면 반은 해결된 것이다 534
    D.4 교차 검증 535
    D.5 과대적합 방지 536
    D.5.1 정칙화 537
    D.5.2 드롭아웃 538
    D.5.3 배치 정규화 539
    D.6 불균형 훈련 집합 539
    D.6.1 과다표집 540
    D.6.2 과소표집 540
    D.6.3 자료 증강 541
    D.7 성능 측정 542
    D.7.1 분류 모형의 성능 측정 542
    D.7.2 회귀 모형의 성능 측정 545
    D.8 전문가의 조언 545

    APPENDIX E AWS GPU 설정 548
    E.1 AWS 인스턴스 설정 549
    E.1.1 비용 관리 561

    APPENDIX F 지역 민감 해싱(LSH) 564
    F.1 고차원 벡터는 어렵다 564
    F.1.1 벡터 공간의 색인과 해시 565
    F.1.2 고차원적 사고 566
    F.2 고차원 색인화 570
    F.2.1 지역 민감 해싱 570
    F.2.2 근사 최근접 이웃 검색 571
    F.3 ‘좋아요’ 예측 571

    참고 자료 573
    용어집 586
    찾아보기 595

추천사

책 속으로

단어의 이러한 벡터 표현과 문서의 테이블 표현이 가진 한 가지 장점은 그 어떤 정보도 소실되지 않는다는 점이다. 각 열이 어떤 단어에 대응되는지에 관한 정보만 유지한다면, 이러한 원핫 벡터들의 테이블로 원래의 문서를 복원할 수 있다. 그리고 이러한 복원 과정은 100% 정확하다. 비록 현재의 토큰 생성기가 우리가 유용하다고 생각하는 수준의 90%의 정확도로만 토큰들을 생성한다고 해도 그렇다. 이런 장점 때문에 신경망, 문장 대 문장 언어 모형, 생성적 언어 모형들에서는 이런 원핫 단어 벡터들을 흔히 사용한다. 원핫 벡터 표현은 원래의 텍스트에 담긴 의미를 고스란히 유지해야 하는 모든 종류의 모형이나 NLP 파이프라인에 적합하다.
_45쪽

간단한 검색 엔진들은 바로 이 TF-IDF 수치 하나에 기초한다. 이 수치를 통해 우리는 텍스트(문자열) 처리의 세계에서 수치 연산의 세계로 확실하게 넘어오게 되었다. 다음 절부터는 이 수치로 할 수 있는 계산들을 살펴본다. 사실 여러분이 TF-IDF 계산을 구현하는 코드를 실제로 작성할 일은 거의 없을 것이다. 선형대수를 몰라도 자연어 처리에 쓰이는 도구들을 이해하는 데 크게 문제가 되지는 않는다. 그러긴 하지만, 이런 공식들에 익숙해지면 자연어 처리 도구들을 좀 더 직관적으로 이해하고 사용할 수 있게 된다.
_109쪽

LDA 모형의 ‘훈련’에 필요한 것은 이진 부류의 두 무게중심을 잇는 직선을 찾는 것이다. 이번 예제의 분류기는 주어진 단문 문자(SMS) 메시지가 스팸인지 아닌지를 분류한다. 즉, 이진 부류는 ‘스팸’ 대 ‘비스팸’이다. LDA는 지도 학습에 속하므로, 훈련용 문자(SMS) 메시지들에 분류명(class label)을 붙여 두어야 한다. 이러한 모형으로 추론(inference) 또는 예측을 수행하는 방법은 간단하다. 그냥 TF-IDF 벡터가 어느 부류의 무게중심에 더 가까운지 보면 된다. 즉, 만일 TF-IDF 벡터가 스팸 부류 무게중심에 더 가깝다면 그 벡터에 해당하는 메시지는 스팸일 가능성이 크다.
_130쪽

이런 과대적합은 NLP의 고질적인 문제이다. 사람들의 다양한 어법과 어휘를 포함하며 응용 분야에 맞는 적절한 분류명이 붙은 자연어 자료 집합을 구하기란 쉽지 않다. 실제로 나는 스패머들이 고안할 만한 모든 스팸성 단어와 비스팸성 단어를 포함한 거대한 문자 메시지 데이터베이스를 구할 수 없었다. 그런 자료 집합을 만들어낼 수 있는 기업은 극히 소수이다. 따라서 우리가 할 수 있는 일은 과대적합을 기정사실로 받아들이고 그에 대한 대응책을 모색하는 것뿐이다. 즉, 적은 수의 훈련 견본으로 모형을 훈련해도 모형이 미지의 견본들에 잘 “일반화되게” 하는 알고리즘을 찾아야 한다.
_153쪽

합성곱 필터는 인접한 단어들에서 특정한 패턴을 검출한다. 그리고 단어들의 위치가 조금 변해도 합성곱 신경망의 출력은 크게 영향을 받지 않는다. 중요한 점은, 서로 가까이 있는 개념들이 합성곱 신경망에 큰 영향을 준다는 것이다. 그런데 좀 더 넓은 시야로 텍스트를 바라보고 좀 더 긴 시간 구간에서 단어들 사이의 관계들을 파악하고 싶다면, 그러니까 인접한 토큰 세 개나 네 개보다는 더 큰 구간으로 단어들을 처리하고 싶다면 어떻게 해야 할까? 그러니까 신경망이 “꽤 오래전에 본 단어들”을 고려하게 만들려면, 다시 말해 신경망에 ‘기억’ 능력을 추가하려면 어떻게 해야 할까?
_293쪽

기본정보

상품정보
ISBN 9791190665018
발행(출시)일자 2020년 03월 04일
쪽수 652쪽
크기
189 * 245 * 37 mm / 1267 g
총권수 1권
시리즈명
제이펍의 인공지능 시리즈
원서명/저자명 Natural Language Processing in Action/Lane, Hobson

Klover

Klover 리뷰 안내
교보를 애용해 주시는 고객님들이 남겨주신 평점과 감상을 바탕으로, 다양한 정보를 전달하는 교보문고의 리뷰 서비스입니다.
1.리워드 안내
구매 후 90일 이내에 평점과 10자 이상의 리뷰 작성 시 e교환권 200원을 적립해 드립니다.
e교환권은 적립 일로부터 180일 동안 사용 가능합니다.
리워드는 작성 후 다음 날 제공되며, 발송 전 작성 시 발송 완료 후 익일 제공됩니다.
리워드는 리뷰 종류별로 구매한 아이디당 한 상품에 최초 1회 작성 건들에 대해서만 제공됩니다.
판매가 1,000원 미만 도서의 경우 리워드 지급 대상에서 제외됩니다.
한달 후 리뷰
구매 후 30일~ 120일 이내에 작성된 두 번째 구매리뷰에 대해 한 달 후 리뷰로 인지하고 e교환권 100원을 추가 제공합니다.

* 강연, 공연, 여행, 동영상, 사은품, 기프트카드 상품은 지급 제외
2.운영 원칙 안내
Klover 리뷰를 통한 리뷰를 작성해 주셔서 감사합니다. 자유로운 의사 표현의 공간인 만큼 타인에 대한 배려를 부탁합니다.
일부 타인의 권리를 침해하거나 불편을 끼치는 것을 방지하기 위해 아래에 해당하는 Klover 리뷰는 별도의 통보 없이 삭제될 수 있습니다.
  • 도서나 타인에 대해 근거 없이 비방을 하거나 타인의 명예를 훼손할 수 있는 리뷰
  • 도서와 무관한 내용의 리뷰
  • 인신공격이나 욕설, 비속어, 혐오발언이 개재된 리뷰
  • 의성어나 의태어 등 내용의 의미가 없는 리뷰

리뷰는 1인이 중복으로 작성하실 수는 있지만, 평점계산은 가장 최근에 남긴 1건의 리뷰만 반영됩니다.
3.신고하기
다른 고객이 작성리뷰에 대해 불쾌함을 느끼는 경우 신고를 할 수 있으며, 신고 자가 일정수준 이상 누적되면 작성하신 리뷰가 노출되지 않을 수 있습니다.

구매 후 리뷰 작성 시, e교환권 200원 적립

문장수집

문장수집 안내
문장수집은 고객님들이 직접 선정한 책의 좋은 문장을 보여주는 교보문고의 새로운 서비스입니다. 마음을 두드린 문장들을 기록하고 좋은 글귀들은 "좋아요“ 하여 모아보세요. 도서 문장과 무관한 내용 등록 시 별도 통보 없이 삭제될 수 있습니다.
리워드 안내
구매 후 90일 이내에 문장수집 작성 시 e교환권 100원을 적립해드립니다.
e교환권은 적립 일로부터 180일 동안 사용 가능합니다. 리워드는 작성 후 다음 날 제공되며, 발송 전 작성 시 발송 완료 후 익일 제공됩니다.
리워드는 한 상품에 최초 1회만 제공됩니다.
주문취소/반품/절판/품절 시 리워드 대상에서 제외됩니다.

구매 후 리뷰 작성 시, e교환권 100원 적립

이 책의 첫 기록을 남겨주세요

교환/반품/품절 안내

상품 설명에 반품/교환 관련한 안내가 있는 경우 그 내용을 우선으로 합니다. (업체 사정에 따라 달라질 수 있습니다.)

이벤트
TOP

저자 모두보기

매장별 재고 및 도서위치

할인쿠폰 다운로드

  • 쿠폰은 주문결제화면에서 사용 가능합니다.
  • 다운로드한 쿠폰은 마이 > 나의 통장 에서 확인 가능합니다.
  • 도서정가제 적용 대상 상품에 대해서는 정가의 10%까지 쿠폰 할인이 가능합니다.
  • 도서정가제 적용 대상 상품에 10% 할인이 되었다면, 해당 상품에는 사용하실 수
    없습니다.

적립예정포인트 안내

  • 통합포인트 안내

    • 통합포인트는 교보문고(인터넷, 매장), 핫트랙스(인터넷, 매장), 모바일 교보문고 등 다양한 곳에서 사용하실 수 있습니다.
    • 상품 주문 시, 해당 상품의 적립률에 따라 적립 예정 포인트가 자동 합산되고 주문하신 상품이 발송완료 된 후에 자동으로 적립됩니다.
    • 단, 쿠폰 및 마일리지, 통합포인트, e교환권 사용 시 적립 예정 통합포인트가 변동될 수 있으며 주문취소나 반품시에는 적립된 통합포인트가 다시 차감됩니다.
  • 통합포인트 적립 안내

    • 통합포인트는 도서정가제 범위 내에서 적용됩니다.
    • 추가적립 및 회원 혜택은 도서정가제 대상상품(국내도서, eBook등)으로만 주문시는 해당되지 않습니다.
  • 기본적립) 상품별 적립금액

    • 온라인교보문고에서 상품 구매시 상품의 적립률에 따라 적립됩니다.
    • 단 도서정가제 적용 대상인 국내도서,eBook은 15%내에서 할인율을 제외한 금액내로 적립됩니다.
  • 추가적립) 5만원 이상 구매시 통합포인트 2천원 추가적립

    • 5만원 이상 구매시 통합포인트 2천원 적립됩니다.
    • 도서정가제 예외상품(외서,음반,DVD,잡지(일부),기프트) 2천원 이상 포함시 적립 가능합니다.
    • 주문하신 상품이 전체 품절인 경우 적립되지 않습니다.
  • 회원혜택) 3만원이상 구매시 회원등급별 2~4% 추가적립

    • 회원등급이 플래티넘, 골드, 실버 등급의 경우 추가적립 됩니다.
    • 추가적립은 실결제액 기준(쿠폰 및 마일리지, 통합포인트, e교환권 사용액 제외) 3만원 이상일 경우 적립됩니다.
    • 주문 후 취소,반품분의 통합포인트는 단품별로 회수되며, 반품으로 인해 결제잔액이 3만원 미만으로 변경될 경우 추가 통합포인트는 전액 회수될 수 있습니다.

제휴 포인트 안내

제휴 포인트 사용

  • OK CASHBAG 10원 단위사용 (사용금액 제한없음)
  • GS&POINT 최대 10만 원 사용
더보기

구매방법 별 배송안내

지역별 도착 예정일

수도권 지역

배송 일정 안내 테이블로 결제 완료 시간, 도착예정일 결제 완료 시간 컬럼의 하위로 평일 0시 ~ 12시 토요일 0시 ~ 11시 평일 12시 ~ 22시 평일 12시 ~ 24시 토요일 11시 ~ 21시 을(를) 나타낸 표입니다.
결제 완료 시간 도착예정일
평일 0시 ~ 12시

토요일 0시 ~ 11시
당일배송 오늘

당일배송 오늘
평일 12시 ~ 22시

평일 12시 ~ 24시

토요일 11시 ~ 21시
새벽배송 내일 07시 이전

내일

일요배송 일요일

수도권 외 (천안, 대전, 울산, 부산, 대구, 창원)

배송 일정 안내 테이블로 결제 완료 시간, 도착예정일 결제 완료 시간 컬럼의 하위로 월~토 0시 ~ 11시 30분 을(를) 나타낸 표입니다.
결제 완료 시간 도착예정일
월~토 0시 ~ 11시 30분
당일배송 오늘

배송 유의사항

  • 새벽배송과 일요배송은 수도권 일부 지역을 대상으로 합니다. 상품 상세페이지에서 도착 예정일을 확인해 주세요.
  • 수도권 외 지역에서 선물포장하기 또는 사은품을 포함하여 주문할 경우 당일배송 불가합니다.
  • 무통장입금 주문 후 당일 배송 가능 시간 이후 입금된 경우 당일 배송 불가합니다.
  • 새벽배송의 경우 공동 현관 출입 번호가 누락 되었거나 틀릴 경우 요청하신 방법으로 출입이 어려워, 부득이하게 공동 현관 또는 경비실 앞에 배송 될 수 있습니다.
  • 학교, 관공서, 회사 등 출입 제한 시간이 있는 곳은 당일배송, 새벽배송, 일요배송이 제공되지 않을 수 있습니다.
  • 공휴일과 겹친 토요일, 일요일은 일요일 배송에서 제외됩니다. 일요배송은 한정 수량에 한해 제공됩니다. 수량 초과 시 일반배송으로 발송되니 주문 시 도착 예정일을 확인해 주세요.
  • 주문 후 배송지 변경 시 변경된 배송지에 따라 익일 배송될 수 있습니다.
  • 수도권 외 지역의 경우 효율적인 배송을 위해 각 지역 매장에서 택배를 발송하므로, 주문 시의 부록과 상이할 수 있습니다.
  • 각 지역 매장에서 재고 부족 시 재고 확보를 위해 당일 배송이 불가할 수 있습니다.
  • 기상악화로 인한 도로 사정으로 일부 지역의 배송 지연이 발생될 수 있습니다.
  • 출고 예정일이 5일 이상인 상품의 경우(결제일로부터 7일 동안 미입고), 출판사 / 유통사 사정으로 품/절판 되어 구입이 어려울 수 있습니다. 이 경우 SMS, 메일로 알려드립니다.
  • 분철상품 주문 시 분철 작업으로 인해 기존 도착 예정일에 2일 정도 추가되며, 당일 배송, 해외 배송이 불가합니다.
  • 해외주문도서는 해외 거래처 사정에 의해 품절/지연될 수 있습니다.
  • 스페셜오더 도서나 일서 해외 주문 도서와 함께 주문 시 배송일이 이에 맞추어 지연되오니, 이점 유의해 주시기 바랍니다.

바로드림존에서 받기

  1. STEP 01
    매장 선택 후 바로드림 주문
  2. STEP 02
    준비완료 알림 시 매장 방문하기
  3. STEP 03
    바로드림존에서 주문상품 받기
  • 바로드림은 전국 교보문고 매장 및 교내서점에서 이용 가능합니다.
  • 잡지 및 일부 도서는 바로드림 이용이 불가합니다.
  • 각 매장 운영시간에 따라 바로드림 이용 시간이 달라질 수 있습니다.

수령 안내

  • 안내되는 재고수량은 서비스 운영 목적에 따라 상이할 수 있으므로 해당 매장에 문의해주시기 바랍니다.
  • 바로드림 주문 후 재고가 실시간 변동되어, 수령 예상 시간에 수령이 어려울 수 있습니다.

취소/교환/반품 안내

  • 주문 후 7일간 찾아가지 않으시면, 자동으로 결제가 취소됩니다.
  • 취소된 금액은 결제수단의 승인취소 및 예치금으로 전환됩니다.
  • 교환/반품은 수령하신 매장에서만 가능합니다.

사은품 관련 안내

  • 바로드림 서비스는 일부 1+1 도서, 경품, 사은품 등이 포함 되지 않습니다.

음반/DVD 바로드림시 유의사항

  • 음반/DVD 상품은 바로드림 주문 후 수령점 변경이 불가합니다. 주문 전 수령점을 꼭 확인해 주세요.
  • 사은품(포스터,엽서 등)은 증정되지 않습니다.
  • 커버이미지 랜덤발매 음반은 버전 선택이 불가합니다.
  • 광화문점,강남점,대구점,영등포점,잠실점은 [직접 찾아 바로드림존 가기], [바로드림존에서 받기] 로 주문시 음반 코너에서 수령확인이 가능합니다
  • 선물 받는 분의 휴대폰번호만 입력하신 후 결제하시면 받는 분 휴대폰으로 선물번호가 전달됩니다.
  • 문자를 받은 분께서는 마이 > 주문관리 > 모바일 선물내역 화면에서 선물번호와 배송지 정보를 입력하시면 선물주문이 완료되어 상품준비 및 배송이 진행됩니다.
  • 선물하기 결제하신 후 14일까지 받는 분이 선물번호를 등록하지 않으실 경우 주문은 자동취소 됩니다.
  • 또한 배송 전 상품이 품절 / 절판 될 경우 주문은 자동취소 됩니다.

바로드림 서비스 안내

  1. STEP 01
    매장 선택 후 바로드림 주문
  2. STEP 02
    준비완료 알림 시 매장 방문하기
  3. STEP 03
    바로드림존에서 주문상품 받기
  • 바로드림은 전국 교보문고 매장 및 교내서점에서 이용 가능합니다.
  • 잡지 및 일부 도서는 바로드림 이용이 불가합니다.
  • 각 매장 운영시간에 따라 바로드림 이용 시간이 달라질 수 있습니다.

수령 안내

  • 안내되는 재고수량은 서비스 운영 목적에 따라 상이할 수 있으므로 해당 매장에 문의해주시기 바랍니다.
  • 바로드림 주문 후 재고가 실시간 변동되어, 수령 예상시간에 수령이 어려울 수 있습니다.

취소/교환/반품 안내

  • 주문 후 7일간 찾아가지 않으시면, 자동으로 결제가 취소됩니다.
  • 취소된 금액은 결제수단의 승인취소 및 예치금으로 전환됩니다.
  • 교환/반품은 수령하신 매장에서만 가능합니다.

사은품 관련 안내

  • 바로드림 서비스는 일부 1+1 도서, 경품, 사은품 등이 포함되지 않습니다.

음반/DVD 바로드림시 유의사항

  • 음반/DVD 상품은 바로드림 주문 후 수령점 변경이 불가합니다. 주문 전 수령점을 꼭 확인해주세요.
  • 사은품(포스터,엽서 등)은 증정되지 않습니다.
  • 커버이미지 랜덤발매 음반은 버전 선택이 불가합니다.
  • 광화문점,강남점,대구점,영등포점,잠실점은 [직접 찾아 바로드림존 가기], [바로드림존에서 받기] 로 주문시 음반코너에서 수령확인이 가능합니다.
  1. STEP 01
    픽업박스에서 찾기 주문
  2. STEP 02
    도서준비완료 후 휴대폰으로 인증번호 전송
  3. STEP 03
    매장 방문하여 픽업박스에서 인증번호 입력 후 도서 픽업
  • 바로드림은 전국 교보문고 매장 및 교내서점에서 이용 가능합니다.
  • 잡지 및 일부 도서는 바로드림 이용이 불가합니다.
  • 각 매장 운영시간에 따라 바로드림 이용 시간이 달라질 수 있습니다.

수령 안내

  • 안내되는 재고수량은 서비스 운영 목적에 따라 상이할 수 있으므로 해당 매장에 문의해주시기 바랍니다.
  • 바로드림 주문 후 재고가 실시간 변동되어, 수령 예상시간에 수령이 어려울 수 있습니다.

취소/교환/반품 안내

  • 주문 후 7일간 찾아가지 않으시면, 자동으로 결제가 취소됩니다.
  • 취소된 금액은 결제수단의 승인취소 및 예치금으로 전환됩니다.
  • 교환/반품은 수령하신 매장에서만 가능합니다.

사은품 관련 안내

  • 바로드림 서비스는 일부 1+1 도서, 경품, 사은품 등이 포함되지 않습니다.

음반/DVD 바로드림시 유의사항

  • 음반/DVD 상품은 바로드림 주문 후 수령점 변경이 불가합니다. 주문 전 수령점을 꼭 확인해주세요.
  • 사은품(포스터,엽서 등)은 증정되지 않습니다.
  • 커버이미지 랜덤발매 음반은 버전 선택이 불가합니다.
  • 광화문점,강남점,대구점,영등포점,잠실점은 [직접 찾아 바로드림존 가기], [바로드림존에서 받기] 로 주문시 음반코너에서 수령확인이 가능합니다.

도서 소득공제 안내

  • 도서 소득공제란?

    • 2018년 7월 1일 부터 근로소득자가 신용카드 등으로 도서구입 및 공연을 관람하기 위해 사용한 금액이 추가 공제됩니다. (추가 공제한도 100만원까지 인정)
      • 총 급여 7,000만 원 이하 근로소득자 중 신용카드, 직불카드 등 사용액이 총급여의 25%가 넘는 사람에게 적용
      • 현재 ‘신용카드 등 사용금액’의 소득 공제한도는 300만 원이고 신용카드사용액의 공제율은 15%이지만, 도서·공연 사용분은 추가로 100만 원의 소득 공제한도가 인정되고 공제율은 30%로 적용
      • 시행시기 이후 도서·공연 사용액에 대해서는 “2018년 귀속 근로소득 연말 정산”시기(19.1.15~)에 국세청 홈택스 연말정산간소화 서비스 제공
  • 도서 소득공제 대상

    • 도서(내서,외서,해외주문도서), eBook(구매)
    • 도서 소득공제 대상 상품에 수반되는 국내 배송비 (해외 배송비 제외)
      • 제외상품 : 잡지 등 정기 간행물, 음반, DVD, 기프트, eBook(대여,학술논문), 사은품, 선물포장, 책 그리고 꽃
      • 상품정보의 “소득공제” 표기를 참고하시기 바랍니다.
  • 도서 소득공제 가능 결제수단

    • 카드결제 : 신용카드(개인카드에 한함)
    • 현금결제 : 예치금, 교보e캐시(충전에한함), 해피머니상품권, 컬쳐캐쉬, 기프트 카드, 실시간계좌이체, 온라인입금
    • 간편결제 : 교보페이, 네이버페이, 삼성페이, 카카오페이, PAYCO, 토스, CHAI
      • 현금결제는 현금영수증을 개인소득공제용으로 신청 시에만 도서 소득공제 됩니다.
      • 교보e캐시 도서 소득공제 금액은 교보eBook > e캐시 > 충전/사용내역에서 확인 가능합니다.
      • SKpay, 휴대폰 결제, 교보캐시는 도서 소득공제 불가
  • 부분 취소 안내

    • 대상상품+제외상품을 주문하여 신용카드 "2회 결제하기"를 선택 한 경우, 부분취소/반품 시 예치금으로 환원됩니다.

      신용카드 결제 후 예치금으로 환원 된 경우 승인취소 되지 않습니다.

  • 도서 소득공제 불가 안내

    • 법인카드로 결제 한 경우
    • 현금영수증을 사업자증빙용으로 신청 한 경우
    • 분철신청시 발생되는 분철비용

알림 신청

아래의 알림 신청 시 원하시는 소식을 받아 보실 수 있습니다.
알림신청 취소는 마이룸 > 알림신청내역에서 가능합니다.

파이썬으로 배우는 자연어 처리 인 액션
신고

신고 사유를 선택해주세요.
신고 내용은 이용약관 및 정책에 의해 처리됩니다.

허위 신고일 경우, 신고자의 서비스 활동이 제한될 수 있으니 유의하시어
신중하게 신고해주세요.

판형알림

  • A3 [297×420mm]
  • A4 [210×297mm]
  • A5 [148×210mm]
  • A6 [105×148mm]
  • B4 [257×364mm]
  • B5 [182×257mm]
  • B6 [128×182mm]
  • 8C [8절]
  • 기타 [가로×세로]
EBS X 교보문고 고객님을 위한 5,000원 열공 혜택!
자세히 보기

해외주문양서 배송지연 안내

현재 미국 현지 눈폭풍으로 인해
해외 거래처 출고가 지연되고 있습니다.

해외주문양서 주문 시
예상 출고일보다 배송기간이 더 소요될 수 있으니
고객님의 너그러운 양해 부탁드립니다.

감사합니다.