대규모 언어 모델, 핵심만 빠르게! (언어 모델링의 기초부터 LLM 최신 기법까지)

대규모 언어 모델, 핵심만 빠르게! (언어 모델링의 기초부터 LLM 최신 기법까지)

$24.00
Description
복잡한 이론은 덜고, 꼭 필요한 핵심만 담았다!
언어 모델링을 익히는 가장 간결한 안내서
이 책은 안드리 부르코프의 베스트셀러 《머신러닝, 핵심만 빠르게!》의 후속작으로, 언어 모델링의 기초부터 시작하여 최신 대규모 언어 모델(LLM)을 간결하면서도 철저하게 다룬다. 독자들은 이 책을 통해 현대 머신러닝과 신경망의 수학적 기초, 파이썬으로 구현하는 카운트, RNN 기반 언어 모델, 파이토치로 직접 만드는 트랜스포머, LLM 실습(지시 미세 튜닝, 프롬프트 엔지니어링)까지 체계적으로 학습할 수 있다.
실행 가능한 파이썬 코드와 구글 코랩 환경을 기반으로 실습형으로 구성된 이 책은 누구나 단계별로 따라가며 이해를 확장할 수 있다. 언어 모델이 단순한 n-그램 통계에서 출발해 오늘날 AI의 핵심 기술로 성장해 온 과정을 카운트 기반 방.법부터 시작해서 최신 트랜스포머 아키텍처까지 설명하며, 원리와 구현을 함께 다룬다. 각 장은 앞선 내용을 토대로 점진적으로 발전하며, 복잡한 개념도 명확한 설명과 그림, 실습을 통해 쉽게 이해할 수 있도록 구성되어 있다.

이 책에서 다루는 내용
ㆍ머신러닝과 신경망의 핵심 개념
ㆍ텍스트 표현 기법과 기본 언어 모델링
ㆍ파이토치로 RNN과 트랜스포머 구현하기
ㆍ언어 모델의 미세 튜닝과 프롬프트 엔지니어링 실무 지침
ㆍ환각 문제와 모델 평가에 관한 주요 고려 사항

북 트레일러

  • 출판사의 사정에 따라 서비스가 변경 또는 중지될 수 있습니다.
  • Window7의 경우 사운드 연결이 없을 시, 동영상 재생에 오류가 발생할 수 있습니다. 이어폰, 스피커 등이 연결되어 있는지 확인 하시고 재생하시기 바랍니다.
저자

안드리부르코프

두아이의아빠이며,캐나다퀘벡시에서머신러닝전문가로활동하고있다.10년전AI분야로박사학위를취득한후,7년동안가트너에서머신러닝팀을이끌었다.전문분야는자연어처리이며,표층학습기법과심층학습기법을모두적용해최첨단텍스트추출및정규화시스템을개발했다.현재는TruePositiveInc.의대표로머신러닝도서를집필하면서다양한기업에자문을제공하고있다.

목차

옮긴이의글
추천의글
지은이의글

1장머신러닝기초
1.1AI와머신러닝
1.2모델
1.3네단계머신러닝프로세스
1.4벡터
1.5신경망
1.6행렬
1.7경사하강법
1.8자동미분

2장언어모델링기초
2.1BoW
2.2단어임베딩
2.3바이트페어인코딩
2.4언어모델
2.5카운트기반언어모델
2.6언어모델평가
2.6.1혼잡도
2.6.2ROUGE
2.6.3사람의평가

3장순환신경망
3.1엘만RNN
3.2미니배치경사하강법
3.3RNN구현하기
3.4RNN언어모델
3.5임베딩층
3.6RNN언어모델훈련시키기
3.7Dataset과DataLoader
3.8훈련데이터와손실계산

4장트랜스포머
4.1디코더블록
4.2셀프어텐션
4.3위치별다층퍼셉트론
4.4로터리위치임베딩
4.5멀티헤드어텐션
4.6잔차연결
4.7RMS정규화
4.8키-값캐싱
4.9트랜스포머구현

5장대규모언어모델
5.1규모가클수록좋은이유
5.1.1대규모파라미터개수
5.1.2큰문맥크기
5.1.3대규모훈련데이터셋
5.1.4대량의계산량
5.2지도학습미세튜닝
5.3사전훈련된모델미세튜닝하기
5.3.1기준감정분류기
5.3.2감정레이블생성하기|
5.3.3지시를따르도록미세튜닝하기
5.4언어모델의샘플링
5.4.1온도를사용한기본샘플링
5.4.2탑-k샘플링
5.4.3뉴클리어스(탑-p)샘플링
5.4.4페널티
5.5LoRA
5.5.1핵심아이디어
5.5.2PEFT
5.6분류용LLM
5.7프롬프트엔지니어링
5.7.1좋은프롬프트의특징
5.7.2행동에대한후속조치
5.7.3코드생성
5.7.4문서동기화
5.8환각182
5.8.1환각의원인
5.8.2환각방지
5.9LLM,저작권,윤리
5.9.1훈련데이터
5.9.2생성된콘텐츠
5.9.3오픈웨이트모델
5.9.4광범위한윤리적고려사항

6장추가자료
6.1MoE
6.2모델병합
6.3모델압축
6.4선호도기반정렬
6.5고급추론
6.6언어모델보안
6.7비전언어모델
6.8과대적합방지
6.9맺음말
6.10저자의다른책