밑바닥부터 만들면서 배우는 LLM (GPT를 내 손으로 직접 단계별로 만들어보면서 대규모 언어 모델의 기본기를 탄탄히 채우기)

밑바닥부터 만들면서 배우는 LLM (GPT를 내 손으로 직접 단계별로 만들어보면서 대규모 언어 모델의 기본기를 탄탄히 채우기)

$40.00
Description
한 줄 한 줄 코드를 따라가다 보면, 나만의 GPT가 완성된다!
GPT를 밑바닥부터 구현하며 LLM의 원리를 손끝으로 체득하는 실전 가이드
어려운 개념은 그림으로 풀고, LLM은 직접 만들면서 배운다. 이 책은 대규모 언어 모델의 구조와 동작 원리를 처음부터 끝까지 직접 구현하며 학습할 수 있는 실전형 LLM 입문서다. 단순히 개념을 설명하는 데 그치지 않고 텍스트 전처리와 토큰화, 임베딩 과정을 출발점으로 삼아, 셀프 어텐션과 멀티헤드 어텐션, 트랜스포머 블록을 차근차근 구축해 나간다. 이어서 이러한 구성 요소들을 통합하여 실제 GPT 모델을 완성하고, 모델의 파라미터 수와 훈련 안정화 기법, 활성화 함수와 정규화 방법 등 최신 아키텍처 설계의 핵심 요소들을 직접 다뤄본다. 또한 사전 학습과 미세 튜닝 과정을 깊이 있게 안내한다. 레이블 없는 데이터에서 사전 훈련을 진행하고, 텍스트 분류와 같은 다운스트림 작업에 맞춰 모델을 튜닝하며, 최근 각광받는 지시 기반 학습 기법까지 실습할 수 있다. LoRA 기반의 파라미터 효율적 미세 조정(PEFT) 같은 최신 내용도 담아 LLM을 실제 서비스와 연구에 연결할 수 있는 방법까지 폭넓게 제시한다. 모든 개념은 파이토치 코드로 구현되어 있으며, 일반 노트북 환경에서도 실습할 수 있도록 최적화했다. 이 책의 구현 과정을 따라가다 보면 LLM 내부에서 어떤 일이 일어나는지 자연스럽게 이해하고, 대규모 언어 모델의 메커니즘이 어떻게 작동하는지 손끝으로 체득하게 될 것이다.

북 트레일러

  • 출판사의 사정에 따라 서비스가 변경 또는 중지될 수 있습니다.
  • Window7의 경우 사운드 연결이 없을 시, 동영상 재생에 오류가 발생할 수 있습니다. 이어폰, 스피커 등이 연결되어 있는지 확인 하시고 재생하시기 바랍니다.
저자

세바스찬라시카

10년넘게머신러닝및AI연구자일했으며,AI와딥러닝을쉽게배우고활용하는방법을가르치는데열정적이다.라이트닝AI(LightningAI)의선임연구엔지니어이며,주요연구분야는LLM구현과훈련이다.라이트닝AI에합류하기전에는위스콘신매디슨대학(UniversityofWisconsin-Madison)의통계학과조교수로딥러닝과머신러닝을연구했다.그의웹사이트(https://sebastianraschka.com)에서자세한연구내용을볼수있다.
연구이외에도오픈소스소프트웨어를사랑하고열정적인기여자로활동했다.글쓰기도좋아해베스트셀러인『머신러닝교과서with파이썬,사이킷런,텐서플로(PythonMachineLearning)』(2021,길벗),『머신러닝교과서:파이토치편(MachineLearningwithPyTorchandScikit-Learn)』(2023,길벗),『머신러닝Q&AI』(2025,길벗)를집필했다.

목차

1장대규모언어모델이해하기
1.1LLM이란무엇인가요?
1.2LLM애플리케이션
1.3LLM의구축단계
1.4트랜스포머구조소개
1.5대규모데이터셋활용하기
1.6GPT구조자세히살펴보기
1.7대규모언어모델만들기
1.8요약

2장텍스트데이터다루기
2.1단어임베딩이해하기
2.2텍스트토큰화하기
2.3토큰을토큰ID로변환하기
2.4특수문맥토큰추가하기
2.5바이트페어인코딩
2.6슬라이딩윈도로데이터샘플링하기
2.7토큰임베딩만들기
2.8단어위치인코딩하기
2.9요약

3장어텐션메커니즘구현하기
3.1긴시퀀스모델링의문제점
3.2어텐션메커니즘으로데이터의존성포착하기
3.3셀프어텐션으로입력의서로다른부분에주의기울이기
__3.3.1훈련가능한가중치가없는간단한셀프어텐션메커니즘
__3.3.2모든입력토큰에대해어텐션가중치계산하기
3.4훈련가능한가중치를가진셀프어텐션구현하기
__3.4.1단계별로어텐션가중치계산하기
__3.4.2셀프어텐션파이썬클래스구현하기
3.5코잘어텐션으로미래의단어를감추기
__3.5.1코잘어텐션마스크적용하기
__3.5.2드롭아웃으로어텐션가중치에추가적으로마스킹하기
__3.5.3코잘어텐션클래스구현하기
3.6싱글헤드어텐션을멀티헤드어텐션으로확장하기
__3.6.1여러개의싱글헤드어텐션층쌓기
__3.6.2가중치분할로멀티헤드어텐션구현하기
3.7요약

4장밑바닥부터GPT모델구현하기
4.1LLM구조구현하기
4.2층정규화로활성화정규화하기
4.3GELU활성화함수를사용하는피드포워드네트워크구현하기
4.4숏컷연결추가하기
4.5어텐션과선형층을트랜스포머블록에연결하기
4.6GPT모델만들기
4.7텍스트생성하기
4.8요약

5장레이블이없는데이터를활용한사전훈련
5.1텍스트생성모델평가하기
__5.1.1GPT를사용해텍스트생성하기
__5.1.2텍스트생성손실계산하기
__5.1.3훈련세트와검증세트의손실계산하기
5.2LLM훈련하기
5.3무작위성을제어하기위한디코딩전략
__5.3.1온도스케일링
__5.3.2탑-k샘플링
__5.3.3텍스트생성함수수정하기
5.4파이토치로모델로드하고저장하기
5.5오픈AI에서사전훈련된가중치로드하기
5.6요약

6장분류를위해미세튜닝하기
6.1여러가지미세튜닝방법
6.2데이터셋준비
6.3데이터로더만들기
6.4사전훈련된가중치로모델초기화하기
6.5분류헤드추가하기
6.6분류손실과정확도계산하기
6.7지도학습데이터로모델미세튜닝하기
6.8LLM을스팸분류기로사용하기
6.9요약

7장지시를따르도록미세튜닝하기
7.1지시미세튜닝소개
7.2지도학습지시미세튜닝을위해데이터셋준비하기
7.3훈련배치만들기
7.4지시데이터셋을위한데이터로더만들기
7.5사전훈련된LLM로드하기
7.6지시데이터에서LLM미세튜닝하기
7.7응답을추출하여저장하기
7.8미세튜닝된LLM평가하기
7.9결론
__7.9.1다음단계는?
__7.9.2빠르게발전하는분야의최신정보얻기
__7.9.3맺음말
7.10요약

부록A파이토치소개
A.1파이토치란무엇인가요?
__A.1.1파이토치의세가지핵심요소
__A.1.2딥러닝이란?
__A.1.3파이토치설치
A.2텐서이해하기
__A.2.1스칼라,벡터,행렬,텐서
__A.2.2텐서데이터타입
__A.2.3자주사용하는파이토치텐서연산
A.3모델을계산그래프로보기
A.4자동미분을손쉽게
A.5다층신경망만들기
A.6효율적인데이터로더설정하기
A.7일반적인훈련루프
A.8모델저장과로드
A.9GPU로훈련성능최적화하기
__A.9.1GPU장치를사용한파이토치계산
__A.9.2단일GPU훈련
__A.9.3다중GPU훈련
A.10요약

부록B참고및더읽을거리

부록C연습문제해답

부록D훈련루프에부가기능추가하기
D.1학습률웜업
D.2코사인감쇠
D.3그레이디언트클리핑
D.4수정된훈련함수

부록ELoRA를사용한파라미터효율적인미세튜닝
E.1LoRA소개
E.2데이터셋준비하기
E.3모델초기화하기
E.4LoRA를사용한파라미터효율적인미세튜닝


[워크북목차]
1장대규모언어모델이해하기
2장텍스트데이터다루기
3장어텐션메커니즘구현하기
4장밑바닥부터GPT모델구현하기
5장레이블이없는데이터를활용한사전훈련
6장분류를위해미세튜닝하기
7장지시를따르도록미세튜닝하기

부록A파이토치소개
부록D훈련루프에부가기능추가하기
부록ELoRA를사용한파라미터효율적인미세튜닝

출판사 서평

“만들수없다면,진정으로이해한것이아니다.”-리처드파인만

LLM을이해하는가장좋은방법은밑바닥부터직접구현해보는것이다
이름에서알수있듯이LLM(LargeLanguageModel)은매우큰모델이다.하지만규모가크다고해서LLM을블랙박스처럼생각할필요는없다.파인만의말처럼무언가를진정으로이해하려면직접만들어보는것이가장좋다.이책을통해단계별로LLM을구축하는방법을배우자.기존의다른LLM라이브러리를사용하지않고직접베이스모델을개발하고,이를텍스트분류기로발전시킨뒤궁극적으로나의대화지시를따르는챗봇을만들어보자.모델구축의계획을짜고코딩하는것부터시작해모델훈련과미세튜닝에이르기까지모든단계를다룰것이다.이책을다읽고나면ChatGPT와같은LLM의동작방식을근본적인수준에서확실하게이해하게될것이다.

[이책에담긴내용]
■GPT-2와유사한LLM을기획하고개발하기
■텍스트분류를위해LLM을미세튜닝하기
■사전훈련된가중치로드하기
■사람의지시를따르는LLM개발하기
■완전한훈련파이프라인구축하기

워크북도함께제공!좀더쉽고명확하게이해해보자!
이책의학습방법,즉직접스스로모델을만들어보는것은대규모언어모델의동작방식을근본부터배울수있는가장좋은방법이다.이를위해명확한설명,그림,코드를담았지만,다루는주제가복잡하기때문에어렵게느껴질수있다.조금더쉽고명확하게이해할수있도록워크북을준비했다.이워크북은『밑바닥부터만들면서배우는LLM』의구성을따라가며각장의핵심개념을다루고선다형퀴즈,코드와핵심개념에대한질문,깊게생각하고길게답변해야하는질문등으로스스로를테스트할수있다.물론질문에대한답변도함께실었다.본문을읽기전이나,읽은후,시간을두고반복학습을하고자할때등다양하게활용하면서배운지식을확실하게익히자.

트랜스포머의셀프어텐션메커니즘을단계별로설명합니다.LLM과GPT모델의내부시스템작동방식에대한직관을키우고싶다면꼭읽어봐야할책입니다.
-아마존독자리뷰

저자가모든코드를제공하고,쉽게따라할수있습니다.코드를쉽게수정하고,많은것을배울수있습니다.LLM의작동방식을배우고싶다면최고의투자입니다.
-아마존독자리뷰

[베타리더후기]
트랜스포머구조와LLM을이처럼쉽게풀어낸설명을거의찾아볼수없었습니다.특히단계별실습을제공한다는점이저에게큰도움이되었습니다.기초를튼튼히다질수있다는점에서모든AI개발자에게이책을추천합니다.
-김병규|아이브릭스AI서비스개발자

GPT구조와학습과정이실제구현단계와함께설명되어있어,ChatGPT같은모델이어떤원리로동작하는지감을잡을수있었습니다.LLM에대한지식이전혀없던저에게,이책은기본개념부터실제활용까지체계적으로쌓을수있도록도와준유익한길잡이였습니다.
-김준호|에스에스지닷컴백엔드개발자

개념설명과실습이함께구성되어있어,LLM개발에대한두려움과진입장벽을크게낮춰주는책이라고생각합니다.
-김민선|한국수자원공사데이터관리

모든소스를구글코랩에서직접실습할수있도록해두었는데,이러한배려덕분에읽으면서실습할수있는환경이마련되어있다는점이특히만족스러웠습니다.무엇보다제공되는소스에오류가없다는점이인상적이었습니다.이론과실습을병행하며이해할수있도록구성되어있어LLM이어떻게동작하는지근본적인원리를알고싶은분께이책을적극추천합니다.
-김종열|에코시스템솔루션사업부팀장

LLM의기초개념부터출발해실제코드를다뤄보는핸즈온(Hands-on)실습을통해심화내용까지자연스럽게이어집니다.기초부터차근차근쌓아올려원리를깊이이해할수있도록돕는훌륭한안내서입니다.
-추상원|GOTROOTPentester

연구논문의아이디어형성과정까지엿볼수있어학문적으로도영감을얻을수있으며,연구수준의추상적개념을기초부터직접구현함으로써논문의난해한부분을명쾌하게이해할수있습니다.방대한내용을다루면서도코드오류가없어내용에몰입할수있고,파이토치중심의직관적인코드구현은실무활용에도큰도움이됩니다.
-허민|한국외국어대학교정보전략팀AI개발및전략기획

파이토치에익숙하지않은사람도무리없이따라올수있도록배려한구성이인상적이었습니다.LLM의기초이론부터실제모델구현,실무적인미세튜닝방법까지LLM개발의전과정을완벽하게아우르는최고의실전가이드입니다.
-강경목|한국썸벧(하림그룹계열)부장(팀장)·경영학박사

단순히LLM을활용하는법을넘어,직접구현하며이해할수있도록돕는훌륭한책입니다.
-이진|경동나비엔개발팀데이터사이언티스트