대규모 언어 모델, 핵심만 빠르게! (언어 모델링의 기초부터 LLM 최신 기법까지)

대규모 언어 모델, 핵심만 빠르게! (언어 모델링의 기초부터 LLM 최신 기법까지)

$24.00
Description
복잡한 이론은 덜고, 꼭 필요한 핵심만 담았다!
언어 모델링을 익히는 가장 간결한 안내서
이 책은 안드리 부르코프의 베스트셀러 《머신러닝, 핵심만 빠르게!》의 후속작으로, 언어 모델링의 기초부터 시작하여 최신 대규모 언어 모델(LLM)을 간결하면서도 철저하게 다룬다. 독자들은 이 책을 통해 현대 머신러닝과 신경망의 수학적 기초, 파이썬으로 구현하는 카운트, RNN 기반 언어 모델, 파이토치로 직접 만드는 트랜스포머, LLM 실습(지시 미세 튜닝, 프롬프트 엔지니어링)까지 체계적으로 학습할 수 있다.
실행 가능한 파이썬 코드와 구글 코랩 환경을 기반으로 실습형으로 구성된 이 책은 누구나 단계별로 따라가며 이해를 확장할 수 있다. 언어 모델이 단순한 n-그램 통계에서 출발해 오늘날 AI의 핵심 기술로 성장해 온 과정을 카운트 기반 방.법부터 시작해서 최신 트랜스포머 아키텍처까지 설명하며, 원리와 구현을 함께 다룬다. 각 장은 앞선 내용을 토대로 점진적으로 발전하며, 복잡한 개념도 명확한 설명과 그림, 실습을 통해 쉽게 이해할 수 있도록 구성되어 있다.

이 책에서 다루는 내용
ㆍ머신러닝과 신경망의 핵심 개념
ㆍ텍스트 표현 기법과 기본 언어 모델링
ㆍ파이토치로 RNN과 트랜스포머 구현하기
ㆍ언어 모델의 미세 튜닝과 프롬프트 엔지니어링 실무 지침
ㆍ환각 문제와 모델 평가에 관한 주요 고려 사항

북 트레일러

  • 출판사의 사정에 따라 서비스가 변경 또는 중지될 수 있습니다.
  • Window7의 경우 사운드 연결이 없을 시, 동영상 재생에 오류가 발생할 수 있습니다. 이어폰, 스피커 등이 연결되어 있는지 확인 하시고 재생하시기 바랍니다.
저자

안드리부르코프

저자:안드리부르코프
두아이의아빠이며,캐나다퀘벡시에서머신러닝전문가로활동하고있다.10년전AI분야로박사학위를취득한후,7년동안가트너에서머신러닝팀을이끌었다.전문분야는자연어처리이며,표층학습기법과심층학습기법을모두적용해최첨단텍스트추출및정규화시스템을개발했다.현재는TruePositiveInc.의대표로머신러닝도서를집필하면서다양한기업에자문을제공하고있다.

역자:박해선
기계공학을전공했지만졸업후엔줄곧코드를읽고쓰는일을했다.GoogleAI/CloudGDE,MicrosoftAIMVP이다.텐서플로우블로그(tensorflow.blog)를운영하고있으며,머신러닝과딥러닝에관한책을집필하고번역하면서소프트웨어와과학의경계를흥미롭게탐험하고있다.
《혼자만들면서공부하는딥러닝》(한빛미디어,2025),《혼자공부하는머신러닝+딥러닝개정판》(한빛미디어,2025),《혼자공부하는데이터분석with파이썬》(한빛미디어,2023),《챗GPT로대화하는기술》(한빛미디어,2023),《Doit!딥러닝입문》(이지스퍼블리싱,2019)을집필했다.
《밑바닥부터만들면서배우는LLM》(길벗,2025),《핸즈온LLM》(한빛미디어,2025),《머신러닝Q&AI》(길벗,2025),《개발자를위한수학》(한빛미디어,2024),《실무로통하는ML문제해결with파이썬》(한빛미디어,2024),《머신러닝교과서:파이토치편》(길벗,2023),《스티븐울프럼의챗GPT강의》(한빛미디어,2023),《핸즈온머신러닝3판》(한빛미디어,2023),《만들면서배우는생성딥러닝2판》(한빛미디어,2023),《코딩뇌를깨우는파이썬》(한빛미디어,2023),《트랜스포머를활용한자연어처리》(한빛미디어,2022),《케라스창시자에게배우는딥러닝2판》(길벗,2022),《개발자를위한머신러닝&딥러닝》(한빛미디어,2022),《XGBoost와사이킷런을활용한그레이디언트부스팅》(한빛미디어,2022),《구글브레인팀에게배우는딥러닝withTensorFlow.js》(길벗,2022),《파이썬라이브러리를활용한머신러닝개정2판》(한빛미디어,2022),《머신러닝교과서3판》(길벗,2021)을포함하여수십권의책을우리말로옮겼다.

목차

옮긴이의글
추천의글
지은이의글

1장머신러닝기초
1.1AI와머신러닝
1.2모델
1.3네단계머신러닝프로세스
1.4벡터
1.5신경망
1.6행렬
1.7경사하강법
1.8자동미분

2장언어모델링기초
2.1BoW
2.2단어임베딩
2.3바이트페어인코딩
2.4언어모델
2.5카운트기반언어모델
2.6언어모델평가
2.6.1혼잡도
2.6.2ROUGE
2.6.3사람의평가

3장순환신경망
3.1엘만RNN
3.2미니배치경사하강법
3.3RNN구현하기
3.4RNN언어모델
3.5임베딩층
3.6RNN언어모델훈련시키기
3.7Dataset과DataLoader
3.8훈련데이터와손실계산

4장트랜스포머
4.1디코더블록
4.2셀프어텐션
4.3위치별다층퍼셉트론
4.4로터리위치임베딩
4.5멀티헤드어텐션
4.6잔차연결
4.7RMS정규화
4.8키-값캐싱
4.9트랜스포머구현

5장대규모언어모델
5.1규모가클수록좋은이유
5.1.1대규모파라미터개수
5.1.2큰문맥크기
5.1.3대규모훈련데이터셋
5.1.4대량의계산량
5.2지도학습미세튜닝
5.3사전훈련된모델미세튜닝하기
5.3.1기준감정분류기
5.3.2감정레이블생성하기|
5.3.3지시를따르도록미세튜닝하기
5.4언어모델의샘플링
5.4.1온도를사용한기본샘플링
5.4.2탑-k샘플링
5.4.3뉴클리어스(탑-p)샘플링
5.4.4페널티
5.5LoRA
5.5.1핵심아이디어
5.5.2PEFT
5.6분류용LLM
5.7프롬프트엔지니어링
5.7.1좋은프롬프트의특징
5.7.2행동에대한후속조치
5.7.3코드생성
5.7.4문서동기화
5.8환각182
5.8.1환각의원인
5.8.2환각방지
5.9LLM,저작권,윤리
5.9.1훈련데이터
5.9.2생성된콘텐츠
5.9.3오픈웨이트모델
5.9.4광범위한윤리적고려사항

6장추가자료
6.1MoE
6.2모델병합
6.3모델압축
6.4선호도기반정렬
6.5고급추론
6.6언어모델보안
6.7비전언어모델
6.8과대적합방지
6.9맺음말
6.10저자의다른책

출판사 서평

대규모언어모델(largelanguagemodel,LLM)의등장으로모든것이바뀌었습니다.처음으로컴퓨터가사람과유창하게대화하고놀라울정도로정확하게음성지시를따를수있게되었습니다.하지만모든도구와마찬가지로이런모델의엄청난능력에는한계가있습니다.일부는다루기쉽지만,어떤것은미묘하며,적절히다루기위해고도의전문기술이필요합니다.도구에대해완전히이해하지못한채마천루를세우려고한다면결국에는산더미처럼쌓인콘크리트와철근만남을뿐입니다.언어모델도마찬가지입니다.대규모텍스트처리를수행하거나신뢰할만한상용제품을만들려면정밀함과지식이필요합니다.추측은고려대상이아닙니다.
-'지은이의글'중에서

추천사

빈트서프(인터넷개척자이자튜링상수상자)
“이책은머신러닝이실제로어떻게작동하는지에관한개념적혼란을정리해준다.
머신러닝을명료하게담아낸보석같은책이다.”

토마시미콜로프(word2vec와FastText의개발자)
“언어모델링에처음발을들여최첨단을향해나아가고자하는이들에게훌륭한출발점이다.”

플로리앙두에토(Dataiku의공동창업자겸CEO)
“안드리는선형대수기초부터트랜스포머구현까지100여번의멋진붓질로여정을그려낸다.”

제리리우(LlamaIndex의공동창업자겸CEO)
“LLM의내부작동원리를깊이이해할수있는가장포괄적이면서도간결한안내서중하나다.”

호르헤토레스(MindsDB의CEO)
“안드리는거대한AI개념을한입크기로줄여,독자가‘이제이해했어!’라고느끼게만드는거의초자연적인재능을가지고있다.”