허깅페이스 트랜스포머 하드 트레이닝 (코드와 결과물로 이해하는 언어 모델과 트랜스포머)

허깅페이스 트랜스포머 하드 트레이닝 (코드와 결과물로 이해하는 언어 모델과 트랜스포머)

$28.60
Description
자연어 처리의 기본부터
허깅페이스 모델 경량화, 정렬 조정, 강화 학습까지
챗GPT와 같은 대화형 인공지능 챗봇과 다수의 오픈소스 생성형 언어 모델은 대규모 언어 모델(LLM)에 해당합니다. 허깅페이스는 각종 생성형 인공지능을 위한 모델과 데이터셋을 개발자들이 자유롭게 공유하고 쉽게 활용할 수 있도록 API 및 도구를 제공하는데, 『자연어 처리를 위한 허깅페이스 트랜스포머 하드 트레이닝』에서는 다양한 생성형 인공지능 기술 중 자연어 처리를 위한 언어 모델에 집중합니다.

Transformers 라이브러리를 기준으로 토크나이저 및 모델 준비, 한국어 자연어 이해 평가(KLUE) 데이터셋 전처리, 학습 파라미터 선정 및 학습 진행과 성능 평가를 실습해봅니다. 이후 사전학습 단계부터 직접 진행해야 하는 경우를 대비하여 Tokenizers 라이브러리에 대해 살펴보고 정확도, f1 스코어, 정밀도, 재현율을 기준으로 모델을 평가하는 Evaluate 라이브러리에 대해서 알아봅니다. PEFT, 양자화, QLoRA 미세조정과 같이 모델의 메모리 사용량은 줄이고 추론 속도는 높이는 경량화 기법에 대해 코드와 결과물로 꼼꼼하게 확인해본 후 RLHF, SFT, PPO, Best-of-N 샘플링 등 정렬 조정에 해당하는 다양한 방법론과 이를 강화학습을 위한 트랜스포머(TRL)를 통해 활용하는 방식까지 차근차근 학습합니다.
저자

박성환,남승우

통계학을전공하였으며DB관리및솔루션개발3년9개월,스타트업자연어처리(NaturalLanguageProcessing,NLP)개발2년8개월경력을쌓은후현재는국내식품관련기업풀무원의Data&AI팀에서대규모언어모델(LargeLanguageModel,LLM)을활용한HR어시스턴트,AICC콜봇개발을하고있습니다.
최근에는자연어처리관련모델과LLM에관해주로공부중이며항상아는지식을공유하고모르는지식은배우려는자세로임하고있습니다.

現)풀무원Data&AI팀NLP개발
前)AI관련스타트업NLP개발
前)퓨쳐누리DB관리및솔루션개발

- 깃허브github.com/hipster4020
- 블로그hipster4020.tistory.com
- 링크드인linkedin.com/in/sunghwanpark4020

목차

1자연어처리와허깅페이스
_1.1허깅페이스소개
__1.1.1Datasets
__1.1.2Models
__1.1.3Spaces
__1.1.4Docs
_1.2자연어처리와허깅페이스의관계

2환경구축
_2.1구글코랩환경구축
__2.1.1계정생성
__2.1.2새노트북만들기
__2.1.3코드실행
__2.1.4파일저장
__2.1.5깃코드열기
_2.2구글드라이브마운트

3허깅페이스주요라이브러리
_3.1Datasets라이브러리
__3.1.1Datasets설치
__3.1.2Datasets실습
_3.2Transformers라이브러리
__3.2.1Transformers설치
__3.2.2Tokenizer
__3.2.3DataCollator
__3.2.4Model
__3.2.5AutoClass
__3.2.6Trainer,TrainingArguments
__3.2.7Pipeline
_3.3미세조정
__3.3.1토크나이저와모델준비
__3.3.2데이터준비및전처리
__3.3.3학습파라미터선정
__3.3.4학습진행
__3.3.5성능평가
__3.3.6모델저장
_3.4허깅페이스허브등록
__3.4.1push_to_hub()
__3.4.2CLI
__3.4.3huggingface-hub

4보조라이브러리
_4.1Tokenizers라이브러리
__4.1.1Tokenizer학습
__4.1.2모델초기화후학습
_4.2Evaluate라이브러리
__4.2.1Evaluate평가
__4.2.2커스텀메트릭만들기
__4.2.3Trainer적용

5언어모델구조및학습
_5.1트랜스포머모델
_5.2인코더기반모델
__5.2.1기본구조
__5.2.2SequenceClassification
__5.2.3MultipleChoice
__5.2.4TokenClassification
__5.2.5QuestionAnswering
_5.3디코더기반모델
__5.3.1기본구조
__5.3.2CausalLM
__5.3.3QuestionAnswering
__5.3.4SequenceClassification
_5.4인코더-디코더기반모델
__5.4.1기본구조
__5.4.2ConditionalGeneration
__5.4.3SequenceClassification
__5.4.4QuestionAnswering

6모델활용
_6.1모델미세조정
__6.1.1인코더-SequenceClassification
__6.1.2디코더-CausalLM
__6.1.3인코더-디코더-ConditionalGeneration
__6.1.4언어모델문장생성
_6.2모델서빙

7모델경량화
_7.1모델경량화개요
_7.2PEFT
_7.3양자화
_7.4QLoRA미세조정

8TRL
_8.1TRL라이브러리개요
_8.2RLHF
_8.3보상모델트레이닝
_8.4SFT
_8.5PPO
_8.6Best-of-N샘플링
_8.7DPO
_8.8KTO
_8.9CPO
_8.10ORPO

출판사 서평

추론속도를높이고성능을발전시키는
허깅페이스라이브러리하드트레이닝

1장에서는허깅페이스허브에등록된모델및데이터셋을확인해보고자연어처리와허깅페이스의관계에대해알아봅니다.

2장에서는허깅페이스를하드트레이닝해보기에앞서구글코랩환경을구축하고구글드라이브를마운트합니다.

3장에서는Datasets라이브러리와Transformers라이브러리를활용하여토크나이저및모델준비,KLUE데이터셋전처리,학습파라미터선정및학습진행과성능평가를실습해봅니다.

4장에서는사전학습단계부터직접진행해야하는경우를대비하여Tokenizers라이브러리에대해살펴봅니다.그리고정확도,f1스코어,정밀도,재현율을기준으로모델을평가하는Evaluate라이브러리에대해알아봅니다.

5장에서는트랜스포머모델,인코더기반모델,디코더기반모델,인코더-디코더기반모델의기본구조를살펴보고문장분류,다중선택,토큰분류,질의응답,조건부생성,인과적언어모델(CausalLM)태스크의코드와결과를확인해봅니다.

6장에서는모델구조별대표태스크에대해미세조정(파인튜닝,fine-tuning)을진행합니다.확률적특징의이해를돕는수식과꼭필요한메서드의파라미터까지함께살펴볼수있습니다.

7장에서는PEFT,양자화,QLoRA미세조정과같이모델의메모리사용량은줄이고추론속도는높이는경량화기법에대해알아봅니다.

8장에서는RLHF,SFT,PPO,DPO,KTO,CPO,ORPO,Best-of-N샘플링,보상모델트레이닝등정렬조정에해당하는최신방법론과이를강화학습을위한트랜스포머(TRL)를통해활용하는방식에대해알아봅니다.


이책이필요한독자
- 자연어처리분야에서의인공지능에대해알고싶은분
- 언어모델을처음접하는대학생또는대학원생
- 허깅페이스코드를실습해보고싶은자연어처리초보자
- 언어모델의구조와다양한태스크를샅샅이살펴보고싶은분
- 허깅페이스에대한이해도는있지만,직접부딪혀가며코드로기술을레벨업하고싶은분
- 경량화기법과강화학습을위한트랜스포머에대해궁금한분