FREE SHIPING FOR OVER $100 - MOSTLY SHIP VIA USPS GROUND ADVANTAGE %D days %H:%M:%S
나카타니슈요
저자:나카타니슈요 사이보즈랩주식회사소속.어린시절부터프로그램과소설을집필해왔으며,현재는머신러닝,자연어처리,대규모언어모델(LLM)을중심으로연구및개발을하고있다.저서로는『[프로그래밍체험만화]펫스크립트만약프로그래밍가능한스티커가있다면』,『이해할수있는기계학습-현실의문제를해결하기위해구조를이해한다』(이상기술평론사)가있다. 역자:박광수 박광수라는이름보다‘아크몬드’라는필명으로알려진블로거이다.2004년부터지금까지최신윈도우정보를꾸준히나누고있다.지금까지7회마이크로소프트MVP(Windows부문)를수상했다.Microsoft365,애저등마이크로소프트의최신기술에열광한다.심리학에관심이많으며현재일본에서개발자로일하면서딥러닝에많은관심을두고있다.지은책으로는『진짜쓰는윈도우11』(제이펍,2023),『윈도우10마스터북』(한빛미디어,2016),옮긴책으로는『처음배우는딥러닝수학』,『파이썬으로배우는머신러닝의교과서』(이상한빛미디어)등이있다.
1장챗GPT1.1챗GPT란__1.1.1챗GPT시작__1.1.2챗GPT활용사례1.2편리한챗GPT기능__1.2.1채팅답변편집및조작__1.2.2채팅기록및공유1.3프롬프트엔지니어링__1.3.1프롬프트와컨텍스트__1.3.2프롬프트엔지니어링1.4챗GPT엔진(대규모언어모델)__1.4.1GPT-4와GPT-3.5__1.4.2웹검색연동기능__1.4.3멀티모달기능(이미지를이용한채팅)__1.4.4CodeInterpreter(프로그램자동실행)1.5GPTs(AI의커스터마이징기능)__1.5.1GPTs__1.5.2GPT빌더1.6챗GPT이외의AI채팅서비스__1.6.1구글제미나이__1.6.2마이크로소프트코파일럿__1.6.3앤트로픽클로드1.7AI채팅을이용할때주의할점__1.7.1무작위성이존재한다__1.7.2오류가능성__1.7.3금지된행위__1.7.4입력데이터취급__1.7.5GPTs이용할때주의사항2장인공지능2.1AI(인공지능)__2.1.1인공지능이란2.2AI역사__2.2.1AI연구의역사2.3생성형AI와범용인공지능__2.3.1생성형AI__2.3.2범용인공지능(AGI)3장머신러닝과딥러닝3.1머신러닝__3.1.1머신러닝≠기계가스스로학습하는것__3.1.2머신러닝종류__3.1.3추론과학습__3.1.4최적화__3.1.5일반화와과적합3.2신경망__3.2.1신경망이란__3.2.2신경망구조3.3신경망의학습__3.3.1경사하강법을이용한학습__3.3.2오차역전파법3.4정규화__3.4.1드롭아웃__3.4.2배치정규화__3.4.3잔차신경망3.5컴퓨터에서숫자를다루는방법__3.5.12진수로정수와소수표현__3.5.2부동소수점수__3.5.3부동소수점수의대표적인형식__3.5.4부동소수점수의정밀도와동적범위3.6양자화__3.6.1모델크기와GPUVRAM관계__3.6.2양자화3.7GPU를활용한딥러닝__3.7.1계산을빠르게하는방법__3.7.2GPUvsCPU__3.7.3GPU의탄생과범용계산__3.7.4딥러닝에특화된GPU와NPU__3.7.5GPU/NPU의소프트웨어지원4장자연어처리4.1자연어처리__4.1.1딥러닝이전의자연어처리__4.1.2자연어처리와딥러닝4.2문자와문자코드__4.2.1문자코드__4.2.2유니코드4.3단어와토큰__4.3.1문장을컴퓨터가처리할수있도록분할하기__4.3.2단어와문자기반분할__4.3.3서브워드4.4토크나이저__4.4.1토큰나이저의학습__4.4.2어휘수와토큰수의트레이드오프4.5Word2Vec__4.5.1‘개념’을다루는방식__4.5.2Word2Vec으로단어의벡터표현__4.5.3Word2Vec이단어의미를파악하는원리4.6임베딩벡터__4.6.1토큰벡터는‘의미’를나타내지않는다__4.6.2임베딩벡터__4.6.3다양한임베딩벡터5장대규모언어모델5.1언어모델__5.1.1모델이란__5.1.2언어모델이란5.2대규모언어모델__5.2.1대규모언어모델과‘일반적인언어능력’5.3신경망의범용성과기반모델__5.3.1신경망으로특징추출__5.3.2기반모델__5.3.3기반모델로정확도가향상되는원리5.4스케일링법칙과창발성__5.4.1스케일링법칙과창발성__5.4.2대규모언어모델의파라미터수5.5언어모델이텍스트를생성하는원리__5.5.1언어모델의텍스트생성__5.5.2자기회귀언어모델__5.5.3탐욕법5.6텍스트생성전략__5.6.1랜덤샘플링과소프트맥스함수__5.6.2‘온도’의역할__5.6.3단어생성의트리다이어그램__5.6.4빔서치5.7언어모델을이용한AI채팅__5.7.1문장생성을이용한AI채팅__5.7.2대규모언어모델을이용한AI채팅의문제점5.8로컬LLM__5.8.1로컬LLM이란__5.8.2로컬LLM환경__5.8.3로컬LLM을이용한추론과정5.9대규모언어모델의라이선스__5.9.1로컬LLM의생태계__5.9.2소프트웨어라이선스__5.9.3대규모언어모델의라이선스종류5.10대규모언어모델의평가__5.10.1대규모언어모델의평가방법__5.10.2리더보드5.11대규모언어모델의학습:사전학습__5.11.1사전학습과기반모델__5.11.2자기지도학습__5.11.3기반모델의추가학습__5.11.4사전학습의훈련데이터5.12대규모언어모델의학습:파인튜닝__5.12.1파인튜닝__5.12.2파인튜닝방법__5.12.3RLHF__5.12.4LoRA5.13컨텍스트내학습__5.13.1문맥내학습6장트랜스포머6.1회귀형신경망(RNN)__6.1.1벡터의차원__6.1.2회귀형신경망__6.1.3언어모델로서RNN__6.1.4장거리의존성과LSTM__6.1.5인코더-디코더6.2주의메커니즘__6.2.1인간의인지와주의메커니즘__6.2.2주의메커니즘의기본__6.2.3인코더-디코더와주의메커니즘6.3주의메커니즘의계산__6.3.1주의메커니즘계산__6.3.2주의메커니즘이잘작동하는이유6.4트랜스포머__6.4.1트랜스포머의기본구성__6.4.2위치인코딩__6.4.3멀티헤드주의메커니즘6.5BERT__6.5.1BERT(버트)특징__6.5.2BERT의사전학습6.6GPT__6.6.1GPT모델의기본구조__6.6.2MixtureofExperts7장API를이용한AI개발7.1OpenAIAPI활용__7.1.1OpenAIAPI__7.1.2OpenAIAPI를이용할때주의사항7.2텍스트생성API(CompletionAPI등)__7.2.1텍스트생성API의종류7.3OpenAIAPI요금__7.3.1OpenAIAPI의토큰__7.3.2텍스트생성모델의종류와요금__7.3.3OpenAI토크나이저라이브러리tiktoken__7.3.4언어별토큰수차이7.4텍스트생성API에지정하는파라미터__7.4.1텍스트생성API의파라미터7.5텍스트생성API와외부도구의연계:FunctionCalling__7.5.1FunctionCalling__7.5.2랭체인라이브러리__7.5.3기계가읽을수있는도구로써FunctionCalling7.6임베딩벡터생성API와규약위반검사API__7.6.1임베딩벡터생성API__7.6.2임베딩벡터생성API의모델종류__7.6.3약관위반검사(Moderation)API7.7OpenAI이외의대규모언어모델API서비스__7.7.1마이크로소프트AzureOpenAIAPI__7.7.2구글,VertexAI__7.7.3아마존,Bedrock7.8RAG__7.8.1외부지식을활용한AI애플리케이션개발__7.8.2RAG8장대규모언어모델의영향8.1생성형AI의위험과보안__8.1.1생성형AI가미치는악영향__8.1.2생성형AI의악용__8.1.3생성형AI가부적절한출력을할위험__8.1.4생성형AI를이용한서비스공격__8.1.5대책과가이드라인8.2AI의편향과정렬__8.2.1학습데이터의편향이AI에미치는영향__8.2.2AI의편향성을제어하는방법8.3환각__8.3.1AI는실수한다__8.3.2환각의정체__8.3.3환각의대책__8.3.4환각을없앨수있을까?8.4AI의민주화__8.4.1AI활용의민주화__8.4.2AI개발의민주화__8.4.3빅테크의컴퓨팅자원8.5대규모언어모델의다국어지원__8.5.1챗GPT는몇개언어로사용가능한가요?__8.5.2대규모언어모델의언어간격차__8.5.3대규모언어모델과인지,문화와의관계8.6AI와철학__8.6.1지능이란,언어란__8.6.2중국어의방
챗GPT는어떻게작동하는가?쉽고빠르게이해하는챗GPT의구조와원리!생성형AI를활용하는책들이주를이루고있지만,기술의본질을이해하지못한다면응용하고활용하는데는한계가있습니다.활용법은금세바뀌고도구자체도빠르게진화합니다.하지만구조와원리를깊이이해해두면,새로운버전이등장해활용법이변하더라도당황하지않고안정적으로대응할수있습니다.따라서AI를더잘활용하고AI를다양한분야에적용하고싶다면,AI의원리를알아두는것이반드시필요합니다.이책은챗GPT의높은범용성을가능하한핵심기술인대규모언어모델(LLM)의구조와원리를다룹니다.뉴럴네트워크,양자화기반모델,트랜스포머,스케일링법칙,RAG,파인튜닝까지생성형AI의기반을이루는주요개념과메커니즘을체계적으로설명합니다.또한AI의성능과정확도를높이는요소부터응용가능성과활용전망까지폭넓게고찰합니다.생성형AI를업무에활용하고있거나다른기술에접목해야하는독자에게강력하게추천하는책입니다.