최적화 이론 (머신러닝, 인공지능, 컴퓨터 비젼 전공자를 위한 | Optimization Theory)

최적화 이론 (머신러닝, 인공지능, 컴퓨터 비젼 전공자를 위한 | Optimization Theory)

$27.00
Description
이 책은 수학을 전공하지 않은 분들을 위한 수학 참고서입니다. 원래 수학 참고서는 비 전공자 분들 눈에서 매우 엄격하고 까다롭게 쓰인 경우가 종종 있습니다. 사실은 까다롭고 엄격한 방법론이 틀린 것은 아니지만 뭔가 필요한 지식을 얻어가려는 사람들에게는 매우 불편하게 여겨지는 부분이기도 합니다. 가능하면 수학 비 전공자 분들이 접근하기 쉽게 설명하려고 매우 노력했습니다. 하지만 수학적인 논리가 필요한 부분에서는 충실히 수학의 엄격성을 유지하려고 했습니다. 이 책의 난이도는 대학교 학부생 수준에서 대학원생들의 연구에 사용할 정도의 최적화 이론에 대한 내용을 담고 있습니다.
저자

임장환

독일Trier,Kiel대학에서수학
Kiel대학수학과졸업(박사)
독일Kiel대학연구원
중앙대학교첨단영상대학원연구교수역임
현장환수학출판사대표
관심분야:3DReconstructionFromMultipleImages
CameraCalibration
최적화이론,인공지능
Lie군이론(LieGroupTheory)
사영기하학(ProjectiveGeometry)
위상기하학(TopologicalGeometry)

블로그:https://blog.naver.com/jang_hwan_im
유튜브:임장환:3DComputerVision
https://www.youtube.com/channel/UCxsF9TU0tELBAhQTWV-t_kA

목차

1.일변수함수의최대최소이론
1.1일변수함수미분
1.2테일러급수(TaylorSeries)
1.3Taylor급수보충설명[증명]
2.다변수함수
2.1다변수함수(MultiVariableFunctions)의정의:
2.2다변수함수의미분
2.3f:R^n-〉R의테일러급수(TaylorSeries)
2.4f:R^m-〉R^n의테일러급수(TaylorSeries)
2.5레벨집합과그레디언트방향
3.컨벡스함수(Convexfunction)
3.1컨벡스함수의정의
3.1-11정리(컨벡스함수핵심정리)
4.제약조건이없는최적화
4.1기본개념
4.2-1하강방향찾기1[GradientDescent탐색방법]
4.2-2직선탐색(Linesearch)알고리즘:보폭(stepsize)결정하기
4.3하강방향찾기2[ConjugateGradient탐색방법]
4.4하강방향찾기3[Newton탐색방법]
4.4-1Newton탐색방법
4.4-2Levenberg-MarquardtTypeDampedNewtonMethod
4.4-3:Quasi-NewtonMethod
4.5비선형최소자승법(non-linearleastsquaresproblem)
4.5-1:다변수함수의국소선형성질
4.5-2:비선형최소자승법(non-linearleastsquaresproblem)
4.5-3:Gauss-Newton탐색방법
4.5-4:Levenberg-Marquardt방법
5.라그랑주승수법(Lagrangemultipliermethod)
5.1라그랑주승수법(Lagrangemultipliermethod)
-등호제약조건이있는경우5.2라그랑주승수법(Lagrangemultipliermethod)
-등호와부등호제약조건이있는경우6.선형대수학
6.1벡터공간R^n(VectorspaceofR^n)
6.2부분공간(Subspace):벡터공간속의벡터공간
6.3일차결합(linearcombination)의기하학적인의미:평행사변형법칙
6.4일차독립,일차종속
6.5기저개념(Basis)과벡터공간의차원(Dimension)
6.6내적(Innerproduct)
6.7행렬(Matrices)
6.8벡터공간과행렬과의관계
6.9행렬에서열벡터와행벡터의의미
6.10고유치와고유벡터의기하학적인의미
6.11양확정행렬에대한Gram-Schmidt(그람-슈미트)직교화과정
6.12군론의정의(DefinitionofGroup)
6.13R^3에서의직교행렬(OrthogonalMatrixinR^3)
6.14공간상의물체의회전과군이론:SO_3(R)
6.15선형방정식의해구하기:Ax=b

참고문헌
찾아보기