728x90
반응형
SMALL
아직 AI의 A자도 시작 안 했지만 본격적으로 시작하면
수학을 배운 적 없어서 수학이 모자랄 것 같아 수학 공부 시작.
AI 개발에 필요한 수학
1. 선형대수학 (Linear Algebra)
AI에서 데이터를 수학적으로 표현하고 처리하는데 핵심적인 역할.
특히 벡터, 행렬 연산은 딥러닝에서 모델의 가중치 및 계산의 기본 단위로 사용.
- 벡터와 행렬
- 벡터의 덧셈, 스칼라 곱
- 행렬의 덧셈, 곱셈
- 행렬의 성질
- 전치, 영행렬, 행렬식
- 선형 변환
- 회전, 확대/축소 등 기하학적 변환
-고윳값과 고유벡터
- PCA(Principal Component Analysis) 등 차원 축소 기법에 활용
- 학습방법
- 벡터와 행렬의 기본 연산부터 학습
- 행렬식과 역행렬의 계산 연습
- Python에서 NumPy로 행렬 연산 실습
2. 미적분학 (Calculus)
모델의 최적화와 학습 과정을 이해하는데 필수적.
특히 경사하강법(Gradient Descent)에서 기울기를 계산하는데 활용
- 미분
- 함수의 변화율, 도함수
- 다변수 함수의 편미분
- 적분
- 누적 합, 확률 분포 계산
- 최적화
- 경사하강법과 손실 함수의 최소화
- 연쇄 법칙
- 딥러닝에서 역전파(Backpropagation)에 활용
- 학습방법
- 함수의 기초 미분법과 적분법 학습
- 편미분과 연쇄 법칙 연습
- 손실 함수와 경사하강법 구현 실습
3. 확률과 통계 (Probability and Statistics)
데이터 분석 및 모델의 불확실성 처리에 필수적.
머신러닝 모델의 출력 확률, 데이터 분포, 평가 지표 등에 활용.
- 확률
- 조건부 확률, 베이즈 정리
- 확률 분포(정규분포, 이항분포 등)
- 통계
- 평균, 분산, 표준편차
- 통계적 추정과 가설 검정
- 샘플링
- 데이터의 분포를 따르는 샘플 생성
- 베이즈 통계
- Bayesian 모델과 신뢰도 계산
- 학습 방법
- 기본 확률과 통계 개념 학습
- 확률 분포와 조건부 확률 연습
- Python에서 scipy와 pandas로 데이터 분석 실습
4. 최적화 이론 (Optimization)
AI 모델 학습 과정에서 손실 함수(Loss Function)를 최소화하는 알고리즘 설계에 사용
- 손실함수
- 평균제곱오차(MSE), 크로스 엔트로피 손실
- 경사하강법
- Batch Gradient Descent, Stochastic Gradient Descent
- 최적화 알고리즘
- Adam, RMSProp, Momentum
- Convex Optimization
- 볼록 함수와 최적화 문제
- 학습 방법
- 손실 함수의 정의와 계산법 학습
- 간단 경사하강법 구현 실습
- 다양한 최적화 알고리즘 비교 학습
추가 학습 분야
- 이산수학 : 그래프 이론, 조합론 등은 강화학습과 네트워크 분석에 유용
- 정보이론 : 데이터 압축, Shannon 엔트로피 등은 데이터 표현과 모델 평가에 활용
- 신호처리 : 이미지 처리와 음성 인식에서 신호 분석 기법이 중요
학습 순서
- 선형대수학 : AI 모델의 데이터 표현
- 미적분학 : 최적화와 경사하강법
- 확률과 통계 : 데이터 분석과 모델 평가
- 최적화 이론 : 모델 학습의 효율성 향상
728x90
반응형
LIST
'수학' 카테고리의 다른 글
AI 수학 기초 확률과 통계 초보자를 위한 쉬운 설명 (3) | 2024.12.26 |
---|---|
AI 수학 기초 미분과 기울기 정말 쉬운 설명으로 알아봐요 (0) | 2024.12.23 |
AI 수학 기초 벡터와 행렬 초보자를 위한 쉬운 설명 (1) | 2024.12.22 |