Recent posts

[DL Basic] Optimization

Gradient Descent (경사하강법) First-order iterative optimization algorithm for finding a local minimum of a differentiable function 1차 미분한 값을 가지고 반복...

[AI Math] 베이즈 통계학 맛보기

조건부 확률 $P(A \mid B) = $ 사건 B가 일어난 상황에서 사건 A가 발생할 확률 \[= P \left (\frac{A \cap B}{B} \right)\] \[=\frac{P(A \cap B)}{P(B)}\] 위의 식에서 다음과 같은...

[AI Math] 통계학 맛보기

통계적 모델링 적절한 가정 위에서 확률분포를 추정(inference)하는 것이 목표 기계학습과 통계학이 공통적으로 추구하는 목표 유한한 개수의 데이터만으로 모집단의 분포를 알아내는 것은 불가능, 근사적으로 확률분포를 추정할 수 밖에 없다. 예측모형의...

[AI Math] 확률론 맛보기

딥러닝과 확률론 딥러닝은 확률론 기반의 기계학습 이론에 바탕 손실함수(loss function)들의 작동 원리는 데이터 공간을 통계적으로 해석해서 유도 예측이 틀릴 위험을 최소화하도록 데이터를 학습 회귀분석의 손실함수를 계산할 때 쓰이...

[AI Math] 딥러닝 학습방법 이해하기

비선형 모델 신경망(neural network) 선형모델로는 분류문제나 복잡한 패턴의 문제를 풀기 힘들다. 그런 모델을 풀기 위해 비선형모델인 신경망(neural network)를 사용 신경망은 선형모델과 활성함수(activation function)를 합성한 함수 ...