일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- 신경망
- total
- max
- 데이터베이스
- 시험데이터
- PYTHON
- Pointwise Convolution
- 최댓값
- AVG
- 수치미분
- 학습 구현
- next.js 튜토리얼
- 미니배치
- COUNT
- Next.js
- join
- 렐루함수
- Depthwise Separagle Convolution
- 교차엔트로피오차
- sigmoid
- 밑바닥부터 시작하는 딥러닝
- Depthwise Convolution
- 합계
- sqlite3
- sum
- 제약조건
- PyQt5
- 오차제곱합
- MIN
- 평균
- Today
- Total
우잉's Development
Binary Cross Entropy 본문
1. Loss Function (손실함수)
: 머신러닝 혹은 딥러닝 모델의 출력값과 사용자가 원하는 값의 오차를 의미
- 정답(
- 손실함수의 함수값이 최소화 되도록 하는 weight(가중치)와 편향(bias)를 찾는 것이 목표
2. 베르누이 분포
,
만약
관측값
, ,
위의 식 베르누이 분포를 Loglikelihood function을 적용합니다.
여기서 Loglikelihood는 likelihood에 log함수를 취한 형태로 정의됩니다. log를 씌어줌으로써 확률의 거듭곱으로 발생할 수 있는 underflow를 방지합니다.
위의 과정으로
3. Maximum Liklihood Estimation(MLE)
Likelihood를 최대화 하는
여기서 argmin으로 바꾸려면 위의 식에 -1을 곱해야 동일한 솔루션을 얻을 수 있습니다.
따라서
를 얻을 수 있습니다. 이로써 binary cross entropy를 최소화 하였습니다.
4. Binary cross entropy
참고 : https://curt-park.github.io/2018-09-19/loss-cross-entropy/
'Deep learning > 용어 정리' 카테고리의 다른 글
Local minima (0) | 2022.01.18 |
---|---|
Cross-Entropy (0) | 2022.01.14 |
Bilinear interpolation (0) | 2022.01.12 |