Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- #링글후기
- Ringle
- 장어랑고기같이
- 링글
- 뉴노멀챌린지
- 강동구장어맛집
- #영어공부
- 해외취업컨퍼런스
- 링글경험담
- #링글
- 영어공부
- CommunicateWiththeWorld
- 화상영어
- 링글리뷰
- 링글커리어
- 소통챌린지
- #직장인영어
- 영어로전세계와소통하기
- #체험수업
- #영어발음교정
- 오피스밋업
- 영어시험
- #nlp
- 영어회화
- 둔촌역장어
- 성내동장어
- 영어공부법
- 스몰토크
- #Ringle
- 총각네장어
Archives
- Today
- Total
Soohyun’s Machine-learning
[Loss function]: MSE 와 CEE 본문
Mean squared error (MSE, 평균 제곱 오차):
Error (residual)의 square에 대해 mean을 한 것, 이를 추정의 질적 평가척도로 삼게 됨
Cross entropy error (CEE) :
만약 multi-class classification을 하려고 한다면, softmax + CEE를 써야 하고, regression 을 하려고 한다면 MSE를 쓴다.
RMSE : Root mean square error = Root mean square deviation
(제곱근평균 제곱 오차) (제곱근 평균 제곱 편차)
Error (residual)의 square에 대해 mean을 취하고, 이를 root mean 한 것
'Lectures' 카테고리의 다른 글
자료구조를 배워야 하는 이유 (0) | 2017.12.17 |
---|
Comments