Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- 스몰토크
- 해외취업컨퍼런스
- 오피스밋업
- 링글경험담
- #Ringle
- 링글리뷰
- 영어공부법
- CommunicateWiththeWorld
- Ringle
- 성내동장어
- 영어시험
- 링글커리어
- 강동구장어맛집
- #직장인영어
- 장어랑고기같이
- #nlp
- #링글
- #영어공부
- 소통챌린지
- 뉴노멀챌린지
- 영어회화
- 영어공부
- 영어로전세계와소통하기
- 링글
- 화상영어
- 총각네장어
- #체험수업
- 둔촌역장어
- #링글후기
- #영어발음교정
Archives
- Today
- Total
Soohyun’s Machine-learning
Likelihood 본문
출처 : https://ko.wikipedia.org/wiki/%EA%B0%80%EB%8A%A5%EB%8F%84
Likelihood (가능도, 우도)
likelihood는 probability distribution의 parameter가 어떤 random variable (확률 변수)의 표집값(importance sampling ratio라는데.. 흠;; 그냥 sampling이라고 봐도 무방할것 같다)과 일관되는 정도를 나타내는 값이다... 라고 위키가 말했다. 또 likelihood function은 probability distribution이 아니며, 합해서 1이 안 될 수 있다.
모르겠으니 definition부터 보자.
random variable X가 parameter theta에 대한 probability distribution P_theta(X)를 가지며, X가 특정한 값 x로 표집되었을 경우, theta의 Likelihood function L(theta|x)는 다음과 같이 정의된다.
|
... 쉬운거였다 @_@.. (..라지만 사실 세번째 공식은 완전하게 이해하지 못함)
저걸 한국어(?)로 translate해보면..
Pr(X = 앞) = theta
L(theta | 앞뒤앞) = theta * (1 - theta) * theta = theta^2 * (1 - theta)
(1 - theta인 이유는 확률은 다 더해서 1이므로 앞이 나왔을때의 확률을 빼주면 뒤가 나왔을 때의 확률이 되기 때무넹 @_@..)
Comments