일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
- 총각네장어
- #nlp
- #링글후기
- 오피스밋업
- 영어회화
- #링글
- #체험수업
- #영어공부
- 영어로전세계와소통하기
- 영어공부
- 영어공부법
- CommunicateWiththeWorld
- 링글커리어
- 장어랑고기같이
- Ringle
- 링글경험담
- #영어발음교정
- 링글
- 둔촌역장어
- 성내동장어
- 강동구장어맛집
- 소통챌린지
- #직장인영어
- 화상영어
- 스몰토크
- 해외취업컨퍼런스
- #Ringle
- 뉴노멀챌린지
- 영어시험
- 링글리뷰
- Today
- Total
Soohyun’s Machine-learning
텐서플로 공부 본문
1. matrix multiplication과 dot product의 차이는 dot product는 말 그대로 점곱 또는 내적. matrix multiplication은 행렬곱 // multiply는 곱셈으로 해석되며, product도 곱이라는 뜻. product가 더 추상적으로 쓰일 수 있는 용어이다.
orthogonal : 직교 (3D 보다 더 큰 dimension에서도 사용된다.)
perpendicular : 직교 (3D 보다 더 큰 dimension에서는 사용되지 않는다.)
2. learning_rate 는 알파로 표현되며, gradient descent 식에 들어간다
3. 2차원 그래프에서 g(z)는 세로축, z는 가로축. z가 1이면 g(z)는 0, z가 0이면 g(z)는 무한대에 가까워진다.
4. element-wise 곱 : ⊙
5. x * W + b로 나온 값 자체는 score, softmax를 통과하면 probability.
6. tf.argmax(a, 1)에서 1은 axis, 축을 뜻함. 그렇게 max값을 찾아서 one-hot encoding을 해서 [1, 0, 0] 이런식으로 되면.. 이게 label이 된다.
7. tf.matmul(X, W) + b <= logits (tf.nn.softmax_cross_entropy_with_logits 할때의 그 logit)
8. tf.set_random_seed(777)의 뜻
seed가 같으면 이후의 랜덤하게 생성되는 숫자들이 동일하게 만들어짐. seed가 1이면 3-2-8-5-4 // seed가 3이면 4-2-5-1-6 이런식..
9. 범위내에서 균등한 확률로 랜덤값이 나오게 하거나 = random_uniform
범위내에서 종 모양의 정규분포에 따라 값이 나오게 = random_normal
국어 |
영어 |
수학 |
기말고사 (예측) |
73 |
80 |
75 |
152 |
93 |
88 |
93 |
185 |
89 |
91 |
90 |
180 |
96 |
98 |
100 |
196 |
873 |
66 |
70 |
142 |
여기의 세로값 5개 (국어, 영어, 수학)이 x1_data가 됨. (국어 column)
두번째의 세로값 5개가 x2_data가 되고...
b = array([[1, 2, 3, 4], # 세로 길이는 instance 개수 (multinomial classification을 하는거면 classifier의 개수라고도 할 수 있고..) [5, 6, 7, 8], # 가로는 일종의 category들로 봐도 되고.. 아닐수도 있고(?) [9, 10, 11, 12]]) b[:, 1] # 1번째 column의 element를 : 전부 가져와라. |
결과값 : array([2, 6, 10])
'Machine Learning' 카테고리의 다른 글
레노버 초반 세팅 (0) | 2022.10.31 |
---|---|
Kaggle preprocessing & feature engineering process flow (0) | 2019.04.08 |
[Reinforcement Learning] preliminaries (0) | 2018.11.04 |
Linear regression (0) | 2018.04.17 |
Tensor manipulation (0) | 2017.10.08 |