Soohyun’s Machine-learning

텐서플로 공부 본문

Machine Learning

텐서플로 공부

Alex_Rose 2017. 10. 8. 01:06

1. matrix multiplication과 dot product의 차이는 dot product는 말 그대로 점곱 또는 내적. matrix multiplication은 행렬곱 // multiply는 곱셈으로 해석되며, product도 곱이라는 뜻. product가 더 추상적으로 쓰일 수 있는 용어이다. 


orthogonal : 직교 (3D 보다 더 큰 dimension에서도 사용된다.)

perpendicular : 직교 (3D 보다 더 큰 dimension에서는 사용되지 않는다.)



2. learning_rate 는 알파로 표현되며, gradient descent 식에 들어간다

3. 2차원 그래프에서 g(z)는 세로축, z는 가로축. z가 1이면 g(z)는 0, z가 0이면 g(z)는 무한대에 가까워진다.

4. element-wise 곱 : ⊙  

5. x * W + b로 나온 값 자체는 score, softmax를 통과하면 probability. 


6. tf.argmax(a, 1)에서  1은 axis, 축을 뜻함. 그렇게 max값을 찾아서 one-hot encoding을 해서 [1, 0, 0] 이런식으로 되면.. 이게 label이 된다.

7. tf.matmul(X, W) + b <= logits  (tf.nn.softmax_cross_entropy_with_logits 할때의 그 logit)


8. tf.set_random_seed(777)의 뜻


seed가 같으면 이후의 랜덤하게 생성되는 숫자들이 동일하게 만들어짐. seed가 1이면 3-2-8-5-4 // seed가 3이면 4-2-5-1-6 이런식..


9. 범위내에서 균등한 확률로 랜덤값이 나오게 하거나 = random_uniform

    범위내에서 종 모양의 정규분포에 따라 값이 나오게 = random_normal



국어 

영어 

수학 

기말고사 (예측) 

73 

80 

75 

152 

93 

88 

93 

185 

89 

91 

90 

180 

96 

98 

100 

196 

873 

66 

70 

142 

  

여기의 세로값 5개 (국어, 영어, 수학)이 x1_data가 됨.   (국어 column)

두번째의 세로값 5개가 x2_data가 되고...





 


b = array([[1, 2, 3, 4],        # 세로 길이는 instance 개수 (multinomial classification을 하는거면 classifier의 개수라고도 할 수 있고..)

   [5, 6, 7, 8],       # 가로는 일종의 category들로 봐도 되고.. 아닐수도 있고(?)

   [9, 10, 11, 12]])



b[:, 1]                     # 1번째 column의 element를 : 전부 가져와라.





결과값 : array([2, 6, 10])




'Machine Learning' 카테고리의 다른 글

레노버 초반 세팅  (0) 2022.10.31
Kaggle preprocessing & feature engineering process flow  (0) 2019.04.08
[Reinforcement Learning] preliminaries  (0) 2018.11.04
Linear regression  (0) 2018.04.17
Tensor manipulation  (0) 2017.10.08
Comments