일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- #링글
- 영어로전세계와소통하기
- #Ringle
- 영어공부법
- #직장인영어
- 스몰토크
- 링글리뷰
- 해외취업컨퍼런스
- 강동구장어맛집
- 장어랑고기같이
- 영어시험
- #영어발음교정
- 링글커리어
- Ringle
- #체험수업
- 뉴노멀챌린지
- 성내동장어
- 링글경험담
- 영어공부
- 링글
- CommunicateWiththeWorld
- 소통챌린지
- 둔촌역장어
- #링글후기
- #nlp
- 오피스밋업
- #영어공부
- 총각네장어
- 화상영어
- 영어회화
- Today
- Total
Soohyun’s Machine-learning
복제하기 start = 'Na ' * 4 + '\n'middle = 'Hey' * 3 + '\n'end = 'Goodbye.' print(start + start + middle + end) slicing [start:end:step] step 만큼 건너뛰면서 start offset 부터 (end - 1) offset까지 sequence 추출 letters = 'abcdefghijklmnopqrstuvwxyz' >>> letters[::7] # 처음부터 끝까지 7 step 씩 건너 뛰면서 문자 추출'ahov' >>>letters[4:20:3] # 4번째부터 19번째까지 3 step 씩 건너 뛰면서 문자 추출'ehknqt' >>>letters[19:4] # 19번째부터 끝까지 4 step 씩 건너 뛰면서 ..
미분기호 라운드와 델타 차이 홀이나 전자가, N 혹은 P 영역으로 가면 recombination 이 일어나면서 줄어들잖아요? 저게 결국 그걸 뜻하는 식인데 델타p 는 N영역에서의 excess minority carrier concentrarion 이고 델타n은 P영역에서의 excess minority carrier concentration 입니다. 참고로 물리전자는 수학보다는 물리학이나 공학 페이지에 올리는게 나을거에요. ==그리스문자== 대문자 소문자 Α α →알파(ALPHA) Β β →베타(BETA) Γ γ →감마(GAMMA) Δ δ →델타(DELTA) Ε ε →입실론(EPSILON) : 소문자는 유전율의 기호로 쓰인다.전속밀도(D)=유전율(ε)x전장세기(E)인데 이를 "드라마 에로스입술" 로 외우면..
Transposed Matrix in mathematics transposed matrix 는 원래 행렬의 열은 행으로, 행은 열로 바꾼 것이다. 정사각행렬의 경우, 행렬의 왼쪽 위에서 오른쪽 아래를 가로지르는 주 대각선을 기준으로 대칭되는 원소끼리 바꿔치기 한다. m x n의 행렬 A의 transpose 는 n x m이 된다. 1 ≤ i ≤ n and 1 ≤ j ≤ m일 때 AT는 AT[i, j] = A[j, i]라고 정의할 수 있다. transposed matrix의 성질 1) m × n 행렬 A와 B가 있을 때 모든 스칼라 값 c 에 대하여 (A + B) = AT + BT 이고 (c * A)T = c (AT)이다. 즉, 치환행렬 연산은 m × n 행렬을 정의역과 치역으로 가지는 선형사상임을 알 수 ..
data type explain range uint8 부호없는 (unsigned) 8 bit, 1 byte integer 0~255 uint16 부호없는 16 bit, 2 byte integer 0~65535 Convolution feature Convolution layer의 input, output data를 feature map이라고 부른다. 여기 정의에서 두 함수를 image, filter라고 생각하면, filter를 striding하면서 image와 multiplication (matrix multiplication인지 elementwise multiplication인지는 모르겠음. 그냥 곱셈이라고만 되어 있다.)한 output을 적분 (덧셈) 해나간다는 뜻이 된다. - 여기에서 수행하는 적분(..
Gradient descent algorithm parameter( ) = Weight
竹溪月冷菊令醉花市風香李白眼到頭世事精如夢人間無飮似樽前 대나무 숲에 달빛이 서늘하매 도연명이 취하고꽃시장에 바람이 향기로워 이태백이 잠드네눈 앞의 세상일은 정겹기가 꿈과 같아세상사란 술 없이도 취한 듯 하네. 백자청화시명접시/조선 15~16세기 국립중앙박물관
normal distribution (정규분포) or Gaussian distribution (가우스 분포) 연속 확률 분포의 하나. 정규 분포는 수집된 자료의 분포를 근사하는데에 자주 사용되며, 중심극한정리에 의해 독립적인 확률 변수들의 평균은 정규분포에 가까워지는 성질이 있기 때문이다. 정규분포는 2개의 parameter 평균 와 standard deviation (small sigma)에 대해 모양이 걸졍이 되고, 이때의 분포를 N(,)로 표기한다. 특히, 평균이 0이고 표준편차가 1인 정규분포 N(0,1)을 standard normal distribution이라고 한다. 출처 : https://ko.wikipedia.org/wiki/%EC%A0%95%EA%B7%9C%EB%B6%84%ED%8F%AC..
round your answers to the nearest hundredth: 백 자리에서 반올림0.224 면 0.220.776 이면 0.78 The following two-way table of column relative frequencies shows data on the 2012 US senate election and incumbents (senators that held the office before the election). Out of all the election participants, 23 were incumbents. Incumbents Non-incumbents Won 0.957 0.333 Lost 0.043 0.667 Column Total 1.00 1.00 How many..
khan academy 정리 1. mean 일반적인 의미의 average (전체 값을 sum한 것을, 전체 개수로 나눠준 것). specific하게 들어가면 좀 다른 것 같으나.. 일단 칸 아카데미 강의에서는 average 로 그냥 보는 듯 ex) 23, 29, 20, 32, 23, 21, 33, 25 mean : (23 + 29 + 20 + 32 + 23 + 21 + 33 + 25) / 8 2. median ---------> median값의 개수가 even number (짝수)이면 sum( median numbers ) / 2 = 24 이렇게 24가 median이 된다.ex) 20, 21, 23, 23, 25, 29, 32, 33 ------- ---20, 21, 23, 24, 25, 29, 32 -..
Loss functions Hinge loss : (SVM 기반?) 잘 맞추면 0에 가깝게 되고, 못 맞추면 2에 가깝게 된다. cross-entropy loss = negative log likelihood (theta) ----------> parameter의 크기를 억제시킨다. YOLO (visual recognition?? 인듯?) x, y, w, h, c ----> condidence : 이 box 가 물체를 담고 있을 확률. c와 p를 곱하면 class 별 확률이 나온다. 그래서 이걸 기준으로 높은 것들을 보면 물건이 있을 확률이 높아진다. SSD (YOLO를 좀 더 정확하게 만든 것) IoU (intersection uniton) : 겹치는 영역 Smooth L1 : -1~1 까지의 구간은 ..
▼이게 ▼이렇게 되는 건 quotient rule을 사용해서 f(x)/g(x)의 x에 대한 미분은 ( f'(x)g(x) - f(x)g'(x) ) / g(x)^2 라서 Always check : the gradient with respect (w.r.t) to a variable should have the same shape as the variable Layer 를 체크할 때, input 은 layer로 안 친다. hidden layer 와 output layer 만 NN으로 쳐서 2 layer라고 하면 hidden layer 1개, output layer 1개라는 이야기. Table of Contents:- Introduction- Simple expressions, interpreting the g..
위키 백과의 정의 chain rule은 두 함수를 합성한 합성 함수의 도함수(derivative)에 관한 공식이다. 합성 함수 : 두 개 이상의 함수를 하나의 함수로 결합하여 만들어진 함수. 어떤 함수 속에 또 다른 함수가 들어있고, 그 또다른 함수속에 여전히 다른 함수가 들어있다. chain rule = 연쇄법칙 = 합성함수의 미분법. 합성함수의 미분은 합성함수를 구성하는 각 함수의 미분으로 곱으로 나타낼 수 있다. 함수 y = f(x)와 함수 z = g(y)를 합성한 함수 의 미분법은 다음과 같다. 위의 식에서의 g'(y) = g'(f(x))를 뜻하고, 두 함수 f(x), g(y)가 모두 미분가능한 함수라는 것을 가정한다. 합성 함수의 미분 공식은 다음과 같이 쓸 수 있다. 이와 같이 그 공식이 마치..
1) 2x2와 2x1을 어떻게 element-wise 하는가? 이때 broadcasting은 어떤식으로 되는거지? (python) 2) [ 1 ] 3 dimensional vector [ 2 ] [ 3 ] [[[ 1, 2, 3 ], 3 dimensional matrix [ 1, 2, 3 ], [ 1, 2, 3 ]]] vector는 1개의 matrix인데, [[[ 요거 차이가 나는 이유는? 두 개의 dimension 체크 방법이 만약 동일하다면 어떤 방식을 써서 하는거지? [1, 2, 3]도 3 dim vector라고 들었던 것 같은데 맞나? 3) contributing :indicator : mordulize implementation : analogies : regime: firing rate : qu..
CS231N의 수식이 본격적으로 등장하기 시작한 Lecture 4. Backpropagation and Neural Networks (최초 멘탈 붕괴의 현장 아아...) convergence : 수렴divergence : 발산 출처 : http://www.ktword.co.kr/abbr_view.php?m_temp1=4659 발산 또는 gradient, 델 연산자 (Dell operator , Vector differential operator) 라고 한다. 벡터 미분 연산자라고도 하며, 이것 자체는 벡터가 아니지만 스칼라 함수에 사용되면 벡터가 된다. (scalar 는 단일값을 뜻한다.). 기본 벡터 i, j, k에 각각 x, y, z에 관한 편미분이 붙은 벡터이다. 3차원 공간 ( , 큰 R 이다. ..
칸 아카데미 선형 대수 중에서 vectors and spaces 부분 : https://www.khanacademy.org/math/linear-algebra/vectors-and-spaces/vectors/v/adding-vectors 선형대수에서 norm은 vector의 크기, 내지는 길이를 의미한다. 도함수로 만든다 = 미분한다 C : constant (수학에서는 대부분 set of complex numbers. 복소수를 의미한다. 실수 + 허수)Z : integers ex) {...., -3, -2, -1, 0, 1, 2, 3, ...} Z+는 positive intergers. 이때 0은 미포함R : set of real numbersN : natural numbers ex) {0, 1, 2, ..
regularization : kind of loss function softmax classifier = multinomial logistic regression probability distribution : 확률 분포analytic gradient :regularization strength: multivariate chain rule?zero element wise? diagonal : contributing : Jacobian matrix? holistic : subtle : twitch : tweak : convex hull: brittle : scalable : hand-specify : ingest : spit : concise : backwards : afford : perspective..
신경망의 기본은 매우 간단하다. 답을 찾고, 그 답이 맞는지를 확인한 다음, 맞으면 ㅇㅋ 아니면 '아냐 이거 아니야'라면서 다시 값을 조절한다. 하지만 이 세 단계를 이해하기까지 오랜 시간이 걸렸고, 세부적인 것들을 더 이해하려면 더 오랜 시간이 필요할 것 같다. 기본 공식 : y = x * Weight (가중치) + bias (편향) 이것만으로는 linear 하기 때문에 non-linearity를 주기 위해 activation function을 쓴다. (다만 이 activation function이 어떤식으로 non-linearity를 주는지는 모르겠다) Machine learning 공식이 linear가 되면 안되는 이유 = 똑같은 행동을 하면서 다른 결과를 기대하는 건 미친짓이다 - 아인슈타인그럼 ..
벡터 (Vector) 칸 아카데미 벡터 : https://www.khanacademy.org/math/precalculus/vectors-precalc/vector-basic/v/introduction-to-vectors-and-scalars 일반적으로 유클리디안 벡터, Euclidean vector (geometric vector 라고도 한다)를 말한다고 한다. magnitude와 direction을 갖는 vector. scalar 값, 단일값 : direction 이 없는 distance 는 scalar 이다. 5 meters------------ = 2.5 m/s
k-Nearest Neighbor // kNN (케이 엔 엔 이라고 읽는다) // k 최근접 이웃 알고리즘 classify 나 regression 에 사용되며, 간단하게 보자면 비슷한 속성을 가질수록 비슷한 곳에 있다 - 는 개념인 듯 하다.image classification에는 그다지 효율적이지 않으나, 기본 Machine learning의 개념을 이해하는데에 도움이 된다면서 cs231n에서 보여준 것이다. 거리 함수.